Google Lens has introduced a new feature that allows users to search using videos and voice queries, now available in Search Labs for both Android and iOS. Users can hold the shutter button in the Google Lens app to capture a video while simultaneously asking a question through voice. Powered by the Gemini AI model, the feature analyzes both the video content and the spoken query to provide answers. The technology sequentially understands multiple video frames and leverages web-based information for responses. Although the ability to identify sound in videos is not yet supported, Google has confirmed that it is experimenting with this functionality. Additionally, a global feature that allows users to ask questions via voice when searching through photos has been launched, though it is currently only available in English.
구글 구글 렌즈가 동영상과 음성 질문을 통한 검색 기능을 새롭게 도입했다. 이 기능은 안드로이드와 iOS의 Search Labs에서 오늘부터 사용 가능하다. 사용자는 구글 렌즈 앱에서 셔터 버튼을 길게 눌러 동영상을 촬영하며 동시에 음성으로 질문할 수 있다. 이 기능은 제미니 AI 모델을 사용하여 동영상 내용과 음성 질문을 분석해 응답을 제공한다. 이 기술은 여러 프레임을 순차적으로 이해하고 웹 기반 정보를 활용하여 답변을 생성한다. 현재는 동영상의 소리를 식별하는 기능은 지원되지 않지만, 구글은 이 기능을 실험 중이라고 밝혔다. 또한 사진 검색 시 음성으로 질문할 수 있는 기능도 글로벌로 출시되었으나, 현재는 영어로만 이용 가능하다.