Googleが、カメラに映しただけでその対象をその場で検索できる「Google レンズ」をiOSでも利用出来るようようになると発表しました。
Google レンズはリアルタイムの画像検索機能で、機械学習やAIを駆使して写真に写っているものを自動解析しており、例えば写っているものがランドマークであればその名称や情報を、名刺であれば電話番号や住所をそのまま連絡先に保存を、書籍であればレビューなどを、絵画や動物もその情報を、といった形で内容に沿った各種情報を表示したり、他にも日付の書かれたチラシや広告であればそのままカレンダーに予定を追加することもできます。
You’ve always wanted to know what type of that is. With Google Lens in the Google app on iOS, now you can → https://t.co/xGQysOoSug pic.twitter.com/JG4ydIo1h3
— Google (@Google) 2018年12月10日(adsbygoogle = window.adsbygoogle || []).push({});
Androidではすでに一部の機種に提供されており、Google アシスタントから起動するか、機種によってはデフォルトのカメラアプリに組み込まれている場合もあります。
iOSでは「Google」アプリから利用が可能。メイン画面右上にGoogleレンズアイコンが追加されるので、タップするとアプリ内でカメラが起動し利用することができます。
iOSでは少し前から「Google フォト」アプリ内でのみ利用できるようになっていましたが、そこではあくまでGoogle フォトにアップされた撮影済みの静止画を使ってのみの利用だったため、対象物をその場でカメラを通して使える本来の形より少し劣っていました。
ユーザーごとに順次公開されていくので、全てのユーザーが使えるには少し待つ場合があります。
(adsbygoogle = window.adsbygoogle || []).push({}); (adsbygoogle = window.adsbygoogle || []).push({});
AppleがiPhone 17 Proを擬人化してベイパーチャンバーとA19 Proチップの性能を訴求する動画を公開
iOS 26.1リリース!アラーム停止方法にスライダー形式が復活。AirPodsを使った日本語のライブ翻訳やLiquid Glassに新しい色合い調整オプションが追加
生まれ変わったApple銀座のオープンが9月26日(金)に決定。ティム・クックCEOがNumber_iと共に発表
iOS 26がリリース!Liquid Glass採用の新デザイン、ビジュアルインテリジェンスやライブ翻訳などApple Intelligenceの強化も加えた年に一度の大型アップデート
【更新完了】iPhoneに新モデル「iPhone Air」が登場!久々に「AirPods Pro 3」も。例年通り「iPhone 17」「iPhone 17 Pro」、「Apple Watch Series 11」「Apple Watch Ultra 3」「Apple Watch SE 3」も発表Appleスペシャルイベント「Awe dropping.」