Googleの実験的研究ツールは、視覚的なコンテンツを理解して活用できるようになります。
TL;博士
- Googleはマルチモーダル容量をAIモードに組み込み、GeminiとGoogleのレンズを介して画像を分析できるようにします。
- AIは、視覚的コンテキストや関連するリンクを提供するなど、写真から詳細な応答を生成します。
- 最初は加入者向けに予約されていたAIモードは、米国の何百万人もの追加ユーザーを開くようになりました。
GeminiとGoogleレンズのおかげで画像を「見る」AI
この新しいバージョンのAIモードで、グーグルマリーは、彼女の人工知能ジェミニからGoogleレンズ画像認識技術の力を持っています。これにより、ユーザーはGoogleアプリケーションで直接写真を撮ったり、設定したりできます。アンドロイドまたはiOS、および詳細かつコンテキスト化された応答を取得します。 AIはテキストを読むためのコンテンツではなくなりました。シーンを視覚的に分析し、オブジェクト、色、形状、さらには素材を解釈します。このアプローチは、新しい可能性を開きます研究視覚的で、以前のバージョンよりもはるかに豊富です。したがって、システムは複雑なシーンを解釈することができます。これは、画像のより人間的で直感的な理解に向けた大きな進歩です。したがって、GoogleはAIによって濃縮された研究に対する位置を強化します。
シンプルな画像からの豊かで微妙な応答
「ファンアウト」と呼ばれる手法のおかげで、Google AIは単一の画像からいくつかのリクエストを生成します。写真に存在するさまざまなオブジェクトを識別し、すべての人に詳細かつ関連する結果を生成できます。たとえば、画像が本の棚を示している場合、AIはタイトルを認識するだけでなく、良い批判を受けた同様の作品を推奨することもできます。この方法により、コンテキストで豊富な応答を生成することができ、より多くを探索するための有用なリンクを伴います。ユーザーは、自分の質問を正確に定式化する必要がなくなりました。画像は複雑な研究をトリガーするのに十分です。この機能により、研究はより自然で直感的になります。ユーザーのデジタル習慣の大きな進化に対応します。
ChatGPT検索と困惑の直接的な代替手段
AI Googleモードは、などの競合するソリューションへの応答として明らかに登録されます困惑またはchatgpt検索。これらのサービスは、大規模なデータベースから取られたAIによって生成された要約に関する会話エクスペリエンスを提供します。 Googleは、計り知れない研究指数を活用することにより、同様の戦略を採用しています。 AIモードインターフェイスがチャットボットコードを引き継ぎ、ユーザーがパーソナルアシスタントとチャットしているかのように研究と対話できるようにします。しかし、画像の広範な統合により、Googleはマルチモダリティの計画を超えてノッチになります。また、会社が研究における支配的な立場を再確認する方法でもあります。すべてが、流動的でインテリジェントで濃縮されたユーザーエクスペリエンスを提供します。
大規模なプログレッシブ展開
当初、加入者向けに予約されていましたGoogle 1つのAIプレミアムラボを介して、AIモードはより多くの視聴者に開かれ始めています。 Googleは、「数百万人」の新しいアメリカ人ユーザーがアクセスできると発表しています。このプログレッシブ展開戦略により、最初のユーザーからのフィードバックを統合しながら、ツールの堅牢性をテストすることができます。目的は明確に思えます。単一のインターフェイスでテキスト、画像、AIを混合するこの新しい形式の研究の使用を民主化します。最終的に、AIモードはモバイル研究標準になり、人々が検索エンジンとの対話方法を変換することができます。したがって、Googleは会話の人工知能に順番に重要な一歩を踏み出します。そして、その歴史的なエンジンの進化の転換点を示します。
あなたは私たちのコンテンツが好きですか?
最新の出版物を毎日無料で直接メールボックスで受け取ります