Google Geminiでオーガニック検索はどうかわるのか?
AI
2023年12月7日
日本時間12月7日にGoogleから次世代生成AIモデルのGeminiの発表がありました。現状日本語では使えないので、試したい場合はGoogleの設定画面から言語を英語に切り替え、BardにアクセスするとBard内でGeminiが使えるみたいです。
ちなみにGeminiには3つのバージョンがあり、高機能順に並べると、Ultra、Pro、Nanoとなります。Googleが出しているデモではUltraを使っているみたいですが、現状BardではProが使えるのみとなっています。
参照元記事
https://japan.googleblog.com/2023/12/gemini.html
色々なサイトでGemini ProのBardでのデモを見ましたが、正直無料のChatGPT3.5と同レベルなので普段から有料のChatGPT Plus(GPT4)を使っていると、試してみようとまでは思いませんでした。早くUltraのリリースをして欲しい。
↑こちらの動画はUltraを使ったデモです。
Geminiでオーガニック検索はどうかわる?
Googleの新しいAI「Gemini」は、テキスト、画像、音声、動画など、さまざまな種類の情報を処理できる能力があります。Googleは、このGeminiを検索や広告の結果にも取り入れる計画だと発表しています。
このニュースを聞いて、まず想像したのは、画像検索や動画検索の精度が飛躍的に向上することです。現在のオーガニック検索でも、キーワードに対応して、画像や動画が検索結果に表示されますが、Googleのアルゴリズムはそれらのコンテンツ自体を「見ている」わけではなく、タイトルや説明文、関連キーワードなどのテキスト情報を分析して結果を表示しています。
しかしGeminiが実装されれば、映像や画像の内容そのものを理解し、それに基づいて検索結果を出力できるようになります。テキスト情報のみに依存するのではなく、コンテンツ自体の内容を分析できるため、検索の精度が大幅に向上することが期待できます。