Google Cloud Generative AI Summit Tokyoの所感

Googleとしては、Microsoft(+OpenAI)のChatGPT4エンジンの提供に対抗するために、Google Cloud環境でクローズドに使えるLLMをリリースし、差をつけられたくない印象。GoogleのLLMであるPaLM2の利用については語られているが、裏側で学習に使ったデータの数などには言及していない。これは、学習のデータ量で、ChatGPT4などと比べても、大量データであることはわかっていて、数で比べても性能としては、もはや意味がない、ということ。Googleは学習データ量ではなく、ベータプログラムとして基盤となるPaLM2のエンジンを使って、パイロットユーザとの実際に利用することで、説明可能なようなチューニングを行っているというアピールだった。AIを搭載したサービスをリリースするときは、検査・精査を、しっかりと行い、悪意のある回答や有害となる回答をしないかどうかを見極めているとのこと。

Google Cloud環境で、PaLM2を使って、独自の学習を簡単に行わせるためのVertex AIを使って簡単にPaLM2をカスタマイズできる。いままでは、独自のGPU環境用意して、学習させるためにパラメータをいじるという高度な専門知識が必要だった。それが、もっと簡単にGUIみたいな感じでもできるようになったし、簡単にチャット環境を作れるようになってきた。これ自体は、MicrosoftのAzureでも、クローズドなChatGPT4エンジンを使えるので、新しいことではない。新しくはないけれど、サービスが増えたということは、企業でのAI利用の普及期に入ってきているという感覚がある。もう、お金を払って、データ的に外部に漏れないような独自の生成AIを使っていくフェーズになっている。

それから、後発の強みとして、用語の言葉遣いに気を付けていた。Bardはコンシューマ向け、PaLM2(Vertex)はエンタープライズ向け(企業向け)というアピールをしている。明確に企業に向けたアピールをしていた。これは、MicrosoftがAzureのOpenAIサービスで、ChatGPTを使うとデータが漏れるみたいなイメージを持たれてしまったことに対する対策(実際には、規約で学習に利用しないとあるのでそういうことはないのだがChatGPT=入力したものが学習に使用されて機密が漏れる、というイメージがあるから)と思われる。検索エンジンから始まったGoogleだけあって、AIが出した回答の説明性についても、アピールしていたし、次世代型検索は、AIがコンテキストを理解して、検索結果を表示するみたいなこととか。

余談。

コーヒーとかドリンク、軽食が自由に飲食できた。Googleっぽさは変らなくて、きれいな自社イベントスペースだった。食べ物のところに、ベジタリアンとかヴィーガンとかついているのは、アメリカっぽさの影響なのか。軽食はあるのだけど、ドーナッツとか、クッキーとか、油多め、カロリー高めのモノが多かった。そんな環境にいたら、きっと太る。ドライフルーツはどこへ行った?イベント会場だからないだけなんだろうか。

スポンサーリンク

シェアする

  • このエントリーをはてなブックマークに追加

フォローする