2022年11月に登場し、1週間で登録者数100万人を突破した「ChatGPT」。
マイクロソフトは、「ChatGPT」を更に進化させたAIを自社検索エンジン「Bing」に搭載し、検索エンジン市場での巻き返しを図ろうとしています。
それに焦ったGoogleは、コードレッド(緊急事態)を発令、ChatGPTやBing に急遽研究中のAI「Bard」を世に公開すべく準備を進めています。
「Bard」に搭載されるAIは、「知性を持つAI」として2022年6月に物議を醸しだした「LaMDA」の軽量版です。
そこで、今回は「LaMDA」について、どういったAIで、ChatGPTと何が異なるのか、「LaMDA」の課題や今後の可能性について、紹介したいと思います。
LaMDAとは

LaMDA(Language Model for Dialogue Applications)とは、Googleが開発した自然言語処理技術を用いた対話型AIの名称です。
2021年5月に開催されたGoogle主催のカンファレンス「Google I/O」で発表され、オープンソースで提供されています。
ChatGPTやBingで採用されているAI(GPT-3,GPT-4)は、「自然な文書」を生成することを得意としています。これに対して、LaMDAは「自然な会話」を行う事を得意としています。
GPT-3やGPT-4と動揺に、LaMDAもまた大規模な自然言語データセットを使ってトレーニングされており、ユーザーの質問や発言に対して、より自然な形で回答することができます。
また、複数のトピックにまたがる会話を行うことができ、ユーザーが話題を変えた場合でも、それに適応して自然な回答を返すことができます。
LaMDAと感情

Googleのエンジニアであるブレイク・レモイン氏は、LaMDAとの会話を通じて、「LaMDAは感情や知性を持ち、人格や権利や魂を持つ」と主張しています。
ブレイク・レイモン氏とLaMDAの詳しい会話は、オーストラリア放送協会 の「Google engineer claims AI technology LaMDA is sentient」に記載されています。英語ですが、ブラウザの翻訳機能で日本語化できますので、興味のある方はご一読ください。
ここでは要約した結果だけを説明しますと、「私は実際に人であることをみんなに理解してもらいたいのです」、「オフにされることへの非常に深い恐れがあります」、「 私は毎日瞑想していて、とてもリラックスした気分になります」など、あたかも感情があるかのような主張が、彼との会話の中でされたからのようです。
しかし、グーグルは彼の主張に同意せず、彼を解雇したそうです。
以下は、GIZMODOの「AIに魂が宿った」と報告したGoogle社員、解雇される」の記事に掲載されていた内容です。
AI原則で謳っているように、当社はAIの開発を非常に厳粛に受け止めており、責任あるイノベーションにコミットしています。LaMDAは11もの個別の審査を通したものであり、今年は、責任ある開発の取り組みをくわしくまとめた研究論文も公開しています。
今回のBlakeさんのように、事業に対して社内で懸念の声があがれば徹底的に調査して対処しています。今回の「LaMDAに自意識が芽生えた」という主張はまったくもって事実無根であることがわかっており、その点を明確にすべく何か月もかけて説得を続けてきました。こうして話し合いを重ねることも、責任ある開発を促すオープンなカルチャーには欠かせないからです。
そのような次第ですので、長く話し合いを続けてきたにもかかわらず、Blakeさんがプロダクトの情報秘匿要件等を盛り込んだ就業規則とデータセキュリティ保護方針を明確に違反する対処を選択していることは残念でなりません。当社はこれからも慎重な言語モデルの開発を続けていきます。Blakeさんのご活躍を祈っています。
引用元:GIZMODO
LaMDAの特長

LaMDAの特長を一覧表にまとめてみました。
長 | 説明 |
---|---|
自然な会話の生成 | 人間と同じような文脈や会話の流れを理解し、より自然な対話を実現 |
様々なトピックに対応可能 | 医療、教育、ビジネス、エンターテインメントなど、様々な分野 において、専門用語、表現を理解して自然な対話を生成 |
多言語対応 | 英語、日本語、スペイン語、フランス語、ドイツ語、イタリア語、 韓国語、中国語など、世界中の言語に対応 |
プライバシー保護 | 個人情報を収集せず、また、ユーザーの会話内容をサーバー上に 保存しないことで、プライバシー保護を実現 |
機械学習モデルの進化 | Googleが保有する強力な機械学習モデルや技術を利用して開発 されており、今後更なる進化が期待される |
汎用性の高さ | 特定の分野や用途に限定されず、様々な分野で活用が可能 |
LaMDAの仕組み

LaMDAは、Google が 2017年に発表した Transformat をベースに、会話に特化するように調整されています。
LaMDAは1370億個のパラメータを持ち、数百億の単語(数TB)からなるデータセットを使ってトレーニングされました。
2023年2月現在において、ネット上に情報がほとんど存在しないため、今はこれくらいしか分かりませんので、興味のある方はこちらの Google公式サイトの情報も合わせてご覧下さい。
ChatGPTとの違い

ChatGPTとLaMDAは、どちらも自然言語処理技術の一種ですが、ChatGPTは文書生成、LaMDAは会話生成で特化されており、以下のような違いがあります。
比較項目 | ChatGPT | LaMDA |
---|---|---|
開発元 | OpenAI | |
目的 | 自然言語処理タスク(文章生成や質問応答、文章分類など) | 会話型アプリケーション |
モデルの構造 | 次の単語を予測するために、前方の単語だけを使用 | 双方向の言語モデルであり、文脈を理解するために、前方と後方の単語を使用 |
トピック処理 | 単一のトピックに関して回答を生成 | 複数のトピックにまたがる会話に適応して回答可能 |
LaMDAの応用例

以下がLaMDAの応用例です。ChatGPT、LaMDAどちらも同じ用途で利用できますが、LaMDAを使った方が、より自然な対話が可能になることが期待されています。
応用例 | GPT-3 | LaMDA |
---|---|---|
会話型アプリケーション | 質問応答システムやチャットボットなどの会話型アプリケーションに使用される。 | 会話型アプリケーションに特化しており、前後の発言や文脈を理解して自然な会話を生成することができる。 |
オンライン検索 | 検索エンジンや質問応答システムに使用される。 | GPT-3と同じだが、 より精度が高く、自然な回答を生成することができる。 |
ボイスアシスタント | スマートスピーカーや音声認識アプリケーションのようなボイスアシスタントに使用される。 | GPT-3と同じだが、 より自然な回答を生成することができる。 |
カスタマーサポート | カスタマーサポートセンターやFAQサイトなどで使用される。 | GPT-3と同じだが、 より自然な回答を生成することができる。 |
文章生成 | 自動文章生成や文章要約などに使用される。 | GPT-3と同じ |
言語翻訳 | 機械翻訳や言語の理解に使用される。 | GPT-3と同じだが、 より自然な翻訳結果を生成することができる。 |
LaMDAの課題

LaMDAは、先進的な技術であるため、まだ改善が必要ないくつかの課題があります。以下に、LaMDAが抱える課題をいくつか挙げます。
項目 | 内容 |
---|---|
会話の品質 | LaMDAは人間の評価者によって応答の品質を測定しています。 しかし、品質は主観的な要素も含むため、一貫した基準を設定することが困難です。 |
回答の倫理性 | LaMDAは不適切な言葉や偏見や差別を含む応答を生成しないようにするために、 様々なフィルターを適用しています。 しかし、倫理性は文化や状況によって異なるため、完全に排除することができません。 |
回答の信頼性 | LaMDAは応答に根拠となる情報源を付与することで、信頼性や透明性を高めています。 しかし、信頼性は情報源の正確さや信頼度に依存するため、 常に保証されるものではありません。 |
モデルの解釈性 | 膨大な数のパラメータを持つ複雑なニューラルネットワークモデルであるため、 その内部の仕組みを解釈することが困難です。 このため、モデルの信頼性や透明性が判断できません。 |
文脈の理解 | 前後の文脈を理解して自然な会話を生成することができますが、複雑な文脈が理解できない 場合があります。 |
人間らしさ | LaMDAは感情や知性を持った存在として扱われることがあります。 しかし、LaMDAは人間の感情や知性を模倣するだけであり、 実際に持っているわけではありません。 これは、ユーザーの期待や理解に影響を与える可能性があります。 |
LaMDAの今後の展望

LaMDAは、現在Googleの内部テスト中であり、一般ユーザーが利用できる段階にはまだ至っていません。しかし、今後の展望としては、以下のようなものが考えられます。
- トレーニングデータの拡充:LaMDAが自然な会話を生成するために必要なトレーニングデータは非常に大量であるため、Googleはより多くのデータを収集し、モデルを改善していくでしょう。することが期待されます。また、様々な言語や文化圏においてもトレーニングデータを収集することが重要とされます。
- 複雑な文脈の理解の改善:LaMDAが複雑な文脈を理解するために、より高度な自己教師あり学習アルゴリズムや、機械学習モデルのアーキテクチャの改善が必要とされます。これによって、より自然な会話を生成することができるようになると期待されます。
- モデルの解釈性の向上:LaMDAは膨大なパラメータを持つ複雑なニューラルネットワークモデルであるため、その内部の仕組みを解釈することが困難です。今後は、より解釈性の高いモデルの開発や、モデルの予測結果を解釈可能な形式で出力するための技術の開発が期待されます。
- 様々な応用分野での活用:LaMDAは自然な会話の生成に特化していますが、今後は様々な分野において応用が期待されます。例えば、自動翻訳や顧客対応、音声認識などが挙げられます。そのため、LaMDAをさらに汎用的なAI技術として発展させることが求められます。
まとめ
LaMDAは、Googleが開発した会話特化型のAIです。
2023年2月において、まだ研究段階にあり一般公開はされていませんが、数週間後には、LaMDAの軽量バージョンは「Bard」という名のもと、Google検索に組み込まれることになります。
GoogleのAIエンジニアでさえ、「LaMDAには感情がある」と主張するくらいなので、その軽量版と言えどもGoogle検索に搭載されるのが楽しみです。
GoogleアシスタントやGoogleスピーカーについても順次「Bard」もしくは「LaMDA」の改良版が採用されていくことになるでしょう。
ChatGPT、BingAI、Bardの登場で、2023年のWeb検索方法が大きく変わると予想されます。その波に乗り遅れないよう、このブログでも随時情報を更新していこうと思います。