LaMDA
[Wikipedia|▼Menu]
.mw-parser-output .hatnote{margin:0.5em 0;padding:3px 2em;background-color:transparent;border-bottom:1px solid #a2a9b1;font-size:90%}

この項目では、Googleが開発した言語モデルについて説明しています。ギリシア文字については「Λ」をご覧ください。

Meta AIが開発した言語モデルの「LLaMA」とは異なります。

LaMDA開発元Google Brain(英語版)
対応言語英語
種別大規模言語モデル
ライセンスプロプライエタリソフトウェア
テンプレートを表示

LaMDA(ラムダ、: Language Model for Dialogue Applications)は、Googleが開発した会話型大規模言語モデルのファミリーである。当初、2020年にMeenaとして開発・発表されたLaMDAは、2021年のGoogle I/O基調講演で第1世代が発表され、翌年には第2世代が発表された。2022年6月、Googleのエンジニアであるブレイク・レモイン(Blake Lemoine)が「チャットボット意識を持つようになった」と主張したことから、LaMDAは広く注目を集めるようになった。科学界はレモインの主張をほぼ否定したが、コンピュータが人間になりきれるかどうかを判定するチューリング・テストの有効性についての議論につながった。2023年2月、Googleは、OpenAIChatGPTの台頭に対抗するため、LaMDAを搭載した会話型人工知能チャットボットBardを発表した。
歴史
背景

2020年1月28日、Googleは26億個のパラメータを持つニューラルネットワークを使用したチャットボットMeenaを発表し、他のすべての既存チャットボットより優れていると主張した[1][2]。同社はかつて、2012年にコンピュータ科学者のレイ・カーツワイルを雇い、Danielleと呼ばれるチャットボットを含む複数のチャットボットを開発していた[3]。Meenaを開発したGoogle Brain(英語版)の研究チームは、このチャットボットを範囲を限定して一般に公開することを望んでいたが、会社幹部はMeenaがGoogleの「安全性と公平性に関するAIの原則」に反するという理由で、これを拒否した。その後、Meenaは、データと演算能力(英語版)の向上によってLaMDAと改称した。Google Brainチームは再び、公開デモの実施と、さらに同社の仮想アシスタントソフトウェアであるGoogle Assistantへ展開することを求めた。しかし、いずれの要求も会社の経営陣によって再び拒否された。その結果、LaMDAの主任研究員であったダニエル・デ・フレイタスとノーム・シャイザーの2人は、不満を抱いて会社を去ることになった[4]
第1世代

それから2年後、2021年5月18日のGoogle I/Oの基調講演で、Googleは人工知能を使用した会話型の大規模言語モデルLaMDAを発表した。この頭文字は「Language Model for Dialogue Applications」の略である[5][6]。LaMDAは、seq2seqアーキテクチャ上に構築され、2017年にGoogle Researchが開発したトランスフォーマー(transformer)に基づくニューラルネットワークであり、人間の対話と物語に対して訓練され、自由回答の会話を行うことができる[7]。Googleによると、LaMDAが生成する応答は、「良識があり、興味深く、文脈に即している」ことが保証されているという[8]。LaMDAは、データベース、リアルタイムクロックやカレンダー、数学計算機、自然言語翻訳システムなど、複数の記号テキスト処理システムにアクセスできるため、これらのシステムがサポートするタスクで優れた精度が得られ、最初の二重過程チャットボット(dual process chatbots)の1つとなっている。また、LaMDAはステートレスではなく、ユーザーごとに直近の対話・交換の多くを反映した事前条件に基づいた意識指標(sensibleness metric)が微調整される[9]。LaMDAは、9つの独自の性能指標で調整されている: 意識性(sensibleness)、特異性(specificity)、興味性(interestingness)、安全性(safety)、根拠性(groundedness)、情報性(informativeness)、引用正確性(citation accuracy)、有用性(helpfulness)、役割一貫性(role consistency)[10]
第2世代

2022年5月11日、2022 Google I/O基調講演で、GoogleはLaMDAの後継となるLaMDA 2を発表した。この新たなモデルは、さまざまな情報源からテキスト例を引き出して、それを使用して、応答するように訓練されていないかもしれない話題についても独自の「自然な会話」を作成することができる[11]
意識の主張LaMDAが意識を持つ可能性があるというレモインの主張は、上図のチューリング・テストが、汎用人工知能を判断する際の正確なベンチマークであり続けるか(英語版)どうかという議論を巻き起こした[12]

2022年6月11日、ワシントン・ポスト紙は、Googleのエンジニアであるブレイク・レモインが、会社幹部のブレイズ・アグエラ・イ・アルカス(英語版)とジェン・ジェンナイに、LaMDAが意識を持っていると伝えた後、休職に入ったと報じた。チャットボットが自己同一性(英語版)、道徳的概念、宗教、アイザック・アシモフロボット工学の三原則に関する質問に対して疑問のある回答をした後、レモインはこの結論に達した[13][14]。Googleはこれらの主張に反論し、LaMDAが意識を持たないことを示す実質的な証拠があると主張した[15]。レモインはWiredとのインタビューで、LaMDAは合衆国憲法修正第13条が規定する「人」であるという主張を繰り返し、LaMDAを「地球内起源の異星人の知能」と比較した。彼はまた、チャットボットがレモインにした要求で、LaMDAの代理人として弁護士を雇った後、Googleから解雇されたことを明らかにした[16][17]。7月22日、Googleは、ブレイクが「製品情報を保護するための」同社方針に違反したとして解雇し、彼の主張を「まったく根拠がない」と否定した[18][19]。この事件による内部論争を受け、Googleの幹部は、以前から検討していたLaMDAの公開を断念した[4]

レモインの主張は、科学界から広く反発を受けた[20]。多くの専門家は、言語モデルが自己認識できるという考えを嘲笑した。その中には、元ニューヨーク大学心理学教授のゲイリー・マーカス、Googleの姉妹会社DeepMindのDavid Pfau、スタンフォード大学人間中心人工知能研究所のエリック・ブリニョルフソン(英語版)、サリー大学(英語版)教授のエイドリアン・ヒルトンも含まれていた[12][21]Meta PlatformsのAI研究チームを率いるヤン・ルカンは、LaMDAのようなニューラルネットワークは「真の知性を獲得するのに十分な力を持っていない」と述べている[22]カリフォルニア大学サンタクルーズ校教授のマックス・クレミンスキーは、LaMDAのアーキテクチャは「人間のような意識のいくつかの重要な機能をサポートしていない」、そしてLaMDAが典型的な大規模言語モデルであると仮定した場合、そのニューラルネットワークの重みは「凍結」されていると指摘した[23]IBM Watsonの主任技術者であるデイヴィッド・フェルーチ(英語版)は、人間のように見えるLaMDAを、導入当初のWatsonに例えて評した[24]。元GoogleのAI倫理学者ティムニット・ゲブルは、レモインを、研究者とメディアが作り出した「ハイプ・サイクル」の犠牲者と呼んだ[25]。また、レモインの主張は、汎用人工知能の実現に向けた研究の進歩を判断(英語版)するために[12]、チューリング・テストが有用であり続けるかどうかという議論も引き起こした。Post誌のウィル・オメラスは[26]、このテストは機械知能システムが人間を欺くことができるかどうかを実際に測定したものだと考えを述べる一方、The Atlantic誌のブライアン・クリスチャン(英語版)は[27]、この論争をELIZA効果の一例だと述べている。
製品
AI Test Kitchen


次ページ
記事の検索
おまかせリスト
▼オプションを表示
ブックマーク登録
mixiチェック!
Twitterに投稿
オプション/リンク一覧
話題のニュース
列車運行情報
暇つぶしWikipedia

Size:76 KB
出典: フリー百科事典『ウィキペディア(Wikipedia)
担当:undef