banner
ホームページ / ニュース / OpenAIとGoogle DeepMindのCEOがAIが「絶滅のリスク」をもたらすと警告する声明に署名
ニュース

OpenAIとGoogle DeepMindのCEOがAIが「絶滅のリスク」をもたらすと警告する声明に署名

Jul 08, 2023Jul 08, 2023

OpenAIやGoogleを含む350人を超えるAI業界の専門家が、AIは大規模なパンデミックや核戦争と同じくらい危険であると警告している。

-

人工知能(AI)の専門家グループは、AIが責任を持って開発され、使用されなければ人類に脅威をもたらす可能性があると警告した。 Google、Microsoft、OpenAIの研究者が含まれるこのグループは、2023年5月30日に彼らの懸念を概説する論文をNature誌に発表した。

OpenAI の CEO である Sam Altman 氏、Anthropic の CEO である Dario Amodei 氏、Google DeepMind の CEO である Demis Hassabis 氏が最も著名な署名者です。

「AIによる絶滅のリスクを軽減することは、パンデミックや核戦争などの他の社会規模のリスクと並んで世界的な優先事項であるべきだ」と公開書簡には書かれている。 ニューヨーク・タイムズ紙は、この声明は新しい非営利団体であるCenter for AI Safetyによって発表されると報じた。 350人以上のAI研究者、エンジニア、企業幹部がこの書簡に連名で署名した。

ジェフリー・ヒントンとヨシュア・ベンジオは署名した2人の著名な研究者です。 これらは、ニューラル ネットワークの開発でチューリング賞を受賞した 3 人の研究者のうちの 2 人です。 AI の革新者であるヒントンとベンジオは、どちらも AI イノベーションの「ゴッドファーザー」として知られています。 今月初め、ヒントン氏はAI開発におけるGoogleのビジョンとリーダーシップの欠如に不満を抱き、Googleの職を辞した。 同氏はAIの潜在的な危険性についても警告した。

専門家らは、AIを使えば人間の介入なしに殺害できる自律型兵器を開発できる可能性があると主張している。 彼らはまた、AI が人々を操作したり、誤った情報を広めたりするために使用される可能性があると懸念しています。 このグループは、安全かつ責任ある方法で AI を開発するための世界的な取り組みを呼びかけています。

AIの専門家からの警告は、AIが急速に強力になっている時期に発せられた。 近年、AI は自動運転車、顔認識ソフトウェア、さらには AI を活用したチャットボットの開発に使用されています。 AI が発展し続けるにつれて、潜在的な利点だけでなく潜在的なリスクも考慮することが重要です。

『Nature』誌に論文を発表したAI専門家は、AIの潜在的な危険性について警告したのは初めてではない。 2015年、イーロン・マスクとスティーブン・ホーキング博士は自律型兵器の禁止を求める公開書簡を共同執筆した。 そして2017年、生存リスクに関する研究を推進する非営利団体Future of Life Instituteは、AIの危険性に関する報告書を発表した。

AIの専門家や他の専門家からの警告は警鐘だ。 AI が大きな害を及ぼす可能性を秘めた強力なテクノロジーであることは明らかです。 責任ある方法で AI を開発し、リスクを軽減するための措置を講じることが不可欠です。

AIと議員については懸念が多く、AI業界関係者からも懸念の声が上がっている。 おそらく現時点でのテクノロジーにおける最大の矛盾は、多くの重要人物が危険性について声を上げているにもかかわらず、高度な生成AIの開発が続けられていることだ。 明らかな疑問は、サム・アルトマンのような経営幹部が心配しているなら、なぜ彼らはまだ AI システムを開発しているのかということだと思います。 それは純粋に利益を追求しているのでしょうか、それとも傲慢であり、このテクノロジーを制御できるという信念なのでしょうか?

サム・アルトマンは、イーロン・マスクとともにOpenAIの共同創設者であり、AI調査会社の現在のCEOです。 ChatGPT が最も主流の AI チャットボットになったため、彼はここ数か月で最も強力なテクノロジー リーダーの 1 人になりました。 アルトマン氏はまた、レドモンドの会社からの数十億ドルの投資を受けて、マイクロソフトとの深いパートナーシップを育んできた。

一方、OpenAI と Microsoft は、GPT-4、ChatGPT、Bing Chat、Microsoft 365 Copilot、GitHub Copilot などの AI 製品を成長させてきました。 しかし、アルトマン氏を批判する人々は、OpenAIが適切な規制を待たずに生成AI製品を開発するのが早すぎたと主張している。 OpenAIでアルトマン氏の元パートナーだったイーロン・マスク氏もそのような批評家の一人で、同社の現在のあり方はアルトマン氏の意図したものではないと述べた。

マスク氏はまた、他のテクノロジー業界のリーダーたちに加わって、「イニシアチブ・フォー・ライフ」プロジェクトの立ち上げに参加し、AI開発者に対し、GPT-4より強力なモデルの開発を少なくとも6か月間中止するよう求めた。 アルトマン氏が最近、GPT-5はOpenAIによって開発されたものではないと主張したことは注目に値する。 今週、アルトマン氏は米国の議会公聴会で講演し、AIの開発には明確で厳格な規制が必要であると認めた。

AIは私たちの存在を脅かす可能性があるという懸念にもかかわらず、AI開発は全力で進んでいます