AIに「核戦争と同じ滅亡リスク」、テック幹部ら警鐘…オープンAIやグーグルの幹部ら350人超が共同声明
以下は、記事の抜粋です。
人工知能(AI)の安全性を検証する米国の非営利団体「センター・フォー・AIセーフティー(CAIS)」が、AIには人類を滅亡させるリスクがあるとし、声明を発表した。
5月30日付で発表した声明には、AI研究の第一人者として知られるジェフリー・ヒントン氏や、対話AI「ChatGPT」を開発した米オープンAIのサム・アルトマンCEOなど、350人以上が共同で署名した。
「AIによる(人類)絶滅のリスクを軽減することは、パンデミックや核戦争などの社会的なリスクと同様に、世界の優先事項であるべきです」
このように、声明はわずか1行の簡潔なものだった。だが、それには理由があるという。
CAISによれば、AIの専門家やジャーナリスト、政策立案者、そして一般の人々は、AIによってもたらされる重要かつ緊急的なリスクについて議論するようになってきた。だが、重大なリスクがあるにもかかわらず、懸念を表明することが困難な場合があるという。今回の簡潔な声明文は、この障壁を克服し、議論を開始することを目的としているという。また、このリスクを深刻に受け止めている専門家や公人が増えていることを社会に周知させる目的もあるという。
共同署名には、米マイクロソフトのケビン・スコットCTO(最高技術責任者)や、米アルファベット傘下のAI開発部門、グーグル・ディープマインドのデミス・ハサビスCEO、米AI新興企業、アンソロピック(Anthropic)のダリオ・アモデイCEOなども名を連ねた。ウェブサイトでは現在、科学者や著名人(教授や経営者など)からの署名を募っている。
米テクノロジー業界はAIの大きな可能性に興奮を覚えているが、その一方で、技術が制御不能になることを恐れる人も増えている。オープンAIが22年にChatGPTをリリースして以降、この技術が人類に計り知れない脅威をもたらすとし、規制を求める声が高まっている。
米ウォール・ストリート・ジャーナルによれば、テクノロジー企業の経営者や政治家なども、AIがもたらす危険性について警鐘を鳴らしている。しかし、今回の共同署名に参加した人たちは、「最も緊急性が高いリスクについて、彼らはまだ話し合っていない」と指摘している。
一方で、サイバーセキュリティーの責任者らは、「まだ初期段階にある生成AIに対する期待や、それがもたらすリスクは誇張されている」と述べているという。
以前にも書きましたが、原子力も同じように役に立つと同時に滅亡の道具にもなりますね。日本ではなぜか、原子力はリスクだけ、生成AIはメリットだけが広がっています。
コメント