OpenAIとAnthropicが米国政府とAIモデルを共有 | romptn Magazine

OpenAIとAnthropicが米国政府とAIモデルを共有

AIニュース

2024年8月29日、人工知能(AI)業界の巨人であるOpenAIとAnthropicが、米国政府機関と画期的な合意に達したことが明らかになりました。両社は、新たなAIモデルを一般公開する前に、米国AI安全研究所(U.S. AI Safety Institute)と共有し、安全性評価を受けることに同意しました。この動きは、急速に発展するAI技術の潜在的リスクに対する懸念が高まる中、政府と民間企業の協力関係を強化する重要な一歩として注目されています。

スポンサーリンク

合意の詳細

米国商務省の国立標準技術研究所(NIST)の一部門である米国AI安全研究所は、OpenAIとAnthropicとの間で覚書(MoU)を締結しました。

この合意により、研究所は以下の権限を得ることになります。

  1. 一般公開前の主要な新AIモデルへのアクセス
  2. 公開後のモデルの継続的な評価
  3. 機能とリスクの評価方法に関する共同研究の実施
  4. 潜在的な安全性リスクの軽減策の開発

さらに、米国AI安全研究所は英国のカウンターパート機関と協力し、両社のモデルの安全性向上についてフィードバックを提供する予定です。

背景:AI規制をめぐる動き

この合意は、AIの急速な進歩に伴う規制の必要性が強く認識される中で行われました。2023年10月、バイデン政権は米国初のAIに関する大統領令を発令し、新たな安全性評価や公平性に関するガイドラインの策定を義務付けました。また、カリフォルニア州では最近、強力なAIシステムの開発に対する規制を含むAI安全法案が可決されました。

一方で、EUではより厳格なAI規制法案が進められており、米国の取り組みはやや控えめな印象を与えています。しかし、今回の合意は、政府と民間企業が協力してAIの安全性を確保しようとする重要な一歩と見なされています。

業界の反応と展望

OpenAIのCEOであるサム・アルトマン氏は、この合意を歓迎し、「将来モデルの発売前テストについて米国AI安全研究所と合意できたことを嬉しく思う」とコメントしました。同様に、Anthropicの共同創業者であるジャック・クラーク氏も、「米国AI安全研究所との協力により、当社のモデルを広く展開する前に厳密にテストすることができる」と述べ、この取り組みがリスクの特定と軽減に役立つと強調しました。

しかし、一部のAI開発者や研究者からは、営利目的化が進むAI業界の安全性と倫理性について懸念の声も上がっています。2024年6月には、OpenAIの現従業員と元従業員が公開書簡を発表し、AIの急速な進歩に伴う潜在的な問題と、監視および内部告発者保護の欠如について警鐘を鳴らしました。

今後の課題と展望

今回の合意は、AIの安全性確保に向けた重要な一歩ですが、いくつかの課題も残されています。

  1. 透明性の確保:政府とAI企業間の協力が、どの程度一般に公開されるのか
  2. イノベーションとのバランス:安全性確保とAI開発の速度のバランスをどう取るか
  3. グローバルな協調:各国の規制アプローチの違いをどう調整していくか

これらの課題に対処しつつ、AIの潜在的なリスクを最小限に抑えながら、その恩恵を最大限に活用する方法を見出すことが、今後の重要な課題となるでしょう。