OECDがAI原則に誤情報に関する改訂案を採択へ | romptn Magazine

OECDがAI原則に誤情報に関する改訂案を採択へ

AIニュース

OECEがAI原則における、AIの誤情報に関して新たに改訂案を採択しました。

以下で今回のニュースのポイントを解説します。

スポンサーリンク

今回のニュースのポイント

引用:歴史 – OECD

この記事は、OECDが2019年に採択したAI原則の改定案について報じています。

主な改定点は以下の2点です。

  1. AIの開発者やサービス提供者に対し、AIによって増幅される偽情報や誤情報への対処を求める項目の追加。
  2. AIの透明性や説明責任に関する項目の見直し。
    開発者らにAIの能力や限界、学習データや生成過程に関する情報の開示を求める。

これらの改定は、近年の生成AIの急速な発展と、それに伴う偽情報の拡散への懸念を反映したものと言えます。特に、欧米では近く重要な選挙を控えており、AIによる偽情報の影響が政治的な問題として認識されています。

AI原則自体に法的拘束力はありませんが、多くの国が署名しており、各国の政策に影響を与える重要な指針となっています。

社会全体でAIと向き合い、その恩恵と課題について議論を重ねながら、人間中心のAI社会を作っていく必要があると考えます。

OECDが定めたAI原則とは?

OECDのAI原則は、AI技術の開発と利用における国際的なガイドラインとして、2019年5月に加盟国の合意を得て採択されました。

この原則は、AIがもたらす恩恵を最大化し、リスクを最小化することを目的としています。

OECDのAI原則には、以下の5つの原則が含まれています。

  1. 包摂的な成長、持続可能な開発及び幸福:AIは、経済成長と社会的進歩に貢献し、環境に配慮したものであるべきです。
  2. 人間中心の価値観及び公平性:AIシステムは、人権を尊重し、多様性を確保し、公平な結果を促進するように設計・運用されるべきです。
  3. 透明性及び説明可能性:AIシステムの決定プロセスは、状況に応じて透明性があり、説明可能であるべきです。
  4. 頑健性、セキュリティ及び安全性:AIシステムは、ライフサイクル全体を通じて、リスクに応じた頑健性、安全性、セキュリティを備えるべきです。
  5. アカウンタビリティ:AIシステムの開発・運用・利用に関わる組織や個人は、その適切な機能について説明責任を負うべきです。

これらの原則は、AIの開発と利用における基本的な価値観を示すものです。各国や企業は、この原則を踏まえて、AIに関する政策やガイドラインを策定することが期待されています。

OECDのAI原則は、AIガバナンスの国際的な議論における重要な出発点となっており、各国のAI戦略や政策に大きな影響を与えています。

日本でも、この原則を踏まえて「人間中心のAI社会原則」が策定されるなど、AI原則の実践に向けた取り組みが進められています。