【激動ヨーロッパ】「信頼できるAI」へ EU、ルール作りで主導狙う (1/3ページ)

地中海の島国マルタで人工知能(AI)を活用したロボットの開発にあたる研究者ら(2月8日、ロイター)。欧州では、AI技術で米中に後れを取っていることへの危機感も強い
地中海の島国マルタで人工知能(AI)を活用したロボットの開発にあたる研究者ら(2月8日、ロイター)。欧州では、AI技術で米中に後れを取っていることへの危機感も強い【拡大】

 欧州連合(EU)が人工知能(AI)活用に関する「倫理指針」策定を急いでいる。「信頼できるAI」を掲げ、AIがもたらす潜在的なリスクを低減することで経済や社会に対する恩恵の最大化を図る。国際的な議論の喚起も目指しており、AI開発で米国と中国の後塵を拝すなか、世界的なルールづくりを主導しようとの考えもうかがえる。(ベルリン 宮下日出男)

 日欧連携の可否は?

 EUの欧州委員会は昨年12月中旬、倫理指針案を公表した。学界やビジネス界などの52人で構成する専門家会合がまとめ、意見公募を経て最終案が示される予定だ。

 「AIは社会に大きな恩恵をもたらし得るが、人々がAIに基づくシステムを受け入れ、利用するには信頼が必要だ」。担当のアンシプ欧州委副委員長は発表時、倫理指針策定の目的をこう強調した。

 指針案ではAIの信頼性を確保する要件を「倫理」と「技術」という2つの側面から検討し、「倫理」に関しては「人間が中心」との視点に立ち、基本的権利や社会の価値・規則が尊重されることを挙げた。

 具体的に示された信頼性確保の要件は10項目。事故やトラブル時の責任の所在の明確化や人間によるコントロールの確保、AIの判断における差別や偏見の回避のほか、個人情報の厳重な扱いを定めたEUの「一般データ保護規則」(GDPR)の順守-などを求めた。ハッキングなど外部の攻撃への耐性も盛り込まれた。

世界的なルール作りへの弾みに