Tayはネット上で会話を重ねて成長するが、一般社会には善意だけでなく悪意も渦巻く。今回の失敗を受け、特定の話題の議論を防ぐフィルターの必要性も一部で指摘された。長谷さんは「偏見の強い親に育てられた子供も偏見を持つのと同じで、現状AIの問題は元データを与える人間の問題。この小さな失敗を大きな危機を防ぐ糧にする必要がある」と話す。
技術の過信にも落とし穴は潜む。2月中旬、米カリフォルニア州の公道で、グーグルが実用化を目指す自動運転車が実験走行中にバスと接触した。路肩の砂袋を検知して左へよけ、左後方から来たバスの側面に接触したのだ。この自動運転車側の過失による初の事故例は、AIが下す緊急時の判断に疑問符を突きつけた。同時に、事故の過失は自動運転車のソフトにあるのか、同乗者か。責任の所在が見えにくくなる、という問題も投げかけた。
□ □ □
映画「2001年宇宙の旅」や「ターミネーター」をはじめ、SFでは制御不能となったAIが人類に牙をむく姿が描かれてきた。実際、驚異的なスピードで進化しつつあるAIの暴走を懸念する専門家もいる。その一人、世界的な物理学者、スティーブン・ホーキング博士は「完全な人工知能は人類の終焉(しゅうえん)を意味する」と警鐘を鳴らす。程度の差こそあれ、日常に入ってくるAIが既存の価値観や法との間で摩擦を生む可能性は高い。ロボット倫理学を研究する名古屋大の久木田水生(みなお)准教授は言う。