「こうした(AIを積んで自分で考える)自律兵器のシステムは、人間の介入なしにターゲットを選び、攻撃する。そしてターゲットに人間が含まれる時、致命的なことが起きる」とし、「LAWSの実戦配備は数十年後ではなく数年後には可能で、LAWSは既に、戦争においては火薬、核兵器に続く第3の革命と認識されている」との驚愕(きょうがく)の警告を行いました。
そしてラッセル教授は、現在、米国防総省高等研究計画局(DARPA)が開発に着手している、都市部やビルの間を高速で飛び回り敵を攻撃する小型の回転翼付き無人攻撃機(FLA)や、敵地で通信妨害に遭った際も、ターゲットを正確に攻撃することができる自律型航空機チームの開発プログラム(CODE)について名指しで批判。
「LAWSは、殺すべき人間を機械が選ぶことを許しており、人間の尊厳を守るという基本原則を侵している。例えば(政府や権力側から見て)“脅威となる行為”を排除する任務を任される可能性がある」と厳しく断罪し「この問題については科学界で倫理委員会などを設置して議論するべきだ。何もアクションを起こさないということは(LAWS)の継続的な開発・展開に賛成票を投じたことと同じである」と呼びかけ、人類の存亡にも関わるこの問題について各国の科学者が真剣に話し合う必要があると訴えました。