倫理的な兵器

殺人AIロボット開発阻止を訴え、ダボス会議で科学者ら YAHOO!ニュース
http://headlines.yahoo.co.jp/hl?a=20160123-00000033-jij_afp-sctch

米カリフォルニア大学バークレー校(University of California, Berkeley)のスチュアート・ラッセル(Stuart Russel)教授(コンピューター科学)は「われわれが話題にしているのは、人間のパイロットが操作する無人機のことではなく、自律型兵器のことだ。後方で操作する人は誰もいない。AI兵器、つまり人工知能兵器だ。非常に正確で、人間の介入なしに標的の位置を特定し、攻撃できる兵器だ」と語った。
(中略)
ダボス会議ラッセル教授はさらに「こうした機械が交戦規定に従うことができるだろうか」と問い掛けた上で、生物兵器が「ほぼ誰にでも」使用されるリスクがあったために米国が放棄したことを引き合いに出し「ロボットについても同じ流れになることを望む」と述べた。
(中略)
英航空防衛機器大手「BAEシステムズ(BAE Systems)」のロジャー・カー(Roger Carr)会長もこれに同意し、「平和な時にせよ戦時にせよ、人間の営為から道徳や判断、倫理を除外してしまえば、人類はわれわれの理解を超える別のレベルに至ってしまう。同様に、正常に機能しなくなった際に、人間による制御メカニズムが利かない極めて破壊的になり得るものを戦場に投入してはならない」と述べた。

 通常兵器は認めるけど,核兵器は認められないと考える人は結構いると思います。ただ,その理由は微妙です。核兵器は「倫理」に反すると言われると,銃で殺すのは倫理的なのかという素朴な疑問にも答えていないような不満が募ります。

 銃で殺されるのはまだマシだけど,生物兵器で死ぬのは御免だというのも,分かるようで,分かりません。AI兵器の場合は,人間の介入なしに,AIが勝手に攻撃しだすことを心配しているようですが,それを言い出すと,地雷も人間の介入無しに勝手に攻撃します。銃だって暴発すれば勝手に人を撃ちます。機械や道具は壊れれば,人間に意思とは無関係に人を殺しますから,兵器は全部認められず,倫理で兵器を分類出来なくなります。

 ただ,程度の違いはあります。銃が壊れて暴発する可能性はあっても,多くの銃が一斉に暴発し大量殺人を引き起こす可能性は極めて小さいです。一方,核兵器はその可能性があります。AI兵器も大量殺人を行う可能性は高いのかどうか知りませんが,そう言うことを恐れているような気もします。そう考えると,大量の地雷が人間のコントロールから離れてしまうのも影響の程度が大きく,非倫理的なのでしょう。ただ,そういう考え方だと,ちゃんと遠隔操作して人間がコントロールしている地雷は倫理的とも言えてしまいます。

 さらに,人間が制御可能か否かを倫理性の判断理由にすると,では制御する人間は誰なのかが問題になります。倫理観のない人間が制御していても,制御されていさえすれば倫理的かというと,そうは言い難いですね。制御されていればよいというのは制御する人間が倫理的という前提があって初めて成り立つものです。さらに,大抵の人間は自分は倫理的だけど,敵はそうとは限らないと疑っています。

 ということで,非倫理的な人間が扱っても破滅的な結果を招かないように兵器を制限しようという考え方になっているのだと思います。例えば,生物兵器を安易に使用すれば人類の危機を招くような病気が蔓延するかもしれませんので,持たないようにしようというわけです。

 この考えを総ての国に平等に適用すると,核兵器も放棄しなければなりませんが,現実には放棄していません。核兵器生物兵器やAI兵器の違いは何なのでしょうか。私が思いつくのは,開発や装備の容易さです。核兵器そのものは比較的簡単に開発できても,敵国に打ち込む技術は簡単ではありません。それに対して,生物兵器やAI兵器は弱小国家でも,容易に入手でき利用も簡単です。もし大国がそれらを装備すれば,弱小国も装備するでしょう。その結果,軍事的な優劣が無くなってしまいます。一方,核兵器の場合,弱小国には持たせないようにすることが取りあえずは可能です。

 結局,非倫理的な兵器とは大量破壊が可能でかつ大国が独占できない兵器ということではないかと思います。つまり,米国のような大国は大量破壊兵器を濫用しない分別を持っているけど,イスラム国や北朝鮮のような弱小国はそうではないという考え方じゃないかと。明らかに平等ではない,随分自分勝手な考え方ですが,警察だけは銃を持って良いというのと似ています。