ロボットというものが現実のものとなりつつありますが、それにもまつわる「倫理」が課題となってきます。
ロボットが事故を起こしたら誰の責任か。
ロボットを通して個人情報を集めることはどうするか。
そして大きな問題は今も使われている軍事用無人機が自律的であったらどうなのか。
そういった点について、様々な方向からウィーン大学のク―ケルバーグ教授が解説していきます。
扱われている対象は、産業用ロボット、ホームコンパニオンとしてのロボット、ケアロボット、自動運転車、アンドロイド、殺人ドローンと多岐にわたりますが、現在ロボットが進出しつつある分野を網羅しています。
産業用ロボットではその安全性もさることながら、人間の労働を奪うと言われている点についても考えます。
多くの家庭に入り込んでいるホームコンパニオン、可愛らしい外見にして人々の気持ちを取り込みますが、それがその家庭の情報を詳細まで収集しどこかに送信する可能性についてはあまり考える人はいません。
介護現場でのロボット使用は介護職員の人手不足と対象の増加にばかり目が向きがちですがロボットの質についてはどうでしょう。
もうすでに事故発生など問題が出つつある自動運転車ではその場合の責任の取り方はまだまだ未決です。
アンドロイドに対する「不気味」な感覚というものは、それよりはるかに機能は限られている動物のペットには生じないものです。そこには対象に向けられる自分たちの意識、道徳観というものが反映しています。
今も戦場を飛び交っている「無人攻撃機」現在の段階ではまだ遠隔操作で人間が操縦しているのでしょうが、それにもしもAIを搭載し自律型の運転ができたらどうなのか。
そこには戦闘員と非戦闘員を区別する機能が十分に付けられるのか。そうでなかったら戦争犯罪を犯した場合誰が裁かれるのか。
こういった非常に困難でありながら、もはや先送りができないほど身近になったことが次々と提出されていきます。
子どもや高齢者をケアするのにロボットを使うということは、もはや現実となりつつあります。
しかし弱者のケアということは何かをするという行為だけではなく、相手との接触の意味合いが強くあります。
ケアされる側もケアする者に対する思いがありますが、それが機械であったらどうなのか。
ロボットであってもあたかもそれが人間であるように思いこませるのか。
それは「欺瞞」ですが、それを使わなければならないようになるのかも。
軍事用ロボットに対する人間の関与では、ロボットの自律の程度により三種類に分かれます。
人間が「ループの中にいる」つまり人間が直接コントロールし決定する。
人間が「ループの傍らにいる」つまり人間が監督し意思決定のみ介入する。
そして人間が「ループの外にいる」これは機械が人間の干渉なしに自ら決定を下す。
幸い?現在はまだ人間がループの中や傍らにいる状況で、人間が決定権を握っていますが、もうすぐそこに人間をループの外に置くようになるでしょう。
人間が攻撃の決定をする場合にはその決定者に大きな心理的圧力がかかり、それが攻撃の歯止めとなる場合があります。銃やミサイルの照準の向こうに動く人が見えた場合、それに発射するかどうかを決める人はその責務を受け取ることとなり、間違って子どもなどを撃った場合には長く苦しむことにもなります。
しかしロボットが決定するようになるとロボットにはそのような後悔は存在せず、結局は戦闘が容易に起こることになります。
ロボットに関する倫理、もはや現実のものとなりました。
問題点については早急な議論と対策が必要なのでしょう。