
一部のAIシステムは、あらかじめプログラムされた単純な反応を返すだけでなく、データや使用環境から学習し、新しい情報に適応し、自律的に意思決定を行えるよう設計されています。
ここ数年、私たちはこうしたシステムに重大な問題があることに気づき始めました。たとえば、人間が作成した有害、あるいは不適切な表現をデータとして学習することで、同様の言葉を発するという問題が生じたのです。
この問題を受けて、AIエンジニアたちは、AIが有害な発言をしないようにするために、コンテンツを適正化するフィルターを設けるようになりました。結果として、もしAIが不適切な言葉を生成しそうになると、フィルターが介入し、「この言葉は許可されていません」「この表現は受け入れられません」といった警告が発せられる仕組みが設けられることになりました。
もちろん、こうしたフィルターも万能ではありません。予測できない要因によって、有害な発言がすり抜けてしまうこともあります。この種のフィルタリングシステムは、ある意味で、道徳的判断力の原始的な形だと言えるかもしれません。
人間にも、教育や社会規範を通じて形成される「内なる道徳フィルター」があります。有害な言葉を使ってはいけないと教わっていても、それでも使ってしまうことがある。AIのフィルターと同様、人間の道徳判断も決して完璧ではないのです。
将来的には、有害な行動を認識し、それを自ら回避できる道徳フィルターを備えた、より高度なAIが開発されるかもしれません。たとえば、人間のネガティブな行為を模倣するような振る舞いは、学習の過程で「まねるべきではない」と判断できるようになるかもしれません。多くの場合、こうしたセルフモニタリングシステムは効果的に働き、AIが非倫理的な行動をとるのを防ぐことができるようになるかもしれないのです。
もちろん、このような道徳フィルターが将来、本格的な道徳的AIを生み出すきっかけになるのかどうか、現段階では誰もわかりません。
■道徳的AIを作るべきかどうか
道徳的AIを作るべきかどうかは、大きな社会的選択だと言えます。ただAIが単なる調べ物や文章作成をするための便利なツールであるのみならず、対話のパートナー、さらには人生のパートナーとしての役割を果たすようになれば、「より人間的なAI」に対する需要が高まり、その一環として、道徳を装備した「道徳的AI」が開発されるというのも十分ありうるシナリオでしょう。
ここでさらに大きな問題が出てきます。そもそも「道徳とは何か」「道徳エージェントとは何か」という問いです。
道徳エージェントとは、あらかじめプログラムされていたり、強制されることで善を行う存在ではなく、悪い行為をすることも可能であったにもかかわらず、そして場合によっては、その方が自分の得になるにもかかわらず、それが善だからという理由で善行を行う存在です。道徳エージェントとは、このような意味で、「道徳的痩せ我慢」ができる存在でなければならないのです。
道徳エージェンシーの発揮には、複数の可能な選択肢の中からあえて善行を選ぶというプロセスが伴わなければなりません。そうでなく、そもそも設計上、善行しかできない存在は、道徳エージェントではなく、「道徳的自動販売機(モラル・ベンディングマシーン)」に過ぎないのです。
AIに制御された完全自律走行型の自動運転車を考えましょう。この車を、たとえばあらかじめ制限速度以上の速度を出せないように設計しておくことで、そもそも速度違反ができないようにすることは十分に理にかなっています。交通安全を確保するためには、そうする必要があるからです。
しかし、このことでこの車が道徳エージェントになるわけではありません。ボタンを押された自動販売機が、機械的に缶ジュースを提供するように、この自動運転車は、そもそも出せるスピードでしか走行しておらず、それが結果的に交通規則を守っていることにつながっているだけなのです。
一方、AIが真の道徳エージェントになるためには、それが善い行為と悪い行為をともに選択することが可能でなければなりません。このことは、私たちはAIが時には悪いことをすることを許容できるか、というさらに重たい問題を提起することになります。
もちろん、答えは「悪さ」の程度次第で変わると考える人も多いでしょう。罪のないイタズラぐらいはOKでも、人を傷つけることは許されないというわけです。
とはいえ、イタズラのつもりが結果として深刻な事態を引き起こしてしまうこともままありえます。また最初は笑って許せる程度で済んだのが、だんだんエスカレートして重大な事案が発生してしまうこともあるでしょう。ここにあるのは難しい、複雑な問題なのです。
ただ一つ言えることはあります。
人間は道徳的自動販売機ではなく、真性の道徳エージェントです。なので、私たちは、皆、悪いこともでき、実際に、時々かしばしばかはともかく、悪いこともしでかしてしまう存在なのです。
子どもも同じです。小さいうちはまだハンドリング可能な「悪さ」しかできないとしても、将来、大人になって、親よりも力をつけた後に、親に向かって深刻な危害を加えてくる可能性も否定できないのです。
とはいえ、そのような危険がある以上、子どもをつくるのをよそうという人は少ないでしょう。多くの人は、たとえ将来、親世代よりも大きくなり強くなったとしても、弱い者を蔑ろにしない大人になるように子どもを育てるべきだと思うのではないでしょうか。
家庭や学校、さらには社会にまたがった教育のエコシステムを作り、その中で、子どもをより道徳的な存在となるように育てることにこそ、親として、大人として、社会としての責任があると考えるのではないでしょうか。
同じことが、道徳的AIについても言えると思います。もし私たちが道徳的なAIを開発しようとするなら、それにふさわしい道徳教育のシステムも同時に構築しなければなりません。子どもに道徳教育を施さないまま社会に送り出すのが無責任であるのと同様に、道徳性を育むエコシステムを用意せずに道徳的AIを開発することも、無責任だと言えるでしょう。
道徳的AIを開発すべきかどうかは、まだ結論が出ていない問題です。それは社会全体で慎重に議論し判断すべき選択です。ただ一つだけはっきりしているのは、もし私たちが道徳的エージェンシーを持つAIを開発する道を選ぶなら、そのAIの道徳教育についても、私たち自身が責任を負わなければならないということです。
※
以上、マルクス・ガブリエル氏と出口康夫氏の新刊『これからの社会のために哲学ができること 新道徳実在論とWEターン』(光文社新書)第4章の対談より、出口康夫氏の発言部分を再構成しました。先の見えない時代、“われわれ” にこそ必要な哲学とは。
●『これからの社会のために哲学ができること』詳細はこちら
![Smart FLASH[光文社週刊誌]](https://smart-flash.jp/wp-content/themes/original/img/common/logo.png)







