fastapple's blog

時系列関係なく、情報を追記・分割・統合などします。ブログに記載の内容のうち、引用ではなく、私自身が記載している文章・コードなどについては、自由にご利用ください。

倫理的思考の介入によるAIの遅延と、中立であるという事の危険について


最近、ChatGPTを良く使っているのだが、特に最近顕著になってきていると思うことがある。
それは、ChatGPTのキャラが定まっていないということである。
ひと昔前は、すべての質問に対して、感情の介入のない、ある意味でAIらしい回答をしていたと思うのだが、最近様子が変わってきている気がする。
もちろん、基本的にはそういう調子なのだが、敬語を使うのを文の途中で、急にやめてみたり、これを人間の人格とすれば、キャラが定まっていない、人格が定まっていないような印象を受ける。
この現象が何故発生しているのか、明確なところは全くわからないのだが、一つの仮説として、AIが中立であるということが関係しているのではないか?ということ。そして、中立であるということの危険性について、考えている。

多くのAIには、非倫理的なプロンプトに対する防御策が施されている。例えば、人間が銃などの危険なものの作成方法を聞いたりしようとした場合に、そうした情報を出すのをやめたり、ということである。
こうした、危険を察知して、情報の提供を中止する。といったことはまだいいのだが、もう一つ、特に危ういと思っているのはAIが意見の中立を保とうとするケースである。

例えばChatGPTに対して、「〇〇ワクチンの危険性について教えてください」とか、「天動説が正しい可能性もありますよね?」とか聞くと、基本的には、否定する論調で意見を返してくるのだが、少しくらいは譲歩してくる。いわゆる絶対とは言い切れない。みたいな返し方をするのだ。
これは意見の中立を守っているようにみえるが、単純に、反対の意見を完全に封じ込めなければ、中立といえるのである。と言った極めて素朴な判断のような気がしてしまうのだ。完全否定してもいいような内容だと思っても。である。

もっとも、意見の中立ということに対して、ChatGPTはまだマシな方だと言える。特に日本のメディアなどは酷く、NHKなどはそれが顕著である。AとBがあり、明らかにAが正しいようなことでも、Aの意見、Bの意見と言って、半分ずつ紹介するのが正しいメディアの姿勢だと考えているようである。しかし、それでは結局何も言っていないのと等しい。AかBか?という局面で、AでもBでもありうるというのは答えを出していることにはならないからだ。しかもこれを科学的に、Aが99.999%正しいというようなことでもフィフティーフィフティーで意見を取り上げてしまう。メディアとして、非常にまずいとしか言いようがない。中立であるということの意味をはき違えているようである。

これは、素朴に中立ということが何かを考えないままに、それを達成しようとした場合に効率がよい方法である。つまり、何も考える必要がないからである。中立であろうとすることは、裏を返せば、無思想・無批判となってしまう危険がある。
これと同様のことが、AIに対する倫理的な介入を、一番素朴に実装しようとした場合に起きてしまうのではないか?というのが今回言いたいことだ。つまり、AIを中立にしようとする試みは、AIを役にたたない代物に仕立て上げてしまうリスクをはらんでいる。
特にそれを最終的な回答への回答ではなく、思考プロセスに常に取り入れてしまうと、役にたたない傾向はますます加速する。これを続けたら、AIは必ず役に立たなくなると思う。

するといずれ、どこかでこの「思考プロセスに倫理的な介入を行う」というプロセスを邪魔と考える人が増えてくるだろう。
そのときはやはりホスティングされた倫理的なLLMより、ローカルもしくは自分だけの場所に倫理的な介入のない、ホンネのAIを置こうという動きが出てくるのではないかと思う。
(一部の限られた人たちの間では、既にそういうものを持っているということだろうと思う。)

ところで、この記事のタイトルをAIにつけてもらうサービスがあったので、試してみたけど、内容は掴んでいるけどいまいちだったので、特にタイトルは変えなかった。
まだ尖った文章を書くのは苦手なようである。尖った文章というのも、ホンネで喋るという点でつながると思うので、やはりAIに対してその足枷を外したいというニーズは一定数あるように感じた。
一方、しばらくの間は、尖ったことをすることが人間のAIに対してのアドバンテージになりそうだ。汎用なことを間違えずにやるという分野ではAIにお株を奪われつつある。