2023年4月1日土曜日

AIとストーカーの誕生

chatGPTが話題になり、ベータ版を試していた記者に「アイラブユウ」と返答したと言います。そのことをメーカがプログラムが未熟なためのバグだといった新聞記事が載っていました。
しかし、これって本当にバグでしょうか?
興味を持って何度も質問してくる者に対して自分に好意を持っているのではないかと勘違いするなんてことは、いかにもヒト的な反応ではないでしょうか?
質問を続けていると好意を持たれるとすると、オペレータにとっては結構やっかいな相手かもしれません。
しかもこの解答が質問者の意図と異なる返答だったとなると、コンピュータが間違いを犯したことになります。間違える計算機、このこともいかにもヒト的な革新的なことではないでしょうか?

0 件のコメント:

コメントを投稿