このように、専門性の高い間違った回答をChatGPTがした場合、これに気がつけるのは限られた一部の人間のみになります。これはかなりやっかいではないでしょうか。しかも全部が間違いならともかく、正しい最先端の情報にまぎれて間違いが含まれているのですから。

 ChatGPTの問題としては、あやふやな情報でもわからないと答えることなく、回答に強弱がないことです。

 どんな道具も同じですが、うまく使えば便利ですが、間違うと凶器になりえます。医療の分野で考えられるリスクとしては、間違った回答をもとに健康被害が出るといったところでしょうか。アメリカの医師国家試験にChatGPTが合格したとはいえ、一般の人が医療や健康情報でChatGPTを活用するのは、まだ控えたほうがよいでしょう。

[AERA最新号はこちら]