それほど高精度なDeepL翻訳が、「人間が犯しづらいミス」をするのは、AIが自ら学習した過去のデータを元に導き出した訳が、文法や社会常識など人間のルールで正しいかどうかまでは判断できないためだ。AIにとっての正解が、人間にとっても正解とは限らない。

 それがときに、大きな問題を生むこともある。昨年10月の台風19号の際、静岡県浜松市が在住ブラジル人などに向けてポルトガル語で配信したメールに重大な誤訳があった。「高塚川周辺に避難勧告が出ました」という文が、「高塚川周辺に避難してください」と読める文になって配信されたのだ。

 浜松市国際課によると、機械翻訳で日本語→英語→ポルトガル語と2段階で翻訳した結果だという。本来はポルトガル語ができる職員が最終チェックするはずだったが休日で不在にしており、緊急時だったためそのまま配信された。

 山田教授は言う。

「最終的なジャッジをできない機械翻訳では、このようなミスを100%防ぐことはできません。一方で全体的な精度はかなり高くなっており、最終チェックができる人間と組み合わせればものすごい速さで正しい情報を出すことができるはずです」

 DeepLが目指すのは、「言語がコミュニケーションの障害となることなく、誰もがアイデアを共有できる世界」(コミュニケーション・PRマネジャーのリー・ターナーさん)。その実現には我々人間も学習する必要があると山田教授は言う。

「“かっこいい先生の自転車”のように元の文章があいまいでは、訳文を正しく評価できません。機械翻訳が日常的に使われる社会になりつつあるいま、ユーザーの側にも基本的な言語リテラシーがこれまで以上に必要になってくると思います」

(編集部・川口穣)

AERA 2020年7月27日号より抜粋

著者プロフィールを見る
川口穣

川口穣

ノンフィクションライター、AERA記者。著書『防災アプリ特務機関NERV 最強の災害情報インフラをつくったホワイトハッカーの10年』(平凡社)で第21回新潮ドキュメント賞候補。宮城県石巻市の災害公営住宅向け無料情報紙「石巻復興きずな新聞」副編集長も務める。

川口穣の記事一覧はこちら