2018年6月19日、米国科学工学医学アカデミーは、国防総省(DOD)の要請のもと、合成生物学の進化に伴う安全保障上の懸念を評価するフレームワークを構築し、「合成生物学の時代のバイオテロ防衛」という報告書にまとめて公開した。この報告書は、既存の細菌やウイルスをより有害なものに改変するなど、合成生物学が新たな兵器を生み出す可能性を広げていると結論づけている。その著者のひとりであるミシガン大学のマイケル・インペリアーレ教授は、米国政府は急速に進化する合成生物学の分野を注視すべきであると警告している。

 このフレームワークでは、「技術の有用性」、「兵器としての有用性」、「専門家の要否や資源へのアクセスといった必須条件」、「脅威の抑止や予防策の実行などの緩和可能性」という4つの観点から懸念レベルが整理されている。特に懸念レベルが最も高いものとして、「パンデミックをもたらす既存ウイルスの再形成」、「より有害な細菌への改変」、「毒素を生成する微生物への改変」という3つのケースが挙げられ、技術の進化によりバイオテロなどへ悪用される可能性が生じることは否定できないとする。インペリアーレ教授は、将来に向けて実現可能となり得る事象を勘案した上で、幅広い脅威に対応する戦略を探求し続ける必要性を国防総省に対して説いている。

 このような流れの中で、ゲノム編集技術が向上すると、人工的な病原体、ウイルスを作り出すことが可能になるかもしれない。ゲノム編集技術によって開発された致死性のある生物兵器がテロに使われたり、脅威的なゲノム編集人工ウイルスがばら撒かれて蔓延してしまったときのダメージは計り知れない。

 ゲノム編集の急速な普及を踏まえると、既に監視や対策の必要性があることは明らかである。実際、CRISPRのようなゲノム編集技術は、米国の情報機関がまとめた国家安全保障上の脅威リストに入れられたと言われており、脅威と見なす大量破壊兵器にカウントされ始めた。米連邦捜査局(FBI)も遺伝子工学のテロへの悪用を防ぐ対策に乗り出している。こうした動きはまさに、その脅威の大きさを物語っているとも言える。意図的な悪用や誤った使用によって広域に悪影響を与えてしまうと、取り返しのつかない事態を招きかねない。

《『人類滅亡2つのシナリオ AIと遺伝子操作が悪用された未来』(朝日新書)では、制度設計の不備が招く「想定しうる最悪な末路」と、その回避策を詳述している》

著者プロフィールを見る
小川和也

小川和也

北海道大学産学・地域協働推進機構客員教授。グランドデザイン株式会社CEO。専門は人工知能を用いた社会システムデザイン。人工知能関連特許多数。フューチャリストとしてテクノロジーを基点に未来のあり方を提唱。著書『デジタルは人間を奪うのか』(講談社現代新書)は教科書や入試問題に数多く採用され、テクノロジー教育を担っている。

小川和也の記事一覧はこちら