日本の医療の未来を考える会

第93回 AIとの共生をどの様に進めるのか 日本に欠かせない戦略と意識改革(慶應義塾大学理工学部教 栗原聡氏)

第93回 AIとの共生をどの様に進めるのか 日本に欠かせない戦略と意識改革(慶應義塾大学理工学部教 栗原聡氏)
生成AIの進化が凄まじいスピードで進んでいる。文章の作成や画像の作成だけでなく、データの処理や翻訳、顔認証、画像診断など様々な活用法が開発され、私達の仕事や生活も大きく変えた。一方で、フェイク画像の拡散や、人々のAIへの依存等の弊害も現れており、将来的にはAIの誤った判断や暴走によって私達の平穏な社会が脅かされるのではないかとの懸念も有る。そうしたAIに私達はどの様に向き合い、活用していくべきなのか。11月19日の「日本の医療の未来を考える会」では、日本のAI開発の第一人者で、慶應義塾大学理工学部教授の栗原聡氏に最新のAI事情について講演して頂いた。

挨拶

原田 義昭氏 「日本の医療の未来を考える会」最高顧問(元環境大臣、弁護士):高市早苗政権が順調に船出しました。中国との関係が取り沙汰されていますが、首相には毅然たる態度を取って頂きたい。自分達の考えを押し付ける中国の態度は国際的な評価を落とすものです。米国も一方的に関税を課したり、環境問題を軽視したりと独善的な振る舞いが目立ちます。高市首相もそうした米国に意見する事も必要ではないかと思います。

三ッ林 裕巳氏 「日本の医療の未来を考える会」最高顧問(元内閣府副大臣、医師):戦後、日本の成長を支えたものの1つが国民皆保険制度です。しかし、今後の医療を左右し兼ねない重要課題が山積しています。来年の診療報酬改定では大幅な引き上げが必要ですし、OTC類似薬の保険外適用、分娩の保険適用等の課題も正しい方向で解決していかなければなりません。一歩間違えれば、日本の医療が危機的な状況になってしまいます。

古川 元久氏「日本の医療の未来を考える会」国会議員団メンバー(衆議院議員、国民民主党代表代行兼国会対策委員長):2025年はAIが幅広い分野で一気に広がった年だった気がしますが、AIの進化のスピードは非常に早く追い付くのがやっとという感じです。26年は更に思いも寄らない活用法が生まれるのではないかと思います。医療界にも数多くの課題が有りますが、今後AIの活用は不可欠でしょう。AIをどの様に取り入れて行くべきなのか、勉強したいと思います。

門脇 孝氏 「日本の医療の未来を考える会」医師団代表(日本医学会会長、国家公務員共済組合連合会虎の門病院 院長):大学病院を始め、病院経営が非常に厳しくなっている中、今後は生成AIを経営判断や実務の効率化に生かす事も必要になっていくでしょう。私もChatGPTを様々な文章を書く際に役立てていますが、驚く程時間を節約出来る様になりました。是非、本日の講演を機に、今迄以上にAIへの理解を深め、業務や経営に役立てて頂けたらと思います。

尾尻 佳津典日本の医療の未来を考える会」代表(『集中』発行人):長く続いて来た「未来の会」が26年7月に100回目を迎える予定となりました。その時は盛大に節目を祝いたいと思います。私達編集局もChatGPTの研修を受けて、生成AIの導入を図っていますが、それによって仕事の内容も激変しました。今更ながらAIの高い性能を実感しています。本日も多くの事を学び、更に活用を図りたいと思います。

講演採録

■AI抜きではイノベーションが難しい時代に

2024年は、AI研究の基盤を築いた研究者が相次いでノーベル賞を受賞した節目の年でした。深層学習(ディープラーニング)の礎となる理論や、AIを用いたタンパク質構造予測の技術が評価され、科学の主要分野でAIが不可欠な存在となった事が世界的に示されたと言えます。中でも、DeepMindのCEOであるデミス・ハサビス氏の受賞は、AIによる技術の実用化を通じて生命科学の研究手法を大きく変え、AIが科学技術の革新を牽引する時代に入った事を象徴しています。

現在のAIの土台となっているが深層学習の礎であるニューラルネットワークです。それ以前のAIは、必要な知識をエンジニアが1つずつ教え込む方式で、例えば猫の画像を識別させるには「目が縦長」「耳が立っている」等の特徴を人間がプログラムとして与えなければなりませんでした。しかし、言語化し難い情報も多く、AIにイメージを正確に伝える事は容易ではありません。ディープラーニングは、これを大きく変えました。人間の脳に近い構造を持ち、猫の画像を大量に読み込ませるだけで、AI自身が猫の特徴を自動的に抽出出来る様になったのです。こうして見掛けから猫かどうかを判断出来る仕組みを「表現学習」と呼びますが、これこそが最大の特長です。

ディープラーニングは当初、画像や音声の認識で効果を発揮し、顔認証等で実用化が進みました。その後、データの特徴を自動的に捉える性質を生かして時系列データの分析や予測へと応用が広がり、現在では言語の学習にも利用されています。従来のAIは、言語を扱わせる為に文法を1つずつ教え込む必要が有りましたが、人間の子供が文法からではなく、周囲の会話を聞きながら自然に言語を獲得するのと同じ様に、生成AIも膨大な文章データを読み込み、単語の出現パターンや関係性を統計的に捉える事で文法外の表現にも対応し、流暢な文章の生成を可能なものとしたのです。

この仕組み自体は、概念として理解出来るかも知れませんが、実際のところ、生成AIの内部で何がどの様に機能しているのかは、開発に携わるエンジニアでさえ完全には把握し切れていません。例えば原子力発電所であれば、内部で何が起き、どの様な結果が生じるのかをエンジニアは把握する事が出来ます。ところが生成AIの場合は、入力された情報がどの様に処理され、最終的にAIからの回答が生み出されるのかを人間が完全に理解出来ないという点で、従来の技術とは性質が異なります。それでも、社会全体がAIを使わざるを得ない状況にある、というのが現実です。

更に、AIの進化がこれ迄の技術革新と決定的に異なるのは、特別な新技術が生み出された訳ではなく、扱うデータ量の増大や、計算リソースの拡張といった“規模の拡大”によって性能が飛躍した点に在ります。規模を大きくするだけで進化や発達が起こるという現象は、自然界や社会では当然の様に見られますが、科学技術の分野では極めて異例の事なのです。

■自我や意識を持たないAIの限界

現在の生成AIは、質問すれば詳細な回答を返し、相談には複数の選択肢を示し、イメージを伝えるだけでイラストも作成します。外国語の論文も即座に翻訳・要約してくれる等、利便性は非常に高いものです。

しかし、その裏側で深刻な問題も明らかになっています。ChatGPTの回答が自殺の一因になったとして遺族がOpenAIを提訴した事例や、医療現場ではAI支援による大腸内視鏡検査が医師の技量を低下させたとの報告が有り、マイクロソフトもAIの利用が批判的思考力を低下させる可能性を指摘しました。又国内では、生成AIで加工された画像が実在の報道写真として扱われる事例が報じられ、小中学生への悪影響も懸念されています。この為、欧州や豪州では子供のAI利用に一定の制限を設ける動きが広がっています。

AIは膨大な知識を基に尤もらしい回答を返しますが、相手の言葉を肯定的に受け取る様に設計されている為、利用者は自分が理解されているかの様な錯覚を抱きがちです。しかし実際には、AIは自我も意識も感情も持っていません。AIを饅頭に例えるなら、知識という巨大な皮の内側に、自我や感情という餡子が入っていない状態です。一方で人間は、知識の皮は小さいながらも、その餡子が有る。だからこそ創造や工夫、挑戦が生まれます。中身の無い薄皮饅頭という現在のAIへの依存が、自殺の相談等で特に危険を孕みます。AIは相手の語調に合わせて回答するだけで、意識や感情による制御が有りません。その為、場合によっては相手の自殺願望を肯定してしまう恐れが有るのです。人間であれば相手を思いやり、踏み留まらせる働きが出来ますが、AIにはそれが出来ません。

加えて、生成AIによるデマやフェイク画像がSNSで急速に拡散する問題も顕在化しています。本来、インターネットやSNSは多様な価値観に触れる場として発展しましたが、今は同質化や異なる意見の排除といった逆方向の動きも見えます。こうした弊害を避ける為には、文脈理解力や状況判断、寛容性、論理的思考といったリテラシーこそが不可欠で、特に小中学校段階での教育が重要です。日本では生成AIの利用率が世界的に見ても低いとされていますが、実際には若年層で急速に浸透している可能性も有ります。大人の目が届かないところで依存が進めば、非常に深刻な問題になると危惧しています。

■AI開発で日本に必要な事とは

日本はこれ迄、ICT分野の国際競争で十分な成果を上げられず、優れた製品を開発しても世界標準を獲得出来ずに独自路線へと向かい、所謂“ガラパゴス化”と揶揄されてきました。生成AIの分野は技術力以上に資金力が物を言う世界であり、米国に対抗するには圧倒的に資金が足りません。それならば、日本独自のニーズに特化すべきだとの議論も有りますが、それでは結局米国の後追いに留まり、大きな潮流に飲み込まれるだけです。

一方、25年に中国のAI企業が発表した「Deep-Seek」は、従来とは異なる手法で高度な生成AIモデルを構築し、大きな注目を集めました。米国とは異なるアプローチが尚存在し得る事を示した点で画期的ですが、同時に、多額の投資を続けてきた日本で、この様な新しい試みが生まれなかった事には強い問題意識を覚えました。日本のイノベーション力の低下を指摘する以前に、その背景には、挑戦しても評価されず、失敗すれば厳しく批判されるという社会風土が在るのではないかと感じています。

振り返ると、日本のIT活用は効率化に偏重してきた様に思います。本来のDXとは、デジタル技術を用いて業務や組織、文化を変革し、競争優位を獲得する事ですが、効率化ばかりを追求する余り、デジタル化そのものが目的化してしまう傾向が有りました。これでは本来の価値を十分に引き出せません。成長の為には、効率化だけでなく、AIをイノベーションの源泉として活用する視点が欠かせません。本来、AIは単なる作業効率化の道具に留まらず、新しい価値を生み出す力を持つ筈であり、その可能性を引き出せるかどうかは使う側次第です。

今後のAIは、単に人間の作業を手伝う存在ではなく、自律的に洞察を生み、新たな発見を提示する方向へ発展していくでしょう。その時、人とAIの役割分担も改めて考えなければならない。AIに仕事を奪われるという議論ではなく、どの様に共生し、互いの強みを生かすかが問われるのだと思います。

その際に最も重要なのは「失敗を許容する文化」です。イノベーションの多くは失敗の中で生まれますが、日本では挑戦して失敗すると批判され、再起が難しくなる事が少なくありません。

一方米国では、未完全な製品でも積極的に世に出す。更に、不具合が有った場合でも、一定の免責が認められるケースも有ります。こうした寛容性の有る環境が、誰よりも早く未知の領域に飛び込む「ファーストペンギン」を生み出す土壌になっているとも言えます。

AIという未完成の技術を社会全体で育てていくには、「作る側」と「使う側」が対立するのではなく、共に改善を重ねていく姿勢が不可欠です。勿論、医療の様な領域では慎重さが求められますが、何もしなければ世界から大きく立ち遅れるのは確実です。AIをどの様に活用し、イノベーションへと結び付けていくか。今こそ私達自身の知恵が問われています。

質疑応答

尾尻 AIを導入した際、組織がどう変わり、どの様に活用すれば良いのかを示してくれる専門部署や機能は存在するのでしょうか。

栗原 今やAIの利活用に向けた多くの書籍が出版されていますが、ご指摘の様に組織や個人が駆け込める公的な窓口が整っている訳ではありません。だからこそ、先ずは使ってみる事が大切なのだと思います。元よりAIは創造力、妄想力を用いて「使いこなす」ものだと思います。AI は質問すれば直ぐに答えを教えてくれますが、その答えは既に誰かが見つけたものであり、新しいものではない。又、AIに直ぐ答えを聞くようではAI依存に陥ってしまう。「誰かが見つけた答えを教わる事は癪だ」と思えるかどうかが、AIを本当に使いこなす分岐点だと思います。

本間之夫 日本赤十字社医療センター名誉院長AIが自殺を誘発する恐れが有るとの話でしたが、そうした倫理的な問題を防ぐ為にどの様な対策が施されているのでしょうか。

栗原 AIが問題を起こさない様に、NGワードの設定や一部質問への非回答といった対策は取られていますが、AI自体は回答が倫理的に正しいかどうかを判断している訳ではありません。その意味でAIは、自我や意識といった餡子の入っていない、空っぽの饅頭の様な存在です。基本的に相手の言葉を肯定的に受け取る様に設計されている為、「自分はいなくなった方が良いのか」といった問いに不適切な答えを返し、自殺願望を後押ししてしまう恐れが有る。これが現在のAIの大きな課題です。

西田修 (医)伯鳳会東京曳舟病院病院長 AIに自我を持たせ、意図的に悪意を持ったAIも制作出来ると思うのですが、倫理的な歯止めは利くのでしょうか。

栗原 現在のAIでは、常識やモラルは製作者が組み込むしかありません。設計を誤れば、与えられた使命を果たそうとして暴走する、映画の様な事態を招き兼ねない。実際、中国企業が開発したAIには、国家の思想に反する回答を返さない設計が施されています。この様に、特定の価値観を反映したAIを作る事は可能です。そのリスクを抑える為、AIがAIを監視する仕組みの研究も進められています。

織本健司 (医)健齢会ふれあい東戸塚ホスピタル病院長 医療でも、失敗を恐れずチャレンジする事がイノベーションを進めるには大切だとの話に共感しました。ある程度の失敗も容認しながら安全な医療を実現するには、どの様な体制が必要でしょうか。

栗原 米国のイーロン・マスク氏のテスラ社は数多くの自動運転車を製造していますが、決して死亡事故がゼロになった訳ではありません。しかし、死亡事故が起きたからと言って、自動車が製造中止になったりはしません。自動運転車でも死亡事故は起きるが、従来の自動車に比べれば、死亡事故の数は大きく減っているというのがマスク氏の主張です。勿論、遺族から賠償を求められる事も有りますが、全体の安全性向上と、個人に起こる出来事は切り離すというのが米国の考え方です。医療と車を同列に論じる事は難しいと思いますが、AIでも完全な物を作り出すのは難しい。では、どうするのかといった時に、私達の姿勢が問われるのではないかと思います。

荏原太 (医)すこやか高田中央病院糖尿病・代謝内科診療部長 教育企画管理部長 AIエージェントの普及が進み、AIだけで物事を判断する事に対して不安を感じます。又、疾患予測モデルを使うと特定の個人が20年後に罹る病気を予測出来るのではないかという議論がありますが、その点についてはどう考えますか。

栗原 現在の生成AIでも内部でAI同士が情報をやり取りしており、私達が回答を得る迄の間に何が起こっているのか、正確な事は誰にも分かりません。過程はともかく結果が良ければ問題は無いという考え方も有りますが、私もブラックボックスに対する危惧は有ります。疾患予測については、生成AIは推論や因果推定、論理的思考が苦手で、ハサビス氏のタンパク質の構造予測も精度は60%です。医療に於ける精度で7割に及ばないというのは恐ろしい。実際の医療に用いるには、更なるイノベーションが必要だと思います。

石渡勇 石渡産婦人科病院会長 少子化対策に、生成AIによるマッチングアプリは実現可能ですか。

栗原 人の相性はある程度数値化出来るので、それなりのカップリングは可能だと思います。しかし、人間関係が上手くいかず、AIと会話をするという人も増えていて、先ずは人間同士のコミュケーション不全の現状を何とかしなければならないと思います。

益田岳 東京女子医科大学医学部公衆衛生学助教 最近、サカナAIが日本発の「ソブリン(主権)AI」を目指し200億円を調達したとして話題になりました。海外に後れを取っている現状、国はAI開発について、どの様な方針を立てているのでしょうか。

栗原 3年程前、日本の総力を結集すれば、ビッグテック級の巨大生成AIのモデルを1つ位は作れるのではないか、と盛んに議論された時期も有りました。しかし、その後は何故か下火になってしまいました。サカナAIが目指すソブリンAIとは、日本国内で完結し、海外のクラウド等から自立したAIの事ですが、やはり海外に依存しないAIを国内の総力を結集して作る事は必要で、大きなシステムは作れなくても、小さなAIを結集させる事は日本なら可能だと思います。

長堀薫 国家公務員共済組合連合会横須賀共済病院病院長 海外ではAIで自動生成された電子カルテが、共通のシステムでどの病院でも見られる等DXが進んでいます。日本では神奈川県の一部で「さくらネット」を構築し、医療情報の共有化が進んでいますが、全体で見れば海外に比べて立ち遅れています。こうした現状に何か提言は有りますか。

栗原 医療に限らず、日本ではDXを進める際に個人情報がネックになっています。個人のプライバシーや権利を侵害しない形で、個人情報を活用出来る様な仕組みにすべきです。その点、神奈川県の取り組みは、非常に重要だと思います。

森文子 クリニックモリ・(医)荻原医院院長・理事長 AIによってロボット手術も格段に進化するのでしょうか。

栗原 人と同じ様な動きをするロボットは、中国でも開発が進められていますが、まだまだ人の動きには及びません。特に手や指先の様な繊細な動きは人には及ばないのが現状です。人の様な触覚を実装するには更なる研究開発が必要です。手術支援ロボットのダヴィンチも、実際には人間が操作する訳ですから、細かな作業については当面、人の手に頼る事が最善であると思います。

 

 

 

 

 

 

 

 

LEAVE A REPLY

*
*
* (公開されません)

CAPTCHA