日本の医療の未来を考える会

第69回 世の中を変えて行く最新AI技術 ChatGPTは何をもたらすのか
(東京大学情報理工学系研究科次世代知能科学研究センター教授 松原仁氏)

第69回 世の中を変えて行く最新AI技術 ChatGPTは何をもたらすのか(東京大学情報理工学系研究科次世代知能科学研究センター教授 松原仁氏)
米国のOpenAIが開発した言語生成AI「ChatGPT」が社会を大きく変えようとしている。インターネット上の膨大な情報を取り込み、様々な質問に応え、幅広い分野についての文章を書くChatGPTは、人間と暮らすロボットやアンドロイドといった人類の長年の夢を叶えるかも知れない。その一方で、AIの暴走による人類の危機が現実になる事を懸念する声も有る。ChatGPT等生成AIはどの様な未来を私達にもたらすのか。東京大学情報理工学系研究科次世代知能科学研究センター教授の松原仁氏に講演して頂いた。

原田 義昭氏「日本の医療の未来を考える会」最高顧問(元環境大臣、弁護士)ChatGPTは既に多くの人に活用されており、今後どの様に発展して行くのか非常に楽しみにしています。GPTとは何を略したのかと調べたところ、Generative Pre-trained Transformerの略で「Pre-trained」には、AIが事前に学び取った情報という意味が有る様です。AIが学んだ膨大な情報はどの様に活用され、私達の生活にどの様な影響を及ぼすのか、本日は最先端の技術を皆様と共に勉強したいと思っています。

三ッ林 裕巳氏「日本の医療の未来を考える会」国会議員団代表(衆議院厚生労働委員長、元内閣府副大臣、医師)先日、今年の骨太の方針が閣議決定されましたが、医療・介護・障害福祉の「トリプル改定」が迫る中で、社会保障費の高齢化相当分の他、物価高や電気代、人件費の高騰に対応する財源は予算編成課程で検討する事になりました。年末の予算編成過程においては、しっかりとした予算を確保する事と、トリプル改定でのプラス改定を実現する為、私も覚悟を決めて取り組んで参ります。ChatGPT等のAIの活用については、国でも検討して行かなくてはならない課題です。

古川 元久氏「日本の医療の未来を考える会」国会議員団メンバー(衆議院議員)世界初の大量生産車、「T型フォード」が発売されたのが1908年で、それから10年余りでニューヨークの街から馬車は姿を消し、車の時代へと変化しました。ChatGPTはT型フォードと同様の劇的な変化を社会にもたらすと言われています。AIの性能が向上したら、AIに判断を任せればいいので、我々政治家は不要になるとも言われますが、医療界にも大きな影響を及ぼすでしょう。私達の社会や生活がどの様に劇的に変化して行くのかを勉強させて頂きます。

和田 政宗氏「日本の医療の未来を考える会」国会議員団メンバー(参議院議員)岸田内閣の支持率が残念ながら下落傾向にあります。これはマイナンバーカードを巡る対応のまずさと、LGBT理解増進法に対する、賛成派と反対派双方からの失望が要因だと指摘されています。私はこれに加えて、政府の少子化対策に対する子育て世代の失望も有るのではないかと思っています。我々自民党の議員連盟の中では、抜本的な対策の1つとして卵子の凍結に対する助成金の創設について議論を行っていますが、今後も有効な少子化対策に力を尽くして参ります。

尾尻 佳津典「日本の医療の未来を考える会」代表(『集中』発行人)ChatGPTは2022年11月に公開されましたが、米国の医師国家試験や、米ペンシルベニア大学の調査ではMBAの最終試験で、合格水準に達したそうです。嘗て日本は半導体やITで世界をリードしていましたが、長く惰眠を貪っている間に、後進国の扱いを受ける迄になってしまいました。しかし、ChatGPT等生成AIの分野は、未だ競争が始まったばかりです。あわよくば日本が生成AI先進国になれるのではないかと、私は期待しています。

講演採録
■膨大な情報処理能力で生成が可能に

生成AIには、ディープ・ラーニング(深層学習)という技術が使われています。ディープ・ラーニングはこの10年ほど使われている技術で、これ迄顔認証や音声認識機能等の認識AIとして使われて来ました。その技術が進歩して、認識するだけでなく自分で画像や文章を生成出来る様になった。2022年前半から先ず画像生成AIと呼ばれるソフトが生まれ、終わり頃から言語生成AIが出て来ました。その代表格がChatGPTです。Transformer(トランスフォーマー)という自然言語処理に関する深層学習モデルを使っています。

それ迄認識しか出来なかったAIが、何故自ら生成出来る迄進歩したかというと、データの量を大幅に増やしたからです。人の脳には多くの神経細胞のネットワークが張り巡らされていますが、AIはそうした脳の働きを模倣する事で発展して来ました。この試みは1950年代から始まりましたが、当時はコンピューターの性能が低く、大量の情報を処理出来ませんでした。しかし、処理能力が向上した事により、脳の神経細胞の様なネットワークで大量の情報を処理出来る様になりました。画像AIの場合は約2億個のパラメータが有り、その組み合わせによって画像を生成しています。

ChatGPTの仕組みは、画像AIとは少し異なり、それ程複雑なものでは有りません。先ずインターネット上に在る新聞記事や個人のブログ等、公開情報を掻き集めます。コンピューターがチェックせずに集めるので、内容もレベルも様々で、間違っているものも数多く有ります。そうして570GBという膨大な情報を学習する事で、パラメータも2000億という数に上ります。これだけのパラメータが有るからこそ、高いレベルの文章を作成出来る訳です。

具体的に説明すると、「日本の総理大臣は」と尋ねた場合、AIは膨大な情報の中から「岸田文雄」という答えが最も正しそうだと判断して、「岸田文雄」という単語を持って来る。そして、次に続く言葉は「である」が適当だろうと判断して、「日本の総理大臣は岸田文雄である」という文章が出来上がる。謂わば「次の空欄に当てはまる単語を選びなさい」と言う穴埋め問題を次々と解いている様なもので、時折間違った答えが含まれるのはそのせいです。

我々AIの専門家も、こんな単純なアルゴリズムで、これ程流暢な文章を作成出来るとは思っていなかった。OpenAIの開発者も「これ程の性能になるとは思わなかった」といった発言をしています。

■翻訳能力には優れるが空間認識が苦手

ChatGPTの能力ですが、米国では司法試験や医師国家試験の合格ラインに達しています。最新のGPT-4は、日本の医師国家試験の合格ラインにも達したそうです。使った事が有る人は分かると思いますが、GPT-4はそれ迄のChatGPTに比べ格段に性能が高い。只、その様なGPT-4も日本の司法試験はまだ合格ラインに達していないそうです。これは日本の法律制度や判例に関する情報が乏しいからでしょう。法律は医療とは違って、国によって全く違うという点も原因だと思います。又、ChatGPTは空間認識能力が弱いという指摘も多い。これはAIの知識は所謂耳学問ばかりで、実際に見たり聞いたり触ったりして得た知識は無いのが理由でしょう。

生成AIについて、欧米では著作権侵害の恐れが指摘されています。日本では2018年に著作権法が改正されましたが、AIに対する規制が甘く、「日本は生成AIにとって天国になっている」とも言われます。当時は、現在ほど生成AIが急速に進歩するとは考えられておらず、ディープ・ラーニングで大量のデータを学習させ易くする為に、公開情報は営利・非営利を問わず著作物を利用出来る事にしました。例えば顔認証システムを開発する際、1人1人から許可を取り、お金を支払っていたら、大量のデータを取集出来ません。ところが、その後に生成AIが登場し、この法律改正が生成AIに有利に働いている状況となっています。

ChatGPTの能力に関しては、質問に対しては直ぐに返答がありますが、その答えが合っているかどうかを自分でチェックする事は出来ません。大量の情報の中から論理的に正しいものを穴埋めする様に繋げているだけですから、同じ問いに対して違う答えを出す事も有ります。

翻訳能力には優れており、現在、翻訳ソフトの中では最高性能と言われる、ドイツのAIベンチャーが作ったDeepLの性能を超えているとも言われています。実際にChatGPTを翻訳ツールとして使っている人も多いでしょう。米国製ソフトなのに日本語で使えるのも、翻訳能力が高い為です。因みに、ソフトの中では、日本語の質問を英語に翻訳し、英語の答えを日本語に翻訳して出力しています。その為、日本の人物や文化についての答えに間違いが多いのは、英語で書かれた日本に関する情報が乏しいせいです。

又、初歩的なコンピューターのプログラムも簡単に書けます。独創的なプログラムを直ぐに生み出す事は無いでしょうが、大学の情報系学部の学生に出す基礎的な課題程度なら簡単に出来てしまう。ですから、大学の教員は困っています。

高い性能を誇る生成AIにも、今述べた様に課題が有りますが、それを改善する試みも続けられています。間違いが多い理由は、データの量と質ですから、データ量が増えていけば改善されて行くでしょう。空間認識の弱点についても、目や耳を持つロボットに学習させるという研究が進められています。AIが意味を理解しないという点については、人間にとっての「意味」とは違う概念で、AIは「意味」を理解しているのかも知れないという議論が研究者の間で交わされています。

■最終判断の責任を持つのは人間

AIの急速な進歩に対し、最近はChatGPTの様な生成AIの開発を一時ストップすべきだとの議論も起きています。ルールが無いので危険だという考えも理解出来ますが、規制してもルールを守らない人は出て来ます。自動車も最初は免許制度も法律も未整備なままで使われ、死亡事故も多かった。それでも、登場から10年程で馬車は殆ど自動車に置き換わりました。生成AIも同様にメリットがデメリットを上回る以上、流れは止められない。使いながらルールを整備して行くしかないと思います。

又、日本製の生成AIも安全保障上の観点から開発を急ぐべきです。ChatGPTを運用しているのは民間企業ですから、いつ「これから利用1回につき1万円頂きます」と言い出してもおかしくない。そうするとChatGPTを利用している企業・団体等はたちまち立ち行かなくなる。それに日本製が実現すれば、日本語のデータが増え、日本に関する情報の精度も上がります。日本語特有の思考や構文も反映し、より日本語らしい文章も生成出来る様になるでしょう。

生成AIの研究は、日本のスーパーコンピューター「富岳」等を使って進められていますが、著作権を巡る対応で、日本は生成AIの開発に有利な状況であると言えます。米国では著作権に関する意識が高く、EUも個人情報に関する規制が強い。しかし、日本は結果的に今の著作権法も含めて、発展と規制のバランスが世界の中で一番良い。この為日本にはチャンスだと言えます。OpenAIの社長が何度も来日していますが、彼等も日本に開発拠点を置けば、法律をクリアし易いと考えています。

それに、日本と欧米では、AIに対する感覚が異なります。欧米はハリウッド映画でよく見られる様に、AIが人間と対立し、世界を滅ぼしてしまうというストーリーを作りがちなのですが、日本では鉄腕アトムやドラえもんの様に、ロボットやAIが人間と仲良くなるというイメージを抱きます。この点は社会学の研究者も指摘していて、日本は世界の中でもAIに対する受容性が高い。こうした法律や社会の受容性という点から、日本にチャンスが訪れていると思います。

医療現場におけるChatGPTの活用ですが、論文の要約に便利です。学者もそうですが、忙しくて最先端の英語の論文を何本も読む事が中々出来ない。そこで、論文をChatGPTに読み込ませると、日本語の要約が直ぐに出て来ます。翻訳や要約の機能は優れているので、この部分では誤りは少ない。明らかに内容がおかしい事もあるのですが、要約を読んで全文を読む価値が有ると思えば、元の論文を読めばいいのです。

手術ロボットの開発も進んでいますが、やはり空間認識能力に課題が有りますから、未だ限られた場面でしか使えません。又、診断や治療方針は最終的に人間の判断に委ねるしか有りません。責任という概念は人間同士での概念ですから、AIに責任を取らせる訳には行きません。高度なレベルでAIが関わっていても、裏に居る人間が最終判断を下すというのは、医療に拘わらずAIの活用に於いて重要な点だと思います。

質疑応答

尾尻 ChatGPTを使って書いた原稿を書籍にした場合、著作権は誰に有るのでしょうか。

松原 その点については、法律の専門家を含めて侃々諤々と議論がなされています。著作権侵害の問題については、人も文章を書く時に、必ず以前読んだ文章の影響を受けていて、文体や内容が似る事も当然有ります。AIも同じで、具体的に全く同じ表現や文章が無い限り、著作権侵害に当たらないだろうと考えられています。

荏原太・医療法人すこやか高田中央病院糖尿病・代謝内科診療部長 日本製の生成AIが必要との事ですが、ガラパゴス化する可能性の有る日本版ChatGPTを作る必要が有るのでしょうか。

松原 日本でしか使われない生成AIを作るという意味ではなく、作ったら英語圏など外国製のAIと繋げるのが次の段階です。アジアでも韓国や台湾は自前の生成AIの開発に着手していますし、ヨーロッパでも開発が始まっています。それらのAIを繋げるという話も既に出ています。

荏原 AIの開発を進める上で、日本の優位性はどこに有るのでしょうか。 

松原 社会のAIの受容性が高いという点で日本には優位性が有る。世界中の技術者はAIと人が良い関係を築く世界を目指しているのですが、信頼されるAIを実現する舞台として日本は最適かも知れないと、僕は個人的に思っています。

小林泰之・聖マリアンナ医科大学医療情報処理技術応用研究分野大学院教授 私達の大学でも、学生がChatGPTを使って起業したり、医療情報システムの開発を企業と進めたりしているのですが、ChatGPTはインターネットに接続しなければ使えない点にセキュリティ上の懸念を感じます。又、OpenAIという民間企業に個人情報を送らなければならない点にも抵抗が有ります。

松原 インターネットに繋ぐと、情報漏洩のリスクが有るというのは事実です。セキュリティの技術は格段に向上していますが、それを破る技術も上がっている。情報の技術者からすると、全ての医療情報をどこかのサーバーに全て納めるのが理想なのですが、「セキュリティを破られたらどうするのか」という指摘に明確な反論が出来ないのが現実です。リスクを限りなくゼロに近付けて行くという事でご容赦頂くしかないと思っています。OpenAIに個人情報を送る事への不安については、技術的には間にAPI(Application Programming Interface)を挟めば、直接OpenAIにデータを送る事は避けられます。但し、信頼の置けるAPIに依頼する事が重要です。

頴川晋・東京慈恵会医科大学悪性腫瘍リキッドバイオプシー応用探索講座教授 世界の中には、悪意を持ってAIを利用する国も出て来る筈です。そうした国にセキュリティを破られると、我々が想定していなかったトラブルに見舞われるかも知れない。攻撃への防御はどうなのでしょうか。

松原 AI技術はセキュリティや安全保障に関わるものになっており、AIとセキュリティは我々の研究分野でも重要な課題になっています。日本では総務省の研究所が中心に取り組んでいますが、私は日本のセキュリティ対策のレベルは世界的に見ても高いと思っています。日本が開発を進めている生成AIも、かなりセキュリティを意識していると聞いています。又、最近はパソコンにアプリとして搭載し、インターネットに繋げなくても使える生成AIの研究が始まっています。ChatGPTは膨大な数のパラメータが必要なので、個人レベルのパソコンには入りませんが、それを小さくするのが目的です。いずれインターネットから切り離された生成AIも出来て、セキュリティへの不安も軽減されると思います。

飯田修平・公益財団法人東京都医療保険協会練馬総合病院名誉院長 ChatGPTの文章には論理性が全く無く、根拠も示さないので、このままでは使えない。Transformerを使わない新しい仕組みが在ると聞いたのですが、教えて頂けますか。

松原 AIは論理的に推論している訳ではなく、何処かに論理的な文章が有るので、それを持って来るだけです。そこは現在の生成AIの限界です。論理的なAIは、第5世代コンピュータというプロジェクトをやっていた事も有って、日本が結構強い分野です。それと生成AIを組み合わせると、日本に優位性が有るのではないか、というアイデアも有りますが、実現には少し時間が掛かりそうです。

宮本隆司・社会福祉法人児玉新生会児玉経堂病院院長 論理的なAIが出来ると、我々医療の専門家の役割も変わって行くのではないでしょうか。患者がAIで専門的な知識を得られるようになれば、専門医は必要無いという指摘も有る。すると、医療を目指す若い人も減って行くのではないかと思います。

松原 インターネットの普及によって患者の知識が増えた一方で、正しくない情報に惑わされるという事も起きています。生成AIの普及で、それが加速される可能性が有る。ですから専門家は間違った情報を正し、正しく説明する役割を担います。専門家の仕事の一部がAIに取って代わる事は有るとは思いますが、専門性の高い分野では、未だ専門家は必要とされる筈です。

原田義昭・日本の医療の未来を考える会最高顧問 囲碁や将棋の世界では人間がAIに勝てなくなり、これから様々な分野で人間は勝てなくなると言われています。しかし、自動車や飛行機に人が勝てないのと同じで、所詮、人類が作った技術です。AIを使いこなす事があっても、人類がAIに負ける事は無いと思っています。

松原 囲碁や将棋の世界では人間対コンピューターという時代が終わり、今はAIとの共存が上手く行っています。将棋の藤井聡太さんも、AIで勉強して更に強くなり、将棋界全体のレベルも上がっています。医療もAIの進歩によってレベルが上がるのは確実ですので、囲碁や将棋の世界の様に良い関係を築ける様、私もAI技術者として頑張って行きたいと思います。

LEAVE A REPLY

*
*
* (公開されません)

CAPTCHA