2023年8月 のアーカイブ

472   対話型人工知能で変わる仕事、職場、働き方

2023年8月5日 土曜日

ITジャーナリスト 三上洋さんとの対談が企画され、8月4日に六本木のテレビ朝日放送センターでオンライン向けの録画を行ってきた。テレビでお馴染みの三上洋さんに対して、いつも難解なデジタル問題を分かりやすく解説されていることに、私はとても敬意を抱いている。今回も、ChatGPTに関する対談のリーダーとして私に優しくテーマを振って頂いたことに感謝した。

今回は、対談相手である三上さんに失礼にならないようにと、対話型人工知能として大きな話題となっているChatGPTに関して数冊の本を読んで勉強し、メモとして作成したものをこの場に書いてみたい。私自身も今年の初めから、講演資料の作成のためにChatGPTを利用しているが、よく何でも知っているなと感心することが多い。そして、意外な質問に対して誤答をすることは、むしろ可愛く思えたりもする。それでは、以下にメモをご披露していく。

〇対話型人工知能とは
・歴史

1956年:英国のコンピュータ学者であるアラン・チューリングが「機械」を「人間的」であるかどうかを試験するチューリング・テストを行った。1966年ワイゼンバウムが開発した「ELIZA」が、その会話能力で人間と見間違うほどの性能を発揮し注目を浴びた。このソフトウエアは小規模なもので、人間の言葉に対して反復し、優しく肯定する態度をとることによって多くの人の共感を得た。その後、精神疾患者の治療にも「ELIZA」の利用は極めて有効だった。

1970年:私は大学で手書き文字認識(AI)を卒業論文として取り組み、富士通の池田専務にスカウトされAI研究者として入社したが、1990年に20年間のAI研究生活を断念した。当時のAI開発は、その後「暗黒の時代」と呼ばれた。

2012年:カナダのトロント大学のヒントン教授が深層学習(ディープラーニング手法)によって画像認識コンテストでダントツの1位を取得し、ヒントン研究室もろともGoogleが買収した。この深層学習手法は、AI研究を根本的に変える「AIビッグバン」の源となり、世界のAI研究開発は大きく進展することになる。

2015年:イーロン・マスクとサム・アルトマンが非営利団体企業としてのOpen・AIを設立した。南アフリカ出身のマスクはAIが途上国や中小企業でも使えるようAIソフトをオープンソースとして誰にでも提供できる仕組みを作りたかった。一方、アルトマンはスタンフォード大学を中退後、シリコンバレーで最も成功確率が高いと言われていたYコンビネータのトップとして、自身で世界一のAI企業を創りたかった。

2017年:Googleが言語解析に深層学習を用いて文脈の中で重要な単語に注目できる手法として時系列データを逐次処置する必要のない「Transformer(機械学習モデル」を発表した。これによってデータ学習の並列化が可能となり時間の節約につながるという利点が大きい。ChatGPTも、この「Transformer」を使用している。

2019年:アルトマンは、2019年に対話型人工知能であるChatGPTの開発に際してマイクロソフトから10億ドルの資金提供を受けてOpen・AIを一般企業に転換し、それに反対するマスクはOpenAIから退出した。

2022年:マイクロソフトは、2022年に100億ドルの資金提供を申し出て、Open・AI社は事実上マイクロソフトの傘下に入った。その後、Open・AIは11月にChatGPT(GPT3.5)を一般公開し、2ヶ月間で全世界から2億人が参加すると言う快挙を成し遂げ注目を浴びる。現在は、有料のChatGPT Plus(GPT4)を提供している。

もちろん、生成AIは失敗も多く重ねてきた。2016年 マイクロソフト Twitter上で対話する「Tay」を発表したが、不適切な回答をすることで公開中止とした。また2022年 メタは生成AI「ギャラクティカ」を発表したが3日間で公開中止とした。

・機能

対話型人工知能は、従来の解析・分析・認識を行う人工知能の機能に加えて、人間の指示や質問に応じて、単に文章(テキスト)や画像だけでなくプログラムまで生成できる。

但し、この人工知能は自身が生成した文章や画像、プログラムが「正しい」とか「間違っている」という認識はない。人間が「正しい」と評価する基準は論理的思考からくるよりも、自分が信じる「誰」が言っているから「正しい」と考えていると思われる。人間が「正しい」と思っていることが全て正しいわけではないが、人工知能は最初から何が「正しい」か?を理解しないで答えを生成している。従って、生成AIの利用に関して一番重要なことは、質問する使用者が人工知能を使って生成した回答が正しいかどうか検証できる能力を有していることが重要となる。

生成AIのプログラム開発能力は極めて高いが、アウトプットされたコードが指示通りに動作するかは確認してみる必要がある。その意味で、プログラム作成を指示できる利用者はプログラムを理解できる能力が必要とされる。

・仕組み

ChatGPTに代表される対話型人工知能の基礎は大規模言語モデル(LLM)で出来ている。このLLMは、ある言葉の次にくる言葉の発生確率によって出来ていて、このデータを用いて前の単語列から次にくる単語を予測できるようにした言語モデル。この確率は大量の言語データの学習によって定められる。言語モデル(LLM)は意味を捨てて構造の中で言語を扱う。意味を捨てても、次の単語を予測できるように学習すると文章の中から予測に役立つ情報を扱えるような必要性に駆られて、結果として文章を理解できるモデルが出来上がる。

2020年1月Open-AIとジョンホプキンス大学は言語モデル(LLM)について、以下のような効果について述べている。

★投資効果の予測:投入データ量、モデルサイズ、計算量から性能を評価可能

★大規模化効果:「汎化」し学習効率が改善する

★創発的能力:モデルの巨大化により、従来は解けなかった問題が急に解ける能力を持つ。これは「宝くじ効果」と呼ばれている。

データの理不尽な有効性:Google 「The Unreasonable Effectiveness of Data」少ないデータで作られた精緻なモデルは、大量のデータで構築した簡易なモデルに駆逐される。Transformer:文章の中で重要な単語に注目し、重要でない単語は無視する手法は、大規模になればなるほど精度が向上する。

大規模言語モデルの登場 「べき乗則」の発見

訓練データ   パラメーター数  MMULスコア

GPT-1(2018)       30億トークン    1.2億

GPT-2(2019)           280億       15億     32.4

GPT-3(2020).          570億       1750億    53.9

Chat GPT (2022)                3550億               70.1

PaLM(Google)(2022)   7800億      5400億    75.2

GPT−4(2023).              1兆       数兆     86.4

MMULスコア:数学、歴史、計算科学、法律など57のタスクからなり問題解決能力を評価するスコア。一般人のスコアは34.5。各分野の専門家が解いたスコアは89.8。

〇政府や自治体、民間企業での活用状況

★日本政府:ChatGPTの積極的な利用を促進するため、セキュリティ対策として日本国内にデータを閉じたMicrosoftのデータセンターを利用することを決めた。

★金融:三菱UFJ銀行はChatGPTを使用し、汎用業務で80箇所、銀行特有業務で30箇所での活用を決めた。稟議書作成、金融レポート、手続き紹介などから始るためMicrosoftの法人向けクラウドサービスの利用を始めた。

★製薬:アステラス製薬、第一三共、小野薬品など国内5社が創薬に特化した大規模言語モデル(LLM)を三井物産が提供するエヌビディア製の創薬支援向けスーパーコンピューターを共同利用し開発する。・

★流通・小売:DROBE社ではChatGPTを活用したAIスタイリストを展開。

★コンサル:EY Japanは上場企業の有価証券報告書の中からESG関連情報をGPT4で検索。調査時間が従来の20分の1に効率化された。

★教育:東洋大学では有料のChatGPT Plusを職員・学生に利用させる。坂村健情報関連学部長は「今後、生成AIを使わない仕事はなくなるだろう」と語る。また、日本一の学習塾である東進では英作文添削にChatGPTを利用している。

★自治体:横須賀市では全職員にChatGPTを導入し業務文書の作成に利用、従来の数分の一の時間で作成可能となり大幅な効率化が図られた。

〇欠点と限界

★幻覚 (ハルシネーション)が簡単には解決出来ない理由

汎化:有限な学習データを元に無限の未知のデータを処理するために起きる。新しい関係性や事実を導き出せると同時に誤った関係や事実を導くことがある。

破壊的忘却:新しいことを覚えると以前に覚えたことを忘れることがある

★プライベートな領域に入り込む:対話サービスはプライベートな情報を含む

★価値観や偏見の扱い方:目標駆動学習(人間のフィードバックによる強化学習

★本人であることの証明が難しい

〇懸念される問題点(著作権侵害、機密情報流出、フェイク映像・画像、誤情報)

★著作権侵害:生成AIが作成するコンテンツの著作権問題はかなり深刻となる。既存コンテンツのどこまで、参照して、作成の参考にしたのかが明確にはわからない。このため、ハリウッドなどエンタメ業界では生成AIに関して猛烈な反対運動が展開されているが、将来は、生成AIを全く使わないコンテンツ作成業務はあり得ないと考えた方が良いのではないか。

★機密情報流出:生成AIを使う際に入力される機密情報を含む質問データを生成AIが保有するデータに蓄積されるという危機が存在する。このため、生成AIを提供する側からの質問をデータに取り込まないという保証をもらえない限り、機密情報に関わる質問は入力しないという注意が必要となる。

★フェイク映像・画像:最近の生成AIが創り出す映像・画像の真偽を確かめるのは非常に難しい。さらに、元来、生成AIが提供してくれる情報やデータには誤情報も少なくない。誤情報がネット上に大々的に流布されるという問題は、生成AIが未発達だった、これまでにも頻繁に起きていた。こうした問題を避けるためには、各個人がネット上の情報の真偽を確かめる技量を高めていく必要がある。

★海外からのネット攻撃:生成AIが持つ大規模言語モデル(LLM)は翻訳能力も高いので巧みな日本語でフェイク情報の提供や恐喝や詐欺を行ってくる危険性が従来以上に高まる。

〇対話型人工知能で日本はどう変わるか

・少子高齢化や地方の過疎化など社会問題は解決できるのか

少子化高齢化の最大の問題は労働生産人口の大幅な減少である。こうした労働生産人口減少は世界の先進国共有の課題であるが、欧米各国は移民によって減少する労働生産人口を補う政策を進めてきた。しかし、今後アフリカ以外の途上国では初等中等教育の拡充により、先進国の課題である少子化が始まっている。

さらに、目覚ましい発展を遂げている東南アジア各国の労働賃金は高騰化を続けており、日本へ出稼ぎに行く魅力が大きく減っている。インドネシアやフィリピンの若者が出稼ぎを希望する国はドイツや中国となっている。2040年の日本は、1000万人もの労働人口の不足に悩まされることが予測され、こうした人材不足と言う事態に備えて大幅な生産性の向上を目指さなければならない。

生成AIは、各業種・職種にわたって労働量の大幅な省力化が期待されており、日本にとって、このツールを国民全体で駆使することは必須の命題だと考えられる。

・ホワイトカラーの仕事は奪われるのか

IoTの発展は各種自動機の会話によって工場の仕事を大幅に削減してきた。この動きと同様に、対話型人工知能としてのChatGPTのような生成AIは、これまでオフィスで行われてきた各種事務作業を大幅に改善し省力化が可能となる。しかし、生成AIが行う仕事は人間と同様に一定の確率でミスや間違いが存在するので、製造業の自動機のように全て自動的に行われる完全省力化は出来ない。しかし、これまで、上司の指示の下で準備作業として行われてきた下記の業務に携わる人々の仕事は、今後省人化が進むことは間違いない。

★資料作成:草稿づくりは不要。着想のとっかかり、叩き台作りにAIを使う。★画像・イラスト作成:パッケージ、広告、バナーのデザイン案の作成に貢献

★プログラミング:下書きの作成。人間の仕事は誤りを見つけ正しい機能に仕上げることになる。

★翻訳:生成AIの出現で言葉の壁が取り払われる。

★整文:TPOに即して、いろいろな文体に書き換え。

★サマリー:長い文章を一瞬で要約できる。

★調べ物:従来の検索より効率的に調査できる。

・オフィスワーカーの働き方が変わる

8割の人の仕事が10%変化する。20%の人が50%以上変化する。LLMと他の生成AIを組み合わせると50%の人が仕事の半分以上に影響を受ける。最も影響の大きな職業はプログラミング開発と書物に関する仕事。顧客とサービス提供者で知識の非対称性がなくなっていく—コンサル業の危機

テキスト生成AIは人間を単純作業から解放する。

画像生成AIはビジュアル素材を作る際のアイデア作成の壁打ち相手になる

★営業:データ集計、提案資料の作成が高速化

★一般事務:大半の書類仕事が一瞬で終わる

★マーケッター:売れる仕組みをAIと推敲する

★広報:プレスリリースの制作が容易になる

★研究者:調査・研究の労力が大幅に削減

★ライター:AIが生成した草稿をブラシュアップする作業になる

★編集者:構成案、書籍タイトル案の検討にAIを使う

★デザイナー:デザイン案の創出が効率的

★アナウンサー:自動読み上げ

★士業:膨大な書類作成が効率化

★プロデューサー:企画書、台本作成、進行管理はアイデアの精査に集中できる

★プログラマー:人間は簡単なプログラムを書く必要がなくなる

・新しい時代の人材育成方法や求められる社員像は

生成AIの出現により、人間として、これまでとは求められる全く働き方が異なってくる。生成AIでは出来ないこと、人間にしか出来ないことで評価される。つまり、これまで高い評価を受けられなかった看護、介護、保育といった生成AIでは出来ない仕事が評価されるようになる。

生成AIが本格的に使われるようになると、生成AIをうまく使いこなすプロンプト・エンジニアの仕事が脚光を浴びるかも知れない。つまり、AIが誰になって欲しいのか?を明確にしたり、言葉遣いや情報の詳細度を指定したりする仕事である。この仕事は、AIに完璧を求めないと共に最終アウトプットは必ず自分でチェックすることが求められる。しかし、AIの進化は劇的に進むので、こうしたプロンプトエンジニアの仕事も徐々に少なくなるかも知れない。

生成AIが普及した時代には、仕事のやり方が大きく変わる。つまり、ゼロから生み出す仕事から、掛け合わせる、繰り上げると言うDJ的な仕事に変化することになる。つまり、合理性では人間は生成AIには勝てなくなり、人間がやる仕事は、生成AIには簡単には出来ない面白いことや風変わりなことを考えることを求められてくる。

従来のオフィスワーカーは高等教育で多くの知識を学ぶことが役に立ったが、生成AIの出現でオフィスワーカーに対して求められるスキルが変わってきた。今後は、この生成AIの進化でさらに変わってくると思われる。こうした時代推移を考えると、誰もが色々なテクノロジーを活用して「ひとりで学ぶ」時代になったと言える。つまり苦手なことや時間がかかることはAIに任せる時代になっていくものと言える。こうした生成AIが普及した時代には、人間でしか出来ないことで評価される。もはや受け身、指示待ちの人でも仕事が得られる時代は終わったといえるだろう。

特に、最近米国のBigTechや高名なコンサルタント会社では、デジタル人材採用者募集要項から大学卒の要件を削除した。実際、こうした大手デジタル関連企業の新規就職者の中で大学卒業者の比率が低下している。今回、ChatGPTで有名になったOpenAI社のCEOであるアルトマン氏もスタンフォード大学コンピューター学部を中退している。つまり、既存の大学のデジタル教育カリキュラムが、もはやビジネス世界では役に立たなくなっていることを示している。さらに、会話型人工知能である生成AIは教育手段としても極めて有効ではないかと多くの経営者が考えている。

〇「ChatGPTと語る未来:リード・ホフマン& GPT4の共著」から

本書籍は、転職SNSであるLinkedInの創業者であり、OpenAIの創業メンバーの一人でもあるリード・ホフマン氏がOpenAIの開発したChapGPT Plusに内蔵されているLLM(大規模言語モデル)であるGPT4と共同で執筆した著作である。

ホフマンはスタンフォード大学を卒業後、Appleに入社した。その後、ジョブスの退社とともにAppleを去り、富士通アメリカに入る。私がアメリカに転勤になる1年前に彼は富士通を辞めて、ピーター・ティールやイーロン・マスクと共にペイパルを創業。多くのペイパルマフィアと同じくペイパルを退職した後、長年夢に描いていた転職SNSであるLinkedInを創業した。そのLinkedInをマイクロソフトに2兆7千億円で売却し、ホフマンはマイクロフト社の取締役に就任した。

さらにホフマンは、かつてのペイパルの仲間だったマスクやYコンビネーターのボスを務めたサム・アルトマンやヒントン研究室からGoogleのAI開発のTOPだったユダヤ系ロシア人で米国に移民したイルヤ・サツキバーと共にOpenAIを創業した。このメモは、本書の中で、ホフマンが述べている大規模言語モデル(LLM)に関する彼の見解をまとめてみたものである。

LLMはインターネット上で公開された膨大な量のテキストから個々の意味単位(単語、フレーズ、文章全体あるいは一部)の間に存在する最も一般的な関係を認識して作成されている。

この結果、ユーザーのプロンプトに対して文脈上適切で分かりやすい表現で事実に沿った返答をかなりの確率で生成できる。一方で、事実と異なる内容、明らかに意味をなさない発言、あるいは文章として適切に見えるが実際にはまるで根拠のないデタラメを返答することもある。

全て、計算とプログラミングに過ぎないLLMは、今の所、常識的な推論をしたり、世界の仕組みを考えたりするための事実や原理を学ばない。生成する回答について事実関係の確認や倫理的判断をしているわけではなく、入力されたプロンプトの単語の並びに対して回答すべき内容をアルゴリズムで推論しているだけだ。

学習に利用するコーポラは通常、バイアスや有害な内容を含む可能性のあるWEBソースを元にしているため、人種差別、性差別、脅迫などの不快なコンテンツを生み出す可能性がある。

OpenAIは、さらに複数のステップを踏みLLMが学習するデータセットからヘイトスピーチや攻撃的な言葉など好ましくないコンテンツを排除したり、LLMが生成するかも知れない問題発言に自動的にフラグを立てる「有害性分類」システムを開発したり、望ましい出力を示すラベルを人間の手で入力したデータを使い微調整した。

OpenAIを設立した目的は、AIの力を何百万人の手に直接届けるテクノロジーの開発だった。AIをトップダウン型の一つに集約する力でなく、分散型で個人に力を与えるものとして機能することを目指した。

OpenAIのアルトマンCEOは「私たちは、今、AI導入の課題をうまく乗り越えるのに最適な方法は、迅速な学習と慎重な反復という、しっかりしたフィードバックループだと確信しています。個人が使われるのではなく、個人が使えるAIツールを開発する最善の方法は、世界中の何百万人もの人々にAI開発に参加する機会を与えた時に生まれるでしょう」と言う。          以上