AI入門2:AIの歴史

(※シリーズ「AI入門」は、筆者が、2023年・2024年に愛知県中小企業診断協会の理論政策更新研修での登壇内容「AIを活用した中小企業診断」の補足資料として、本サイトに掲載しています)

みなさんこんにちは、デジタルボーイです。

本シリーズ「AI入門」の第2回となる記事となります。今回はAIの歴史についてざっくりとご紹介したいと思います。

記事を書いた人

デジタルボーイです。
データサイエンス歴20年以上のおっさんです。中小企業診断士として、データサイエンス、WEBマーケティング、SEOに関するデータ分析、コンサルティングの仕事をしています。自己紹介の詳細はコチラ

目次

AIと意外と古くからある?

AIって、ここ最近になって爆発的に普及しましたね。なので、ここ最近で作られた理論体系なのかと思うかもしれません。でも、実は、結構前から研究されていた分野だったりします。

例えば、僕も大学院時代(20年以上前です)は機械学習という手法を使ったデータ分析について、研究していました。この機械学習という手法は、現在、AIによるデータ分析の主要な技術的方法となっています。ただし、僕が研究していたころは、「人工知能の研究をしていた」とは僕自身も全く思っていなくて、所属していた研究室も人工知能の研究室ではなくて、データ解析や心理学における統計学を研究する研究室でした。

何が言いたいのかというと、昔から存在した技術ですが、それを最近になって「AI技術」とよばれるようになった技術って、結構あるということです。なので、いきなりAI技術がここ最近になって、まったくゼロから生まれというものでもないんですね。

では、AIの歴史(研究史)について、見ていきましょう。

年譜からみる、AIブームの浮き沈みと歴史

AIの誕生と第1次AIブーム:1950年〜1960年

「人工知能」(Artificial Intelligence)という概念は1956年のアメリカで開催されたダートマス会議で初めて、公式に提唱されたと言われています。

この会議では次のような研究者が、参加し、人工知能について、議論したと言われています。

  • ジョン・マッカーシー(John McCarthy)
    「人工知能」という用語を初めて提唱した人物。AI研究の草分け的存在。
  • マーヴィン・ミンスキー(Marvin Minsky)
    AI分野の第一人者の1人。認知科学や神経科学の研究を通してAI理論を発展させた。
  • クロード・シャノン(Claude Shannon)
    情報理論の創始者。コンピュータと論理的な情報処理の関係性を明らかにした。
  • ハーバート・サイモン(Herbert Simon)
    意思決定理論の先駆者。AI研究を通じて人間の意思決定プロセスの解明を目指した。
  • アラン・ニューウェル(Allen Newell)
    シンボル処理アプローチによるAIシステムの開発に尽力した研究者の1人。

ダートマス会議の後、研究者による人工知能の研究が進みます。この結果、コンピューターによって、特定の問題(迷路や数学の定理やゲーム)に対して、一定の解を求めることができました。このようなことから、「人工知能とかいう、ものすごい技術があるんやな!」といった感じで、界隈では、AIに対して、大きな期待を寄せました。

このようなことから、「AIすげ〜!!」という感じでものすごい期待からブームがきました。このころを第1次AIブームと呼ばれています。

冬の時代:1970年代ごろ

しかし、実際には、その期待は過剰なものだったです。というのも、AIを使った問題解決は、ある程度決まりきった特定の問題(迷路や数学の定理やゲームなど)であって、人間が生活する上で直面する複雑な問題については、まったく処理できないものだったんですね。

AIに対する世間の期待が過剰だったこともあり、実際のAIでできることがだんだんわかってくるにつれ、「なんや、こんなことワシにもできるわ!」といった感じで、「実はAI大したことない説」が広まります。これにより、AIブームは急速に冷め、冬の時代が到来しました。

第2次AIブーム:1980年代ごろ

そして、1980年代は、AIの第2次ブームが起こります。特に、エキスパートシステムという人の持つ知識をデータベース化し、瞬時に回答をする仕組みが作られ、注目されました。

このエキスパートシステムというのは、ある特定の専門分野の専門家がもっているその人の知識を一旦データベース化し、それを効率よく検索させるようにプログラム化したものです。ここら辺は、今のAIともかなり近い仕組みですね!

このデータベース化した知識と検索機能により、専門家でなくとも、AIが専門家を模倣して、質問に対して回答するというような、対話型のシステムを構築しました。今でいう、AIチャットボットの原型のようなものですね。

これにより、またもや「AIすげ〜!」となり、AIブームがやってきました。

冬の時代:1980年代ごろ

エキスパートシステムの台頭による第2次AIブームはすぐに廃れてしまいます。AIブームが廃れた、大きな理由の一つは、AIに食わせる知識をデータベースするするのがめんどくさいという点でした。例えば、医療用のAIを作るにあたて、このような症状だったらこれ、このような症状だったらこれ、というようなパターンをコンピューターに管理しないといけません。でも、このころのコンピューターは今ほど使いやすいものでもないですし、膨大な知識をデータ化することが、とてもめんどくさかったようです。

「人間がやれば一瞬なのに、それをわざわざデータベース化する意味あるんか?」という感じで、知識のデータベース化の難しさから、このエキスパートシステムは多くの分野で広まることなく、ブームが冷めていきました。

第3次AIブーム:2010年〜(→NEW!)

AIに食わせるデータベース化の難しさからAIは冬の時代に突入しました。しかし、2000年ごろからビッグデータと言われる、大規模データが急速に広まります。インターネット技術によって大規模データのやり取りが簡単になったり、ハードウェア技術の進歩によって、大規模データを安価に保管したり、大規模データをスピーディーに操作することもブームの手助けになりました。

第2次AIブームの弱点だった知識のデータベース化は、ビッグデータの活用により多くが解決できたんですね!

また、最近の生成AIなんかでも活躍しているディープラーニングという技術ですが、この技術の核となる理論(誤差伝播学習理論)は、実は1970年代には確立されていました。しかし、その頃のコンピューターの処理能力が貧弱だったので、この理論を実装させることができなかったんですね。それが、今のコンピューターやインターネットなどの発展によって実装できるようになり、現在の生成AIブームに繋がっています。

このようにAIというのは、理論・データ・コンピューターの処理能力、の3つが高度に重なることで実現できているんですね!

AIの今後の展望

ここからは、僕の個人的な想像になります。ChatGPTなんかを使って思うんですが、文字で質問を入力するのって、結構手間なんですよね。とは言え、音声でChatGPTに質問するインターフェースも、今のところそんなに便利ではありません。

今後は、テキストで質問するんではなく、会話するような感じで生成AIとやり取りできるように進歩するんだと思います。

そして、さらにそれが進むと、会話すらめんどくさくなる、ということもあると思います。そうすると、口にしなくとも、考えただけで、その考えがAIに伝わるといいですよね。攻殻機動隊の世界のように、脳が直接コンピューターと繋がる時代もそんなに遠くないと思います。

次のコラム

前回のコラム

目次