株式会社ファイブスターズ アカデミー

まずはお気軽に
お問い合わせください。

03-6812-9618

5☆s 講師ブログ

強いAI、弱いAI(1)

AI(Artificial Intelligence=人工知能)という言葉が生まれたのは意外に古く1956年。
数学者のアラン・チューリングが、機械が知能を持つかどうかを調べる「チューリング・テスト」を発表した1950年から数えて6年後のことです。
この年、日本では手塚治虫の『鉄腕アトム』が発表されているので、当時の日本人の人工知能のイメージは鉄腕アトムだったのかもしれません。

アメリカのダートマス大学に在籍していたジョン・マッカーシーが、人間のように高い知能を持つ機械の実現を目指して、十数名の科学者に呼び掛けて開催した通称「ダートマス会議」の席上、たまたま提案したのが「AI」という名称です。
その後数回に渡り人工知能ブームが訪れるのですが、全体的に見れば長い長い冬の時代が続きました。

巷で「シンギュラリティ」が囁かれるようになったのはつい最近のこと。
シンギュラリティとは直訳すると「技術的特異点」ですが、IT業界では「AIが人類の知能を超える転換点」を意味します。
一部の研究者の間では、2045年頃に訪れるのではないかと噂されています。
でも、AIが人間を超越する時代なんて本当にやって来るのでしょうか。

自律制御システムのベンチャー企業を経営する太田裕朗が、この問題をとても分かりやすく解説してくれています。
アメリカの哲学者ジョン・サールは、AIを「強いAI(Strong AI)」と「弱いAI(Narrow AI)」に分類しました。

強いAIとは、人間と同等の「意識」や「知性」を持つものを言います。
一方、弱いAIは人間の「知能」の一部に特化したもの。

強いAIとか弱いAIの代わりに、「汎用型」と「特化型」という区分けを使う研究者もいますが、どちらもほぼ同じ意味。
サールの分類に従えば、現在AIと呼ばれるものは、全て弱いAIということになります。
「強い」とか「弱い」という形容では分かりにくいので、人間の脳に例えてみることにしましょう。

「弱いAI=特化型AI」とは人間の知性に特化したもので、ヒトの脳でいうと「大脳新皮質」に相当します。
ここは、ヒトの進化の歴史ではかなり最近発達した部位。
一方、「強いAI=汎用型AI」は人間の脳と同等のものを目指していますので、知性だけではなく感情や意識、情動、倫理など思考の深層部分も含まれます。
つまり、大脳新皮質だけでなくもっと古い部位もひっくるめて、人間の脳そのものを目指していると言っていいでしょう。

でも、そんなことは実現可能なのでしょうか。
ヒトの脳は、1,000億個以上の神経細胞が軸索と樹状突起という2種類の通信線のようなものを介して繋がり合い、網の目のようなネットワークを形成することで素早い情報交換を可能にしています。
この通信線を1本にすると総延長は100万kmとなり、なんと地球25周分にも相当します。
私たちの脳の中には、壮大な宇宙が広がっているのですね。

それだけではありません。
古い脳の中には非常に厄介な部位があります。
脳幹です。
脳幹は、生物が生き延びるために進化してきた極めて原始的な脳です。

人工知能の研究者たちの間では、「知能」の定義は「生き抜くために環境に適応する能力」ということで概ねオーソライズされているそうですが、そうなると800万年に及ぶ人類の脳の進化の過程を全て解き明かさなければなりません。
とてもじゃないけど無理な相談ですよね。

だから、サールは強いAIの実現は不可能だとも言っています。

そこで開発されたのが「機械学習」という手法。
2012年に、グーグルがAIに「猫」を学習させた時に用いたことで有名になりました。
それまでは猫の特徴をひとつずつ教え込んでいたのですが、これではキリがありません。
そこで、YouTubeに投稿された1千万枚の写真を無作為にAIに読み込ませてみたところ、なんとAIが猫を判別する能力を獲得したのです。
どうやら、AIが猫の特徴を自分で学習したようです。
まさに、ノーベル賞級の研究ですよね。

これは「ディープ・ラーニング」(深層学習)とも呼ばれる手法ですが、言われてみれば私たち人間が猫を学習したのもこの方法でした。
まさに、AIが人間に近づいたわけです。

ところが、この手法には落とし穴がありました。
それは、AIが画像を見てなぜ「猫」と判断したのか、理由が説明できないことです。
これは結構深刻な問題です。
というのは、次のような問題が起こっているからです。

アマゾンが、入社希望者の採用面接を省力化するため、機械学習をベースに効率的な選別ができる「人物評価システム」を開発したのですが、実際に運用してみるとなぜか女性が低く評価される結果となりました。
調べたところ、AIに提供されたIT企業の就労者や志望者の情報が、圧倒的に男性に片寄っていたことが原因でした。
男性ばかりのデータを与えられたため、AIが勝手に女性を低く評価するルールを作ってしまったようです。

他にもグーグルが、ヘイトスピーチを含むコンテンツをチェックするアルゴリズムを開発した時にも問題が起こりました。
「有害」のラベル付けをしたツイートを10万件以上読み込ませて、AIに新たなチェックルールを作らせたのですが、ヘイトスピーチではないのに、黒人の投稿の多くを「有害」と認定してしまったのです。
これは、与えられたサンプルデータに使われていた「黒人英語」と呼ばれるスラングを含むツイートを、AIが全てヘイトスピーチだと判断してしまったからでした。

ロンドンでは、普通に街を歩いていた人が突然警官に呼び止められ、長時間に渡り職務質問を受けるという事態が頻発しているそうです。
ある市民団体によると、これは警察車両の監視カメラが「テロリストの疑いあり」と判定した人に対して行っているのだとか。
また、この団体によれば、職務質問を受けたロンドン市民の多くが有色人種だったと言います。
これらの事例は比較的原因が特定しやすいものばかりですが、複雑なものになると原因の見当さえつかないというケースも当然出てくるでしょう。

つまり、結論が明示されても、その判断理由が「ブラックボックス」になってしまうのです。
AIによって明らかになるのはあくまで「相関関係」です。
「因果関係」までは解明できません。

機械学習というのは、膨大な定量データを処理して、そのアルゴリズムを導き出すにはとても有効な手法ですが、その反面、生物特有の「感覚的におかしい」という「直感」は働きません。
だから、機械学習では感情や意識、論理などは扱えないのです。

もちろん対策も行われています。
例えば画像認識をしたとき、AIが画像のどの部分に注目したのかを「見える化」する取り組みです。
しかし、なぜその部分に注目したのかまではわかりません。
困ったものですね。

そこで新しい考え方が登場しました。
そもそも、そのように判断した理由を明らかにする必要はないだろうと割り切ってしまう考え方です。

初めての方へ研修を探す講師紹介よくある質問会社案内お知らせお問い合わせサイトのご利用について個人情報保護方針

© FiveStars Academy Co., Ltd. All right reserved.