大分類 | 中分類 | 小分類 | 項目 | 詳細 | 頁 |
---|---|---|---|---|---|
第1章 人工知能とは | 1-1 人工知能とは | 1. 人工知能の定義 | 1.1 人工知能とは何か | 「人工知能(Artificial Intelligence)」という言葉は、1956年にアメリカで開催されたダートマス会議において、著名な人工知能研究者であるジョン・マッカーシーが初めて使った言葉 | 23 |
推論、認識、判断など、人間と同じ知的な処理能力を持つ機械(情報処理システム)であるという点については、大多数の研究者の意見は一致している | 23 | ||||
1.2 人工知能の大まかな分類 |
レベル1:シンプルな制御プログラム すべての振る舞いがあらかじめ決められている エアコンの温度調整、洗濯機の水量調整など |
25 | |||
レベル2:古典的な人工知能 探索・推論、知識データを利用し状況に応じて複雑な振る舞いをする製品 お掃除ロボット、診断プログラムなど |
26 | ||||
レベル3:機械学習を取り入れた人工知能 非常に多くのサンプルデータをもとに入力と出力の関係を学習した製品 検索エンジンや交通渋滞予測など |
26 | ||||
レベル4:ディープラーニングを取り入れた人工知能 特徴量と呼ばれる変数を自動的に学習するサービスや製品がこのカテゴリに属する 画像認識、音声認識、自動翻訳など |
26 | ||||
1.3 AI効果 | 人工知能で何か新しいことが実現され、その原理がわかってしまうと、「それは単純な自動化であって知能とは関係ない」と結論付ける人間の心理的な効果(知能と思っていたものが機械で実現できてしまうと、「それは知能ではない」と思いたくなる) | 27 | |||
1.4 人工知能とロボットの違い | ロボットの脳に当たる部分が人工知能。人工知能の研究とは「考える(知的な処理能力)」という「目に見えないもの」を中心に扱っている学問 | 27 | |||
1-2 人工知能研究の歴史 | 1. 人工知能研究の歴史 | 1.1 世界初の汎用コンピュータの誕生 | 1946年、アメリカのペンシルバニア大学でエニアック(ENIAC) | 29 | |
1.2 ダートマス会議 | 人工知能という言葉は、1956年にアメリカで開催されたダートマス会議において初めて使われた。世界初の人工知能プログラム - ロジック・セオリストをデモンストレーションし、コンピュータを用いて数学の定理を自動的に証明することが実現可能であることを示しました。 | 30 | |||
1.3 人工知能研究のブームと冬の時代 |
第1次AIブーム(推論・探索の時代:1950年代後半~1960年代) 簡単な問題(「トイ・プロブレム(おもちゃの問題)」)は解けても、 複雑な現実の問題は解けないことが明らかになった結果、ブームは急速に冷めた |
32 | |||
第2次AIブーム(知識の時代:1980年代) データベースに大量の専門知識を溜め込んだエキスパートシステムと呼ばれる実用的なシステムがたくさん作られました。しかし、知識を蓄積・管理することの大変さが明らかになってくると、1995年ごろからAIは再び冬の時代に突入 |
32 | ||||
第3次AIブーム(機械学習・特徴表現学習の時代:2010年~) ビッグデータと呼ばれる大量のデータを用いることで、人工知能が自ら知識を獲得する機械学習が実用化された。また、知識を定義する要素(特徴量)を人工知能が自ら学習するディープラーニングが登場 |
32 | ||||
第2章 人工知能をめぐる動向 | 2-1 探索・推論 | 1. 探索・推論 | 1.1 迷路(探索木) |
探索木とは、要するに場合分けです。場合分けを続けていけば、 いつか目的の条件に合致するものが出現するという考え方を基礎。 木探索の基本は深さ優先探索、幅優先探索 幅優先探索 最短距離でゴールにたどり着く解を必ず見つけられるが、複雑な迷路になると メモリ不足で処理を続行できない 深さ優先探索 メモリはあまり要らない。しかし解が見つかったとしてもそれが最短距離でゴール たどり着く解とは限らない |
49 |
1.2 ハノイの塔 | 探索木を使ってハノイの塔というパズルも解くことができる | 51 | |||
1.3 ロボットの行動計画 | ロボットの行動計画も探索を利用して作成できる。これはプランニングと呼ばれる技術で、あらゆる状態<前提条件>について、<行動>と<結果>を記述しておけば、目標とする状態に至る行動計画を立てることができる | 54 | |||
プランニングの研究では、<前提条件>、<行動>、<結果>という3つの組み合わせで記述するSTRIPS(ストリプス)が有名。また、このようなプランニングを「積み木の世界」で完全に実現する研究も行われた。SHRDLU(シュルドゥルー)は1970年にスタンフォード大学のテリー・ウィノグラードによって開発されたシステム | 55 | ||||
1.4 ボードゲーム(オセロ・チェス・将棋・囲碁) | 韓国のプロ棋士に、ディープマインド社が開発した人工知能の囲碁プログラムAlphaGo(アルファ碁)が4勝1敗と大きく勝ち越した。AlphaGoはディープラーニングの技術を使って人間の思考方法をコンピュータで実現し人間のプロ棋士に勝利した | 58 | |||
ボードゲームをコンピュータで解く基本は探索だが、その組み合わせの数が天文学的な数になってしまうため、事実上すべてを探索しきれない問題がある(組み合わせの多い順:囲碁>将棋>チェス>オセロ) | 58 | ||||
Mini-Max法:不要な探索を省くことで、探索する量を減らす手法 | 62 | ||||
1.5 モンテカルロ法 | ランダムに指す方法でゲームを終局(プレイアウト)させて勝率を計算する | 64 | |||
2-2 知識表現 | 1. 知識表現 | 1.1 人工無脳(知識なしでも知性があるように感じる人間心理の不思議) | 人工無脳は、特定のルール・手順に沿って会話を機械的に処理するだけで、実際は会話の内容を理解しているわけではない。人工無脳の元祖はイライザと呼ばれるコンピュータプログラム | 66 | |
1.2 知識ベースの構築とエキスパートシステム | ある専門分野の知識を取り込み、その分野のエキスパートのように振る舞うプログラムをエキスパートシステムという。初期のエキスパートシステムはマイシン | 68 | |||
1.3 知識獲得のボトルネック(エキスパートシステムの限界) | 専門家からの知識獲得はとても困難。常識的な知識は暗黙的で明文化されてないことが多くコンピュータで扱うのは困難なため。こうした問題解決のため、意味ネットワークやオントロジーなどの研究が活発化した | 71 | |||
1.4 意味ネットワーク | 「is-a」の関係:継承関係(例 動物は生物である)、「part-of」の関係:属性(例 目は頭部の一部である)と表現したネットワークの表 | 73 | |||
1.5 オントロジー(概念体系を記述するための方法論) | Cyc(サイク)プロジェクト:すべての一般常識をコンピュータに取り組む | 73 | |||
オントロジーとは、知識を体系化する方法論。目的は知識の共有と活用 | 74 | ||||
1.6 概念間の関係(is-aとpart-ofの関係) |
is-aの関係 上位概念と下位概念の関係を表すが、その関係には推移律が成立する。推移律とはAとB、およびBとCの関係が成り立っていれば、AとCにも自動的に関係が成り立つというもの |
76 | |||
part-ofの関係 全体の部分の関係を表している。part-ofの関係の場合は推移律が成立するものと、成立しないものがある。part-ofの関係だけで5種類ある |
77 | ||||
1.7 オントロジーの構築 |
ヘビーウェイトオントロジー その構成要素や意味的関係の正当性について哲学的な考察が必要 |
80 | |||
ライトウェイトオントロジー 完全に正しいものでなくても使えるものであればいいという考え方。その思想は 「コンピュータで概念間の関係性を自動で見つけよう」という取り組みと相性が よく、ウェブデータを解析して知識を取り出すウェブマイニングや、ビックデータ を解析して有用な知識を取り出すデータマイニングで利用されている |
81 | ||||
1.8 ワトソンと東ロボくん |
ワトソン IMBが開発。2011年にアメリカのクイズ番組で歴代の人間チャンピョンと対戦して勝利した。ワトソンは基本的にQuestion-Answering(質疑応答)という研究分野の成果。ライトウェイト・オントロジーを生成して、それを解答に使用 |
82 | |||
2-3 機械学習・深層学習 | 1. 機械学習 | 1.1 データの増加と機械学習 | 機械学習とは、人工知能のプログラム自身が学習する仕組み。サンプルデータを通してデータに潜むパターンを学習する。サンプルデータは数が多ければ多いほど望ましい。2000年以降、機械学習はビックデータというキーワードと共に注目を集めた | 85 | |
ユーザーの好みを推測するレコメンテーションエンジンや、迷惑メールを検出するスパムフィルターなども、機械学習によって実用化されたアプリケーション | 87 | ||||
1.2 機械学習と統計的自然言語処理 | 統計的自然言語処理を使った翻訳では、複数の単語をひとまとめにした単位(句または文単位)で用意された膨大な量の対訳データ(コーパス)をもとに、最も正解である確率が高い訳を選択する | 87 | |||
2. 深層学習(ディープラーニング) | 2.1 ニューラルネットワーク | ニューラルネットワークは機械学習の1つで、人間の神経回路を真似することで学習を実現しようとするもの。単純パーセプロトン(ニューラルネットワークの元祖)、3層パーセプロトン | 88 | ||
2.2 ディープラーニング(深層学習) |
ニューラルネットワークを多層にしたものがディープラーニング(深層学習) 当初、3層より多層にしても学習精度が上がらなかったが、4層、5層と深くしても学習することが可能になった |
89 | |||
パーセプロトンの限界については、ニューラルネットワークを多層にして、バックプロパゲーション(誤差逆伝播学習法)と呼ばれる方法を用いて学習すれば克服できることが示された | 90 | ||||
2.3 新時代を切り開くディープラーニング | 画像認識の精度を競う競技会でトロント大学のSuperVisionが圧倒的勝利を収めた。この勝利をもたらしたものがディープラーニング(深層学習)だった。 | 90 | |||
第4 機械学習の具体的手法 | 4-1 代表的な手法 | 1. 学習の種類 |
機械学習が対象とする課題の種類は3つ 教師あり学習 入力と出力の間にどのような関係があるか。例 過去の売上から将来の売上を予測(回帰)、画像の動物は何の動物か(分類) |
147 | |
教師なし学習 (入力)データそのものが持つ構造・特徴が対象 例 データをカテゴリ分類する、データの各項目間にある関係性を把握 教師なし学習で用いるデータには出力データがない。つまり教師あり・教師なしの「教師」とは出力データのこと 強化学習 |
148 | ||||
2. 代表医的な手法(教師あり学習) | 2.1 線形回帰 |
線形回帰は統計でも用いられる手法で、最もシンプルなモデル そのデータに最も当てはまる直線を考える。既存の身長(横軸)・体重(縦軸)の組み合わせから回帰直線を求めることによって、新しい身長のデータが来た際に、その直線の値を返すことで体重を予測する |
149 | ||
2.2 ロジスティック回帰 |
名前に「回帰」とついているが回帰問題ではなく、分類問題に用いる手法。 シグモイド関数という関数をモデルの出力に用いる。与えられたデータが正例(+1)になるか負例(0)になるかの確率が求まる。出力の値が閾値0.5以上なら正例、未満なら負例と設定しておくとデータを2種類に分類できる。閾値は変更可能 |
150 | |||
ロジスティック回帰はニューラルネットワークの一種 | 169 | ||||
2.3 ランダムフォレスト | 決定木を用いる手法。ランダムに選んだデータ(ブートストラップサンプリング)に対して、ランダムに決定木を複数作成して学習する | 151 | |||
ランダムフォレストのような複数のモデルで学習させることをアンサンブル学習という | 152 | ||||
2.4 ブースティング | まず1つのモデルを作成し学習する。次に作成するモデルでは、そこで誤認識してしまったデータを優先的に正しく分類できるよう学習する。こうして順次、前のモデルで誤ったデータに重みを付けて学習を進めて、最終的に1つのモデルとして出力する。ランダムフォレストよりいい精度が得られるが、並列処理ができないため学習にかかる時間は多くなる | 154 | |||
ランダムフォレスト、勾配ブースティングともに決定木を用いたアンサンブル学習の手法 ランダムフォレストは同時に複数のモデルで学習、勾配ブースティングは逐次的にモデルを学習する |
169 | ||||
2.5 サポートベクターマシン | SVMとも呼ばれ、高度な数学的倫理に支えられた手法。ディープラーニングの出現以前の機械学習で最も人気のあった手法。各データ点との距離が最大となるような境界線を求めることで、パターン分類を行う | 155 | |||
2.6 ニューラルネットワーク |
ニューロンの特徴を再現できないかと試した手法。 単純パーセプトロン 単純なニューラルネットワークのモデル。複数の特徴量を受け取り、1つの出力を行う 多層パーセプロトン 更に層を追加したモデル。入力層と出力層の間に追加された層を隠れ層という |
156 | |||
3. 代表的な手法(教師なしが学習) | 3.1 K-means | データをk個のグループに分けることを目的としている。個数は自分で設定する。グループの事をクラスタという。この分析をクラスタ分析という。 | 159 | ||
3.2 主成分分析 | 相関をもつ多数の特徴量から、相関の少ない特徴量へと次元削除することが主なる目的 | 160 | |||
4-2 手法の評価 | 1. データの扱い |
どれくらいの予測性能をもっているのかを評価することはとても重要。未知のデータに対して予測能力を見ることが適切。 手元のデータを学習用データと評価用データにランダムに分割して評価する。 このようにデータ分割して評価することを交差検証という。交差検証には2種類ある(ホールドアウト検証、k-分割交差検証) |
162 | ||
2. 評価指標 | ? | 164 | |||
正解率:クラス1とクラス2の分類を考えた際、それぞれのデータ数が同じだけある場合は正解率を評価指標として用いるのは問題なし 再現率:クラス1のデータのうち、どれだけクラス1と予測できたかの割合を示すもの 適合率:クラス1と予測したもののうち、どれだけ実際にクラス1だったかの割合を示すもの F値 :再現率と適合率の調和平均を用いたもの |
172 |