サポートベクターマシンは、マージンの最大化というコンセプトに基づき、 2つのクラスを線形分離 (直線で分離)するアルゴリズムである。 また、スラック変数という工夫により、どの程度誤分類を許容するかを調 整することもできる。 誤りの度合いは事前に調整する必要がある。 この ようにエンジニアが事前に調整する変数 (パラメータ) ハイパーパラメータと いう。

決定木の仕組みは、不純度が最も減少するように、条件分岐を作りデータを振り分ける。それを繰り返す。

KNN(k-nearest neighbor)はK近傍法ともよばれる機械学習アルゴリズムです。アルゴリズムとしては非常に単純であり、「近くにあるデータは似ているはずだ」という発想に基づいています
K近傍法のKは近くにあるデータをK個集めるという意味で、多数決により分類を決定します。各データに偏りがあるとき判定結果が不正確になる傾向がある。

k-means法は、教師なし学習によるグループ分けの手法でした。教師なし学習でグループ分けを行うことを「クラスタリング」または「クラスター分析」と呼びます。各クラスタの重心を計算し、クラスタの中心を重心にずらす。


ニューラルネットワークの各ユニットにおいて、総入力を出力に変換す るための活性化関数を何に設定するかは、予測の精度に関わる非常に重 要な問題である。
単純パーセプトロンはニューロンの一種であり、活性化関数として (ア)ステップ関数を用いたものに相当する。
初期は出力の正規化を行う関数として (イ)シグモイド関数がよく用いられたが、 現在は、勾配消失問題が起きにくく、簡単な (ウ)RELUが用いられるこ とが非常に多い。 また、 出力層付近では、(エ)ソフトマックス関数がよく用いられる。

ディープニューラルネットワークの学習に用いられる勾配降下法とは、 ある関数を最小化することを目的とするアルゴリズムのひとつである。 ディープニューラルネットワークの学習においては誤差を最小化する (ア)重みを求めたいが、一般に(ア)重みは次元が高く、かつ複雑で あるため、(イ)局所最適解や(ウ)停留点にトラップされてしまうという問題 がある。

重みの更新を行った回数を (ア)イテレーション、 訓練データを何度学習に用いたかを(イ)エポックと呼ぶ。
重みの更新のタイミングには、訓練データのサンプルごとに一重 みを更新する(ウ)逐次学習、 訓練データの一部分に対して重みを更新す る(エ)ミニバッチ学習、訓練データすべてに対して重みを更新する (オ)バッチ学習などがある。
(エ)を用いた勾配降下法を(力)ミニバッチ勾配降下法と呼ぶ。


バーニーおじさんのルール

学習には調整が必要なパラメータ数の約
10倍のデータが必要であるという経験則


ノーフリーランチ定理

「あらゆる問題に対して万能なアルゴリ ズム」は存在しないという定理


みにくいアヒルの子定理
機械学習における定式化によって 「普通 のアヒル」と「みにくいアヒル」の区別 はできないという定理

過学習(過適合)とは、(ア)訓練誤差が小さいにもかかわらず、(イ)汎化誤差は小さくならない状態のことを指す。
ディープニューラルネットワークも過学習を起こしやすいことが知られ ており、過学習を抑制するための手法として、(ウ)LASSOなどの正則化 手法が用いられることが多い。
また、(エ)ドロップアウトという、重みを更新する枝を一定の割合でランダムに 無効化する手法もディープラーニングではよく用いられる。

勾配消失問題とは、逆伝播の過程で誤差の勾配値が消失してしまい (ア)入力層付近での学習が進まなくなってしまう、 ディープラーニングにおいて生じやすい問題のことである。 中間層においては、 勾配消失問題の影響が出にくい活性化関数として (イ)RELUがよく用いられる。

自己符号化器 (オートエンコーダ)とは、(ア)エンコーダとデコーダからなるニューラ ルネットワークであり、入力層と出力層のノード数が同じで、中間層の ノード数がそれよりも (イ)少ないもののことをいう。
(ウ)正解ラベルとして入力自身を用いることにより、(エ)次元削減が得られる。

畳み込みニューラルネットワーク (CNN) は、 特に (ア)画像認識への応 用のために考案された(イ) 順伝播型ニューラルネットワークの一種である。
畳み込みニューラルネットワークは、以下のような層を持つ。
① フィルタを用いて積和演算を行う (ウ)畳み込み層
② 平均値や最大値を用いてサブサンプリングを行う(エ)プーリング層
③ 出力値を得るための (オ)全結合層


再帰型ニューラルネットワーク (RN) とは、内部に (ア)閉路を持つニューラルネットワークの総称である。
RNNは (イ)過去の情報を保持することができ、 たとえば時系列データの解析、さらに(ウ)自然言語処理に非常によく応用されている。 また、 従来のRNNでは 難しい遠い過去の入力を現在の出力に反映させることを可能にした(エ)LSTMなどの改良が知られている。



敵対的生成ネットワークとは、(ア)イアン・グッドフェローらが提案した教師なし機械学習手法のことを指す。
(イ)生成 ネットワークと(ウ)識別 ネットワークの2つからなり、各ネッ トワークがそれぞれ「(ウ)識別ネットワークを欺く」、 「より正確に識別する」ことを目的に学習する。
(エ)画像生成への応用が顕著であり、ヤン・ルカンはGANについて(オ)「機械学習において、 この10年で最もおもしろいアイデア」と述べた。


Word2Vecでは、単語をベクトルとして表現する

Word2Vecは2013年にGoogle社によって開発された
Word2Vecは、 単語同士の意味の近さを計算できる
Word2Vecは、 単語同士の意味の足し算や引き算のような演算のアナロジーを行える

形態素解析

テキストデータから文法・単語に基づき、 言語で意味を持 つ最小単位である形態素に分割し、その形態素の品詞を判 定すること


構文解析

形態素解析を基にして、その形態素間の構文的関係を解析 すること

含意関係解析

2つの文の間に含意関係が成立するかを判別すること
意味解析
構文解析を基に、 意味を持つまとまりを判定すること


文脈解析

文単位で構造や意味を考えること


照応解析
照応詞の指示対象 省略された名詞を推定 補完すること

談話解析

文章中の文と文の関係や、話題の推移を明らかにすること

LDA

Latent Dirichlet Allocationの略。 文中の単語から、何のトピッ クかを推定する教師なし機械学習手法。 ディリクレ分布 が用いられる。 各単語が 「隠れたあるトピック」 から生成 されているものとし、そのトピックを推定する

LSI
Latent Semantic Indexingの略。 文章ベクトルにおいて、複 数の文書に共通に現れる単語を解析することによって、 低 次元の潜在意味空間を構成する方法。 特異値分解※2が用い られる


強化学習においては、行動価値関数の計算が必要になります。
行動価値関数とは、 ある状態である行動を取ることの価値を表す関数です。 これには膨大な量の計算が必要であることが知られており、 ディープニュー ラルネットワークを用いて近似計算を行うというアイデアを深層強化学習と呼びます。
特に、DeepMind社により開発されたDeep Q-Network (DQN) は、 行動価値を最大にする方策を効率的に計算することを目指したニューラル ネットワークで、昨今の強化学習の飛躍的発展において大きな役割を担って います。
DQNは、学習が収束するように工夫された畳み込みニューラルネットワーク (CNN) の一種です 。

たとえば、2015年10月に、 人間のプロ囲碁棋士を互先 (ハンディキャップな し) で破った初のコンピュータ囲碁プログラムAlphaGo (アルファ碁) では、 DQNが用いられています。

Deep Belief Networkは、自己符号化器と深く関連するディープニューラルネッ トワークのことを指しますが、 深層強化学習との直接的な関係はなく、正解 としては適しません

ロボティクスとは、「ロボットに関連する一連の研究分野」の総称を指します。
ロボットの動作制御にモンテカルロ法やQ学習などの強化学習手法を用いるロボティクス分野でも、 機械学習の応用が進んでいます。
応用が進められており、 たとえば、ロボットハンドが人間の手の動かし方をゼロから身に付け、 積み木を持ち上げて指先で自在に動かす方法の習得に成功した例などは、イーロン・マスクが協力する非営利団体のOpenAIによる取り組みであり、 仮想的に行われた100年分相当のシミュレーションなど で実現されました 。 Q学習とは、ある行動の良さを学習する強化学習手法のひとつです。


表現学習とはデータから低次元の特徴を獲得する学習を指します。

ロボットの一連の動作を1つのディープニューラルネットワークで実現しようとするのは一気通貫学習と呼ばれ、 現在、盛んに研究
されています。

ここでは重要な「マルチモーダル」 という言葉をしっかり覚えておきましょう。
五感や体性感覚 (平衡感覚、空間感覚など) といった複数の感覚の情報を組 み合わせて処理することをマルチモーダル情報処理と呼びます 。 ロボッ トが持つカメラ (視覚)、 マイク (聴覚)、 圧力センサ (触覚) などの異なっ たセンサ情報を収集できるマルチモーダルシステムに対し、 収集した情報 をディープニューラルネットワークで統合的に処理する研究が行われていま す。
マルチモーダルという言葉は 「複数の情報を組み合わせる」 という意味です。

【SAE J3016自動運転レベルの定義】
SAEレベル0

人間の運転者がすべて行う


SAEレベル1

車両の自動化システムが、人間の運転者をときどき支援し、 いくつかの運転タスクを実施することができる


SAEレベル2

車両の自動化システムが、 いくつかの運転タスクを事実上 実施することができる一方、 人間の運転者は、 運転環境を 監視し、 また、 残りの部分の運転タスクを実施し続けるこ とになる


SAEレベル3

自動化システムは、いくつかの運転タスクを事実上実施す るとともに、運転環境をある場合に監視する一方、人間の 運転者は、 自動化システムが要請した場合に、 制御を取り 戻す準備をしておかなければならない


SAEレベル4

自動化システムは、 運転タスクを実施し、 運転環境を監視 することができる。 人間は、 制御を取り戻す必要はないが、 自動化システムは、ある環境条件下のみで運航すること ができる


SAEレベル5

自動化システムは、 人間の運転者が運転できるすべての条件 下において、すべての運転タスクを実施することができる


自動運転車については、2018年10月現在、レベル3に対応する技術を搭載した自動車が発売されている。

第三次AIブームが起こるきっかけとなったILSVRCというコンペティションは、(ア)ImageNetというデータセットを使った (イ) 一般物体認識のタスクにおける性能を競うものである。
特にILSVRC2012では、(ウ) ジェフリー・ヒントン率いるチームが、 前年までの優勝モ デルであった(エ)サポートベクターマシンを遥かに凌駕する性能をディープラーニングに よって記録し、 ディープラーニングが一気に脚光を浴びた。

近年、 Deep Mind社により開発された囲碁AIの(ア)AlphaGoがプロ棋士
を破る、将棋AIの(イ) Ponanzaが 「電王戦」でプロ棋士を次々と破るなど、 「ゲームで人間に勝てるAIを作る」という研究は目覚ましい進歩を遂げ
ている。
その先駆的な位置付けにあったのが(ウ)IBM社によって開発された チェスAIのディープブルーで、 仕組みは (エ)力任せの探索であったが、性 能は (オ)世界チャンピオンに勝利するまでに達した。

第二次AIブームは、「エキスパートシステム」の時代であるといわれて
いる。
エキスパートシステムとは、(ア)専門家のノウハウを計算機に移植することによりAIを実現するという アイデアだが、それに伴い、いかにして機械に知識を与えるかというこ とが大きなテーマになった。
自然言語処理において、 言語同士の意味関係をネットワークによって表 現する意味ネットワークの研究などが行われたが、あまりにも膨大な労 力が必要であるため、プロジェクトが頓挫することも少なくはなかった。 しかし、一般常識を知識ベース化することを目的とした(イ)Cyc プロジェクトは現 在も続けられており、 2001年からは (ウ)OpenCycとして知識ベースの一部 が一般公開されている。

(ア) 専門家の知識を定式化し、計算機に移植することの困難さを 「知識獲得のボトルネック」と呼ぶ。
しかしながら、エキスパートシステムの実現にはこの問題に立ち向かう 必要があるため、それを専門にする(イ)と呼ばれる職業が生まれ た。 エキスパートシステムの開発には、人工知能の技術についての理解 が必要なので、一般のシステムエンジニアと(イ)ナレッジエンジニアは区別される。

機械学習において、 「教師なし学習」とは、(ア) 既知のデータの本質的な構造を浮かび上がせることを目的とする学習手法のことを
いう。
教師なし学習の例として、(イ)クラスタリングや(ウ)次元削減などがある。

ECサイトなどで、 顧客の購買行動を促進するために、 機械学習によっ てその顧客が好みそうな商品を推定し推薦するシステムを総称して (ア)レコメンデーションシステムと呼ぶ。 その実現手法は多々あるが、 代表的なものとして (イ) ユーザの購買履歴から推薦を行う協調ベースフィルタリングや、(ウ)アイテムの特徴から推薦を行う 内容ベースフィルタ リングなどがある。

SVMは、 ディープラーニングが台頭する以前、 非常に広く用いられて いたアルゴリズムである。 もともとは(ア)のアルゴリズムとして 考案されたが、(ア) 2クラス分類以外のさまざまなことに応用されている。 SVMは(イ)マージンの最大化というコンセプトに基づいて設計されている。
(イ)マージンの最大化のための工夫であり、カーネル法は(ウ)決定境界を非線形にするための工夫、カー ネルトリックは (エ)計算量を大幅に削減する ための工夫である。
また、 SVMにおいてスラック変数は線形分離不可能なデータに対するカーネルトリックの登場以降、 SVMは非常に広く用いられるようになった。


決定木とは、(ア)条件分岐を繰り返すことによりクラス分類あるいは回帰を行うためのアルゴリズムである。
(ア)条件分岐は(イ)情報利得の最大化を実現するように決定する。
決定木は一般に仕組みが単純でわかりやすいだけではなく、たとえば (ウ)データのスケールを事前に揃えておく必要がない、(エ)分析結果の説明が容易などの利点があり、 実務的にもきわめて応用範囲 が広いアルゴリズムである。

線形回帰には、単回帰分析と重回帰分析がある。どちらも、(ア)説明変数の(イ) 1次関数で(ウ)目的変数を予測するとい
う意味では同じだが、 単一の(ア)説明変数を用いるのが単回帰分析、複数
の(ア)説明変数を用いるのが重回帰分析と呼ばれる。
重回帰分析においては特に、 相関の強い (ア)説明変数を同時に2つ以上用
いると予測精度が悪化する(エ)多重共線性に注意が必要である。

次元削減とは (ア)データに複数ある変数のうち、分析に不要なものを削除するを指す。 その中で特によく用いられる主成分分析は、(イ) 線形な次元削減であり、 計算量の削減、次元の呪いの回避 が期待できるだけでなく、(ウ) 寄与率を調べれば各成分の重要度がわかり(エ)主成分を調べれば各成分の意味を推測することができる。

ランダムフォレストとは、(ア)バギング と(イ)を組み合わせた手法を指す。
(イ) 決定木の利点を引き継ぎつつ、(ウ)過学習しやすいという弱点がある程度解消されるため、実務において非常に広く用いられている。


ロジスティック回帰は分類問題に応用される手法であり、(ア)対数オッズを 線形回帰により予測し、(イ)出力の正規化によって予測結果を確率として解釈 する。
このとき、目的関数としては (ウ)尤度関数を用いる。
たとえば、マーケティングにおいて、次に購買行動を取るユーザである 確率をロジスティック回帰で予測するなどの応用例が考えられる。


機械学習を行う際には、モデルが過学習を起こさないよう注意しなければならない。
たとえば、正則化により (ア) パラメータのノルムが大きくなりすぎないようにすることで、過学習が緩和できることがある。
特に、(イ) LASSOは不要と判断された特徴量が自動的に消去される性質を持っており、一方で、(ウ)Ridge 正則化にはそのような機能がないが、パラメータが全体として大きくなりすぎないように抑制を行う。


モデルが学習を行う際に、 通常は手元にある教師データをすべて使うこ とはない。
なぜなら、(ア)モデルの汎化性能を推定するためのテストデータが必要だからである。このような手法を(イ)ホールドアウト法と呼ぶ。


たとえば、巨大ECサイトの購買履歴が各ユーザに対してそのユーザが購入済みの商品に対応する数字は1 未購入の商品に対応する数字は0
というベクトル形式で保持されているとき、このデータ (ベクトル)に はほとんど0が並び、 非常に稀に1が現れるという形となっていること がわかる。
このようなデータを (ア)スパースなデータと呼び、この性質を用いて計算 量の削減を行うなど、さまざまな工夫が知られている。


ニューロンの活性化関数を (ア)に設定すると、 そのニューロンは単純パーセプトロンと同様の動きをする。
しかしこの(ア)が現在、実用上、用いられることはほとんどない。 ニューラルネットワークの応用初期は、 (ア)ステップ関数と形状が似ており、 かつ、なめらかな(イ)シグモイド関数が用いられることが多かったが、現在では、 形状が単純であり、しかも勾配消失問題が起きにくい(ウ)ReLU関数がよく 用いられている。

ディープラーニングにおいて、重みを更新した回数を(ア)イテレーション、訓練デー タを何回学習したかの単位を(イ)エポック と呼ぶ。
ディープラーニングにおいては、得られている一部のデータのみをサン プリングし、それらのデータに対して重みを1回更新するという手法が 用いられ、以下のように大きく3つに分けることができる。
.
(ア)ごとに1つずつサンプルを利用する→(ウ)逐次学習
(ア)ごとに一定数のサンプルを利用する→(エ)ミニバッチ学習
(ア)ごとにすべての訓練データを利用する→(オ)バッチ学習
(エ)は (ウ)よりも良い解を得られやすいことが知られており、広く用いられている。

ニューラルネットワークの学習において、 勾配降下法を用いて誤差Eの 最小化を行うが、 必ずしも 「誤差を “最小” とするような重み」がそれによって見いだせるとは限らない。
その近くだけを見ればEが最小だが、 誤差全体としては最小値を実現 しない点を (ア)局所最適解と呼び、 それに対し、 誤差の最小値を実現する解
(イ)大域的最適解と呼ぶ。
ニューラルネットワークの学習においては、常に(ア)にトラップ される可能性を考え続けなければならない。
また、(ア)局所最適解でも(イ)大域的最適解でもないが勾配が0となる(ウ)停留点 にトラップされることもある。


ディープラーニングは特有の問題を抱える。
特に、入力層に近い枝の重みの学習が進まなくなったり破綻したりする
(ア)勾配消失問題などがあり、層数が (イ)多いほど起こりやすい。
(ア)勾配消失問題は、たとえば中間層の活性化関数として (ウ)RELU を使うなどにより解消が期待できる。


自己符号化器は、(ア) 入力層と(イ)出力層のユニット数が同じで、(ウ) 中間層のユニット数がそれよりも少ない (エ) 3層のニューラルネットワー クのうち、 特に出力を入力に近づけることを目的に学習を行うものを 指す。
自己符号化器はオ)教師なし学習と考えることができ、(カ)次元削減を実現する。

従来のRNNを改良したLSTMは、 従来のRNNが持っていた (ア)遠い過去の入力を現在の出力に反映させることが難しいと いう欠点を解消したモデルである。

敵対的生成ネットワーク (GAN) とは、(ア)教師なし学習に使用されるアルゴリズムの一種である。
(イ)イアン・グッドフェローにより考案され、(ウ)ヤンルカンはGANについて 「機械学習においてここ10年で最もおもしろいアイデア」と述べた。
GANは画像生成などに利用され、 たとえば、 イメージを出力する(エ) 生成ネットワークと、その正否 (教師データか、(エ)による出力物か)を判定する (オ)識別ネットワークにより成る。
(エ)生成ネットワークが(オ)識別ネットワークを欺こうと学習し、(オ)はより正確に識別をするために学習を行う。

人間が日常的に用いる自然な言葉を計算機で扱うことを自然言語処理という。
自然言語処理において、(ア)単語などを最小単位に切り分ける 処理を形態素解析と呼び、 最初に行われることが一般的である。
次に、データから不要な文字列を取り除くクレンジング処理を行い、形 態素解析を行ったデータをベクトル形式に変換する。この際に(イ)BoW (Bag-of-Words)などを用いる。
さらに、 TF-IDFなどを用いて (ウ)各単語の重要度を測る。


Word2Vecとは、単語を高次元のベクトルの形式に変換し、意味的な近 さを測ったり、計算のアナロジーを行ったりできるようにする仕組みで ある。
Word2Vecでよく用いられる手法に(ア)Skip-Gram Modelがあり、これは、入力された単語の(イ)品詞を予測するというダミータスクを解く過程におい て獲得される単語のベクトル表現を得るというアイデアである。


Tayとは、(ア)Microsoft社によるTwitter上の対話型ボットであったが、ユー ザによる不適切な調教により、 間違った方向のコメントを行うようにな り、サービスが停止された。

(ア)LAWS自律型致死性兵器とは、自律的に動作し、 自ら標的を判断して殺傷する能力を 持つ、 人工知能などを搭載したロボットのことを指す。 民間人・味方を 攻撃しかねないという倫理的な理由から、 専門家の間で議論が続いてい る。しかし、(ア)LAWSは(イ) 未だ現存しない兵器であるため、各国で共通理解 が得られておらず、 今後、 規制などの枠組みをどのように構築するかが 国際社会の課題となっている。
2017年2月には、スティーブン・ホーキング、イーロン・マスクも賛 同者に名を連ねる FLI (Future of Life Institute) は (ウ)アシロマAI原則を発表し、 (ア)LAWSによる軍拡競争は避けるべきである」と主張している。

2015年5月に中国政府により発表された (ア)中国製造 2025は、2025年までの中 国の製造業発展のロードマップで、 中国製造業の2049年までの発展計 画が3段階で表されている。 (ア)中国製造 2025はドイツの産業改革プロジェク ト (イ) インダストリー4.0の中国版といわれている。

与えられた文やデータから人が話す音声を合成する技術を (ア)音声合成という。
(ア)音声合成はたとえばボーカロイドによるアナウンスや歌唱などに用い られるが、現在では、ほとんど人間によるものと区別ができないほどに 自然な音声を作り出すことが可能となっている。
特に、2016年にGoogle DeepMind社により開発された(イ)WaveNetは、 サンプリングされた系列点としての音声をそのままDNNを用いて処理 することにより、劇的に自然な発音が実現されたのみならず、近似や調 整などという作業が必要なくなった。

【シンギュラリティに対する有識者の見解】
レイ・カーツワイル

シンギュラリティは2045年に到来する

ヒューゴ・デ・ガリス

シンギュラリティは21世紀の後半に到来し、そ のとき人工知能は人間の知能の1兆の1兆倍 (10²) になる


イーロン・マスク

シンギュラリティの到来に危機感を持ち、非営利 のAI研究組織 OpenAIを設立


オレン・エツィオーニ

「たとえば100万年後、 特異点を迎える可能性は あります。けれど賢いコンピュータが世界制覇す るという終末論的構想は 「馬鹿げている」としか 言いようがありません」と述べた


ヴァーナー・ヴィンジ

シンギュラリティは「機械が人間の役に立つふり をしなくなること」と定義


スティーブン・ホーキング

「AIの完成は人類の終焉を意味するかもしれない」 と述べた

アンサンブル学習に関する問題です。
アンサンブル学習とは、 複数のモデルを作り、分類は多数決、回帰は一般に 平均を結果として採用する手法です。 安定した精度の実現や、過学習の 抑制のためによく用いられます。

アンサンブル学習の代表的な手法として、 バギングとブースティングがあり、 それぞれ次のような違いがあります。

バギング

各モデルを並列に学習させる


・ブースティング
各モデルを逐次的に学習させる


一概にバギングの性能が高いわけではありません。なお、 弱識別器と対比して精度の高い識別器のことを強識別器と呼びます。 また、ブートストラップは学習データからランダムにサンプリングする手法 や、サンプリングした部分集合を指します。


ハイパーパラメータのグリッドサーチとは、事前に設定したハイパーパラ メータの各候補に対して交差検証で精度を測り、 最も精度が高かったハイ パーパラメータの組を最良のハイパーパラメータとして採用するという、ハ イパーパラメータの探索手法のことです。 ハイパーパラメータの調 節は基本的には手間がかかる作業ではありますが、 このグリッドサーチを用 いれば、ある程度のプロセスが自動化できます。
計算量が多くなるという欠点はありますが、 非常によく用いられ ている手法です。


ニューラルネットワークの順伝播計算は、次の流れで進みます。
・総入力を計算 (入力と重みの積和演算 + バイアス)
・活性化関数による変換

Tensorflow (テンソルフロー)

機械学習に関する計算を行うフレーム ワーク。 Googleによって開発された


NumPy (ナムパイ)

線形代数の計算を行うフレームワーク


・PyTorch (バイトーチ)

Chainerから派生したフレームワーク


Keras (ケラス)

ディープラーニングに特化した Tensorflowのラッパー


・scikit-learn (サイキットラーン)

機械学習全般に対応するフレームワーク

・Chainer (チェイナー)
Preferred Networksによって開発された
フレームワーク。 Define-by-Run という 形式を採用している





この記事は役に立ちましたか?

もし参考になりましたら、下記のボタンで教えてください。

関連記事

コメント

この記事へのコメントはありません。