汎用型人工知能 | 人間の知的処理を総合的に行えるAI で SF等の作品に登 場するAIの多くはこの汎用型AIであることが多い。 |
特化型人工知能 | 1つのタスクに特化したAIで、 現在 「AI」 と呼ばれ、 社会 適応されている技術。 |
ダートマス会議 | 初めて人工知能という言葉が登場した会議。 |
ジョン・マッカー シー | アメリカの計算機科学者。 ダートマス会議を主催し、人工知能という言葉を初めて公に用いた。 |
アーサー・サミュエル | 機械学習「明示的にプログラムしなくても学習する能力をコンピューターに与える研究分野」 |
特徴量 | データの特徴を表す量で、 説明変数とも呼ばれる。 |
AI 効果 | 人工知能プログラムの中身がわかってしまうと、 単なる 自動化だと思ってしまう心理現象。 |
エニアック (ENIAC) | Electronic Numerical Integrator and Computerの略で、 アメ リカで開発された黎明期の電子計算機。 |
幅優先探索 | すべての場合分けを記憶しながら探索する方法。 最短経 路を必ず見つけられるが計算容量を使用する数が多い。 |
深さ優先探索 | 1方向に掘り下げて解でなかった場合、前のステップに 戻り、 異なる方向を探索すること繰り返しながら解を深 す方法。 計算容量を使用する数が少ない。 |
Mini-Max 法 | 最善手を選ぶため手法の一つ。 自分も相手も最善手を打 つという仮定のもとスコアを逆算する。 |
αβ法 | Mini-Max 法において、 無駄な探索をカットする手法の つ。 枝刈りの方法にはαカットとβカットが存在する。 |
モンテカルロ法 | ボードゲームにおいては最善手を評価する方法の1つ。 次の手を決める際に、 打てる手それぞれで何回もプレ イアウトし、勝率が高かった手を選ぶという手法。 |
STRIPS | 「前提条件」、 「行動」、 「結果」 の3つの組み合わせで1つ の動作を定義する自動計画を記述する手法。 |
SHRDLU | 自然言語処理を行う人工知能初期の研究開発プロジェク ト。 テリー・ウィノグラードにより実施された。 自然言 語を使って積み木を動かすなどの操作をすることができた。 |
Cycプロジェクト | 1984年からスタートした「すべての一般常識をコンピュー タに取り込もう」 というプロジェクト |
ELIZA | 1964年から1966年にかけてジョセフ・ワイゼンバウムに よって開発された対話型ロボット。 |
PARRY | ELIZAの後に開発された対話型ロボット。 |
チューリングテスト | ある対話式の機械に対し、 「人間的」かどうかを判定する ためのテスト。 イギリスの数学者、 アラン・チューリン グが提案した。 |
エキスパートシステム | 専門家の知識を入れ込み、その意思決定能力を誰もが使 える形にするもの。 知識ベースと推論エンジンにより構 成される。 |
意味ネットワーク | 知識を線で結びその関係性を表したもの。 現在でもAI プ ロダクトの解釈性を高めるために使われることがある。 |
オントロジー | 意味ネットワークなどで用いられる知識の結び付け方の 規則。 |
Mycin | エキスパートシステムの一つで、 伝染性の血液疾患を診 断し、適した薬を処方するプログラム。 |
フレーム問題 | 「今しようとしていることに関係ある事柄だけを選び出す ことが、実は非常に難しい」 という問題。 |
シンボルグラウンディング問題 | 認知科学者のスティーブン・ハルナッドにより議論されたもので、「記号とその対象がいかにして結び付くか」と いう問題。 |
中国語の部屋 | 哲学者ジョン・サールによって発表された論文内で、 チューリングテストの結果は何の指標にもならないとい う批判がされた。 その論文内で発表された思考実験の名前。 |
シンギュラリティ | レイ・カーツワイルが提唱した、 2045年には人間が自分 自身よりも賢い人工知能を作り出すことにより起きる技 術的特異点のこと。 |
ホールドアウト法 | モデルが過学習」を起こしていないかを調べるために用いる。 |
特徴量エンジニアリング | モデルが認識しやすい特徴をデータから作ること |
one hot encoding | ダミー変数を用いた前処理 |
線形分離可能 | パーセプトロンで説くことのできる問題 |
特徴表現学習 | 特徴量の加工・抽出まで学習器が行うこと。ディープラー ニングは特徴表現学習を行う手法である。 |
教師あり学習 | 正解データを適切に予測できるように、正解データとそ の他の変数のセットを学習する枠組み。 このとき、正解 データは目的変数と、その他の変数は説明変数もしくは 特徴量と呼ばれる。 また、予測値が連続な場合を回帰、 不連続な場合を分類という。 |
教師なし学習 | 正解を参照せずに変数どうしの構造やパターンを抽出す る枠組み。 クラスタリングや次元削減などは教師なし学 習に該当する。 |
強化学習 | 正解を与える代わりに、 将来の報酬や利益を最大化する ように、 特定の状況下における行動を学習する枠組み。 |
線形回帰 | 線や平面、 超平面で関数をデータにフィッティングさせ ることで回帰を行う手法。 |
正則化 | 主に過学習などを防ぎ、 汎化性能を上げるために、モデ ルに制約を設ける手法。 |
Lasso回帰 | LI正則化を施した線形回帰手法で、 解がスパースになりやすい。 |
Ridge回帰 | L2正則化を施した線形回帰手法で、 Ridge 回帰の解は解 析的に書ける。 |
ロジスティック回帰 | 線形回帰の考え方を拡張し、 目的変数が2クラスを取る 場合などに使われる分類手法 |
サポートベクターマシン (SVM) | サポートベクターを利用して予測を行う教師あり学習のモデルで、 カーネル法により非線形分離を可能としてい る。 サポートベクターマシンは、マージンの最大化というコンセプトに基づき、 2つのクラスを線形分離 (直線で分離)するアルゴリズムである。 また、スラック変数という工夫により、どの程度誤分類を許容するかを調 整することもできる。 誤りの度合いは事前に調整する必要がある。 この ようにエンジニアが事前に調整する変数 (パラメータ) ハイパーパラメータと いう。 |
カーネルトリック | カーネル関数を使うことで、 高次元の特徴空間における 内積を行わず、 入力空間でのカーネルの計算に落とし込 むアプローチ。 行っていることに対して計算量が大幅に 少なく済む。 |
k近傍法 | 回帰と分類が行える手法。 分類においては、 特徴量空間 において距離が近い順に任意のk個を取得し、 多数決で データが属するクラスを推定する。 |
KNN(k-nearest neighbor) | KNN(k-nearest neighbor)はK近傍法ともよばれる機械学習アルゴリズムです。アルゴリズムとしては非常に単純であり、「近くにあるデータは似ているはずだ」という発想に基づいています。 K近傍法のKは近くにあるデータをK個集めるという意味で、多数決により分類を決定します。各データに偏りがあるとき判定結果が不正確になる傾向がある。 |
決定木 | 木構造を用いて回帰や分類を行う手法で解釈性の高さが 特徴。 決定木の仕組みは、不純度が最も減少するように、条件分岐を作りデータを振り分ける。それを繰り返す。 |
アンサンブル学習 | 複数のモデルを合わせて、一つのモデルとして扱う手法 で、バギング、ブースティング、 スタッキングの3種類 が存在する。 |
ランダムフォレスト | 弱学習器に決定木を用いたアンサンブル手法 (バギング)で回帰と分類に用いられる。 決定木同様解釈性の高さが 特徴。また、特徴量のランダムサンプリングも行っている。 |
勾配ブースティング | アンサンブル学習であるブースティングの一種。 前の弱 学習器の損失の勾配を用いて、次の弱学習器を作成する。 |
k-means法 | 教師なし学習で非階層型クラスタリングを行う手法。教師なし学習でグループ分けを行うことを「クラスタリング」または「クラスター分析」と呼びます。各クラスタの重心を計算し、クラスタの中心を重心にずらす。 |
階層的クラスタリング | 分割型と凝縮型に別れ、 凝縮型では距離の近いものを1つのクラスタとして順にデータをまとめていく手法。 最 終結果を樹形図 (デンドログラム)で表すことができる。 |
主成分分析 | 教師なし学習の次元削減の手法で、 データのばらつきを 最も顕著に表現できるように、 すなわち分散を最大化す るように第一主成分を選択する。 |
交差検証法 | 手元のデータを複数のブロック (fold) に分割し、そのう ちの1つを評価用として使い残りを学習データとするこ とを、 評価用データを入れ替えてすべてに対し行う方法。 |
RMSE、 MSE、 MAE、 RMSLE | それぞれ回帰で使用される評価手法で、root、 絶対値、 log がついてることによってさまざまな特徴がある。 |
正解率 | 正例 負例の数に関わらず正しく当てられた割合。 |
適合率 | 正と予測したデータのうち、 実際に正であるものの割合。 TP/ (TP + FP) |
再現率 | 実際に正であるもののうち、 正であると予測されたもの の割合。 TP/ (TP+ FN) |
F値 | 適合率と再現率の中庸を取るような指標であり、両者の 調和平均を取ることで算出。 |
ニューラルネットワーク | 脳神経系のニューロンを模したアルゴリズム。 今ではニューラルネットワークの層を深くしたディー プニューラルネットワークを始めとして、さまざまな ディーブラーニングのモデルが登場し、使われている。 |
単純パーセプトロン | ニューラルネットワークにおいて最も基本的なモデルの1つで隠れ層 (中間層) を持たない。 |
活性化関数 | ノードの出力がどのように伝播するかを調整する関数で sigmoid関数や tanh 関数、 ReLU関数などさまざまな種類 がある。 |
勾配消失問題 | ニューラルネットワークを多層化すると、誤差逆伝播法 においてそれぞれの層で活性化関数の微分がかかること から、勾配が消失しやすくなり、学習が進まなくなる問題。 |
誤差逆伝播法 | 出力に近い層から順に連鎖的に勾配を求めていく学習法。 |
オートエンコーダ | 入力と出力の形が同じになるようにした隠れ層 (中間層) を1つ持つニューラルネットワークで、隠れ層 (中間層) の次元は一般的に入力層よりも小さい。 |
積層オートエンコーダ | オートエンコーダを多層にしたもの。 |
GPU | 画像処理に特化したプロセッサ。 |
TPU | Google社が開発したプロセッサで、ディープラーニング の学習推論に最適化されている。 |
sigmoid関数 (シグモ イド関数) | 活性化関数に用いられる関数の一つ。入力xの値を [0,1] の範囲の値に変換する。主に隠れ層や二項分類問題を解くモデルの出力層で用い られる。 |
tanh 関数 | 活性化関数に用いられる関数の一つ。入力xの値を [-1,1] の範囲の値に変換する。 主に隠れ層 (中間層) で用いられ る。 |
ReLU 関数 | 活性化関数に用いられる関数の一つ。 sigmoid関数や tanh 関数よりも勾配消失が起きにくい。※すべての問題に対して最適というわけではないので 注意。 |
softmax 関数 (ソフトマックス関数) | シグモイド関数を一般化したものであり、複数個の入力を受け取り、受け取った数と同じ個数の出力を総和が1 となるように変換して出力する。 主に出力層で使われる。 |
誤差関数 | モデルの予測値と実際の値 (正解データ) との誤差を表した関数 |
勾配降下法 | 関数の勾配にあたる微分係数に沿って降りていくこと で、最小値を求める手法。 大域最適解に必ず収束するわ けではないので注意が必要。 |
学習率 | 勾配降下法において、 勾配に沿って一度にどれだけ降り ていくかを設定するハイパーパラメータ。 |
イテレーション | 勾配降下法においてパラメータの更新回数。 |
エポック | 1つの訓練データを何回学習させるかのハイパーパラ メータ。 |
鞍点 | ある次元から見ると極大点であるが、他の次元から見る と極小点となる点で勾配降下法での学習がうまくいかな い原因となることがある。 |
プラトー | 鞍点などの停留点に到達して学習が停滞している状態。 |
確率的勾配降下法 (SGD) | パラメータを更新するための勾配を求める際、全デー タの中からランダムに抜き出したデータを利用する (ミニ パッチ学習)。 |
モーメンタム | SGDに慣性的な性質を持たせた手法。 最小値までたどり 着く経路がSGDと比べて無駄の少ない動きとなっている。 とともに、停滞しやすい領域においても学習がうまくい きやすくなるといったメリットがある。 |
AdaGrad | SGDの改良手法で、勾配降下法においてパラメータ毎の 学習率を、勾配を用いて自動で更新する。 |
RMSProp | AdaGradを改良した手法。 |
Adam | RMSPropを改良したものであり、 2014年に発表された。 |
過学習 | 機械学習においてモデルが訓練データに過剰適合するこ と。 |
ドロップアウト | ニューラルネットワークの学習の際、一定の確率でラン ダムにノードを無視して学習を行う手法で過学習を防ぐ 効果がある。 |
early stopping | 学習の際、主に、過学習が起きる前に学習を早めに切り 上げて終了すること。 |
ノーフリーランチ定理 | あらゆる問題に対して性能の良い汎用最適化戦略は理論上不可能であるという定理。 |
正規化 | データのスケールを揃えるなどして調整すること。 |
標準化 | 特徴量を平均0. 分散1となるように変換する処理。 |
白色化 | データを無相関化してから標準化を行うこと |
バッチ正規化 | 各層で伝わってきたデータに対し、 正規化を行う手法。 |
畳み込みニューラル | 主に画像処理の分野で高い効果を上げているニューラル ネットワーク ネットワーク。 畳み込みやプーリングといった処理が行 われる。 |
カーネル (フィルタ) | 畳み込み処理を行う際に用いられるフィルタ。 畳み込み 層ではカーネル内部の値をパラメータとして学習を行う。 |
ストライド | 畳み込み処理においてカーネルを移動させる幅のこと。 |
パディング | 畳み込み処理前に画像に余白となるような部分を追加し、 畳み込み処理後の特徴マップのサイズを調整するもの。 |
プーリング | 画像や特徴マップなどの入力を小さく圧縮する処理で、 max プーリングや Avarage プーリングなどが存在する。 |
Global Average Pooling | 分類したいクラスと特徴マップを1対1対応させ、各特 微マップに含まれる値の平均を取ることで誤差を計算で きるようにする手法。 |
データ拡張 (Data Augmentation) | 画像に人工的な加工を行うことでデータの種類を増やすこと。 |
転移学習 | 学習済みのネットワークを利用して、 新しい問題に対す るネットワークの作成に利用する際に、 付け足した(また は置き換えた)層のみを学習する方法。 |
ファインチューニン グ | 学習済みのネットワークを利用して、 新しい問題に対するネットワークの作成に利用する際に、利用した学習済 みモデルに含まれるパラメータも同時に調整する方法。 |
RNN | 過去の入力による隠れ層(中間層) の状態を現在の入力に 対する出力を求めるために使う構造を持ったニューラル ネットワーク。 過去の時系列をさかのぼりながら誤差を計算していく手法。 |
通時的誤差逆伝播 (BPTT) | 過去の時系列をさかのぼりながら誤差を計算していく手法 |
入力重み衝突 | 現在の入力に対し過去の情報の重みは小さくなくてはな らないが、将来のために大きな重みを残しておかなけれ ばならないという矛盾が、 新しいデータの特徴を取り込 むときに発生すること。 |
出力重み衝突 | 現在の入力に対し過去の情報の重みは小さくなくてはな らないが、将来のために大きな重みを残しておかなけれ ばならないという矛盾が、 現在の状態を次時刻の隠れ層 (中間層) へ出力するときに発生すること。 |
LSTM | 「CEC (Constant Error Carousel) という情報を記憶する構 造」と「データの伝搬量を調整する3つのゲートを持つ構 造」を持つRNN を改良したモデル。 |
GRU | リセットゲートと更新ゲートという2つのゲートを用いた 構造のブロックから構成されるモデル。 |
双方向RNN (BIRNN) | 2つの RNNが組み合わさった構造をしており、一方はデータを時系列通りに学習し、もう一方は時系列を逆順 に並び替えて学習を行うモデル。 |
sequence-to-sequence (seq2seq) | 入力となる時系列データから、時系列データを生成する タスク。 代表的な構造にはRNN Encorder-Decoder モデ ルがある。 |
Attention | 入力データの一部分に注意するような重み付けを行うこ ことで重要な情報を取り出せるようにした手法。 さまざま な種類がある。 |
価値ベース | 報酬の期待値を状態や行動の価値計算に反映する方法。 |
方策ベース | 現時点の方策で計算した報酬の期待値と方策を見比べて どのように方策を変化させれば報酬の期待値が大きくな るかを直接計算する方法。 |
Q 学習 | 価値ベースの強化学習手法。 状態sと行動aの組の価値 を、状態s行動を選んだ後、得られる報酬和の期待値 で表現する。 |
モンテカルロ木探索 | ある状態から行動選択を繰り返して報酬和を計算すると いうことを複数回行った後、 報酬和の平均値をある状態 の価値とする価値推定方法。 |
Deep Q Network (DQN) | Q 学習において、 状態と行動の価値をこれまで得た報酬 で近似するQ関数を、 ニューラルネットワークで表現す る手法。 |
AlphaGo | DeepMind社によって開発された深層強化学習を用いた囲 碁プログラム。 |
変分オートエンコーダ (VAE) | オートエンコーダに改良を加えたモデルであり、 新しい データを生成することができるモデル。 画像を生成する 潜在変数の分布を学習し、 入力画像を平均と分散に変換 する。 |
敵対的生成ネットワーク (GAN) | ニューラルネットワークで深層生成モデルを構成する際 の代表的なアーキテクチャの一つ。ジェネレータとディスクリミネータという敵対する目的を持つモデルを交互に学習していく。 |
ILSVRC | Image Net と呼ばれるデータを使った画像認識の分類精度を競う競技会。 |
AlexNet | ILSVRC で 2012年1位。 ILSVRCにて初めて深層学習の概念を取り入れたモデル。 ジェフリー・ヒントン教授らのチームによって発表された。 |
GoogLeNet | ILSVRC で 2014年 1位 Inception モジュールと呼ばれる小さなネットワークを積み上げた構造をしている。 |
VGG16 | ILSVRCで2014年2位 13層の畳み込み層と3層の全結合 層の合計16層から構成されているモデル。 3×3の小さな 畳み込みフィルタのみを用いた上で、層を深くしたとい う特徴がある。 |
ResNetI | LSVRC で 2015年 1位 最大152層から構成されている ネットワーク。 層を飛び越えた結合 (Skip connection) があることが特徴。 |
DenseNet | 2016年に発表されたモデルで、 前方の各層からの出力す べてが後方の層への入力として用いられるのが特徴で、 Dense Block と呼ばれる構造を持つ。 |
EfficientNet | 2019年にGoogle 社から発表されたモデルで、これまで登 場していたモデルよりも大幅に少ないパラメータ数であ りながら、 STAを達成。 モデルの深さ、広さ、入力画像 の大きさをバランス良く調整しているのが特徴。 |
物体検出 | 画像に写っている物体をバウンディングボックスと呼ば れる矩形の領域で位置やクラスを認識するタスク。 |
R-CNN | 2014年に発表された CNNを用いた物体検出モデル。 |
YOLO | 物体検出手法の1つ。 検出と識別を同時に行うのが特徴。 |
SSD | 物体検出の手法で、特徴の一つに小さなフィルタサイズ のCNNを特徴マップに適応することで、物体のカテゴリ と位置を推定することが挙げられる。 |
Faster R-CNN | 2015年に Microsoft 社が開発した物体検出アルゴリズム。 |
セマンティックメンテーション | 画像に写っているものをピクセル単位で領域やクラスを 認識するタスク。 物体領域を種類ごとに抽出する。 |
インスタンスセグメンテーション | 画像に写っているものをピクセル単位で領域やクラスを 認識するタスク。 個別の物体領域を抽出する。 |
SegNet | 2017年に提案されたセマンティックセグメンテーション を行う手法の1つ。 入力画像から特徴マップの抽出を行うEncoder と、抽出した特徴マップと元の画像のピクセ ル位置の対応関係をマッピングする Decoderで構成され ている。 |
U-Net | セマンティックセグメンテーションを行う手法の1つ。 全層畳み込みネットワークの一種で、 畳み込まれた画像 を decode する際に encodeで使った情報を用いるのが特徴。 |
形態素解析 | 形態素と呼ばれる言語で意味を持つ最小単位まで分割 し、解析する手法。 また、 単純に単語を分割するだけで なくそれぞれの形態素の品詞などの判別も行う。 |
bag of words | どの単語が含まれるかに注目して単語をベクトル化する 方法。 |
TF-IDF | Term Frequency (TF) Inverse Document Frequency (IDF) の2つの情報から単語の重要度を算出する手法。 |
トピックモデル | 文書や単語に潜む潜在的なカテゴリを説明するモデル。 |
LDA | 文書集合から各文書におけるトピックの混合比率を推定 する手法の1つ。 各トピックから単語が生成される確率 もトピックと同時に推定する。 |
word2vec | 単語の分散表現を獲得する、 ニューラルネットワークを 用いた推論ベースの手法。 |
doc2vec | 文章の分散表現を獲得する、 ニューラルネットワークを 用いた推論ベースの手法。 |
Transformer | Google社が2017年に発表した 「Attention Is All You Need」 という論文で登場した言語モデル。 |
BERT | Google社が2018年に発表した双方向 Transformer を使っ したモデルで、 事前学習に特徴がある。 |
Masked Language Model (MLM) | BERT にも用いられている事前学習のタスクで、文中の複 数箇所の単語をマスクし、 本来の単語を予測する。 |
Next Sentence | BERT にも用いられている事前学習のタスクで、2文が渡 Prediction (NSP) され、連続した文かどうか判定する。 |
Gap Sentences Generation (GSG) | PEGASUS というモデルにも用いられている事前学習タスクで、 複数箇所の文をマスクし、 本来の文を予測する。また、マスク部分の決定はランダム以外の方法で決 定する。 |
GPT-2O | penAl が 2019年に発表したTransformer ベースのテキス生成モデル 800万のWEBページを学習している。 |
音素 | 語の意味を区別する音声の最小単位。 音声認識では、音素から単語への予測が行われることがある。 |
ケプストラム | 音声認識で使われる特徴量の一つ。 音声信号に対し、 フーリエ変換を行った後、対数を取り、もう一度フーリ エ変換を行い、 作成する。 |
メル尺度 | 人間の音声知覚の特徴を考慮した尺度で、メル尺度の差 が同じ時、人が感じる音高の差が同じになる。 |
メル周波数ケブストラム係数 (MFCC) | 音声認識の領域で使われることの多い特徴量の1つ。 ケ ブストラムにメル周波数を考慮したもの。 |
マルコフ過程 | 確率モデルの一つ。 マルコフ性 (ある時刻の状態がその直 前の状態によってのみ決まる) を持つ確率過程(時間とと もに変化する確率変数)。 |
隠れマルコフモデル (HMM) | 観測されない隠れた状態を持つマルコフ過程。 |
CTC (Connectionist Temporal Classification) | 音声認識などで用いられる損失関数 LSTMやRNNなど で End-to-Endに音声認識を行う際に用いられることがあ る。 |
WaveNet | 2016年にDeepMind社によって開発された音声合成音声 認識に使われるモデル。 PixelCNNというモデルをベー スにしている。 |
RAINBOW | Deep Q Network – Dueling Network, Double DQN. | Noisy Net Categorical DQNなどのアルゴリズムを全部載 せしたアルゴリズム。 |
Actor-Critic | 行動を選択する Actor と Q関数を計算することで行動を 評価する Critic を、交互に学習するアルゴリズム。 |
REINFORCE | 一連の行動による報酬和で方策を評価して、直接方策を 改善する方策勾配法系のアルゴリズム。 |
AlphaGo Zero | AlphaGo を改良したプログラム。 人間の棋譜を一切使わ ずに、 AlphaGo Zero 自身の自己対戦によって棋譜を生成 して、ゼロからニューラルネットワークを学習。 |
deepfake | GANなどを用いて人物の画像や映像を合成する技術。 存の画像と映像を、元となる画像または映像に重ね合わ せて、 非常に自然に合成をすることが可能。 |
Kaggle | データサイエンスのコンペティションプラットフォーム であり、さまざまな企業や研究者がデータを投稿し、 世 界中のデータサイエンティストが自身のモデルの精度等 で競われている。 さまざまなデータに対する解法や考察 なども存在し、 閲覧することができる。 |
Cousera | 機械学習などの分野をオンラインで学ぶことができる教 育プラットフォーム。 |
MOOCS | Cousera のような大規模なオンライン講座群のことで、 Massive Open Online Courses の略。 |
arXiv | 機械学習などの論文をアップロード・ダウンロードする ことができるプラットフォームで、 最新の研究などの情 報を閲覧することができる。 |
Tay | Microsoft 社が 2016年に、 19歳の女性の話し方を模倣す るように設計されたチャットボット。 さまざまなソー シャルネットワークサービス (SNS) に向けてリリースし たが、リリースから数時間後不適切な発言が多かったた め公開停止。 |
フィルターバブル 現象 | 商品のレコメンドシステムや検索エンジンにおいて、 自 分が見たいものや欲しい情報のみに包まれてしまう現象 で、インターネット活動家であるイーライ・パリサーが 2011年に出版した著書名から名前が付けられた。 |
ブラックボックス | 中がわからないことをいい、 機械学習では予測根拠がわ からない際に使われる。 ディープラーニングなどのモデ ルが複雑になるほどブラックボックスである傾向が強い。 |
XAI | 解釈性の高いもしくは説明可能なAIのこと。 米国の DARPA (Defense Advanced Research Projects Agency: E 防高等研究計画局) が主導する研究プロジェクトが発端 となり、 XAI (Explainable Al) と呼ばれる。 |
透明性レポート | 顧客、社会に向けて、 収集したデータやその扱いなどに ついて開示したもの。 |
EU一般データ保護 (GDPR) | EUを含む欧州経済領域内にいる個人の個人データを保護 規則するためのEUにおける統一的ルールであり、域内で取得 した 「氏名」や「クレジットカード番号」 などの個人データ を域外に移転することを原則禁止している。EU域内でビ ジネスを行い、EU域内にいる個人の個人データを取得す る (日本企業) に対しても、 幅広く適用される。 |
匿名加工情報 | 個人情報を加工することで特定の個人を識別することが できないようにし、 当該個人情報を復元不可にした情報。 |
この記事は役に立ちましたか?
もし参考になりましたら、下記のボタンで教えてください。
コメント