自分用メモです.
- autoencoding
- autoregressive
- batch normalization
- broadcasting
- causal
- computational graph
- convolution
- criterion
- derivative
- dropout
- embedding
- finetune
- gradient
- gradient descent method
- large language models (LLM)
- learning rate
- loss function
- natural language processing
- normalize
- one-hot encoding
- overtraining, overfitting
- preprocessing
- pretrain
- recurrent neural network
- state of the art
- transformer
- variable
- 出典
autoencoding
【名】 自己符号化
autoregressive
【形】《統計・計量経済学》自己回帰の
batch normalization
【名】バッチ正規化.全学習データを使うのではなくミニバッチごとの統計量を使ってミニバッチごとに正規化すると,メリットがある.
broadcasting
【名】NumPyでは形状が同じ配列同士の算術計算が簡便に記述できる.これを拡張して,次元の長さが1の部分を複写し自動で長さをそろえるか,配列の前方に自動で長さ1の次元を追加することで,自動的に形状を揃えて演算してくれる*1.
causal
【形】 因果関係を示す、原因から続いて起こる
computational graph
【名】 計算グラフ
convolution
【名】 渦巻き、回旋 《数学》コンボリューション、畳み込み
convolutional
【形】 畳み込みの
criterion
【名】 〔判断の〕基準、尺度
derivative
【形】 派生した、派生的な 【名】 《数学》導関数、微分係数
dropout
【名】ドロップアウト.学習時に一部のニューロンを無効にすることで過学習を防ぐ
embedding
【名】 埋め込み
finetune
【他動】 微調整する.事前学習したモデルを利用して学習を進めること.
gradient
【名】 傾き、傾斜、勾配
gradient descent method
【名】 勾配降下法
large language models (LLM)
【名】 巨大な量のデータを利用して訓練した言語モデル
learning rate
【名】 学習率.勾配降下法で変化させる値の倍率
loss function
【名】損失関数 (=cost function)
natural language processing
【名】自然言語処理
normalize
【他動】 標準化する、正常化する、常態にする
one-hot encoding
【名】ダミー変数化.そのカテゴリに該当するか否かで0か1のフラグを作成する手法
overtraining, overfitting
【名】過学習,過剰適合
preprocessing
【名】 機械学習モデルを訓練するためにデータを事前に処理すること
pretrain
【動】 事前学習
recurrent neural network
【名】再帰型ニューラルネット
state of the art
〔技術の〕最先端、最新鋭、最高水準
transformer
【名】Self-Attention機構を含む機械学習モデルの構造
variable
《数学》変数(記号)
qualitative/categorical variable
【名】定性的な/カテゴリー変数
nominal variable
【名】名義変数
ordinal variable
【名】順序変数
numerical variable
【名】数値変数
discrete variable
【名】離散変数
continuous variable
【名】連続変数