AI を理解しようとしていますか?100 種類以上の AI 用語の用語集から基本から始めましょう。
アクセラレータ - より高性能なモデルトレーニングと推論のために、より高速なAI計算を促進するように設計された特殊ハードウェア。
AI アライメント - AIシステムが人間の価値観や意図に沿った行動をすることを確保する取り組み。
AIアシスタント - 質問への回答、推奨事項の提供、ガイダンスの提供など、さまざまなタスクでユーザーを支援するように設計されたAI駆動ツール。
AI監査 - 倫理基準、パフォーマンス指標、規制要件の遵守について、AIシステムを評価するプロセス。
AIバイアス - トレーニングデータの偏見を反映して、不公平または差別的な結果につながる可能性のあるAIシステムの系統的なエラー。
AIガバナンス - AIテクノロジーの開発と使用を責任を持って管理するためのポリシー、慣行、および構造。
AIリテラシー - AIの概念、能力、限界を理解し、AIシステムとの情報に基づいた対話と評価を可能にする知識。
AIリスク管理 - AIシステムの潜在的な負の影響を特定、評価、軽減するための戦略と慣行。
AI安全性 - 信頼性があり、制御可能で、意図しない害を引き起こさないAIシステムの開発に焦点を当てた分野。
アルゴリズム的公平性 - AIシステムが特定のグループや個人を差別することなく決定を下すことを確保するアプローチ。
人工一般知能(AGI) - 広範なタスクにわたって人間の認知能力に匹敵し、それを超える理論的なAIシステム。
人工知能(AI) - 歴史的に人間が実行する必要があった問題を作成、推論、解決できるコンピュータシステム。
人工超知能(ASI) - すべての領域で人間の知能を超える仮説的なAI、深遠な倫理的および実存的な疑問を提起する。
アテンション(またはアテンションメカニズムまたはアテンションモデル) - ニューラルネットワークのメカニズムで、AIモデルが入力データの特定の部分に焦点を当てることができ、言語翻訳や画像分析などのタスクのパフォーマンスを向上させる。
バックプロパゲーション - 機械学習のアルゴリズムで、エラーを計算し、レイヤを通じて後方に重みを調整することでニューラルネットワークをトレーニングする。
BERT(Bidirectional Encoder Representations from Transformers) - 各トークンの前後の単語を見ることでテキストを処理するトランスフォーマーベースのAIモデル、双方向トレーニングとも呼ばれる。
ビッグデータ - 処理と分析に特殊なAI技術とツールを必要とする非常に大きなデータセット。
思考の連鎖 - 出力品質を向上させるために、問題解決時に言語モデルに段階的に推論するよう促すAIプロンプト技術。
チャットボット - ChatGPTのような、人間と自然な会話をするように設計されたAI駆動ツール。
中国語の部屋 - AIシステムが本当に言語を理解するという概念に異議を唱え、機械知能の性質を問う思考実験。
計算 - AIタスクの実行に必要な処理能力とリソースで、モデルの規模と複雑さに影響する。
コンピュータビジョン - コンピュータに世界からの視覚情報を解釈し理解するトレーニングを行うAIの分野。
畳み込みニューラルネットワーク(CNNs) - グリッドのようなデータの処理のために設計された特殊なニューラルネットワークで、特に画像分析タスクに効果的。
対照的言語-画像事前トレーニング(CLIP) - テキストと画像を接続することを学習し、多様な視覚認識タスクを可能にするNLPモデル。
コンテキストウィンドウ - AIモデルが予測または応答を行う際に一度に考慮できる情報量。
会話型AI - 通常はチャットインターフェースを通じて、自然な会話形式で人と対話できるAIシステム。
カスタムモデル - 特定のデータで特定のタスクを実行するためにトレーニングされたAIモデルで、個人や組織の独自のニーズに合わせてカスタマイズされることが多い。
データ拡張 - トレーニングデータの量や多様性を人為的に増やし、AIモデルが新しい状況に一般化しやすくするプロセス。
データラベリング - 生データに説明的なタグを追加し、AIシステムがラベル付けされた例から学習できるようにするプロセス。
データ前処理 - 生データをクリーニングしフォーマットし、AIモデルトレーニングに適したものにして学習結果を向上させるプロセス。
データセット - AIモデルのトレーニングとテストに使用される情報のコレクションで、パターンを学習し予測を行うことを可能にする。
ディープラーニング - ニューラルネットワークを使用して大量のデータを分析し学習する機械学習技術。
ディープフェイク - 既存の画像やビデオの人物を他の人の姿に置き換えるAI画像生成技術。
拡散 - ランダムなパターンを徐々にノイズ除去することで画像を生成し、高品質で多様な出力を生み出すAIモデル。
ダブルディセント - モデルの複雑さが増加するにつれて、モデルのパフォーマンスが最初に改善され、その後悪化し、再び改善する機械学習における現象。
埋め込み - 離散データを数値ベクトルに変換し、AIモデルがアイテム間の関係を理解するのを助ける機械学習技術。
創発 - シンプルなルールや相互作用から複雑なAI行動が生じる現象で、しばしば予期せぬ方法で。
エンドツーエンド学習 - 手動で設計された中間段階なしに、入力から出力まで直接タスクのすべてのステップを学習するモデルの機械学習技術。
倫理的AI - 人権と価値観を尊重する方法でAIシステムを開発し展開するためのガイドラインと基準。
説明可能AI(XAI) - AIの意思決定プロセスを人間にとって理解可能にし、透明性と信頼性を高めるアプローチ。
エキスパートシステム - 特定のドメインにおける人間の専門家の意思決定をエミュレートするAIプログラムで、事前定義されたルールと知識ベースを使用する。
少数ショット学習 - 少数のトレーニング例だけで良いパフォーマンスを実現するようにモデルをトレーニングする機械学習技術。
ファインチューニング - 事前トレーニングされたAIモデルを、特定のタスクのパフォーマンスを向上させるために、より小さなデータセットでトレーニングして精緻化するプロセス。
連合学習 - 生データをローカルに保持することでデータプライバシーを保ちながら、複数のデバイスまたはサーバー間でAIモデルをトレーニングするアプローチ。
フォワードプロパゲーション - 機械学習のアルゴリズムで、入力データがニューラルネットワークのレイヤを通過して出力または予測を生成する。
基盤モデル - 膨大な量のデータでトレーニングされた大規模AIモデルで、様々な下流タスクの汎用的な基盤として機能する。基盤モデルは通常、トレーニングに数億ドルのコストがかかる。
頻度ペナルティ - モデルが同じ単語やフレーズを繰り返し生成することを抑制するAIパラメータ。
生成AI - トレーニングデータから学習したパターンに基づいて、画像、動画、テキストなどの新しいコンテンツを作成できるAIシステム。
生成的事前トレーニング済みトランスフォーマー(GPT) - シーケンス内の次の単語を予測することにより人間のようなテキストを生成できるトランスフォーマーアーキテクチャに基づく人工ニューラルネットワーク。
勾配降下法 - 機械学習でモデルをトレーニングするために使用される最適化手法で、エラーを最小化するためにパラメータを繰り返し調整する。
GPU - AI モデルトレーニングと推論を加速するための並列計算に最適化された特殊プロセッサ。
幻覚/ハルシネーション - AIモデルがトレーニングに含まれていないコンテンツを生成する現象で、無意味または虚偽の出力をもたらす。
隠れ層 - ニューラルネットワークの中間層で、入力データから複雑な特徴を学習し表現する。
ハイパーパラメータチューニング - 最高のパフォーマンスを達成するために、AIモデルの最適な構成設定を設定するプロセス。
画像キャプション - 画像内のコンテンツの自然言語による説明を生成するAI画像処理技術。
画像の色付け - グレースケールまたは白黒画像に色を追加するAI画像処理技術。
画像ノイズ除去 - 画像の品質を向上させるために、画像からノイズや不要なアーティファクトを取り除くAI画像処理技術。
画像生成 - テキスト説明や他の画像に基づいて、一から新しい画像を作成するAI画像処理技術。
画像インペインティング - 画像の欠落または損傷した部分を再構築するAI画像処理技術。
画像認識 - デジタル画像内の物体やシーンを識別し分類するAI画像処理技術。
画像セグメンテーション - 画像を複数のセグメントや物体に分割し、各セグメントに属するピクセルを識別するAI画像処理技術。
画像間変換 - 画像入力(例えば写真)を受け取り、それを使用して新しい画像を生成するAI画像処理技術。
画像アップスケーリング - 品質を維持または向上させながら画像の解像度を上げるAI画像処理技術。
インクリメンタル学習 - 以前に学習した情報を忘れることなく、新しいデータから継続的に知識を更新するAIシステムの能力。
推論 - AIモデルがトレーニングされた後、トレーニングされたモデルを使用して新しい予測または出力を生成するプロセス。
指示チューニング - より良いプロンプトと例を使用して、事前トレーニングされた言語モデルがより高品質の出力を生成するよう導くプロセス。
大規模言語モデル(LLM) - 大量のテキストでトレーニングされ、人間のような言語を理解し生成できるAIモデル。
潜在空間 - モデルによって学習されたデータの圧縮表現で、最も重要な特徴とパターンを捉える。
損失関数 - モデルの予測出力と実際の値の間の差を定量化する方法。
機械学習(ML) - AIのサブセットで、明示的なプログラミングなしにデータからパターンを識別し洞察を抽出するためにアルゴリズムと統計を使用する。
機械翻訳 - 機械学習アルゴリズムを使用して、テキストを自動的にある言語から別の言語に翻訳すること。
専門家の混合 - 問題のさまざまな部分を解決するために複数の専門モデル(専門家)を組み合わせるAIモデルで、ゲーティングネットワークが特定の入力に適切な専門家を選択する。
モデル圧縮 - AIモデルのサイズと計算ニーズを削減し、リソースが制約されたデバイスに展開できるようにするための技術。
モデル展開 - トレーニングされたAIモデルを本番環境に統合し、実世界での使用に利用可能にするプロセス。
モデル評価 - テストデータを使用してAIモデルのパフォーマンスを評価し、精度と信頼性の基準を満たしていることを確認する。
モデル説明可能性 - AIモデルがどのように決定に達するかを理解し解釈するために使用される技術で、透明性と信頼性を促進する。
モデル解釈可能性 - 人間がAIモデルの予測背後の推論をどれだけ簡単に理解できるかを測定するために使用される技術で、検証と改善に役立つ。
モデルモニタリング - 展開されたAIモデルの継続的な観察により、一貫したパフォーマンスを確保し、潜在的な問題やドリフトを検出する。
モデルトレーニング - ラベル付けされた例にAIモデルを公開することで、正確な予測を行うように教えるプロセス。
モデルバージョニング - AIモデルのさまざまな反復を追跡するシステムで、コラボレーションを促進し、必要に応じてロールバックを可能にする。
マルチモーダルAI - 混合データ形式(テキスト、画像、音声など)でコンテンツを処理および出力できるAIシステム。
固有表現認識(NER) - テキスト内の固有表現(人物、組織、場所など)を識別し分類するNLP技術。
自然言語処理(NLP) - コンピュータが人間の言語を理解、解釈、生成できるようにすることに焦点を当てたAIのサブセット。
NeRF(Neural Radiance Fields) - 異なる角度からシーン内の物体と光がどのように相互作用するかを学習することにより、2D画像から3Dシーンを作成する人工ニューラルネットワーク。
目的関数 - 最適化問題(機械学習など)で、アルゴリズムが達成しようとする目標を定義するために使用される方法。
過学習 - モデルがトレーニングデータに過度に適合し、新しいデータや予測に対して性能が低下する現象。
パラメータ - AIモデルの内部設定で、入力データの処理方法と出力の生成方法を決定する。
品詞タグ付け(POS) - テキスト内の単語に文法的カテゴリ(名詞、動詞、形容詞など)でラベルを付けるNLP技術。
存在ペナルティ - モデルが既に前のテキストに出現した単語を生成することを抑制するAIパラメータ。
事前トレーニング - 特定のタスクに対してファインチューニングする前に、大規模なテキストとコードのデータセットで言語モデルの初期トレーニングフェーズ。
プロンプト - AIモデルに与えられる初期テキスト入力で、コンテキストを設定しモデルの出力を導く。
プロンプトエンジニアリング - AIモデルから最高の応答を引き出すためのプロンプトを設計し洗練するプロセス。
プロンプト注入 - AIモデルを操作して意図しないまたは有害な出力を生成させるための悪意のあるAIプロンプトを作成する行為。
プロンプト漏洩 - AIモデルをだまして機密または機微な情報を含む可能性のあるシステムプロンプトを開示させるプロンプト注入攻撃。
強化学習 - エージェントが環境内で行動に対する報酬や罰則を受け取ることで決定を学習する機械学習技術。
人間からのフィードバックによる強化学習(RLHF) - 強化学習アルゴリズムにおける学習プロセスを導くために人間のフィードバックが使用されるAI技術。
正則化 - 機械学習モデルに制約を追加することで過学習を防ぐために使用されるAI技術。
設計による責任あるAI - AIシステム開発のあらゆる段階に倫理的考慮と社会的影響を統合するアプローチ。
RoBERTa(Robustly Optimized BERT Pretraining Approach) - BERTの最適化版で、より長期間にわたってより多くのデータでトレーニングされ、テキスト理解タスクのパフォーマンスが向上する。
感情分析 - テキスト内で表現された感情的なトーンや意見を判断するNLP技術。
シンギュラリティ - AIが人間の知能を超え、予測不可能な技術的および社会的結果をもたらす仮説的な時点。
停止シーケンス - AIモデルにテキスト生成を停止するよう合図する特定の単語やフレーズ。
スタイル転送 - あるイメージの芸術的スタイルを別のイメージのコンテンツに適用するAI画像処理技術。
教師あり学習 - モデルがラベル付きデータでトレーニングされ、入力から出力を予測することを学習する機械学習技術。
記号的人工知能 - 知識の明示的な表現と論理に基づく推論に基づくAIアプローチで、機械学習手法と対照的。
温度 - 出力のランダム性を制御するAIパラメータ。低温は出力を予測可能にし、高温はより創造的で予期しない出力を奨励する。
TensorFlow - さまざまなプラットフォームでの機械学習モデルの実装と展開のためのオープンソースソフトウェアライブラリ。
トークン - AIモデルが処理できるテキストの最小の意味のある単位で、多くの場合、文字または単語を表す。
トークン制限 - 言語モデルが単一の入力で処理できる、または単一の出力で生成できるトークンの最大数。
トップkサンプリング - 次の単語を最も可能性の高いk個のオプションから選択し、出力をより予測可能に保つAI技術。
トップp(核サンプリング) - 次の単語を、累積確率がしきい値pを超える最小の最も可能性の高い次の単語のセットから選択するAI技術。
TPU - Googleによって設計されたカスタムプロセッサで、機械学習ワークロードの効率的な実行のため。
転移学習 - 事前トレーニングされたモデルを新しい、しかし関連するタスクに適応させ、既存の知識を活用する機械学習技術。
トランスフォーマー - 入力シーケンスを出力シーケンスに変換するために、シーケンシャルデータの関係を追跡できる人工ニューラルネットワークアーキテクチャ。
チューリングテスト - アラン・チューリングによって提案された知能テストで、知能は人間が別の人間とコンピュータのどちらと話しているかを判断できないこととして定義される。
アンダーフィッティング - モデルがトレーニングデータの基礎的な関係を捉えるには単純すぎる場合に発生し、新しいデータでの性能不良となる。
教師なし学習 - ラベル付けされた応答なしに入力データ内の隠れたパターンや固有の構造を見つける機械学習技術。
検証データ - モデルのパフォーマンスを評価するために、トレーニング中にモデルに表示されないデータセットの別部分。
XLNet - あらゆる可能な順序で単語を予測することにより、コンテキスト理解を強化する言語モデル。
ゼロショット学習 - トレーニング中に見たことのない新しいクラスまたはタスクについて正しい予測を行う訓練されたモデルの能力を指す機械学習技術。