資格取得

【DX検定】AI×ソフトウェア分野まとめ|キーワード解説+出題ポイント

※当サイトはアフィリエイト広告を利用しています

資格取得

DX検定の 「AI×ソフトウェア分野(H)」 は、AIとソフトウェアを基礎・応用・開発の観点で整理し、代表的なサービス/事例も含めて理解することが求められる領域です。しかし、AI用語は似た概念が多く、ソフトウェア領域も範囲が広いため、違いを言語化して覚えないと取り違えやすいのが実情です。

本記事は、H1(AI)とH2(ソフトウェア)で、実際の試験の問題文や選択肢での頻出キーワードを出題頻度(★〜★★★)つきで整理した「合格用まとめ」です。

AIは基礎・応用・開発に加えて代表サービス/事例も押さえられ、ソフトウェアも同様に段階別に整理できるうえ、「混同しやすいキーワードまとめ」で用語の差分を最後に総復習できるので、短時間で理解の精度を上げたい方におすすめです。

出題範囲の全体像はこちらのページをご覧ください。

H1_AI

AIの基礎知識

生成AI(★★★)

定義:学習データの分布をもとに、文章・画像・音声・動画などの“新しいコンテンツ”を生成するAI。
ポイント:

  • 「分類・予測(識別)」よりも「生成(創作・編集)」が主役(文章生成、画像生成、動画生成、音声生成など)
  • 生成AIは“それっぽい”出力が得意だが、正しさ(事実性)は別問題になりやすい(→ハルシネーション)

混同しやすいポイント:生成AI=万能の正解生成、ではない(検索・根拠提示の仕組みとセットで理解する)

ジェネレーティブAI(★★★)

定義:「生成AI」の言い換え(generative AI)。
ポイント:問題集では「ジェネレーティブAI」という表記も出るため同義として結びつけて覚える

機械学習(★★★)

定義:データから規則性を学習し、予測・分類・推薦などを行う手法の総称。
ポイント:

  • “ルールを人が書く”のではなく、“データから学ぶ”
  • 生成AIも機械学習の一領域(大規模モデル/深層学習を多用)

混同しやすいポイント:「教師データ」「アノテーション」など、学習データ作りの工程が頻出

ニューラルネットワーク(★★★)

定義:脳神経回路を模した層構造(ノードと重み)で特徴を学習するモデル。
ポイント:

  • 画像・音声・自然言語などの複雑データで強い
  • 深層化(層を増やす)すると表現力が上がる(→ディープラーニング)

混同しやすいポイント:「ニューラルネットワーク=ディープラーニング」ではない(深層化したNNがDL)

ディープラーニング(★★)

定義:多層(深い)ニューラルネットワークを用いた機械学習。
ポイント:画像認識・音声認識・自然言語処理・生成AIの中心技術
混同しやすいポイント:“学習に大量データ・計算資源が必要”という前提を忘れない(→GPU/AIチップ)

強化学習(★)

定義:試行錯誤により、報酬が最大になる行動方策を学ぶ学習。
ポイント:ロボット制御、ゲーム、意思決定などで登場しやすい
混同しやすいポイント:教師データで正解を当てる(教師あり)とは違い、環境から報酬で学ぶ

推論(★★★)

定義:与えられた情報から結論を導く思考プロセス(AI文脈では推論モデル/Reasoningとも絡む)。
ポイント:問題集では「推論(演繹・帰納・アブダクション)」がセットで問われやすい
混同しやすいポイント:“推論=計算(inference)”の意味もある(モデル実行の意味)。文脈で判断する

演繹(★)

定義:一般法則→個別結論(正しければ必ず正しい結論)。
ポイント:例:すべての人間は死ぬ/ソクラテスは人間→ソクラテスは死ぬ

帰納(★★)

定義:個別事例→一般法則(確率的・経験則)。
ポイント:例:観測した白鳥が全部白い→白鳥は白い(反例が出る可能性)

アブダクション(★★)

定義:観測結果を最もよく説明する“仮説”を立てる推論。
ポイント:例:地面が濡れている→雨が降った(かもしれない)
混同しやすいポイント:帰納と混ざりやすいが、アブダクションは“原因仮説の推定”に寄る

サポートベクターマシン(★★)

定義:分類境界(マージン最大)を最適化して分類する手法(SVM)。
ポイント:古典的だが用語として頻出。「ニューラル系」と対比で出やすい
混同しやすいポイント:深層学習と違い、特徴量設計やカーネルの考え方がカギ

ベイジアンネットワーク(★★)

定義:確率変数の依存関係をグラフ構造で表す確率モデル。
ポイント:不確実性を扱う、条件付き確率、因果っぽい依存の表現などで登場
混同しやすいポイント:“因果そのもの”を保証するわけではない(設計・仮定が重要)

教師データ(★)

定義:入力データに対して正解ラベル(目的変数)が付与された学習データ。
ポイント:教師あり学習の前提。データ品質が性能に直結

アノテーション(★)

定義:データ(画像・音声・文章など)にラベルや注釈を付ける作業。
ポイント:教師データ作成の中心工程(時間・コストがかかる)
混同しやすいポイント:ひっかけ:アノテーション≠スコーピング、≠クラスタリング、≠クレンジング

  • スコーピング:課題・範囲決め
  • クラスタリング:似たものを自動でグルーピング
  • クレンジング:欠損・表記ゆれ・外れ値などの整形

AIの応用知識

拡散モデル(★★)

定義:ノイズ付与→ノイズ除去を繰り返して生成するモデル(画像・動画生成で頻出)。
ポイント:画像生成・動画生成の中核として登場しやすい(動画生成AIの話題とセット)
混同しやすいポイント:GAN(敵対的生成)と混同しやすい

  • 拡散=段階的な復元
  • GAN=生成器と識別器の対戦

トランスフォーマー(★★)

定義:注意機構(Attention)を中心にした深層モデル。LLMの中核アーキテクチャ。
ポイント:LLM・生成AIを語るうえで避けられない基礎語
混同しやすいポイント:選択肢の誤記(transformer系のもじり)に注意。構造のキーワードとして押さえる

マルチモーダル(★)

定義:テキストだけでなく画像・音声など複数モーダルを統合して扱うこと。
ポイント:LLMの発展形として「画像も理解」などが出やすい
混同しやすいポイント:“直接リアルタイム制御までやる”などの言い切りは要注意(ロボット応用の設計論と混ざりやすい)

音声合成(★★)

定義:テキスト等から音声を生成する技術(TTSなど)。
ポイント:ナレーション、読み上げ、音声アシスタント、キャラ音声などで使われる
混同しやすいポイント:音声合成(声)と音楽生成(曲)は別(サービス名で混ざりやすい)

Text to Speech(★)

定義:テキスト→音声(TTS)のこと。
ポイント:問題文・選択肢では英語表記で出ることがある

大規模言語モデル(LLM)(★★★)

定義:大量のテキストで学習し、文章生成・要約・翻訳・推論などを行う言語モデル。
ポイント:

  • “何ができるか”よりも“どこが弱いか(幻覚、根拠、最新性)”がひっかけになりやすい
  • 「トークン」「コンテキスト長(長文処理)」とセットで問われやすい

混同しやすいポイント:“無料のみで利用可能”のような極端な断定は疑う(サービス提供形態は変わりやすい)

SLM(Small Language Model)(★)

定義:LLMより小型(軽量)な言語モデルの総称。
ポイント:小さい=弱い、ではなく「用途に合わせて軽量で速い」価値がある(端末内・エッジなど)混同しやすいポイント:何が“小さい”の指標か:パラメータ数(頻出)

パラメータ数(★)

定義:モデル内部の重みの総数(モデル規模の代表指標)。
ポイント:SLM/LLMの大きさ比較で最重要
混同しやすいポイント:トークン数(文の長さ)/レイヤー数(層の数)/学習データ量(データ規模)と混ざる

トークン数

定義:モデルが扱う最小単位(単語・サブワード等)の数。
ポイント:長文対応(コンテキスト長)で出る

基盤モデル(★)

定義:幅広いデータで事前学習された汎用モデル(下流タスクに転用される)。
ポイント:LLMは典型的な基盤モデル

事前学習(★)

定義:大量の汎用データでまず学習して“土台能力”を作る工程(Pre-training)。
ポイント:事前学習→(必要に応じて)RAG/ファインチューニング/プロンプト設計へ

プロンプトエンジニアリング(★★)

定義:望む出力を得るための指示文(プロンプト)設計。
ポイント:“モデルを変えずに”振る舞いを寄せる代表手段

混同しやすいポイント:プロンプト設計とファインチューニング(重み更新)は別

ファインチューニング(★)

定義:追加データでモデルを再学習し、特定用途に最適化すること(Fine-tuning)。
ポイント:用語の取り違え注意:事前学習(汎用)とファインチューニング(用途特化)

混同しやすいポイント:RAGと混同:RAGは“知識を検索で補う”、ファインチューニングは“モデル自体を調整”

RAG(★★★)

定義:外部知識を検索し、その結果を参照して生成する方式(検索拡張生成)。
ポイント:

  • LLM単体の弱点(最新性・根拠)を補う定番アーキテクチャ
  • 典型構成:埋め込み→ベクトル検索→関連文書→回答生成

混同しやすいポイント:「RAG=幻覚がゼロになる」は誤り。抑制はできるが設計と検証が必要

検索拡張生成(★★)

定義:RAGの日本語表記。
ポイント:選択肢では「検索×対話型AI」や「AI検索」文脈で登場しやすい

ハルシネーション(★)

定義:もっともらしいが誤った内容を生成してしまう現象(幻覚)。
ポイント:RAG/根拠提示/検証フローで“減らす”ことはできる

混同しやすいポイント:“抑制”という言い方が出ても、万能ではない(極端な断定に注意)

ベクトルデータベース(★★)

定義:埋め込みベクトル(数値ベクトル)を格納し、類似検索に最適化したDB。
ポイント:RAGの要(類似検索で関連文書を引く)

混同しやすいポイント:

  • ドキュメントDB(★)/リレーショナルDB(★)/グラフDB(★)と対比で出る
  • さらに紛らわしい語:OLAP(★)・OLTP(★)・ETL(★)
    • OLTP:日々の取引処理(更新中心)
    • OLAP:分析処理(集計中心)
    • ETL:抽出→変換→格納(分析基盤で頻出)

埋め込み(Embedding)(★)

定義:テキスト等を意味を保った数値ベクトルに変換すること。
ポイント:ベクトルDBの入力/類似検索の根幹

AI検索(Perplexityなど)(★)

定義:対話UIと検索を統合し、答えを文章で返す検索体験。
ポイント:“検索結果一覧”ではなく“回答”を出す体験がポイント
混同しやすいポイント:対話UI(それっぽさ)だけでなく、RAGなどの“根拠参照”が鍵になりやすい

AIエージェント(★★)

定義:目標達成のために、タスク分解→計画→実行を(ある程度)自律的に行うAI。
ポイント:

  • 「指示に1回答える」より「複数ステップでやり切る」イメージ
  • 自律エージェント(★)は同系統語としてセットで押さえる

混同しやすいポイント:“自律=勝手に動いてよい”ではない。ガードレール設計(権限、監視、ログ)が重要

MAS(マルチAIエージェントシステム)(★★★)

定義:複数エージェントが役割分担し、協調して問題解決する仕組み。
ポイント: 役割例:調査役/企画役/検証役/実行役…などに分ける

混同しやすいポイント:“中央集権(1つがすべて指揮)”の断定は要注意。協調・分散設計が肝

推論モデル(★★)

定義:論理推論・多段推論を重視して設計されたモデル(Reasoning含む)。
ポイント:“推論”の語が出たとき、思考プロセス(演繹等)とモデル能力(Reasoning)の両面を意識する

AIガバナンス(★)

定義:AIの利用・開発を、倫理・法務・リスク・品質の観点で統制する枠組み。
ポイント:社内ルール、審査、監査、説明責任、事故対応などを含む
混同しやすいポイント:ガバナンス=技術用語ではなく“運用設計”。定義を短く暗記しておく

説明責任(アカウンタビリティ)(★★)

定義:意思決定や運用について、説明できる責任を負うこと。
ポイント:AIガバナンスの中心語。社内外への説明・記録・根拠がカギ
混同しやすいポイント:データリテラシー(★)やアラインメント(★)と並べられてひっかけになりやすい

アラインメント(★)

定義:AIの振る舞いを、人間の意図・価値観・ルールに整合させる考え方。
ポイント:ガバナンス文脈で登場しやすい(ただし“説明責任”と混同しない)

AI新法(★★)

定義:日本のAI政策・統制に関する枠組み(名称公表などの規定が話題)。
ポイント:“悪質事業者の是正→改善がなければ名称公表”のような方向性がキーワード
混同しやすいポイント:「刑事罰・行政罰を導入し厳格罰則」など“強い罰則断定”は誤りになりやすい(極端な言い切り注意)

AI戦略本部(★)

定義:AI政策の司令塔として基本計画策定などを担う枠組み(首相が本部長など)。
ポイント:“戦略本部/戦略会議/論点整理”がセットで出るため関係性を整理

AI戦略会議(★)

定義:AI政策に関する検討・議論の場(会議体)。
ポイント:“暫定的な論点整理(★★)”の公開・透明性と紐づけて覚える

暫定的な論点整理(★★)

定義:論点を整理した中間的なとりまとめ。
ポイント:「透明(★★★)」と結びついて出やすい(公開・透明性)

AIの開発知識

GPU(★★★)

定義:並列計算に強いプロセッサ(深層学習の学習・推論を高速化)。
ポイント:

  • AI計算=GPUの文脈は鉄板
  • 企業名とセット:エヌビディア(★★)、インテル(★★)など

混同しやすいポイント:CPUとの役割差(並列・行列計算に強い)を短く言えるようにする

AIチップ(★★★)

定義:AIの推論/学習に最適化された専用・準専用チップの総称。
ポイント:

  • ひっかけ語:DLチップ(★)/MLチップ(★)/IoTチップ(★)など
    →“AI用途に最適化”が本質。名称だけで惑わされない
  • エッジ(端末側)でリアルタイム処理を支える用途も重要

混同しやすいポイント:「GPUだけがAIチップ」ではない(用途特化のNPU/TPUなどの系統もある)

TPU(★)

定義:AI計算に特化したプロセッサ(代表例として挙げられやすい)。
ポイント:“AIチップの例”として暗記しておく(GPUと並べられやすい)

Jetson(★★)

定義:エッジAI向けの計算プラットフォーム(リアルタイム推論用途で登場しやすい)。
ポイント:エッジでの推論(低遅延)と相性がよい

GeForce(★★)

定義:GPUシリーズ名として出やすい(PC向け等)。
ポイント:“シリーズ名の取り違え”を狙われやすいので、AI計算文脈で出たらGPU系だと押さえる

チップレット(★)

定義:複数の小さなチップ(ダイ)を組み合わせて1つの高機能チップとして構成する技術。
ポイント:性能・歩留まり・コスト面での狙いが出やすい
混同しやすいポイント:3D積層(★)や光電融合(★★)など“別の先端実装”と並べて混乱させられやすい

3D積層(★)

定義:半導体を縦方向に積み上げて高密度化する実装技術。
ポイント:“小型化・高性能化”の方向性でまとめて暗記

光電融合(★★)

定義:光(フォトニクス)と電子回路を融合して高速・低消費電力な通信/処理を狙う技術。
ポイント:“次世代の計算・通信”文脈で出やすい

エッジデバイス(★★)

定義:クラウドではなく現場(端末側)でデータ処理・推論を行うデバイス。
ポイント:低遅延・通信制約・プライバシー要件で重要
混同しやすいポイント:エッジ最適化の代表語:知識蒸留(★★)、転移学習(★★)など

知識蒸留(★★)

定義:大きいモデル(Teacher)の知識を小さいモデル(Student)へ移して軽量化する手法。
ポイント:エッジ推論で使われやすい“モデル圧縮”の代表

転移学習(★★)

定義:事前学習済みモデルの知識を別タスクへ転用する学習。
ポイント:“ゼロから学習せずに効率よく”が本質
混同しやすいポイント:ファインチューニングと近いが、転移学習は“転用の考え方”を含む広い概念

Python(★)

定義:AI/データ分析で広く使われるプログラミング言語。
ポイント:ライブラリ(TensorFlow/Keras等)とセットで出る

Keras(★★)

定義:Pythonで使われる深層学習向け高水準ライブラリ。
ポイント:“深層学習=Keras/TensorFlow”のセット感を押さえる
混同しやすいポイント:CRAN(★★)はR言語のパッケージ公開場所であり、PythonのKerasとは別

CRAN(★★)

定義:R言語のパッケージ配布リポジトリ。
ポイント:“R言語のエコシステム”として暗記

TensorFlow(★)

定義:深層学習フレームワーク(代表例)。
ポイント:名前だけでも押さえる(Kerasと一緒に出やすい)

Theano(★)

定義:深層学習/数値計算の文脈で登場するライブラリ名として押さえる。
ポイント:代表ライブラリのひっかけ枠(現在の主流かどうかより“用語認知”が重要)

CUDA

定義:GPU計算(特に並列計算)向けのプラットフォーム/開発環境として有名。
ポイント:問題集に直接出なくても、GPUコンピューティングの代表語としてシラバス上は重要

代表サービス/事例_AIの応用知識

OpenAI「Sora」(★★)

定義:テキストや画像などから動画を生成する動画生成AIとして知られる名称。
ポイント:

  • 動画生成のキーワード:拡散モデル(★★)×トランスフォーマー(★★)がセットで出やすい
    混同しやすいポイント:
  • GAN(敵対的生成)と拡散モデルの取り違え

生成AI編集(★)

定義:生成AIを“ゼロから生成”だけでなく“編集(補完・修復・加工)”に使う活用。
ポイント:Inpainting/補完、音声編集、動画編集など“制作フローの一部”として出やすい

AIアナウンサー(★)

定義:合成音声や生成AIでアナウンスを自動生成する仕組み。
ポイント:バーチャルプロダクション(★★)と一緒に出やすい

バーチャルプロダクション(★★)

定義:CG/合成技術で仮想背景などを活用し、撮影と制作を統合する制作手法。
ポイント:AIカメラ制御(★)、クラウドレンダリング(★)など周辺語とセット

AI検索「Perplexity」(★)

定義:対話型で回答を返す検索体験の代表例として出やすいサービス名。
ポイント:RAG(★★★)と結びつけて覚える(根拠参照→回答生成)
混同しやすいポイント:対話型UI(Bard等)とRAG(根拠検索)を分けて理解する

Google Bard / Gemini(Bard:★、Gemini:★★)

定義:対話型AIとして代表例に挙げられやすい名称。
ポイント:トークン(文脈長)やモデル世代の話題と絡むことがある
混同しやすいポイント:“できる/できない”の断定は危険。試験は「用語・位置づけ」を中心に覚える

Anthropic / Claude 3(Anthropic:★★、Claude 3:★★)

定義:対話型AIの提供企業・モデル名として頻出。
ポイント:「無料のみ」など極端な言い切りは誤りになりやすい(選択肢のクセ)

OpenAI / GPT-4(OpenAI:★、GPT-4:★★)

定義:LLMの代表例として頻出する企業名・モデル名。
ポイント:“いつ発表”など時事が混ざると迷いやすいので、まずは「代表的LLMの例」として押さえる

Meta / Llama 2(Llama 2:★★)

定義:オープン寄りのLLMとして代表例に挙がりやすい名称。
ポイント:オープンソース(★★★)と一緒に覚える

DeepSeek(★★)

定義:LLM文脈で登場するモデル/プロジェクト名。
ポイント:ライセンス(MIT:★★/Creative Commons:★★)のひっかけが絡みやすい
混同しやすいポイント:“完全に自由”など雑に覚えない。**オープンソース(★★★)利用条件(ライセンス)**をセットで暗記

オープンソース(★★★)

定義:ソースコード等が公開され、利用・改変・再配布が一定条件で認められる形態。
ポイント:ライセンスとセット(MIT/Apache/GPL/Creative Commonsなど)
混同しやすいポイント:“オープン”=“何でも無条件OK”ではない(条件はライセンスで決まる)

MITライセンス(★★)

定義:代表的な緩やかなオープンソースライセンスの一つ。
ポイント:名前だけでも押さえる(ひっかけで出やすい)

Creative Commons(★★)

定義:著作物の利用条件を整理したライセンス体系(コンテンツ文脈で登場しやすい)。
ポイント:ソフトウェアライセンス(MIT等)と混ざりやすいが、CCは“コンテンツ”寄りで出ることが多い

ディープフェイク(★★)

定義:AIで顔・声などを合成し、本物のように見せる偽造コンテンツ。
ポイント:偽情報・なりすまし・信用毀損の代表例
混同しやすいポイント:Faceup(★★)は“顔合成アプリ名”として出やすい(概念=ディープフェイク、具体例=アプリ名)

Faceup(★★)

定義:顔合成(フェイススワップ)の例として出やすいアプリ名。
ポイント:「ディープフェイク」との関係を押さえる(概念と具体例)

CAI(Content Authenticity Initiative)(★★)

定義:コンテンツ真正性(改ざん検知・出自)に関する取り組みの名称として出やすい。
ポイント:“生成物の真正性”がテーマ(ディープフェイク対策の流れ)

C2PA(Coalition for Content Provenance and Authenticity)(★★)

定義:コンテンツの来歴(provenance)や真正性の標準化を進める枠組みとして出やすい。
ポイント:CAIと並べられて混同させにくるので、どちらも真正性系としてまとめて覚える

デジタルツイン(★★★)

定義:現実世界の対象(設備・環境など)をデータで再現した“仮想の双子”。
ポイント:予測・最適化・シミュレーションに使う(農業やフィジカルAI文脈でも登場)
混同しやすいポイント:世界モデル(★)と近いが、デジタルツインは“現実の写像(データ同期)”の色が強い

世界モデル(★)

定義:環境のダイナミクスをモデル化し、未来予測や計画に使う考え方。
ポイント:“予測してから動く”文脈で出やすい

SayCan(★)/ RT-2(★)

定義:LLMをロボットの上位計画(プランニング)に活かす方向性の例として出やすい名称。
ポイント:LLMは「言語指示→行動計画」へ繋げる役割が中心
混同しやすいポイント:“感情認識を上げてリアルタイム制御そのものをする”など、役割を盛りすぎた説明は疑う

コノキュー(CONOQ)(コノキュー:★★/CONOQ:★)

定義:XR/メタバース関連の文脈で出やすい名称(企業・ブランドとして出る)。
ポイント:NTTドコモ(★★★)×XR World(★)の組み合わせで出やすい
混同しやすいポイント:KDDI(★★)やLINE(★★)など他社名と“それっぽいサービス名”が並ぶので、セット記憶が有効

XR World(★)

定義:XR/メタバース領域のサービス名として出やすい。
ポイント:XR(★★★)の代表例として押さえる

XR / AR / VR / MR(XR:★★★、AR:★★、VR:★★、MR:★)

定義:現実と仮想の重ね方の違いで分類する概念群(総称がXR)。
ポイント:

  • VR:仮想世界に没入
  • AR:現実にデジタル情報を重畳
  • MR:現実と仮想を相互作用させて融合
  • XR:これらの総称

混同しやすいポイント:“ARとMR”を混同しやすい。MRは相互作用・融合の色が強い

メタバース(★★)

定義:アバター等で参加する、持続的な仮想空間の概念。
ポイント:XRとセットで頻出(ただし、XR=技術分類、メタバース=空間/体験の概念)

アバターロボット(★)

定義:遠隔操作などで、時間・距離の制約を超えて“人の身体機能や行動”を拡張するロボット。
ポイント:「時間的価値の最大化」「身体能力の拡張」といった表現を暗記
混同しやすいポイント:ホログラフィック(★)は関連語だが、目的や方式の取り違えに注意

ホログラフィック(★)

定義:立体的に見える映像表現技術の文脈で登場する語。
ポイント:“コミュニケーション強化”などでそれっぽく出るが、別文脈の選択肢として混ぜられやすい

生体電位信号(★)/ 脳波(★)

定義:人体が発する電気信号(筋電位など)/脳活動由来の信号。
ポイント:“体を動かそうとする意図”を捉えるのは生体電位信号側で出やすい
混同しやすいポイント:脳波と筋電位(生体電位)をごちゃ混ぜにしない(どこから取る信号か)

ブレインマシンインターフェース(BMI/BCI)

定義:脳や神経系の信号を機械操作へつなぐインターフェース。
ポイント:問題集で直接語が出なくても、関連語(脳波・生体信号)とセットでシラバス上重要

H2_ソフトウェア

ソフトウェアの基礎知識

RPA(★★★)

定義:定型的な事務作業をソフトウェアで自動化する仕組み。
ポイント:“仮想知的労働者(Digital Labor)(★)”という言い回しが重要
混同しやすいポイント:“ソフトウェアロボット(★)”とも近いが、RPAの説明語として使われることがある

Digital Labor(★)

定義:RPAなどにより、人がやっていた事務作業を担う仮想労働者の比喩。
ポイント:省力化(★)とセットで出やすい

ノーコード開発(★★)

定義:コードを書かず(少なく)にアプリ/自動化を作る開発手法。
ポイント:RPA/Power Platformと相性が良い

コードインジェクション(★)

定義:外部入力を悪用して意図しないコードを実行させる攻撃。
ポイント:生成AI活用でも“入力の扱い”は重要(類似の発想としてプロンプトインジェクションも押さえると強い)

ソフトウェアの応用知識

Microsoft Power Automate Desktop(★)

定義:デスクトップ操作を含む自動化(RPA)に使われるツール名として出やすい。
ポイント:

  • Power Virtual Agent(★)/ Power Apps(★)/ Power BI(★)と並べて混同させにくる
    • Automate Desktop:自動化(RPA)
    • Power Apps:アプリ作成
    • Power BI:可視化(BI)
    • Power Virtual Agent:対話ボット系

Unity(★)

定義:ゲーム/3Dコンテンツ制作のためのゲームエンジン。
ポイント:Unreal Engine(★)と対比で頻出
混同しやすいポイント:“Builder系のそれっぽい名称”(Google Game Builder:★、Smart Game Builder:★)に注意(本命はUnity/Unrealが多い)

Unreal Engine(★)

定義:ゲーム/映像制作でも使われるゲームエンジン。
ポイント:Unityと並ぶ代表格として名前だけでも押さえる

Adobe Firefly(★★★)

定義:Adobeの生成AI(画像生成など)として出やすい名称。
ポイント:

  • 「生成AIプラットフォーム(★★)」と結びつけて覚えると強い
  • Adobe Stock(★★)と絡む(学習データ・素材の文脈)

混同しやすいポイント:Fireflyを“単なるアプリ名”として覚えるだけでなく、Adobeの生成AI群として捉える

Adobe Stock(★★)

定義:素材(ストック)提供サービス。
ポイント:生成AIの学習データ/素材の扱い文脈で出やすい

Adobe Express(★★)

定義:制作支援・デザイン文脈で出るAdobeサービス名。
ポイント:Photoshop(★★)/ Illustrator(★★)と“Adobe製品群”としてまとめて暗記

Canva(★)

定義:デザイン制作を簡便にするツールとして代表例に挙がりやすい。
ポイント:アフロ(★)など“素材提供”と絡む話題が出る

ソフトウェアの開発知識

バイブコーディング(★)

定義:生成AIと対話しながら、雰囲気(vibe)で高速に実装を進める開発スタイル。
ポイント:“まず動くものを作る”方向で出やすい
混同しやすいポイント:きれいな設計・厳密な仕様から入る開発と対比される(良し悪しではなく用語認知が狙い)

カーソル(Cursor)(カーソル:★)

定義:AI支援コーディング環境(エディタ名)として出やすい。
ポイント:Copilot(★★)やReplit(★)など“AI開発支援”とまとめて覚える

GitHub Copilot(★★)

定義:コード補完・生成を支援するAIコーディング支援の代表例。
ポイント:“AIがコードを書く”文脈でまず押さえる名前

Replit(★)

定義:開発環境/コーディング支援の文脈で登場する名称。
ポイント:何をするサービスか細部より「AI支援開発の代表例の一つ」として覚える

ChatGPT Enterprise(★)

定義:ChatGPTの企業向け提供形態として出やすい名称。
ポイント:“企業利用(ガバナンス/セキュリティ)”文脈の入口語として押さえる

混同しやすいキーワードまとめ

AR(★★)/ VR(★★)/ MR(★)/ XR(★★★)

  • VR:仮想世界に没入
  • AR:現実に情報を重ねる
  • MR:現実と仮想が相互作用して融合
  • XR:上記の総称
    覚え方:XRが親、VR/AR/MRが子。MRは“融合+相互作用”で差をつける。

生成AI(★★★)/ RAG(★★★)/ ハルシネーション(★)

  • 生成AI:もっともらしい文章や画像を作れる
  • ハルシネーション:もっともらしい嘘を言うことがある
  • RAG:検索で根拠を引いてから生成し、幻覚を“減らす”
    ひっかけ:RAG=幻覚ゼロは言い切りすぎ。

LLM(★★★)/ SLM(★)/ パラメータ数(★)

  • LLM:大きい(能力が広いが重い)
  • SLM:小さい(軽い・速い・エッジ向き)
  • “小さい”の代表指標:パラメータ数(トークン数/レイヤー数と混ぜない)

プロンプトエンジニアリング(★★)/ ファインチューニング(★)

  • プロンプト:モデルは変えず“指示で寄せる”
  • ファインチューニング:モデルを再学習して“重みを寄せる”
    覚え方:プロンプト=言葉で操縦、FT=中身を改造

AIエージェント(★★)/ MAS(★★★)

  • AIエージェント:1体でもタスク分解→実行までやる
  • MAS:複数体で役割分担して協調する
    ひっかけ:MASを“中央集権の1体が全部指示”と書かれたら疑う。

この記事を読んだ人がよく見ています

タイトルとURLをコピーしました