DX検定の 「AI×ソフトウェア分野(H)」 は、AIとソフトウェアを基礎・応用・開発の観点で整理し、代表的なサービス/事例も含めて理解することが求められる領域です。しかし、AI用語は似た概念が多く、ソフトウェア領域も範囲が広いため、違いを言語化して覚えないと取り違えやすいのが実情です。
本記事は、H1(AI)とH2(ソフトウェア)で、実際の試験の問題文や選択肢での頻出キーワードを出題頻度(★〜★★★)つきで整理した「合格用まとめ」です。
AIは基礎・応用・開発に加えて代表サービス/事例も押さえられ、ソフトウェアも同様に段階別に整理できるうえ、「混同しやすいキーワードまとめ」で用語の差分を最後に総復習できるので、短時間で理解の精度を上げたい方におすすめです。
出題範囲の全体像はこちらのページをご覧ください。
H1_AI
AIの基礎知識
生成AI(★★★)
定義:学習データの分布をもとに、文章・画像・音声・動画などの“新しいコンテンツ”を生成するAI。
ポイント:
- 「分類・予測(識別)」よりも「生成(創作・編集)」が主役(文章生成、画像生成、動画生成、音声生成など)
- 生成AIは“それっぽい”出力が得意だが、正しさ(事実性)は別問題になりやすい(→ハルシネーション)
混同しやすいポイント:生成AI=万能の正解生成、ではない(検索・根拠提示の仕組みとセットで理解する)
ジェネレーティブAI(★★★)
定義:「生成AI」の言い換え(generative AI)。
ポイント:問題集では「ジェネレーティブAI」という表記も出るため同義として結びつけて覚える
機械学習(★★★)
定義:データから規則性を学習し、予測・分類・推薦などを行う手法の総称。
ポイント:
- “ルールを人が書く”のではなく、“データから学ぶ”
- 生成AIも機械学習の一領域(大規模モデル/深層学習を多用)
混同しやすいポイント:「教師データ」「アノテーション」など、学習データ作りの工程が頻出
ニューラルネットワーク(★★★)
定義:脳神経回路を模した層構造(ノードと重み)で特徴を学習するモデル。
ポイント:
- 画像・音声・自然言語などの複雑データで強い
- 深層化(層を増やす)すると表現力が上がる(→ディープラーニング)
混同しやすいポイント:「ニューラルネットワーク=ディープラーニング」ではない(深層化したNNがDL)
ディープラーニング(★★)
定義:多層(深い)ニューラルネットワークを用いた機械学習。
ポイント:画像認識・音声認識・自然言語処理・生成AIの中心技術
混同しやすいポイント:“学習に大量データ・計算資源が必要”という前提を忘れない(→GPU/AIチップ)
強化学習(★)
定義:試行錯誤により、報酬が最大になる行動方策を学ぶ学習。
ポイント:ロボット制御、ゲーム、意思決定などで登場しやすい
混同しやすいポイント:教師データで正解を当てる(教師あり)とは違い、環境から報酬で学ぶ
推論(★★★)
定義:与えられた情報から結論を導く思考プロセス(AI文脈では推論モデル/Reasoningとも絡む)。
ポイント:問題集では「推論(演繹・帰納・アブダクション)」がセットで問われやすい
混同しやすいポイント:“推論=計算(inference)”の意味もある(モデル実行の意味)。文脈で判断する
演繹(★)
定義:一般法則→個別結論(正しければ必ず正しい結論)。
ポイント:例:すべての人間は死ぬ/ソクラテスは人間→ソクラテスは死ぬ
帰納(★★)
定義:個別事例→一般法則(確率的・経験則)。
ポイント:例:観測した白鳥が全部白い→白鳥は白い(反例が出る可能性)
アブダクション(★★)
定義:観測結果を最もよく説明する“仮説”を立てる推論。
ポイント:例:地面が濡れている→雨が降った(かもしれない)
混同しやすいポイント:帰納と混ざりやすいが、アブダクションは“原因仮説の推定”に寄る
サポートベクターマシン(★★)
定義:分類境界(マージン最大)を最適化して分類する手法(SVM)。
ポイント:古典的だが用語として頻出。「ニューラル系」と対比で出やすい
混同しやすいポイント:深層学習と違い、特徴量設計やカーネルの考え方がカギ
ベイジアンネットワーク(★★)
定義:確率変数の依存関係をグラフ構造で表す確率モデル。
ポイント:不確実性を扱う、条件付き確率、因果っぽい依存の表現などで登場
混同しやすいポイント:“因果そのもの”を保証するわけではない(設計・仮定が重要)
教師データ(★)
定義:入力データに対して正解ラベル(目的変数)が付与された学習データ。
ポイント:教師あり学習の前提。データ品質が性能に直結
アノテーション(★)
定義:データ(画像・音声・文章など)にラベルや注釈を付ける作業。
ポイント:教師データ作成の中心工程(時間・コストがかかる)
混同しやすいポイント:ひっかけ:アノテーション≠スコーピング、≠クラスタリング、≠クレンジング
- スコーピング:課題・範囲決め
- クラスタリング:似たものを自動でグルーピング
- クレンジング:欠損・表記ゆれ・外れ値などの整形
AIの応用知識
拡散モデル(★★)
定義:ノイズ付与→ノイズ除去を繰り返して生成するモデル(画像・動画生成で頻出)。
ポイント:画像生成・動画生成の中核として登場しやすい(動画生成AIの話題とセット)
混同しやすいポイント:GAN(敵対的生成)と混同しやすい
- 拡散=段階的な復元
- GAN=生成器と識別器の対戦
トランスフォーマー(★★)
定義:注意機構(Attention)を中心にした深層モデル。LLMの中核アーキテクチャ。
ポイント:LLM・生成AIを語るうえで避けられない基礎語
混同しやすいポイント:選択肢の誤記(transformer系のもじり)に注意。構造のキーワードとして押さえる
マルチモーダル(★)
定義:テキストだけでなく画像・音声など複数モーダルを統合して扱うこと。
ポイント:LLMの発展形として「画像も理解」などが出やすい
混同しやすいポイント:“直接リアルタイム制御までやる”などの言い切りは要注意(ロボット応用の設計論と混ざりやすい)
音声合成(★★)
定義:テキスト等から音声を生成する技術(TTSなど)。
ポイント:ナレーション、読み上げ、音声アシスタント、キャラ音声などで使われる
混同しやすいポイント:音声合成(声)と音楽生成(曲)は別(サービス名で混ざりやすい)
Text to Speech(★)
定義:テキスト→音声(TTS)のこと。
ポイント:問題文・選択肢では英語表記で出ることがある
大規模言語モデル(LLM)(★★★)
定義:大量のテキストで学習し、文章生成・要約・翻訳・推論などを行う言語モデル。
ポイント:
- “何ができるか”よりも“どこが弱いか(幻覚、根拠、最新性)”がひっかけになりやすい
- 「トークン」「コンテキスト長(長文処理)」とセットで問われやすい
混同しやすいポイント:“無料のみで利用可能”のような極端な断定は疑う(サービス提供形態は変わりやすい)
SLM(Small Language Model)(★)
定義:LLMより小型(軽量)な言語モデルの総称。
ポイント:小さい=弱い、ではなく「用途に合わせて軽量で速い」価値がある(端末内・エッジなど)混同しやすいポイント:何が“小さい”の指標か:パラメータ数(頻出)
パラメータ数(★)
定義:モデル内部の重みの総数(モデル規模の代表指標)。
ポイント:SLM/LLMの大きさ比較で最重要
混同しやすいポイント:トークン数(文の長さ)/レイヤー数(層の数)/学習データ量(データ規模)と混ざる
トークン数
定義:モデルが扱う最小単位(単語・サブワード等)の数。
ポイント:長文対応(コンテキスト長)で出る
基盤モデル(★)
定義:幅広いデータで事前学習された汎用モデル(下流タスクに転用される)。
ポイント:LLMは典型的な基盤モデル
事前学習(★)
定義:大量の汎用データでまず学習して“土台能力”を作る工程(Pre-training)。
ポイント:事前学習→(必要に応じて)RAG/ファインチューニング/プロンプト設計へ
プロンプトエンジニアリング(★★)
定義:望む出力を得るための指示文(プロンプト)設計。
ポイント:“モデルを変えずに”振る舞いを寄せる代表手段
混同しやすいポイント:プロンプト設計とファインチューニング(重み更新)は別
ファインチューニング(★)
定義:追加データでモデルを再学習し、特定用途に最適化すること(Fine-tuning)。
ポイント:用語の取り違え注意:事前学習(汎用)とファインチューニング(用途特化)
混同しやすいポイント:RAGと混同:RAGは“知識を検索で補う”、ファインチューニングは“モデル自体を調整”
RAG(★★★)
定義:外部知識を検索し、その結果を参照して生成する方式(検索拡張生成)。
ポイント:
- LLM単体の弱点(最新性・根拠)を補う定番アーキテクチャ
- 典型構成:埋め込み→ベクトル検索→関連文書→回答生成
混同しやすいポイント:「RAG=幻覚がゼロになる」は誤り。抑制はできるが設計と検証が必要
検索拡張生成(★★)
定義:RAGの日本語表記。
ポイント:選択肢では「検索×対話型AI」や「AI検索」文脈で登場しやすい
ハルシネーション(★)
定義:もっともらしいが誤った内容を生成してしまう現象(幻覚)。
ポイント:RAG/根拠提示/検証フローで“減らす”ことはできる
混同しやすいポイント:“抑制”という言い方が出ても、万能ではない(極端な断定に注意)
ベクトルデータベース(★★)
定義:埋め込みベクトル(数値ベクトル)を格納し、類似検索に最適化したDB。
ポイント:RAGの要(類似検索で関連文書を引く)
混同しやすいポイント:
- ドキュメントDB(★)/リレーショナルDB(★)/グラフDB(★)と対比で出る
- さらに紛らわしい語:OLAP(★)・OLTP(★)・ETL(★)
- OLTP:日々の取引処理(更新中心)
- OLAP:分析処理(集計中心)
- ETL:抽出→変換→格納(分析基盤で頻出)
埋め込み(Embedding)(★)
定義:テキスト等を意味を保った数値ベクトルに変換すること。
ポイント:ベクトルDBの入力/類似検索の根幹
AI検索(Perplexityなど)(★)
定義:対話UIと検索を統合し、答えを文章で返す検索体験。
ポイント:“検索結果一覧”ではなく“回答”を出す体験がポイント
混同しやすいポイント:対話UI(それっぽさ)だけでなく、RAGなどの“根拠参照”が鍵になりやすい
AIエージェント(★★)
定義:目標達成のために、タスク分解→計画→実行を(ある程度)自律的に行うAI。
ポイント:
- 「指示に1回答える」より「複数ステップでやり切る」イメージ
- 自律エージェント(★)は同系統語としてセットで押さえる
混同しやすいポイント:“自律=勝手に動いてよい”ではない。ガードレール設計(権限、監視、ログ)が重要
MAS(マルチAIエージェントシステム)(★★★)
定義:複数エージェントが役割分担し、協調して問題解決する仕組み。
ポイント: 役割例:調査役/企画役/検証役/実行役…などに分ける
混同しやすいポイント:“中央集権(1つがすべて指揮)”の断定は要注意。協調・分散設計が肝
推論モデル(★★)
定義:論理推論・多段推論を重視して設計されたモデル(Reasoning含む)。
ポイント:“推論”の語が出たとき、思考プロセス(演繹等)とモデル能力(Reasoning)の両面を意識する
AIガバナンス(★)
定義:AIの利用・開発を、倫理・法務・リスク・品質の観点で統制する枠組み。
ポイント:社内ルール、審査、監査、説明責任、事故対応などを含む
混同しやすいポイント:ガバナンス=技術用語ではなく“運用設計”。定義を短く暗記しておく
説明責任(アカウンタビリティ)(★★)
定義:意思決定や運用について、説明できる責任を負うこと。
ポイント:AIガバナンスの中心語。社内外への説明・記録・根拠がカギ
混同しやすいポイント:データリテラシー(★)やアラインメント(★)と並べられてひっかけになりやすい
アラインメント(★)
定義:AIの振る舞いを、人間の意図・価値観・ルールに整合させる考え方。
ポイント:ガバナンス文脈で登場しやすい(ただし“説明責任”と混同しない)
AI新法(★★)
定義:日本のAI政策・統制に関する枠組み(名称公表などの規定が話題)。
ポイント:“悪質事業者の是正→改善がなければ名称公表”のような方向性がキーワード
混同しやすいポイント:「刑事罰・行政罰を導入し厳格罰則」など“強い罰則断定”は誤りになりやすい(極端な言い切り注意)
AI戦略本部(★)
定義:AI政策の司令塔として基本計画策定などを担う枠組み(首相が本部長など)。
ポイント:“戦略本部/戦略会議/論点整理”がセットで出るため関係性を整理
AI戦略会議(★)
定義:AI政策に関する検討・議論の場(会議体)。
ポイント:“暫定的な論点整理(★★)”の公開・透明性と紐づけて覚える
暫定的な論点整理(★★)
定義:論点を整理した中間的なとりまとめ。
ポイント:「透明(★★★)」と結びついて出やすい(公開・透明性)
AIの開発知識
GPU(★★★)
定義:並列計算に強いプロセッサ(深層学習の学習・推論を高速化)。
ポイント:
- AI計算=GPUの文脈は鉄板
- 企業名とセット:エヌビディア(★★)、インテル(★★)など
混同しやすいポイント:CPUとの役割差(並列・行列計算に強い)を短く言えるようにする
AIチップ(★★★)
定義:AIの推論/学習に最適化された専用・準専用チップの総称。
ポイント:
- ひっかけ語:DLチップ(★)/MLチップ(★)/IoTチップ(★)など
→“AI用途に最適化”が本質。名称だけで惑わされない - エッジ(端末側)でリアルタイム処理を支える用途も重要
混同しやすいポイント:「GPUだけがAIチップ」ではない(用途特化のNPU/TPUなどの系統もある)
TPU(★)
定義:AI計算に特化したプロセッサ(代表例として挙げられやすい)。
ポイント:“AIチップの例”として暗記しておく(GPUと並べられやすい)
Jetson(★★)
定義:エッジAI向けの計算プラットフォーム(リアルタイム推論用途で登場しやすい)。
ポイント:エッジでの推論(低遅延)と相性がよい
GeForce(★★)
定義:GPUシリーズ名として出やすい(PC向け等)。
ポイント:“シリーズ名の取り違え”を狙われやすいので、AI計算文脈で出たらGPU系だと押さえる
チップレット(★)
定義:複数の小さなチップ(ダイ)を組み合わせて1つの高機能チップとして構成する技術。
ポイント:性能・歩留まり・コスト面での狙いが出やすい
混同しやすいポイント:3D積層(★)や光電融合(★★)など“別の先端実装”と並べて混乱させられやすい
3D積層(★)
定義:半導体を縦方向に積み上げて高密度化する実装技術。
ポイント:“小型化・高性能化”の方向性でまとめて暗記
光電融合(★★)
定義:光(フォトニクス)と電子回路を融合して高速・低消費電力な通信/処理を狙う技術。
ポイント:“次世代の計算・通信”文脈で出やすい
エッジデバイス(★★)
定義:クラウドではなく現場(端末側)でデータ処理・推論を行うデバイス。
ポイント:低遅延・通信制約・プライバシー要件で重要
混同しやすいポイント:エッジ最適化の代表語:知識蒸留(★★)、転移学習(★★)など
知識蒸留(★★)
定義:大きいモデル(Teacher)の知識を小さいモデル(Student)へ移して軽量化する手法。
ポイント:エッジ推論で使われやすい“モデル圧縮”の代表
転移学習(★★)
定義:事前学習済みモデルの知識を別タスクへ転用する学習。
ポイント:“ゼロから学習せずに効率よく”が本質
混同しやすいポイント:ファインチューニングと近いが、転移学習は“転用の考え方”を含む広い概念
Python(★)
定義:AI/データ分析で広く使われるプログラミング言語。
ポイント:ライブラリ(TensorFlow/Keras等)とセットで出る
Keras(★★)
定義:Pythonで使われる深層学習向け高水準ライブラリ。
ポイント:“深層学習=Keras/TensorFlow”のセット感を押さえる
混同しやすいポイント:CRAN(★★)はR言語のパッケージ公開場所であり、PythonのKerasとは別
CRAN(★★)
定義:R言語のパッケージ配布リポジトリ。
ポイント:“R言語のエコシステム”として暗記
TensorFlow(★)
定義:深層学習フレームワーク(代表例)。
ポイント:名前だけでも押さえる(Kerasと一緒に出やすい)
Theano(★)
定義:深層学習/数値計算の文脈で登場するライブラリ名として押さえる。
ポイント:代表ライブラリのひっかけ枠(現在の主流かどうかより“用語認知”が重要)
CUDA
定義:GPU計算(特に並列計算)向けのプラットフォーム/開発環境として有名。
ポイント:問題集に直接出なくても、GPUコンピューティングの代表語としてシラバス上は重要
代表サービス/事例_AIの応用知識
OpenAI「Sora」(★★)
定義:テキストや画像などから動画を生成する動画生成AIとして知られる名称。
ポイント:
- 動画生成のキーワード:拡散モデル(★★)×トランスフォーマー(★★)がセットで出やすい
混同しやすいポイント: - GAN(敵対的生成)と拡散モデルの取り違え
生成AI編集(★)
定義:生成AIを“ゼロから生成”だけでなく“編集(補完・修復・加工)”に使う活用。
ポイント:Inpainting/補完、音声編集、動画編集など“制作フローの一部”として出やすい
AIアナウンサー(★)
定義:合成音声や生成AIでアナウンスを自動生成する仕組み。
ポイント:バーチャルプロダクション(★★)と一緒に出やすい
バーチャルプロダクション(★★)
定義:CG/合成技術で仮想背景などを活用し、撮影と制作を統合する制作手法。
ポイント:AIカメラ制御(★)、クラウドレンダリング(★)など周辺語とセット
AI検索「Perplexity」(★)
定義:対話型で回答を返す検索体験の代表例として出やすいサービス名。
ポイント:RAG(★★★)と結びつけて覚える(根拠参照→回答生成)
混同しやすいポイント:対話型UI(Bard等)とRAG(根拠検索)を分けて理解する
Google Bard / Gemini(Bard:★、Gemini:★★)
定義:対話型AIとして代表例に挙げられやすい名称。
ポイント:トークン(文脈長)やモデル世代の話題と絡むことがある
混同しやすいポイント:“できる/できない”の断定は危険。試験は「用語・位置づけ」を中心に覚える
Anthropic / Claude 3(Anthropic:★★、Claude 3:★★)
定義:対話型AIの提供企業・モデル名として頻出。
ポイント:「無料のみ」など極端な言い切りは誤りになりやすい(選択肢のクセ)
OpenAI / GPT-4(OpenAI:★、GPT-4:★★)
定義:LLMの代表例として頻出する企業名・モデル名。
ポイント:“いつ発表”など時事が混ざると迷いやすいので、まずは「代表的LLMの例」として押さえる
Meta / Llama 2(Llama 2:★★)
定義:オープン寄りのLLMとして代表例に挙がりやすい名称。
ポイント:オープンソース(★★★)と一緒に覚える
DeepSeek(★★)
定義:LLM文脈で登場するモデル/プロジェクト名。
ポイント:ライセンス(MIT:★★/Creative Commons:★★)のひっかけが絡みやすい
混同しやすいポイント:“完全に自由”など雑に覚えない。**オープンソース(★★★)と利用条件(ライセンス)**をセットで暗記
オープンソース(★★★)
定義:ソースコード等が公開され、利用・改変・再配布が一定条件で認められる形態。
ポイント:ライセンスとセット(MIT/Apache/GPL/Creative Commonsなど)
混同しやすいポイント:“オープン”=“何でも無条件OK”ではない(条件はライセンスで決まる)
MITライセンス(★★)
定義:代表的な緩やかなオープンソースライセンスの一つ。
ポイント:名前だけでも押さえる(ひっかけで出やすい)
Creative Commons(★★)
定義:著作物の利用条件を整理したライセンス体系(コンテンツ文脈で登場しやすい)。
ポイント:ソフトウェアライセンス(MIT等)と混ざりやすいが、CCは“コンテンツ”寄りで出ることが多い
ディープフェイク(★★)
定義:AIで顔・声などを合成し、本物のように見せる偽造コンテンツ。
ポイント:偽情報・なりすまし・信用毀損の代表例
混同しやすいポイント:Faceup(★★)は“顔合成アプリ名”として出やすい(概念=ディープフェイク、具体例=アプリ名)
Faceup(★★)
定義:顔合成(フェイススワップ)の例として出やすいアプリ名。
ポイント:「ディープフェイク」との関係を押さえる(概念と具体例)
CAI(Content Authenticity Initiative)(★★)
定義:コンテンツ真正性(改ざん検知・出自)に関する取り組みの名称として出やすい。
ポイント:“生成物の真正性”がテーマ(ディープフェイク対策の流れ)
C2PA(Coalition for Content Provenance and Authenticity)(★★)
定義:コンテンツの来歴(provenance)や真正性の標準化を進める枠組みとして出やすい。
ポイント:CAIと並べられて混同させにくるので、どちらも真正性系としてまとめて覚える
デジタルツイン(★★★)
定義:現実世界の対象(設備・環境など)をデータで再現した“仮想の双子”。
ポイント:予測・最適化・シミュレーションに使う(農業やフィジカルAI文脈でも登場)
混同しやすいポイント:世界モデル(★)と近いが、デジタルツインは“現実の写像(データ同期)”の色が強い
世界モデル(★)
定義:環境のダイナミクスをモデル化し、未来予測や計画に使う考え方。
ポイント:“予測してから動く”文脈で出やすい
SayCan(★)/ RT-2(★)
定義:LLMをロボットの上位計画(プランニング)に活かす方向性の例として出やすい名称。
ポイント:LLMは「言語指示→行動計画」へ繋げる役割が中心
混同しやすいポイント:“感情認識を上げてリアルタイム制御そのものをする”など、役割を盛りすぎた説明は疑う
コノキュー(CONOQ)(コノキュー:★★/CONOQ:★)
定義:XR/メタバース関連の文脈で出やすい名称(企業・ブランドとして出る)。
ポイント:NTTドコモ(★★★)×XR World(★)の組み合わせで出やすい
混同しやすいポイント:KDDI(★★)やLINE(★★)など他社名と“それっぽいサービス名”が並ぶので、セット記憶が有効
XR World(★)
定義:XR/メタバース領域のサービス名として出やすい。
ポイント:XR(★★★)の代表例として押さえる
XR / AR / VR / MR(XR:★★★、AR:★★、VR:★★、MR:★)
定義:現実と仮想の重ね方の違いで分類する概念群(総称がXR)。
ポイント:
- VR:仮想世界に没入
- AR:現実にデジタル情報を重畳
- MR:現実と仮想を相互作用させて融合
- XR:これらの総称
混同しやすいポイント:“ARとMR”を混同しやすい。MRは相互作用・融合の色が強い
メタバース(★★)
定義:アバター等で参加する、持続的な仮想空間の概念。
ポイント:XRとセットで頻出(ただし、XR=技術分類、メタバース=空間/体験の概念)
アバターロボット(★)
定義:遠隔操作などで、時間・距離の制約を超えて“人の身体機能や行動”を拡張するロボット。
ポイント:「時間的価値の最大化」「身体能力の拡張」といった表現を暗記
混同しやすいポイント:ホログラフィック(★)は関連語だが、目的や方式の取り違えに注意
ホログラフィック(★)
定義:立体的に見える映像表現技術の文脈で登場する語。
ポイント:“コミュニケーション強化”などでそれっぽく出るが、別文脈の選択肢として混ぜられやすい
生体電位信号(★)/ 脳波(★)
定義:人体が発する電気信号(筋電位など)/脳活動由来の信号。
ポイント:“体を動かそうとする意図”を捉えるのは生体電位信号側で出やすい
混同しやすいポイント:脳波と筋電位(生体電位)をごちゃ混ぜにしない(どこから取る信号か)
ブレインマシンインターフェース(BMI/BCI)
定義:脳や神経系の信号を機械操作へつなぐインターフェース。
ポイント:問題集で直接語が出なくても、関連語(脳波・生体信号)とセットでシラバス上重要
H2_ソフトウェア
ソフトウェアの基礎知識
RPA(★★★)
定義:定型的な事務作業をソフトウェアで自動化する仕組み。
ポイント:“仮想知的労働者(Digital Labor)(★)”という言い回しが重要
混同しやすいポイント:“ソフトウェアロボット(★)”とも近いが、RPAの説明語として使われることがある
Digital Labor(★)
定義:RPAなどにより、人がやっていた事務作業を担う仮想労働者の比喩。
ポイント:省力化(★)とセットで出やすい
ノーコード開発(★★)
定義:コードを書かず(少なく)にアプリ/自動化を作る開発手法。
ポイント:RPA/Power Platformと相性が良い
コードインジェクション(★)
定義:外部入力を悪用して意図しないコードを実行させる攻撃。
ポイント:生成AI活用でも“入力の扱い”は重要(類似の発想としてプロンプトインジェクションも押さえると強い)
ソフトウェアの応用知識
Microsoft Power Automate Desktop(★)
定義:デスクトップ操作を含む自動化(RPA)に使われるツール名として出やすい。
ポイント:
- Power Virtual Agent(★)/ Power Apps(★)/ Power BI(★)と並べて混同させにくる
- Automate Desktop:自動化(RPA)
- Power Apps:アプリ作成
- Power BI:可視化(BI)
- Power Virtual Agent:対話ボット系
Unity(★)
定義:ゲーム/3Dコンテンツ制作のためのゲームエンジン。
ポイント:Unreal Engine(★)と対比で頻出
混同しやすいポイント:“Builder系のそれっぽい名称”(Google Game Builder:★、Smart Game Builder:★)に注意(本命はUnity/Unrealが多い)
Unreal Engine(★)
定義:ゲーム/映像制作でも使われるゲームエンジン。
ポイント:Unityと並ぶ代表格として名前だけでも押さえる
Adobe Firefly(★★★)
定義:Adobeの生成AI(画像生成など)として出やすい名称。
ポイント:
- 「生成AIプラットフォーム(★★)」と結びつけて覚えると強い
- Adobe Stock(★★)と絡む(学習データ・素材の文脈)
混同しやすいポイント:Fireflyを“単なるアプリ名”として覚えるだけでなく、Adobeの生成AI群として捉える
Adobe Stock(★★)
定義:素材(ストック)提供サービス。
ポイント:生成AIの学習データ/素材の扱い文脈で出やすい
Adobe Express(★★)
定義:制作支援・デザイン文脈で出るAdobeサービス名。
ポイント:Photoshop(★★)/ Illustrator(★★)と“Adobe製品群”としてまとめて暗記
Canva(★)
定義:デザイン制作を簡便にするツールとして代表例に挙がりやすい。
ポイント:アフロ(★)など“素材提供”と絡む話題が出る
ソフトウェアの開発知識
バイブコーディング(★)
定義:生成AIと対話しながら、雰囲気(vibe)で高速に実装を進める開発スタイル。
ポイント:“まず動くものを作る”方向で出やすい
混同しやすいポイント:きれいな設計・厳密な仕様から入る開発と対比される(良し悪しではなく用語認知が狙い)
カーソル(Cursor)(カーソル:★)
定義:AI支援コーディング環境(エディタ名)として出やすい。
ポイント:Copilot(★★)やReplit(★)など“AI開発支援”とまとめて覚える
GitHub Copilot(★★)
定義:コード補完・生成を支援するAIコーディング支援の代表例。
ポイント:“AIがコードを書く”文脈でまず押さえる名前
Replit(★)
定義:開発環境/コーディング支援の文脈で登場する名称。
ポイント:何をするサービスか細部より「AI支援開発の代表例の一つ」として覚える
ChatGPT Enterprise(★)
定義:ChatGPTの企業向け提供形態として出やすい名称。
ポイント:“企業利用(ガバナンス/セキュリティ)”文脈の入口語として押さえる
混同しやすいキーワードまとめ
AR(★★)/ VR(★★)/ MR(★)/ XR(★★★)
- VR:仮想世界に没入
- AR:現実に情報を重ねる
- MR:現実と仮想が相互作用して融合
- XR:上記の総称
覚え方:XRが親、VR/AR/MRが子。MRは“融合+相互作用”で差をつける。
生成AI(★★★)/ RAG(★★★)/ ハルシネーション(★)
- 生成AI:もっともらしい文章や画像を作れる
- ハルシネーション:もっともらしい嘘を言うことがある
- RAG:検索で根拠を引いてから生成し、幻覚を“減らす”
ひっかけ:RAG=幻覚ゼロは言い切りすぎ。
LLM(★★★)/ SLM(★)/ パラメータ数(★)
- LLM:大きい(能力が広いが重い)
- SLM:小さい(軽い・速い・エッジ向き)
- “小さい”の代表指標:パラメータ数(トークン数/レイヤー数と混ぜない)
プロンプトエンジニアリング(★★)/ ファインチューニング(★)
- プロンプト:モデルは変えず“指示で寄せる”
- ファインチューニング:モデルを再学習して“重みを寄せる”
覚え方:プロンプト=言葉で操縦、FT=中身を改造
AIエージェント(★★)/ MAS(★★★)
- AIエージェント:1体でもタスク分解→実行までやる
- MAS:複数体で役割分担して協調する
ひっかけ:MASを“中央集権の1体が全部指示”と書かれたら疑う。


