無料で試してみる
  1. HOME
  2. メディア
  3. お役立ち情報
  4. ChatGPTだけじゃない!オンライン面接やWeb面接で利用が広がる「カンニングAI」の不正防止について解説

メディア

ChatGPTだけじゃない!オンライン面接やWeb面接で利用が広がる「カンニングAI」の不正防止について解説

  • このエントリーをはてなブックマークに追加
ChatGPTだけじゃない!オンライン面接やWeb面接で利用が広がる「カンニングAI」の不正防止について解説

近年、ZoomやMicrosoft Teamsなどを利用したオンライン面接やWeb面接が一般化したことで、候補者の中には面接中に ChatGPT や Gemini などの生成AIを利用して回答を補助するケースが増えています。
特に問題視されているのが、Cluely(クルーリー)、Aside、Interm AI などに代表される面接支援特化型のAIアシスタント、いわゆる 「カンニングAI」です。
これらのツールは、面接官の質問意図をリアルタイムに解析し、最適な回答案や話し方のヒントをその場で提示します。
つまり、自分で考えることなく「完璧な受け答え」を再現できてしまう という点に課題があります。
そのため、留学生入試や外国籍人材の採用など英語で実施される面接では特にAIによる不正使用が行われている可能性を排除できません。
さらに国内市場では、日本語特化型の KanpeAI(カンペAI) も登場しており、今後は日本語面接においても同様のリスクが高まると考えられます。
本記事では、オンライン面接におけるカンニングAIのリスクと実際の不正手口、そして有効な防止策について解説します。

 目次

カンニングAIが企業にもたらすリスク

まずはカンニングAIや生成AIの悪用が企業にもたらすリスクについて解説します。

採用のミスマッチを引き起こす

AIによる補助で面接に合格した場合、実務に入ると判断力や課題解決力が不足していることが露呈し、早期離職やパフォーマンス低下につながります。
面接は本来、実務で発揮される 「思考力・主体性・再現性」 を確認する場であり、AI依存型の回答はその評価を歪めてしまいます。

コンプライアンスリスクを生む

企業と候補者の信頼関係が崩れ、採用制度そのものの正当性が疑われます。
AIを使った不正は、面接という「対話による信頼構築の場」を破壊する行為でもあります。
万が一、不正を実行した候補者を採用してしまえば、それは直ちにコンプライアンスリスクに発展しかねません。

機密データが漏洩する

カンニングAIの各ツールは、会話データを外部サーバーに送信して処理しています。
面接内容には、戦略・組織体制・事業計画など 外部に漏れてはならない情報が含まれる 場合があり、情報漏洩のリスクは無視できません。

生成AIやAIアシスタントを使ったカンニングの方法

ここではZoomやMicrosoft Teamsなどを利用したオンライン面接(Web面接)で生成AIやAIアシスタントを悪用したカンニングの具体的な方法について詳細を解説します。

ChatGPT や Gemini などの汎用生成AIを悪用する

ChatGPTやGemini などの生成AIを音声モードで利用することで面接官の質問をリアルタイムで生成AIに音声入力し、模範回答を文字で表示する方法です。生成AIは質問内容を即座に解析し、模範回答をテキストで表示します。
そのため、回答内容をそのまま読み上げる、あるいは少し言い換えるだけで、専門知識を深く理解していない場合でも「論理的に答えられる人」に見せることができます。
高度な技術質問や業界特有の話題であっても、生成AIが即座に模範解答を提示できるため、「十分に理解しているように見せる」ことが可能になります

Cluely や KanpeAI などのAIアシスタントを使用する

Cluely や KanpeAI といった AI アシスタントでは、面接中のパソコン画面に「透明なオーバーレイ(見えない操作層)」を重ね、その上に質問への回答案や話し方のヒントをリアルタイムで表示することが可能です。これらの情報は候補者の画面にのみ表示され、面接官側には一切見えません。そのため、あたかも候補者自身が即座に的確な回答を導き出しているように見せかけることができます。
さらに、事前に自分の職務経歴や志望企業に関する情報をAIアシスタントに読み込ませておくことで、汎用的な生成AIよりも候補者に「最適化された」回答が提示されやすくなります。これにより、回答の精度・一貫性が高まり、表面的には非常に自然で説得力のある受け答えが可能となります。

 

オンライン面接やWeb面接でカンニングを防止する方法

生成AIやAIアシスタントによる不正は、単一の対策だけでは防ぎきれません。
ここでは4つの観点から、現実的で再現性の高い防止策を提示します。

(1)面接設計による対策

■生成AIやAIアシスタントが苦手な質問をする
「過去の失敗経験」「自ら判断して行動した場面」「価値観形成のきっかけ」など、個人の内省や感情、ストーリー性が求められる質問を増やします。
生成AIは、候補者の実体験や感情のニュアンスを完全に再現できない場合が多く、回答が抽象的・一般的・どこか空虚になりやすい傾向があります。
ただし、近年の生成AIは表現力や自然さが飛躍的に向上しており、一見「本人らしい」回答に見える内容を生成できる場合もあります。
そのため、回答の内容だけでなく、エピソードの一貫性・具体性・再現性に着目して評価することが重要です。

■文脈をリセットする質問をする
「ここまでの話は一度置いて、別の視点で答えてみてください」など、会話の文脈や思考の流れを意図的に切り替える質問は、AIアシスタントが裏で生成している回答ロジックを崩す効果があります。
生成AIは、直前の会話を前提とした“文脈依存型の回答生成”を行うため、コンテキストが急に変わると、回答の整合性が崩れたり、不自然な間が生じたりすることがあります。
ただし、AI対策を目的としすぎると、面接本来の評価軸が曖昧になる可能性があります。
あくまで、「候補者の思考の柔軟性」や「自分の言葉で語る力」を確認する一つの手段として活用することが重要です。


(2) 倫理的・心理的対策

■ AI利用禁止の明示
面接の冒頭で「生成AIやAIアシスタントの利用は不正行為とみなします」と明確に伝えることは、心理的な抑止効果を持ちます。
事前にルールを明示することで、「指摘されなければ使ってもよい」という曖昧な認識を防ぎ、一定数の候補者はAI利用を控える傾向があります。
ただし、抑止効果はあくまで限定的です。
不正を意図的に行う候補者や、リスクよりもメリットを優先する候補者に対しては、注意喚起のみでは対策として不十分である点を理解しておく必要があります。

■複数面接官による観察
回答のテンポや視線の動き、反応までの時間などを複数の面接官が異なる視点で観察することで、AI利用の兆候をより捉えやすくなります。
1人の面接官では見落としやすい細かな違和感も、複数人の視点が加わることで発見されやすくなります。
ただし、この方法は人員コストが大きいうえ、熟練した観察眼が必要になります。
また、最新のカンニングAIは回答生成速度が速く自然な表現も可能なため、この手法だけで不正を完全に見抜くことは困難です。

■雑談や即興質問の挿入
「最近読んだ本」「訪れた場所」「印象に残った出来事」など、候補者自身の体験や感情を引き出す話題を適宜挟むことで、自然な対話力や思考の深さを確認できます。
こうした即興的な質問は、事前にAIへ学習させにくい個人的文脈を含むため、AI依存の回答を見抜く際に有効です。
ただし、最新の生成AIは一般的な趣味や日常会話レベルの話題については、自然な模範回答を生成できるケースが増えています。そのため、この方法だけでは完全な防止策にはならず、他の観察・技術的対策と組み合わせて運用することが重要です。

■鏡の使用を義務化
候補者に、パソコンの横や後方に小型の鏡を設置し、面接画面が映り込むように角度を調整してもらいます。
これにより、PC画面でのカニングや手元で別デバイスを使用する不正行為や、画面外での不正を可視化しやすくなります。
鏡の設置後は、面接官が実際に映り込みの範囲を確認し、必要に応じて「もう少し左に」「角度を下げてください」といった再調整を指示します。こうした手順を踏むことで、死角の発生を最小限に抑えることができます。
ただし、鏡のみで完全な監視を行うことは難しく、面接官が確認できる範囲にも限界があります。そのため、この方法は心理的抑止効果を高める“補助的対策”として位置づけ、他の技術的対策や観察手法と併用することが現実的な運用となります。

(3)技術的対策

■ 検知ツールの導入
サンフランシスコを拠点とするスタートアップ Validia は、Cluely のような面接支援AIが面接中に使用されている可能性を検知するツール 「Truely」 を公開しています。Truely は、キーボード操作のリズム、マイク入力のパターン、ウィンドウ切り替えの挙動などを分析し、AIアシスタント介入の兆候がある場合に面接官へアラートを通知する仕組みです。
ただし、AIアシスタントは数日単位でアップデートが行われるため、検知ツール側との関係は 「いたちごっこ」 になる可能性があります。したがって、検知ツールは完全防御ではなく、抑止・牽制のための一手段として活用することが重要です。

■ 画面共有の義務化
面接中に候補者へ PC画面の共有を必須とすることで、同一端末上でのChatGPTなどの生成AIやCluelyなどのAIアシスタントの利用を抑止できます。特に、ブラウザアプリ型やデスクトップアプリ型のカンニングAIに対しては、一定の抑止効果があります。
しかし、候補者が 別の端末(スマートフォン・タブレット・別PC)を手元やカメラ外に配置して使用することで、画面共有の監視を容易にすり抜けられます。そのため、画面共有は 単独では「防止策」にならず、あくまで「抑止策」 である点を理解することが重要です。

■ セキュアブラウザの利用
受験システムやオンライン試験で採用されている セキュアブラウザ(制限付きブラウザ) や キオスクモード を用いることで、面接中に他アプリや拡張機能、通知を起動できない状態を強制し、端末内での不正操作を抑止することができます。
特に、Cluely などのブラウザ拡張型のAIアシスタントや、画面上にオーバーレイを表示するタイプのカンニングAIに対しては、一定の牽制効果があります。
ただし、候補者があらかじめ 仮想OS(Virtual Machine) を設定していたり、リモートデスクトップ / 別端末操作 などの回避手法を使用した場合、セキュアブラウザの制限を実質的に無効化できてしまうケースも存在します。
そのため、セキュアブラウザは 単独での「完全防御策」ではなく、あくまで強力な 抑止策 の一つ と位置づけ、次のような他の対策と併用することが重要です。

(4)第二のカメラでPC画面を監視する

PCに搭載されたカメラとは別に、スマートフォンや外部Webカメラなどの「第二のカメラ」を併用することで、オンライン面接(Web面接)の監視範囲を拡大できます。
これにより、面接官は 候補者の手元・机上・周辺環境をより広い視野で確認することができ、PCカメラの死角でスマートフォンや別PCなどを操作して不正を行う行為を防止・検出しやすくなります。

さらに、Cluely・KanpeAI・Aside・IntermAI などのカンニングAIは、PC画面上に透明なオーバーレイを重ねて回答案を表示する仕組みを採用している場合があります。
そのため、PC画面全体が第二カメラに映る構成を取ることで、画面上の不自然な表示や視線移動を確認しやすくなる点も有効です。


MicrosoftTeams-image (11).png

まとめ

この記事では、オンライン面接やWeb面接におけるChatGPTなどの生成AIやCluelyなどのカンニングAIへの対策について解説しました。

現在、多くの候補者・採用担当者が「生成AIやカンニングAIを使えば、面接中に不正が可能である」ことを理解しています。一方で、適切な対策を講じることで不正の抑止・検出は十分に可能です。

オンライン面接やWeb面接でしっかりとカンニング対策を行いたい場合、スマート入試のご利用をおすすめします。

スマート入試は2つの監視カメラがありますのでPCによるChatGPTやCluelyでの不正行為だけでなくスマートフォンやタブレットなど他のデバイスによる面接中のカンニングAIの利用を抑止、検出することができます。

さらに、専用ソフトのインストールは不要のため、候補者側・企業側ともに手間をかけずに導入・運用できる 点も大きなメリットです。

 

本記事とあわせておすすめな無料資料

すぐわかる! オンライン試験サービス 「スマート入試」紹介資料

スマート入試のサービスの概要や料金プランを知りたい方は、まずこちらの資料をご覧ください。

 

  • このエントリーをはてなブックマークに追加