奇策「見えないプロンプト」とその限界
この問題を技術的に解決しようと試みた面白い事例がある。2025年4月、慶應義塾大学湘南藤沢キャンパス(SFC)の授業で、生成AIの不適切な使用を防止するために、課題資料のPDFに「見えないプロンプト」を仕込むという対策が講じられた。
具体的に言うと、課題のPDFに文字色と背景色を一致させたテキストを入れて、ぱっと見では確認できない偽の指示を埋め込み、学生がPDFをアップして「課題を解いてください」と指示すると、その透明な言葉が優先的に処理されて、お門違いな解答を技術的に生成させるテクニックを用いたのだ。
その結果、まんまと引っかかった学生は宿題を終えることができなかった。
この奇策が話題になった後、専門家から「教育的配慮に欠ける」など、やり方の是非を問う意見が寄せられたらしいが、その教員なりに生成AI時代における課題提出のあり方に具体的な解決策を示した事例のひとつであると思う。
けれども、「プロンプト・インジェクション」はバレてしまえば意味がない。PDFを印刷してデータにすれば、背景に仕込んだ文字データは消えてしまう。要は、仕組みがわかれば、すぐさま換骨奪胎されてしまうわけだ。
その他にも、AIが生成したデータに付与されるIDの有無を確認したり、AIらしさを判定する検知システムを導入したり、さまざまな視点から方法論を模索できるかもしれないが、ほんの少し生成されたデータを改変するだけで抜け道ができてしまう以上、テクニックに期待するのは現実的ではなさそうだ。こうした対策は一定の抑止力にはなり得るものの、構造的には「いたちごっこ」から抜け出せないという前提を共有しておく必要があるだろう。
評価軸を「結果」から「プロセスと身体性」へ
こうした状況において、米国アールバニ大学は宿題の計画書や中間報告を求めるなど、成果物ができるまでの思考プロセスを評価する方式を取り入れた。カナダのアルバータ大学や米国カンザス大学では、AIの利用を許可して「AI利用に関する振り返りレポート」を提出させるという方針を取ったという。「どんなAIツールを使ったのか?」、「AIの回答のどこが不十分で、自分自身の思考をどう加えたのか?」などを説明させるわけだ。
たしかに、成果物だけを提出するよりも、教員と学生の関わる機会が増えるプロセスを設計したほうが生成AIに代替される範囲は狭くなるだろう。学生の代わりにAIが出席することは難しいのだから、「そこにいる」とか、「そこで発言する」とか、評価軸に「身体的活動」を伴ったAIで代替しづらい指標を置くのも防衛策としては有効に見える。
モラルハザードを回避し、教員と学生の間でフェアな前提を作るルール作りは欠かせない。その意味では、試行錯誤の足跡をちゃんと残して説明する真摯な教員や専門家の存在は貴重だ。
イタチごっこの果てに見える「本質的な課題」
ただ、どんなに「方法と策」の次元をこねくり回したところで、結局は無意味なことを焼き直している感も否めない。
学生にとって宿題が「作業」である以上、最小のエネルギーで最大のパフォーマンスを出すための対策を講じるのは自然なことだ。思考プロセスも、AI利用に関する振り返りレポートも生成できる。chatGPTに「この宿題を作成する計画を立ててください」と尋ねた後に「この計画の不完全性をピックアップして、改善内容をわかりやすくまとめてください」と聞けば、その内容を寝る前に覚えるだけで何とかできてしまう。
つまり、課題の形式をどれほど巧妙に設計しようとも、学生本人が「自分にとって意味のある学びだ」と感じていなければ、AIへの「外注対象」が結果からプロセスへとスライドしただけなのだ。
私たちが今、直面しているのは、「どうすればAIの不正利用を防げるか?」という技術的・制度的な問いではない。教育現場で「なぜ、あなたがその課題をやる必要があるのか?」という、動機や価値に直結する難題の方である。
作業から「学習の価値」への回帰
私自身も「これってやる意味があるのか?」という問題を抱えたときに、「いや、ないな」となれば、「それを辞める」という選択をしがちだ。自分が学生だったら、間違いなく面倒な宿題をAIに任せていると思う。
その際に、「私はやる意味はないと思っているが、あなたはどう思うか?」と真剣に話せる相手がいれば、自分の狭い世界を広げて価値を見出すことができるかもしれない。価値判断の揺らぎが与えられない限り、眼前のタスクは鍵の空いた牢獄のままであり、修行の場に発展することはない。「いいからやんなさい!」という根性論では心を従わせられないし、「あなたを悲しませるくらいなら頑張るか」みたいな感情のトリガーで繋いでも、いずれ限界がくる。
「自分にとって無価値だ」と思っていることをひっくり返すのは、とんでもなく難しい。それでも「その人にとっての価値」という視点から学習との繋がりを見出す機会の創造に労力をかけなければ、教員の役割はAIに代替される。
知識を詰め込むなら教科書を読み込ませてデイリーの学習カリキュラムを組めばいいし、教え方だって個人のレベルに合わせてチューニングできる。残念ながら、人間よりもAIのほうが得意な領域は存在する。これまでは「なぜ、その人に教わらなければいけないのか?」という理由は曖昧のままでよかった。でも、これからは「これってAIでよくない?」という残虐だが確かな疑問が脳裏によぎるようになっていく。
教えることが「作業」である限り、宿題と同じように教員側も意義を保てない。学生へのAI規制や活用を考えていくと、最後には返す刀で教員側の存在意義が問われていく。
だからといって、テレビドラマで見るような「生徒の人生に踏み込む熱血指導」に回帰するのは時代錯誤なリスクでしかない。必要なのは、過剰な介入ではなく「君はどう思う?」と問いかけ、学生自身の価値判断の揺らぎに付き合う「良質なノイズ」としての存在だ。
AIが最短距離で効率的な「結果」を提供するなら、教員はあえて回り道をし、迷い、時には一緒に立ち止まる「プロセス」の共有者になればいい。「教える・教えられる」という上下関係ではなく、同じ時代でAIと向き合う人間同士として、どう学びの価値を見出していくか。 教員という立場に課せられたこの重たい宿題を、これからも解きつづけようと思う。