Van egy rendszer, ami több mint száz éve arra épít, hogy a diákok felügyelet nélkül vizsgáznak, és még egymást is jelentik, ha csalást látnak. Most képzeld el ugyanezt zsebben lapuló telefonnal és pár másodperc alatt választ adó generatív AI-val.

Mi történt

Egy 2025-ös felmérésben a Princeton végzős hallgatóinak 29,9%-a ismerte el, hogy legalább egy feladaton vagy vizsgán csalt. A szám nem egyenletes: a mérnöki BSE-képzésben tanulóknál 40,8% vallott be csalást, míg a BA-s hallgatóknál 26,4%.

A beszámolók alapján a csalás jelentős része generatív AI-val történik. Ez a kategória azokat az eszközöket jelenti, amelyek „új” szöveget vagy megoldási lépéseket állítanak elő a kérdésed alapján – gondolj rá úgy, mint egy rendkívül gyors, beszélgetős segédre, ami nemcsak keres, hanem fogalmaz és érvel is.

A helyzetet súlyosbítja a Princeton 1893 óta létező becsületkódexe: a professzorok nem felügyelhetik a vizsgákat. A diákok a dolgozat elején becsületnyilatkozatot írnak, és elvileg kötelességük jelenteni, ha csalást látnak. Csakhogy a mobiltelefonok és az AI mellett az is látszik, hogy a kortársak nagy része nem szívesen „árulkodik” – így a rendszer egyik kulcseleme, a kölcsönös ellenőrzés, nem működik elég erősen.

Miért fontos

Ez nem csak egy elit egyetem belügye. A generatív AI pont azokat a feladatokat könnyíti meg, amelyek eddig a „valódi megértés” jelzőfényei voltak: esszék, házik, levezetett megoldások, programkód-vázlatok. Ha a vizsgakörnyezet felügyelet nélküli, az AI pedig mindig kéznél van, akkor a becsületkódex lényegében nem technikai, hanem közösségi infrastruktúra: annyit ér, amennyit a normák és a következmények betartatása ér. És ha a közösség nem akar egymás ellen fordulni, a rendszer terhelése hirtelen a tanárokra és az értékelési módszerekre esik vissza.

Mire figyelj

  1. Értékelés újratervezése: várhatóan felértékelődnek azok a számonkérések, ahol a folyamat látszik (szóbeli védés, helyben végzett feladat, több lépésben beadott munka), nem csak a végeredmény.
  2. „AI-használat” vs. „AI-helyettesítés” határvonala: nem mindegy, hogy az AI ötletelésre és nyelvi csiszolásra szolgál, vagy a teljes megoldást helyettesíti. A szabályoknak ezt kézzelfoghatóan kell definiálniuk.
  3. Becsületkódex a gyakorlatban: a modell akkor áll meg, ha a közösség ténylegesen vállalja a normák kikényszerítését. Az Ars Technica AI által bemutatott helyzet alapján épp ez a társas dinamika az, ami az AI-korszakban a legnehezebben skálázható.

A kérdés így nem az, hogy lesz-e AI az oktatásban, hanem az, hogy a bizalomra épülő rendszerek milyen új biztosítékokat tudnak mellé tenni anélkül, hogy teljesen feladnák a saját alapelvüket.