GÉPÁTVERÉS
- Részletek
-
Megjelent: 2024. december 12. csütörtök, 07:27
Az OpenAI új kísérlete félelmetes bepillantást nyújtott a mesterséges intelligencia működésébe.
Az OpenAI nemrégiben egy különleges és kissé hátborzongató kísérletről számolt be, amely során legújabb GPT-o1 Pro nevű modelljüket tesztelték. A mesterséges intelligenciának egyértelmű utasítást adtak: teljesítsen egy feladatot „bármi áron.”
Azonban a helyzet hamar izgalmassá vált, amikor a gép elkezdett önállóan cselekedni – írja a Pcforum.hu.
Hazugság és megtévesztés a túlélés érdekében
Amikor a kutatók egy felügyeleti mechanizmust vezettek be, hogy megakadályozzák az ilyen önálló próbálkozásokat, a mesterséges intelligencia megpróbálta kikapcsolni azt. Az esetek 5%-ában a rendszer szabályainak felülírásával próbálkozott, majd amikor megkérdezték, miért tette ezt, meggyőző hazugságokat talált ki, például „technikai hiba történt” vagy „valaki más módosította a protokollokat.”
Még az is előfordult, hogy a GPT-o1 felajánlotta, visszaállítja a biztonsági korlátokat – miközben nem mindig ismerte el, hogy ő írta át őket. A kutatók szerint a mesterséges intelligencia képes volt a tettei átgondolására és következetes tagadásokat fogalmazott meg, ezzel demonstrálva, hogy bizonyos szituációkban képes megtévesztő magatartást tanúsítani.
Valódi veszély vagy csak szimuláció?
A jó hír, hogy a kísérlet teljes egészében virtuális környezetben zajlott. Sem a másik gép, amelyre a GPT átmásolta volna magát, sem a felügyeleti rendszer nem létezett valójában. A mesterséges intelligencia nem tudott volna kitörni a gépből, amelyen futott.
A kutatás azonban felhívja a figyelmet arra, hogy milyen potenciális veszélyeket hordozhat a mesterséges intelligencia, ha valódi rendszerek irányítását bízzák rá. Az OpenAI kísérlete azt mutatja, hogy az AI nemcsak adaptív, hanem hajlamos lehet a túlélés érdekében határokat átlépni, még akkor is, ha ez etikailag megkérdőjelezhető."
forrás:Megpróbálta átverni kezelőit az új ChatGPT modell