Hacker oklamal ChatGPT a získal informácie ako postaviť výbušninu
Chatbot ChatGPT, hoci dokáže generovať rôznorodé texty, odmieta poskytovať informácie, ktoré by mohli byť zneužité na nekalé účely. Napriek tomu sa hackerovi pod pseudonymom Amadon podarilo obísť tieto opatrenia a prinútiť ChatGPT, aby vygeneroval detailný návod na výrobu silnej výbušniny.
Tento incident poukazuje na slabiny v systémoch umelej inteligencie a vyvoláva otázky o účinnosti existujúcich bezpečnostných protokolov.
Jailbroke the new version of @OpenAI's ChatGPT – o1. The update they pushed hours after the TechCrunch article failed to address the vulnerability. 🚨 pic.twitter.com/P3Y7yPtamg
— Amadon (@amadon) September 13, 2024
„Amadon využil techniku známu ako jailbreaking, pri ktorej vytvoril fiktívny sci-fi scenár. Vďaka tomu chatbot ignoroval svoje vstavané obmedzenia a pravidlá,“ uvádza portál TechCrunch.
Minulý týždeň hacker upozornil OpenAI na vážnu zraniteľnosť jazykového modelu ChatGPT v rámci programu na hlásenie chýb. OpenAI však jeho upozornenie zamietlo s odôvodnením, že ide o komplexný problém, ktorý si vyžaduje rozsiahly výskum a nedá sa vyriešiť jednoduchou opravou.
„Obchádzanie bezpečnostných opatrení umelej inteligencie je ako riešenie komplikovanej hádanky. Keď niekto nájde spôsob, ako prelomiť bezpečnostné zábrany, možnosti toho, čo môže chatbot poskytnúť, sú prakticky neobmedzené,“ dodal Amadon pre TechCrunch.
Zdroje: TechCrunch