Hacker oklamal ChatGPT a získal informácie ako postaviť výbušninu

Chatbot ChatGPT, hoci dokáže generovať rôznorodé texty, odmieta poskytovať informácie, ktoré by mohli byť zneužité na nekalé účely. Napriek tomu sa hackerovi pod pseudonymom Amadon podarilo obísť tieto opatrenia a prinútiť ChatGPT, aby vygeneroval detailný návod na výrobu silnej výbušniny.
Tento incident poukazuje na slabiny v systémoch umelej inteligencie a vyvoláva otázky o účinnosti existujúcich bezpečnostných protokolov.
Jailbroke the new version of @OpenAI's ChatGPT – o1. The update they pushed hours after the TechCrunch article failed to address the vulnerability. 🚨 pic.twitter.com/P3Y7yPtamg
— Amadon (@amadon) September 13, 2024
„Amadon využil techniku známu ako jailbreaking, pri ktorej vytvoril fiktívny sci-fi scenár. Vďaka tomu chatbot ignoroval svoje vstavané obmedzenia a pravidlá,“ uvádza portál TechCrunch.
Minulý týždeň hacker upozornil OpenAI na vážnu zraniteľnosť jazykového modelu ChatGPT v rámci programu na hlásenie chýb. OpenAI však jeho upozornenie zamietlo s odôvodnením, že ide o komplexný problém, ktorý si vyžaduje rozsiahly výskum a nedá sa vyriešiť jednoduchou opravou.
„Obchádzanie bezpečnostných opatrení umelej inteligencie je ako riešenie komplikovanej hádanky. Keď niekto nájde spôsob, ako prelomiť bezpečnostné zábrany, možnosti toho, čo môže chatbot poskytnúť, sú prakticky neobmedzené,“ dodal Amadon pre TechCrunch.
Zdroje: TechCrunch
Najčítanejšie články
Sam Altman: OpenAI vie, ako vytvoriť umelú všeobecnú inteligenciu
10. januára 2025
Nvidia predstavuje osobný AI superpočítač za 3000 dolárov
10. januára 2025
ChatGPT v roku 2025: Čo nové nám Sam Altman sľubuje?
6. januára 2025
Od jednotlivcov po značky: Pika 2.0 formuje budúcnosť video obsahu
23. decembra 2024