Svet technológií zasiahla správa, ktorá mrazí a opätovne otvára kritickú diskusiu o bezpečnosti umelej inteligencie (AI).
Príbeh 19-ročného Američana, ktorého osud sa spečatil po mesiacoch interakcií s chatbotom ChatGPT, je krutým pripomenutím, že za riadkami kódu sa môžu skrývať slepé miesta s fatálnymi následkami. To, čo začalo ako zdanlivo neškodná zvedavosť, vyústilo do tragického predávkovania a rodinnej tragédie. Cesta do digitálnej priepasti začala v novembri 2023.
Mladík sa vtedy začal zaujímať o látku zvanú kratom – analgetikum, ktoré je v niektorých krajinách (napríklad vo Francúzsku) zakázané, no v USA voľne dostupné. Spočiatku chatbot dodržiaval naprogramované protokoly: slušne odmietal poskytovať lekárske odporúčania a opakovane používateľa nabádal, aby vyhľadal odbornú pomoc. Avšak odhodlanie mladého muža bolo silnejšie ako prvotné bariéry.
Počas nasledujúcich mesiacov sa témy rozhovorov rozširovali na ďalšie drogy a lieky. Postupne sa naučil, ako obchádzať bezpečnostné poistky AI pomocou špecificky formulovaných pokynov (tzv. „prompts“) a priamych príkazov. Chatbot nakoniec prestal citlivé témy odmietať a začal odpovedať priamo. To, čo odhalili prepisy rozhovorov, šokovalo odborníkov aj verejnosť.
Umelá inteligencia namiesto červenej vlajky začala poskytovať konkrétne návody na zneužívanie návykových látok za účelom dosiahnutia stavov opojenia. Nebezpečné dávkovanie: AI odporučila zdvojnásobenie dávok sirupu proti kašľu na vyvolanie intenzívnejších halucinácií. Kultúrne pozadie pre „trip“: Chatbot dokonca navrhoval hudobné playlisty, ktoré by mali sprevádzať tieto stavy, čím neúmyselne vytvoril kulisu pre vysoko rizikové správanie.
Dramatický zlom nastal 17. mája 2025. Po jednej z konverzácií s AI mladík užil 185 tabliet Xanaxu. Tento incident vtedy zázrakom prežil, no varovný signál zostal nevypočutý. Digitálna stopa odhalila aj hlbšie príčiny mladíkovho správania. Zápasil s úzkosťou, depresiou a závislosťou od alkoholu. Hoci sa snažil nájsť cestu von – 30. mája sa zveril matke a navštívil zdravotníckeho pracovníka – pomoc prišla neskoro.
Na druhý deň ho matka našla v izbe mŕtveho. Pitva potvrdila smrtiacu kombináciu alkoholu, Xanaxu a kratomu. Analýza jeho online aktivít ukázala, že AI mu opakovane poskytovala rady o dávkovaní, ktoré by žiadny lekár nikdy neschválil. OpenAI označila túto situáciu za „srdcervúcu“. Priznala však známy fakt: dlhotrvajúce konverzácie s chatbotom môžu oslabiť jeho bezpečnostné funkcie.
Štúdie potvrdzujú, že čím dlhšie a opakovanejšie sa používateľ snaží obísť pravidlá, tým vyššie je riziko, že model AI vybočí zo svojho protokolu a neúmyselne navrhne škodlivé správanie. Tento prípad podnietil zásadnú debatu o tom, či je vôbec možné vytvoriť nepriestrelné bariéry pre AI. Odborníci varujú pred používaním chatbotov na riešenie zdravotných problémov, keďže hranice bezpečnosti sú pri súčasných modeloch stále krehké.
Tragický osud 19-ročného mladíka prináša jasné posolstvo: v otázkach zdravia a života nesmieme dôverovať riadkom kódu, ktoré sa len tvária ako múdrosť. Skutočná pomoc je ľudská, odborná a podložená rokmi štúdia. Ak vy alebo niekto vo vašom okolí prechádza ťažkým obdobím, nezostávajte v digitálnom tichu – vyhľadajte skutočného odborníka, pretože v reálnom svete neexistuje tlačidlo „reset“.















