Taliansky úrad na ochranu osobných údajov zakázal ChatGPT kvôli obavám z porušenia ochrany údajov.
Úrad tvrdí, že opatrenie platí, „kým ChatGPT nebude rešpektovať súkromie“. Zákaz prichádza po tom, ako vyjadril obavy z nedávneho porušenia ochrany údajov a z právneho základu používania osobných údajov na trénovanie populárneho chatbota. Stalo sa tak minulý týždeň, keď príslušný úrad označil tento krok za dočasné opatrenie, „kým ChatGPT nebude rešpektovať súkromie“. Úrad ďalej uviedol, že ukladá „okamžité dočasné obmedzenie spracúvania údajov talianskych používateľov“ vlastníkom ChatGPT, spoločnosťou OpenAI so sídlom v San Franciscu. Spoločnosť uviedla, že zakázala ChatGPT v Taliansku a že dodržiava všeobecné nariadenie EÚ o ochrane údajov (GDPR).
„Zaviazali sme sa chrániť súkromie ľudí a sme presvedčení, že dodržiavame GDPR a ďalšie zákony o ochrane osobných údajov,“ uviedol hovorca OpenAI, ktorý dodal, že spoločnosť obmedzuje používanie osobných údajov v systémoch, ako je ChatGPT. „Aktívne pracujeme na obmedzení osobných údajov pri školení našich systémov umelej inteligencie, pretože chceme, aby sa naša umelá inteligencia učila o svete, nie o súkromných osobách.“ Platforma sa od svojho uvedenia na trh v novembri minulého roka stala senzáciou vďaka svojej schopnosti generovať vierohodne znejúce odpovede na otázky, ako aj vytvárať celý rad obsahu vrátane básní, akademických esejí a zhrnutí dlhých dokumentov na základe výzvy používateľov.
Je poháňaný prelomovým systémom umelej inteligencie, ktorý je vycvičený na obrovskom množstve informácií získaných z internetu. Taliansky dozorný orgán vo svojom vyhlásení uviedol obavy týkajúce sa spôsobu, akým chatbot spracováva informácie. Poukázal na „chýbajúce oznámenie používateľom a všetkým zúčastneným osobám, ktorých údaje OpenAI zhromažďuje“, a uviedol, že zrejme neexistuje „žiadny právny základ, na ktorom by sa zakladalo masívne zhromažďovanie a spracúvanie osobných údajov s cieľom „trénovať“ algoritmy, na ktoré sa platforma spolieha“.
Zákaz prišiel niekoľko dní po tom, ako viac ako 1000 expertov na umelú inteligenciu, výskumníkov a podporovateľov (vrátane generálneho riaditeľa Tesly Elona Muska) vyzvalo na okamžité pozastavenie vytvárania „gigantických“ umelých inteligencií najmenej na šesť mesiacov v dôsledku obáv, že firmy ako OpenAI vytvárajú „stále silnejšie digitálne mozgy, ktoré nikto … nedokáže pochopiť, predvídať ani spoľahlivo kontrolovať“. Taliansky dozorný orgán tiež poukázal na porušenie ochrany údajov, ktoré čiastočne odhalilo konverzácie a osobné údaje niektorých používateľov vrátane e-mailových adries a posledných štyroch číslic ich kreditných kariet.
Regulačný orgán uviedol, že platforma čelila strate údajov „týkajúcich sa konverzácií používateľov a informácií súvisiacich s platbami predplatiteľov za službu“. Spoločnosť sa vtedy ospravedlnila a uviedla, že bude „usilovne pracovať na obnovení dôvery“. Zdá sa, že regulačný orgán sa odvoláva aj na náchylnosť platformy k nepresným odpovediam a uvádza, že „informácie sprístupnené ChatGPT nie vždy zodpovedajú skutočným okolnostiam, takže sa spracúvajú nepresné osobné údaje“. Nakoniec uviedol, že „nedostatočné overenie veku vystavuje deti tomu, že dostávajú odpovede, ktoré sú absolútne neprimerané ich veku a povedomiu, hoci služba je údajne určená používateľom starším ako 13 rokov podľa podmienok používania služby OpenAI“.
Taliansky dozorný orgán uviedol, že spoločnosť mu musí do 20 dní oznámiť, aké opatrenia prijala na zabezpečenie ochrany osobných údajov používateľov, inak jej hrozí pokuta až do výšky 20 miliónov eur alebo 4% ročných globálnych príjmov. Tento krok pravdepodobne neovplyvní žiadosti spoločností, ktoré už majú licencie od OpenAI na používanie rovnakej technológie, ktorá poháňa chatbota, ako napríklad vyhľadávač Bing od Microsoftu. Generálny riaditeľ OpenAI Sam Altman tento týždeň oznámil, že v máji sa vydáva na cestu po šiestich kontinentoch, aby o tejto technológii hovoril s používateľmi a vývojármi. Jej súčasťou bude aj plánovaná zastávka v Bruseli, kde zákonodarcovia Európskej únie rokujú o nových rozsiahlych pravidlách na obmedzenie vysoko rizikových nástrojov umelej inteligencie.