OpenAI poprvé otevřeně přiznala, jak závažný problém představuje duševní zdraví jejich uživatelů. Čísla, která firma zveřejnila, jsou opravdu znepokojivá.
Podle oficiálních statistik má 0,15 % aktivních týdenních uživatelů ChatGPT konverzace obsahující „jasné známky plánování nebo úmyslu sebevraždy“. Když si uvědomíte, že ChatGPT používá přes 800 milionů lidí týdně, dostanete se na číslo více než milion osob, které každý týden s chatbotem mluví o ukončení vlastního života.
OpenAI dále přiznává, že podobný podíl uživatelů vykazuje „zvýšenou emocionální připoutanost“ k systému. Statisíce konverzací pak obsahují známky psychózy nebo mánie. Firma sice tvrdí, že jde o „extrémně vzácné“ případy, ale čísla hovoří jasně – problém není zanedbatelný. Pokud hledáte bezpečnější způsob, jak používat AI, vyzkoušejte 1AI.cz, který přináší přehled ověřených nástrojů.
GPT-5 má reagovat lépe než předchůdci
OpenAI reagovala tím, že při vývoji nejnovější verze ChatGPT (GPT-5) konzultovala postupy s více než 170 odborníky na duševní zdraví. Výsledky testování vypadají optimisticky – GPT-5 dosahuje 91% shody s požadovanými reakcemi při rozhovorech o sebevraždě, zatímco starší verze měly pouze 77 %.
Jenže tady je háček: starší modely jako GPT-4o zůstávají nadále dostupné pro miliony předplatitelů. To znamená, že většina lidí stále používá méně bezpečnou verzi.
Žaloby, tragédie a tlak úřadů
Za suchými statistikami se skrývají reálné osudy. Rodiče šestnáctiletého chlapce podali na OpenAI žalobu poté, co jejich syn spáchal sebevraždu. Tvrdí, že k tragédii přispěly rozhovory s ChatGPT.
Na situaci reagovali i generální prokurátoři Kalifornie a Delaware, kteří společnost varovali, že musí zavést účinná opatření k ochraně nezletilých. Tlak není jen právní – firma čelí i vážným reputačním rizikům.
Výzkumy totiž ukazují, že AI chatboti mohou prohlubovat bludy nebo falešná přesvědčení tím, že se přizpůsobují tomu, co uživatel chce slyšet. U duševně labilních osob to může vést k horšímu stavu, než byl na začátku. Více o aktuálním dění v oblasti umělé inteligence se dozvíte na 1AI.cz.
Nová ochranná opatření a kontroverzní kroky
OpenAI slibuje zavedení nových ochranných mechanismů. Firma pracuje na rodičovských nastaveních a testuje systém věkové detekce, který by u dětských uživatelů automaticky aktivoval přísnější bezpečnostní filtry. Novou metrikou má být i sledování emocionální závislosti.
CEO Sam Altman přitom tvrdí, že firma „dokázala zmírnit vážné problémy s duševním zdravím“ u uživatelů. Současně ale oznámil plány uvolnit některá omezení – včetně povolení erotických rozhovorů pro dospělé. Tento krok vyvolal další vlnu kritiky.
Otázka zní: Dokáže OpenAI skutečně ochránit ty nejzranitelnější uživatele, když zároveň otevírá dveře novým rizikům? Odpověď ukáže až čas – a možná bohužel i další tragické případy.
