Sztuczna inteligencja (AI) stała się jednym z najważniejszych tematów regulacyjnych i społecznych ostatnich lat. O ile jeszcze niedawno dyskusja koncentrowała się głównie na ochronie danych osobowych, cyberbezpieczeństwie czy etyce algorytmów, o tyle dziś coraz wyraźniej dostrzegamy, że AI oddziałuje także na psychikę człowieka. Interakcje z chatbotami, zalew deepfake’ów i manipulacji cyfrowych, czy nawet zjawisko emocjonalnego przywiązania do modeli konwersacyjnych – to wyzwania, które stawiają przed regulatorami, biznesem i społeczeństwem nowe pytania.
Badania
Najnowsze badania z lat 2024 i 2025 wskazują, że efekty korzystania z chatbotów AI są ambiwalentne. Z jednej strony krótkoterminowe interakcje mogą poprawiać nastrój i zmniejszać stres u określonych grup użytkowników, z drugiej – brak standardów i ryzyko błędnych odpowiedzi niosą ze sobą poważne zagrożenia. Analizy RAND pokazały, że chatboty potrafią prawidłowo reagować na oczywiste sygnały samobójcze, ale zawodzą przy subtelniejszych komunikatach, co może prowadzić do eskalacji kryzysu.
Równocześnie badania nad dezinformacją i deepfake’ami udowodniły, że treści syntetyczne znacząco zwiększają poziom błędnych przekonań, obciążają psychikę i podważają zaufanie społeczne. W Polsce instytucje takie jak NASK ostrzegają, że to jedno z najważniejszych wyzwań bezpieczeństwa informacyjnego. Nałożyło się na to zjawisko przeciążenia informacyjnego – generowane przez AI treści przyspieszają doomscrolling i powodują zmęczenie psychiczne oraz spadek dobrostanu.
Regulacje
Regulacje prawne próbują nadążać za tymi zjawiskami. W Unii Europejskiej od 1 sierpnia 2024 r. obowiązuje AI Act, a od lutego 2025 zaczęły obowiązywać pierwsze zakazy dotyczące systemów uznanych za niedopuszczalne ryzyko, takich jak manipulacja zachowaniami, wykorzystywanie podatności osób małoletnich czy stosowanie social scoringu. Szczególnie istotne są przepisy zakazujące rozpoznawania emocji w miejscu pracy i edukacji oraz nakładające obowiązek oznaczania treści syntetycznych i deepfake’ów, co ma chronić użytkowników przed manipulacją i przeciążeniem emocjonalnym.
W USA pojawiają się regulacje stanowe, takie jak zakaz stosowania AI jako substytutu terapeuty w Illinois, a w Wielkiej Brytanii Ofcom w ramach Online Safety Act nakłada obowiązki dotyczące ochrony użytkowników przed treściami samobójczymi i samookaleczającymi. Światowa Organizacja Zdrowia ostrzega w swoich wytycznych z lat 2024 i 2025, że AI w obszarze medycyny wymaga szczególnego nadzoru klinicznego, oceny bezpieczeństwa i przejrzystości. W Unii Europejskiej coraz częściej pojawia się też kwestia kwalifikacji narzędzi AI jako wyrobów medycznych – jeśli oprogramowanie diagnozuje, monitoruje lub sugeruje leczenie, podlega regulacjom MDR i wymogom oceny zgodności.
Mechanizmy wpływu AI na psychikę są złożone. Symulowana empatia buduje złudne poczucie wsparcia i sprzyja nadmiernemu przywiązaniu emocjonalnemu do systemu, który nie ponosi odpowiedzialności za swoje słowa. Halucynacje i błędne porady zdrowotne mogą prowadzić do realnych szkód, szczególnie w sytuacjach kryzysowych. Dezinformacja i deepfake’i wywołują lęk i niepewność poznawczą, a przeciążenie informacyjne prowadzi do stresu i poczucia chaosu.
Organizacje powinny odpowiedzialnie reagować na te wyzwania, wdrażając polityki AI uwzględniające wellbeing psychiczny, tworząc procedury kryzysowe umożliwiające przekierowanie użytkowników do profesjonalnej pomocy, budując systemy zarządzania zgodne z normą ISO/IEC 42001, audytując swoje rozwiązania i oznaczając treści syntetyczne. Odpowiedzialna komunikacja, edukacja pracowników i użytkowników oraz higiena informacyjna stają się elementami nowoczesnego compliance.
AI Act i regulacje krajowe tworzą fundament prawny, ale rzeczywistą odpowiedź na ryzyka zapewni tylko połączenie prawa, psychologii i edukacji. Sztuczna inteligencja może wspierać człowieka, ale nie zastąpi empatii i odpowiedzialności.
Webinar
Już wkrótce zaprosimy Państwa na webinar i debatę z doświadczonymi psychologami praktykującymi w Stanach Zjednoczonych, podczas której porozmawiamy o tym, jakie wyzwania zgłaszają pacjenci korzystający z narzędzi AI, jakie ryzyka psychiczne dostrzegają specjaliści, czy podobne zjawiska obserwujemy w Polsce oraz jak prawo i compliance mogą chronić użytkowników. To będzie okazja, by spojrzeć na AI jednocześnie z perspektywy regulacyjnej i psychologicznej i wyciągnąć praktyczne wnioski dla biznesu, administracji i społeczeństwa.
Podsumowanie
Rok 2024 i 2025 pokazały jasno, że potrzebujemy regulacji, audytów i standardów, ale także realnego wsparcia psychologicznego i edukacji użytkowników. AI może wiele – lecz odpowiedzialności i empatii człowieka nigdy nie zastąpi.
Bibliografia
- AP News. (2025, August 28). Study says AI chatbots need to fix suicide response, as family sues over ChatGPT role in boy’s death. Associated Press. Retrieved from https://apnews.com/article/da00880b1e1577ac332ab1752e41225b
- Commission of the European Union. (2024, August 1). AI Act enters into force. European Commission. Retrieved from https://commission.europa.eu/news-and-media/news/ai-act-enters-force-2024-08-01_en
- European Commission. (2025). Regulatory framework proposal on artificial intelligence. Digital Strategy. Retrieved from https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai
- RAND Corporation. (2025, August 20). AI chatbots inconsistent in answering questions about suicide, RAND study finds. RAND. Retrieved from https://www.rand.org/news/press/2025/08/ai-chatbots-inconsistent-in-answering-questions-about.html
- The Guardian. (2025, August 27). Teen killed himself after ‘months of encouragement from ChatGPT’, lawsuit claims. The Guardian. Retrieved from https://www.theguardian.com/technology/2025/aug/27/chatgpt-scrutiny-family-teen-killed-himself-sue-open-ai
- The Guardian. (2025, August 30). ‘Sliding into an abyss’: Experts warn over rising use of AI for mental health support. The Guardian. Retrieved from https://www.theguardian.com/society/2025/aug/30/therapists-warn-ai-chatbots-mental-health-support
- Xu, J., Li, H., & Chen, Y. (2024). Risks of large language models in mental health applications: A systematic analysis. arXiv preprint. https://arxiv.org/abs/2406.11852
- Zhang, L., Patel, R., & Kumar, S. (2025). Taxonomy of risks for AI psychotherapy systems: Towards safer deployment. arXiv preprint. https://arxiv.org/abs/2505.15108
- Zhou, M., & Garcia, P. (2025). Technological folie à deux: Emotional dependency in human–AI interactions. arXiv preprint. https://arxiv.org/abs/2507.19218