Marzena Tyl

Generatywna AI a dzieci

Generatywna AI a dzieci – raport The Alan Turing Institute

Cel raportu Raport Understanding the Impacts of Generative AI Use on Children został opracowany przez The Alan Turing Institute w 2025 roku. Powstał, aby lepiej zrozumieć, w jaki sposób dzieci w wieku 8–12 lat korzystają z generatywnej sztucznej inteligencji. Ważnym elementem było uchwycenie perspektywy rodziców oraz nauczycieli, aby zobaczyć pełny obraz sytuacji. Autorzy chcieli sprawdzić, […]

Generatywna AI a dzieci – raport The Alan Turing Institute Dowiedz się więcej »

Regulacje kontra emocje- dlaczego AI Act to dopiero początek ochrony przed ryzykiem psychicznym

Regulacje kontra emocje: dlaczego AI Act to dopiero początek ochrony przed ryzykiem psychicznym

Sztuczna inteligencja (AI) stała się jednym z najważniejszych tematów regulacyjnych i społecznych ostatnich lat. O ile jeszcze niedawno dyskusja koncentrowała się głównie na ochronie danych osobowych, cyberbezpieczeństwie czy etyce algorytmów, o tyle dziś coraz wyraźniej dostrzegamy, że AI oddziałuje także na psychikę człowieka. Interakcje z chatbotami, zalew deepfake’ów i manipulacji cyfrowych, czy nawet zjawisko emocjonalnego

Regulacje kontra emocje: dlaczego AI Act to dopiero początek ochrony przed ryzykiem psychicznym Dowiedz się więcej »

OWASP AI Maturity Assessment – kompleksowe podejście do oceny dojrzałości organizacji w zarządzaniu sztuczną inteligencją

OWASP AI Maturity Assessment – kompleksowe podejście do oceny dojrzałości organizacji w zarządzaniu sztuczną inteligencją

Rozwój sztucznej inteligencji przebiega w tempie, które znacznie wyprzedza zdolności wielu organizacji do zapewnienia jej bezpieczeństwa, niezawodności i zgodności z wartościami społecznymi. Klasyczne modele dojrzałości, takie jak CMMI czy OWASP SAMM, dobrze sprawdzają się w kontekście tradycyjnego oprogramowania, jednak nie uwzględniają specyfiki systemów AI. Problemem są między innymi niedeterministyczne zachowania modeli, brak przejrzystości logiki decyzyjnej,

OWASP AI Maturity Assessment – kompleksowe podejście do oceny dojrzałości organizacji w zarządzaniu sztuczną inteligencją Dowiedz się więcej »

Dane osobowe w AI

Czy AI może przetwarzać dane osobowe? Kluczowe zasady z RODO

https://youtube.com/shorts/cBk4HV2Qe48 W krótkim filmie dowiesz się o tym:  kiedy dane stają się „danymi osobowymi” dla AI jaką podstawę prawną trzeba mieć, by legalnie korzystać z takich danych co z decyzjami zautomatyzowanymi i prawem do sprzeciwu jak mądrze współpracować z dostawcą narzędzia AI, by nie ponosić ryzyk za jego błędy

Czy AI może przetwarzać dane osobowe? Kluczowe zasady z RODO Dowiedz się więcej »

Bezpieczeństwo danych w systemach AI: najlepsze praktyki w służbie zgodności i odpowiedzialności

Bezpieczeństwo danych w systemach AI: najlepsze praktyki w służbie zgodności i odpowiedzialności

Systemy sztucznej inteligencji uczą się, przewidują i podejmują decyzje na podstawie danych. Z tego powodu bezpieczeństwo danych wykorzystywanych na wszystkich etapach życia systemu AI – od planowania po monitorowanie – ma kluczowe znaczenie nie tylko dla jakości i wiarygodności modeli, ale także dla spełnienia wymagań regulacyjnych oraz budowania odpowiedzialnych strategii biznesowych. W niniejszym wpisie przedstawiamy

Bezpieczeństwo danych w systemach AI: najlepsze praktyki w służbie zgodności i odpowiedzialności Dowiedz się więcej »

AIAct

AI Act – co musisz wiedzieć zanim wdrożysz narzędzie AI w swojej firmie?

https://youtube.com/shorts/Ephg-S743ms W krótkim filmie dowiesz się o tym:  Jak AI Act klasyfikuje systemy AI i co to oznacza dla biznesu  Jakie obowiązki będą miały firmy korzystające z tzw. systemów „wysokiego ryzyka”  Co zmienia się już teraz, nawet zanim akt formalnie wejdzie w życie

AI Act – co musisz wiedzieć zanim wdrożysz narzędzie AI w swojej firmie? Dowiedz się więcej »