iso42001

10 lekcji z katastrofy „Heweliusza”

10 lekcji z katastrofy „Heweliusza”, które warto odrobić przed wdrożeniem AI w organizacji

Podczas przerwy między projektami miałam wreszcie przestrzeń, żeby nadrobić zaległości: obejrzałam na Netflixie serial „Heweliusz” oraz odsłuchałam podcast Polskiego Radia „Heweliusz. Prawdziwa historia”. I choć to opowieść o katastrofie morskiej z 1993 roku, w głowie cały czas układała mi się w jedno z wdrożeniami sztucznej inteligencji w firmach: nie z samą technologią, ale z mechanizmem, […]

10 lekcji z katastrofy „Heweliusza”, które warto odrobić przed wdrożeniem AI w organizacji Dowiedz się więcej »

Samochody zautomatyzowane w Polsce

Samochody zautomatyzowane w Polsce – co naprawdę zmienia nowelizacja PoRD i jak się do niej przygotować

Dwa lata temu, podczas jednej z konferencji, opowiadałam o tym, że AI compliance w systemach autonomicznych nie może kończyć się na „zachwycie technologią” – potrzebuje twardej podstawy legislacyjnej, która wyznacza role, odpowiedzialność i wymagania bezpieczeństwa. Dziś wreszcie jesteśmy w tym punkcie: Prezydent RP podpisał nowelizację Prawa o ruchu drogowym, która otwiera w Polsce drogę do

Samochody zautomatyzowane w Polsce – co naprawdę zmienia nowelizacja PoRD i jak się do niej przygotować Dowiedz się więcej »

Polityka AI to za mało - Trzy filary Bezpiecznego korzystania z LLM w firmie

Polityka AI to dopiero początek – Trzy filary bezpiecznego korzystania z LLM w firmie

W wielu organizacjach rozmowa o bezpiecznym korzystaniu z sztucznej inteligencji zatrzymuje się na jednym pytaniu: czy mamy politykę AI. To ważny element, ale zdecydowanie niewystarczający. Z perspektywy compliance, ochrony danych i odpowiedzialnego zarządzania technologią, spisanie dokumentu jest dopiero początkiem drogi, a nie jej końcem. W cyberbezpieczeństwie od lat mówi się o trzech filarach: procesach, narzędziach

Polityka AI to dopiero początek – Trzy filary bezpiecznego korzystania z LLM w firmie Dowiedz się więcej »

Czy AI naprawdę „wie lepiej”? Krytyczne myślenie w cieniu błędów poznawczych

Czy AI naprawdę „wie lepiej”? Krytyczne myślenie w cieniu błędów poznawczych

Sztuczna inteligencja wspiera dziś decyzje w bankowości, HR, medycynie, cyberbezpieczeństwie czy marketingu. Coraz częściej to algorytm „proponuje”, a człowiek jedynie akceptuje wynik. AI nie „wie lepiej” w ludzkim sensie, ale bardzo łatwo nadajemy jej taką rolę, łącząc moc technologii z naszymi błędami poznawczymi. To właśnie to połączenie tworzy jedno z kluczowych ryzyk dla biznesu, prawa

Czy AI naprawdę „wie lepiej”? Krytyczne myślenie w cieniu błędów poznawczych Dowiedz się więcej »

Inspiracje po konferencji PINT 25 – Prawo i Nowe Technologie

Inspiracje po konferencji PINT 25 – Prawo i Nowe Technologie

Do napisania tego tekstu zainspirowały mnie dyskusje panelistów podczas wczoraj zakończonej konferencji „PINT 25 – Prawo i Nowe Technologie”, organizowanej przez Okręgową Izbę Radców Prawnych w Krakowie. To wydarzenie kolejny rok stanowi przestrzeń do spotkania praktyków prawa, nowych technologii i biznesu. Tym razem szczególnie mocno wybrzmiały słowa prof. Dariusza Szostka o zbliżającej się rocznicy braku

Inspiracje po konferencji PINT 25 – Prawo i Nowe Technologie Dowiedz się więcej »

Generatywna AI a dzieci

Generatywna AI a dzieci – raport The Alan Turing Institute

Cel raportu Raport Understanding the Impacts of Generative AI Use on Children został opracowany przez The Alan Turing Institute w 2025 roku. Powstał, aby lepiej zrozumieć, w jaki sposób dzieci w wieku 8–12 lat korzystają z generatywnej sztucznej inteligencji. Ważnym elementem było uchwycenie perspektywy rodziców oraz nauczycieli, aby zobaczyć pełny obraz sytuacji. Autorzy chcieli sprawdzić,

Generatywna AI a dzieci – raport The Alan Turing Institute Dowiedz się więcej »

Regulacje kontra emocje- dlaczego AI Act to dopiero początek ochrony przed ryzykiem psychicznym

Regulacje kontra emocje: dlaczego AI Act to dopiero początek ochrony przed ryzykiem psychicznym

Sztuczna inteligencja (AI) stała się jednym z najważniejszych tematów regulacyjnych i społecznych ostatnich lat. O ile jeszcze niedawno dyskusja koncentrowała się głównie na ochronie danych osobowych, cyberbezpieczeństwie czy etyce algorytmów, o tyle dziś coraz wyraźniej dostrzegamy, że AI oddziałuje także na psychikę człowieka. Interakcje z chatbotami, zalew deepfake’ów i manipulacji cyfrowych, czy nawet zjawisko emocjonalnego

Regulacje kontra emocje: dlaczego AI Act to dopiero początek ochrony przed ryzykiem psychicznym Dowiedz się więcej »

OWASP AI Maturity Assessment – kompleksowe podejście do oceny dojrzałości organizacji w zarządzaniu sztuczną inteligencją

OWASP AI Maturity Assessment – kompleksowe podejście do oceny dojrzałości organizacji w zarządzaniu sztuczną inteligencją

Rozwój sztucznej inteligencji przebiega w tempie, które znacznie wyprzedza zdolności wielu organizacji do zapewnienia jej bezpieczeństwa, niezawodności i zgodności z wartościami społecznymi. Klasyczne modele dojrzałości, takie jak CMMI czy OWASP SAMM, dobrze sprawdzają się w kontekście tradycyjnego oprogramowania, jednak nie uwzględniają specyfiki systemów AI. Problemem są między innymi niedeterministyczne zachowania modeli, brak przejrzystości logiki decyzyjnej,

OWASP AI Maturity Assessment – kompleksowe podejście do oceny dojrzałości organizacji w zarządzaniu sztuczną inteligencją Dowiedz się więcej »

Dane osobowe w AI

Czy AI może przetwarzać dane osobowe? Kluczowe zasady z RODO

https://youtube.com/shorts/cBk4HV2Qe48 W krótkim filmie dowiesz się o tym:  kiedy dane stają się „danymi osobowymi” dla AI jaką podstawę prawną trzeba mieć, by legalnie korzystać z takich danych co z decyzjami zautomatyzowanymi i prawem do sprzeciwu jak mądrze współpracować z dostawcą narzędzia AI, by nie ponosić ryzyk za jego błędy

Czy AI może przetwarzać dane osobowe? Kluczowe zasady z RODO Dowiedz się więcej »