ai compliance

10 lekcji z katastrofy „Heweliusza”

10 lekcji z katastrofy „Heweliusza”, które warto odrobić przed wdrożeniem AI w organizacji

Podczas przerwy między projektami miałam wreszcie przestrzeń, żeby nadrobić zaległości: obejrzałam na Netflixie serial „Heweliusz” oraz odsłuchałam podcast Polskiego Radia „Heweliusz. Prawdziwa historia”. I choć to opowieść o katastrofie morskiej z 1993 roku, w głowie cały czas układała mi się w jedno z wdrożeniami sztucznej inteligencji w firmach: nie z samą technologią, ale z mechanizmem, […]

10 lekcji z katastrofy „Heweliusza”, które warto odrobić przed wdrożeniem AI w organizacji Dowiedz się więcej »

Samochody zautomatyzowane w Polsce

Samochody zautomatyzowane w Polsce – co naprawdę zmienia nowelizacja PoRD i jak się do niej przygotować

Dwa lata temu, podczas jednej z konferencji, opowiadałam o tym, że AI compliance w systemach autonomicznych nie może kończyć się na „zachwycie technologią” – potrzebuje twardej podstawy legislacyjnej, która wyznacza role, odpowiedzialność i wymagania bezpieczeństwa. Dziś wreszcie jesteśmy w tym punkcie: Prezydent RP podpisał nowelizację Prawa o ruchu drogowym, która otwiera w Polsce drogę do

Samochody zautomatyzowane w Polsce – co naprawdę zmienia nowelizacja PoRD i jak się do niej przygotować Dowiedz się więcej »

Prawo autorskie wytworów generatywnej AI. Gdzie dziś stoi UE i świat, i co to oznacza w praktyce.

Prawo autorskie wytworów generatywnej AI: gdzie dziś stoi UE i świat, i co to oznacza w praktyce

Generatywna sztuczna inteligencja przestała być ciekawostką technologiczną, a stała się narzędziem codziennej produkcji treści: od tekstów marketingowych, przez grafiki, po muzykę i wideo. Z perspektywy prawa autorskiego rodzi to pytanie fundamentalne: czy (i kiedy) rezultat pracy systemu AI może być „utworem” chronionym prawem autorskim, kto jest autorem, a także jak twórcy i firmy mają zarządzać

Prawo autorskie wytworów generatywnej AI: gdzie dziś stoi UE i świat, i co to oznacza w praktyce Dowiedz się więcej »

Infrastruktura przejrzystości: jak akt delegowany do art. 40 DSA otwiera erę naukowej kontroli nad platformami

Z dniem 29 października 2025 r. wszedł w życie akt delegowany Komisji Europejskiej przyjęty na podstawie art. 40 Rozporządzenia o usługach cyfrowych (DSA). Po raz pierwszy w historii Unii Europejskiej umożliwia on uprawnionym badaczom („vetted researchers”) działającym w interesie publicznym dostęp do niepublicznych danych bardzo dużych platform internetowych (VLOPs) i wyszukiwarek (VLOSEs). To moment, w

Infrastruktura przejrzystości: jak akt delegowany do art. 40 DSA otwiera erę naukowej kontroli nad platformami Dowiedz się więcej »

Polityka AI to za mało - Trzy filary Bezpiecznego korzystania z LLM w firmie

Polityka AI to dopiero początek – Trzy filary bezpiecznego korzystania z LLM w firmie

W wielu organizacjach rozmowa o bezpiecznym korzystaniu z sztucznej inteligencji zatrzymuje się na jednym pytaniu: czy mamy politykę AI. To ważny element, ale zdecydowanie niewystarczający. Z perspektywy compliance, ochrony danych i odpowiedzialnego zarządzania technologią, spisanie dokumentu jest dopiero początkiem drogi, a nie jej końcem. W cyberbezpieczeństwie od lat mówi się o trzech filarach: procesach, narzędziach

Polityka AI to dopiero początek – Trzy filary bezpiecznego korzystania z LLM w firmie Dowiedz się więcej »

Czy AI naprawdę „wie lepiej”? Krytyczne myślenie w cieniu błędów poznawczych

Czy AI naprawdę „wie lepiej”? Krytyczne myślenie w cieniu błędów poznawczych

Sztuczna inteligencja wspiera dziś decyzje w bankowości, HR, medycynie, cyberbezpieczeństwie czy marketingu. Coraz częściej to algorytm „proponuje”, a człowiek jedynie akceptuje wynik. AI nie „wie lepiej” w ludzkim sensie, ale bardzo łatwo nadajemy jej taką rolę, łącząc moc technologii z naszymi błędami poznawczymi. To właśnie to połączenie tworzy jedno z kluczowych ryzyk dla biznesu, prawa

Czy AI naprawdę „wie lepiej”? Krytyczne myślenie w cieniu błędów poznawczych Dowiedz się więcej »

Technologie kwantowe – między nauką, regulacją a odpowiedzialnością

Technologie kwantowe – między nauką, regulacją a odpowiedzialnością

Refleksje po konferencji PINT25 w Krakowie ciąg dalszy… Inspiracją do napisania tego wpisu był panel „Technologie kwantowe”, który odbył się podczas konferencji PINT25 – Prawo i Nowe Technologie, w dniach 29–30 września 2025 roku w Krakowie.Profesor Paweł Przybyłowicz w wyjątkowy sposób przełożył zawiłości mechaniki kwantowej na język zrozumiały dla osób spoza świata fizyki. Słuchając, jak

Technologie kwantowe – między nauką, regulacją a odpowiedzialnością Dowiedz się więcej »

Inspiracje po konferencji PINT 25 – Prawo i Nowe Technologie

Inspiracje po konferencji PINT 25 – Prawo i Nowe Technologie

Do napisania tego tekstu zainspirowały mnie dyskusje panelistów podczas wczoraj zakończonej konferencji „PINT 25 – Prawo i Nowe Technologie”, organizowanej przez Okręgową Izbę Radców Prawnych w Krakowie. To wydarzenie kolejny rok stanowi przestrzeń do spotkania praktyków prawa, nowych technologii i biznesu. Tym razem szczególnie mocno wybrzmiały słowa prof. Dariusza Szostka o zbliżającej się rocznicy braku

Inspiracje po konferencji PINT 25 – Prawo i Nowe Technologie Dowiedz się więcej »

Generatywna AI a dzieci

Generatywna AI a dzieci – raport The Alan Turing Institute

Cel raportu Raport Understanding the Impacts of Generative AI Use on Children został opracowany przez The Alan Turing Institute w 2025 roku. Powstał, aby lepiej zrozumieć, w jaki sposób dzieci w wieku 8–12 lat korzystają z generatywnej sztucznej inteligencji. Ważnym elementem było uchwycenie perspektywy rodziców oraz nauczycieli, aby zobaczyć pełny obraz sytuacji. Autorzy chcieli sprawdzić,

Generatywna AI a dzieci – raport The Alan Turing Institute Dowiedz się więcej »

Regulacje kontra emocje- dlaczego AI Act to dopiero początek ochrony przed ryzykiem psychicznym

Regulacje kontra emocje: dlaczego AI Act to dopiero początek ochrony przed ryzykiem psychicznym

Sztuczna inteligencja (AI) stała się jednym z najważniejszych tematów regulacyjnych i społecznych ostatnich lat. O ile jeszcze niedawno dyskusja koncentrowała się głównie na ochronie danych osobowych, cyberbezpieczeństwie czy etyce algorytmów, o tyle dziś coraz wyraźniej dostrzegamy, że AI oddziałuje także na psychikę człowieka. Interakcje z chatbotami, zalew deepfake’ów i manipulacji cyfrowych, czy nawet zjawisko emocjonalnego

Regulacje kontra emocje: dlaczego AI Act to dopiero początek ochrony przed ryzykiem psychicznym Dowiedz się więcej »