Marzena Tyl

ISO/IEC 22989: dlaczego biznes potrzebuje wspólnego języka wokół AI, zanim zacznie nim zarządzać

ISO/IEC 22989: dlaczego biznes potrzebuje wspólnego języka wokół AI, zanim zacznie nim zarządzać

Wiele organizacji chce dziś „wdrażać AI”. Znacznie mniej organizacji potrafi jednak precyzyjnie odpowiedzieć, co dokładnie rozumie przez AI, jakie elementy takiego systemu rzeczywiście podlegają ocenie, gdzie kończy się automatyzacja, a zaczyna autonomia, czym różni się predykcja od decyzji i dlaczego nie każde „inteligentne” narzędzie działa w ten sam sposób. I właśnie tutaj zaczyna się realny […]

ISO/IEC 22989: dlaczego biznes potrzebuje wspólnego języka wokół AI, zanim zacznie nim zarządzać Dowiedz się więcej »

10 lekcji z katastrofy „Heweliusza”

10 lekcji z katastrofy „Heweliusza”, które warto odrobić przed wdrożeniem AI w organizacji

Podczas przerwy między projektami miałam wreszcie przestrzeń, żeby nadrobić zaległości: obejrzałam na Netflixie serial „Heweliusz” oraz odsłuchałam podcast Polskiego Radia „Heweliusz. Prawdziwa historia”. I choć to opowieść o katastrofie morskiej z 1993 roku, w głowie cały czas układała mi się w jedno z wdrożeniami sztucznej inteligencji w firmach: nie z samą technologią, ale z mechanizmem,

10 lekcji z katastrofy „Heweliusza”, które warto odrobić przed wdrożeniem AI w organizacji Dowiedz się więcej »

Samochody zautomatyzowane w Polsce

Samochody zautomatyzowane w Polsce – co naprawdę zmienia nowelizacja PoRD i jak się do niej przygotować

Dwa lata temu, podczas jednej z konferencji, opowiadałam o tym, że AI compliance w systemach autonomicznych nie może kończyć się na „zachwycie technologią” – potrzebuje twardej podstawy legislacyjnej, która wyznacza role, odpowiedzialność i wymagania bezpieczeństwa. Dziś wreszcie jesteśmy w tym punkcie: Prezydent RP podpisał nowelizację Prawa o ruchu drogowym, która otwiera w Polsce drogę do

Samochody zautomatyzowane w Polsce – co naprawdę zmienia nowelizacja PoRD i jak się do niej przygotować Dowiedz się więcej »

Prawo autorskie wytworów generatywnej AI. Gdzie dziś stoi UE i świat, i co to oznacza w praktyce.

Prawo autorskie wytworów generatywnej AI: gdzie dziś stoi UE i świat, i co to oznacza w praktyce

Generatywna sztuczna inteligencja przestała być ciekawostką technologiczną, a stała się narzędziem codziennej produkcji treści: od tekstów marketingowych, przez grafiki, po muzykę i wideo. Z perspektywy prawa autorskiego rodzi to pytanie fundamentalne: czy (i kiedy) rezultat pracy systemu AI może być „utworem” chronionym prawem autorskim, kto jest autorem, a także jak twórcy i firmy mają zarządzać

Prawo autorskie wytworów generatywnej AI: gdzie dziś stoi UE i świat, i co to oznacza w praktyce Dowiedz się więcej »

Infrastruktura przejrzystości: jak akt delegowany do art. 40 DSA otwiera erę naukowej kontroli nad platformami

Z dniem 29 października 2025 r. wszedł w życie akt delegowany Komisji Europejskiej przyjęty na podstawie art. 40 Rozporządzenia o usługach cyfrowych (DSA). Po raz pierwszy w historii Unii Europejskiej umożliwia on uprawnionym badaczom („vetted researchers”) działającym w interesie publicznym dostęp do niepublicznych danych bardzo dużych platform internetowych (VLOPs) i wyszukiwarek (VLOSEs). To moment, w

Infrastruktura przejrzystości: jak akt delegowany do art. 40 DSA otwiera erę naukowej kontroli nad platformami Dowiedz się więcej »

Polityka AI to za mało - Trzy filary Bezpiecznego korzystania z LLM w firmie

Polityka AI to dopiero początek – Trzy filary bezpiecznego korzystania z LLM w firmie

W wielu organizacjach rozmowa o bezpiecznym korzystaniu z sztucznej inteligencji zatrzymuje się na jednym pytaniu: czy mamy politykę AI. To ważny element, ale zdecydowanie niewystarczający. Z perspektywy compliance, ochrony danych i odpowiedzialnego zarządzania technologią, spisanie dokumentu jest dopiero początkiem drogi, a nie jej końcem. W cyberbezpieczeństwie od lat mówi się o trzech filarach: procesach, narzędziach

Polityka AI to dopiero początek – Trzy filary bezpiecznego korzystania z LLM w firmie Dowiedz się więcej »

Czy AI naprawdę „wie lepiej”? Krytyczne myślenie w cieniu błędów poznawczych

Czy AI naprawdę „wie lepiej”? Krytyczne myślenie w cieniu błędów poznawczych

Sztuczna inteligencja wspiera dziś decyzje w bankowości, HR, medycynie, cyberbezpieczeństwie czy marketingu. Coraz częściej to algorytm „proponuje”, a człowiek jedynie akceptuje wynik. AI nie „wie lepiej” w ludzkim sensie, ale bardzo łatwo nadajemy jej taką rolę, łącząc moc technologii z naszymi błędami poznawczymi. To właśnie to połączenie tworzy jedno z kluczowych ryzyk dla biznesu, prawa

Czy AI naprawdę „wie lepiej”? Krytyczne myślenie w cieniu błędów poznawczych Dowiedz się więcej »

Technologie kwantowe – między nauką, regulacją a odpowiedzialnością

Technologie kwantowe – między nauką, regulacją a odpowiedzialnością

Refleksje po konferencji PINT25 w Krakowie ciąg dalszy… Inspiracją do napisania tego wpisu był panel „Technologie kwantowe”, który odbył się podczas konferencji PINT25 – Prawo i Nowe Technologie, w dniach 29–30 września 2025 roku w Krakowie.Profesor Paweł Przybyłowicz w wyjątkowy sposób przełożył zawiłości mechaniki kwantowej na język zrozumiały dla osób spoza świata fizyki. Słuchając, jak

Technologie kwantowe – między nauką, regulacją a odpowiedzialnością Dowiedz się więcej »

Inspiracje po konferencji PINT 25 – Prawo i Nowe Technologie

Inspiracje po konferencji PINT 25 – Prawo i Nowe Technologie

Do napisania tego tekstu zainspirowały mnie dyskusje panelistów podczas wczoraj zakończonej konferencji „PINT 25 – Prawo i Nowe Technologie”, organizowanej przez Okręgową Izbę Radców Prawnych w Krakowie. To wydarzenie kolejny rok stanowi przestrzeń do spotkania praktyków prawa, nowych technologii i biznesu. Tym razem szczególnie mocno wybrzmiały słowa prof. Dariusza Szostka o zbliżającej się rocznicy braku

Inspiracje po konferencji PINT 25 – Prawo i Nowe Technologie Dowiedz się więcej »

Generatywna AI a dzieci

Generatywna AI a dzieci – raport The Alan Turing Institute

Cel raportu Raport Understanding the Impacts of Generative AI Use on Children został opracowany przez The Alan Turing Institute w 2025 roku. Powstał, aby lepiej zrozumieć, w jaki sposób dzieci w wieku 8–12 lat korzystają z generatywnej sztucznej inteligencji. Ważnym elementem było uchwycenie perspektywy rodziców oraz nauczycieli, aby zobaczyć pełny obraz sytuacji. Autorzy chcieli sprawdzić,

Generatywna AI a dzieci – raport The Alan Turing Institute Dowiedz się więcej »