Bez kategorii

ISO/IEC 22989: dlaczego biznes potrzebuje wspólnego języka wokół AI, zanim zacznie nim zarządzać

ISO/IEC 22989: dlaczego biznes potrzebuje wspólnego języka wokół AI, zanim zacznie nim zarządzać

Wiele organizacji chce dziś „wdrażać AI”. Znacznie mniej organizacji potrafi jednak precyzyjnie odpowiedzieć, co dokładnie rozumie przez AI, jakie elementy takiego systemu rzeczywiście podlegają ocenie, gdzie kończy się automatyzacja, a zaczyna autonomia, czym różni się predykcja od decyzji i dlaczego nie każde „inteligentne” narzędzie działa w ten sam sposób. I właśnie tutaj zaczyna się realny […]

ISO/IEC 22989: dlaczego biznes potrzebuje wspólnego języka wokół AI, zanim zacznie nim zarządzać Dowiedz się więcej »

Samochody zautomatyzowane w Polsce

Samochody zautomatyzowane w Polsce – co naprawdę zmienia nowelizacja PoRD i jak się do niej przygotować

Dwa lata temu, podczas jednej z konferencji, opowiadałam o tym, że AI compliance w systemach autonomicznych nie może kończyć się na „zachwycie technologią” – potrzebuje twardej podstawy legislacyjnej, która wyznacza role, odpowiedzialność i wymagania bezpieczeństwa. Dziś wreszcie jesteśmy w tym punkcie: Prezydent RP podpisał nowelizację Prawa o ruchu drogowym, która otwiera w Polsce drogę do

Samochody zautomatyzowane w Polsce – co naprawdę zmienia nowelizacja PoRD i jak się do niej przygotować Dowiedz się więcej »

Prawo autorskie wytworów generatywnej AI. Gdzie dziś stoi UE i świat, i co to oznacza w praktyce.

Prawo autorskie wytworów generatywnej AI: gdzie dziś stoi UE i świat, i co to oznacza w praktyce

Generatywna sztuczna inteligencja przestała być ciekawostką technologiczną, a stała się narzędziem codziennej produkcji treści: od tekstów marketingowych, przez grafiki, po muzykę i wideo. Z perspektywy prawa autorskiego rodzi to pytanie fundamentalne: czy (i kiedy) rezultat pracy systemu AI może być „utworem” chronionym prawem autorskim, kto jest autorem, a także jak twórcy i firmy mają zarządzać

Prawo autorskie wytworów generatywnej AI: gdzie dziś stoi UE i świat, i co to oznacza w praktyce Dowiedz się więcej »

Polityka AI to za mało - Trzy filary Bezpiecznego korzystania z LLM w firmie

Polityka AI to dopiero początek – Trzy filary bezpiecznego korzystania z LLM w firmie

W wielu organizacjach rozmowa o bezpiecznym korzystaniu z sztucznej inteligencji zatrzymuje się na jednym pytaniu: czy mamy politykę AI. To ważny element, ale zdecydowanie niewystarczający. Z perspektywy compliance, ochrony danych i odpowiedzialnego zarządzania technologią, spisanie dokumentu jest dopiero początkiem drogi, a nie jej końcem. W cyberbezpieczeństwie od lat mówi się o trzech filarach: procesach, narzędziach

Polityka AI to dopiero początek – Trzy filary bezpiecznego korzystania z LLM w firmie Dowiedz się więcej »

Czy AI naprawdę „wie lepiej”? Krytyczne myślenie w cieniu błędów poznawczych

Czy AI naprawdę „wie lepiej”? Krytyczne myślenie w cieniu błędów poznawczych

Sztuczna inteligencja wspiera dziś decyzje w bankowości, HR, medycynie, cyberbezpieczeństwie czy marketingu. Coraz częściej to algorytm „proponuje”, a człowiek jedynie akceptuje wynik. AI nie „wie lepiej” w ludzkim sensie, ale bardzo łatwo nadajemy jej taką rolę, łącząc moc technologii z naszymi błędami poznawczymi. To właśnie to połączenie tworzy jedno z kluczowych ryzyk dla biznesu, prawa

Czy AI naprawdę „wie lepiej”? Krytyczne myślenie w cieniu błędów poznawczych Dowiedz się więcej »

Technologie kwantowe – między nauką, regulacją a odpowiedzialnością

Technologie kwantowe – między nauką, regulacją a odpowiedzialnością

Refleksje po konferencji PINT25 w Krakowie ciąg dalszy… Inspiracją do napisania tego wpisu był panel „Technologie kwantowe”, który odbył się podczas konferencji PINT25 – Prawo i Nowe Technologie, w dniach 29–30 września 2025 roku w Krakowie.Profesor Paweł Przybyłowicz w wyjątkowy sposób przełożył zawiłości mechaniki kwantowej na język zrozumiały dla osób spoza świata fizyki. Słuchając, jak

Technologie kwantowe – między nauką, regulacją a odpowiedzialnością Dowiedz się więcej »