aima

10 lekcji z katastrofy „Heweliusza”

10 lekcji z katastrofy „Heweliusza”, które warto odrobić przed wdrożeniem AI w organizacji

Podczas przerwy między projektami miałam wreszcie przestrzeń, żeby nadrobić zaległości: obejrzałam na Netflixie serial „Heweliusz” oraz odsłuchałam podcast Polskiego Radia „Heweliusz. Prawdziwa historia”. I choć to opowieść o katastrofie morskiej z 1993 roku, w głowie cały czas układała mi się w jedno z wdrożeniami sztucznej inteligencji w firmach: nie z samą technologią, ale z mechanizmem, […]

10 lekcji z katastrofy „Heweliusza”, które warto odrobić przed wdrożeniem AI w organizacji Dowiedz się więcej »

Polityka AI to za mało - Trzy filary Bezpiecznego korzystania z LLM w firmie

Polityka AI to dopiero początek – Trzy filary bezpiecznego korzystania z LLM w firmie

W wielu organizacjach rozmowa o bezpiecznym korzystaniu z sztucznej inteligencji zatrzymuje się na jednym pytaniu: czy mamy politykę AI. To ważny element, ale zdecydowanie niewystarczający. Z perspektywy compliance, ochrony danych i odpowiedzialnego zarządzania technologią, spisanie dokumentu jest dopiero początkiem drogi, a nie jej końcem. W cyberbezpieczeństwie od lat mówi się o trzech filarach: procesach, narzędziach

Polityka AI to dopiero początek – Trzy filary bezpiecznego korzystania z LLM w firmie Dowiedz się więcej »

Czy AI naprawdę „wie lepiej”? Krytyczne myślenie w cieniu błędów poznawczych

Czy AI naprawdę „wie lepiej”? Krytyczne myślenie w cieniu błędów poznawczych

Sztuczna inteligencja wspiera dziś decyzje w bankowości, HR, medycynie, cyberbezpieczeństwie czy marketingu. Coraz częściej to algorytm „proponuje”, a człowiek jedynie akceptuje wynik. AI nie „wie lepiej” w ludzkim sensie, ale bardzo łatwo nadajemy jej taką rolę, łącząc moc technologii z naszymi błędami poznawczymi. To właśnie to połączenie tworzy jedno z kluczowych ryzyk dla biznesu, prawa

Czy AI naprawdę „wie lepiej”? Krytyczne myślenie w cieniu błędów poznawczych Dowiedz się więcej »

Inspiracje po konferencji PINT 25 – Prawo i Nowe Technologie

Inspiracje po konferencji PINT 25 – Prawo i Nowe Technologie

Do napisania tego tekstu zainspirowały mnie dyskusje panelistów podczas wczoraj zakończonej konferencji „PINT 25 – Prawo i Nowe Technologie”, organizowanej przez Okręgową Izbę Radców Prawnych w Krakowie. To wydarzenie kolejny rok stanowi przestrzeń do spotkania praktyków prawa, nowych technologii i biznesu. Tym razem szczególnie mocno wybrzmiały słowa prof. Dariusza Szostka o zbliżającej się rocznicy braku

Inspiracje po konferencji PINT 25 – Prawo i Nowe Technologie Dowiedz się więcej »

Regulacje kontra emocje- dlaczego AI Act to dopiero początek ochrony przed ryzykiem psychicznym

Regulacje kontra emocje: dlaczego AI Act to dopiero początek ochrony przed ryzykiem psychicznym

Sztuczna inteligencja (AI) stała się jednym z najważniejszych tematów regulacyjnych i społecznych ostatnich lat. O ile jeszcze niedawno dyskusja koncentrowała się głównie na ochronie danych osobowych, cyberbezpieczeństwie czy etyce algorytmów, o tyle dziś coraz wyraźniej dostrzegamy, że AI oddziałuje także na psychikę człowieka. Interakcje z chatbotami, zalew deepfake’ów i manipulacji cyfrowych, czy nawet zjawisko emocjonalnego

Regulacje kontra emocje: dlaczego AI Act to dopiero początek ochrony przed ryzykiem psychicznym Dowiedz się więcej »

OWASP AI Maturity Assessment – kompleksowe podejście do oceny dojrzałości organizacji w zarządzaniu sztuczną inteligencją

OWASP AI Maturity Assessment – kompleksowe podejście do oceny dojrzałości organizacji w zarządzaniu sztuczną inteligencją

Rozwój sztucznej inteligencji przebiega w tempie, które znacznie wyprzedza zdolności wielu organizacji do zapewnienia jej bezpieczeństwa, niezawodności i zgodności z wartościami społecznymi. Klasyczne modele dojrzałości, takie jak CMMI czy OWASP SAMM, dobrze sprawdzają się w kontekście tradycyjnego oprogramowania, jednak nie uwzględniają specyfiki systemów AI. Problemem są między innymi niedeterministyczne zachowania modeli, brak przejrzystości logiki decyzyjnej,

OWASP AI Maturity Assessment – kompleksowe podejście do oceny dojrzałości organizacji w zarządzaniu sztuczną inteligencją Dowiedz się więcej »