Generate viral LinkedIn posts in your style for free.

Generate LinkedIn posts
Natalia Hatalska

Natalia Hatalska

These are the best posts from Natalia Hatalska.

2 viral posts with 347 likes, 61 comments, and 6 shares.
1 image posts, 0 carousel posts, 0 video posts, 1 text posts.

👉 Go deeper on Natalia Hatalska's LinkedIn with the ContentIn Chrome extension 👈

Best Posts by Natalia Hatalska on LinkedIn

W zeszłym tygodniu głośnym echem odbił się wywiad z Mustafą Suleymanem, CEO Microsoft AI, w którym mówił, jak AI wpłynie na pracowników umysłowych. Po tym wywiadzie przetoczyły się przez media takie nagłówki, jak chociażby ten w Fortune: "Microsoft AI chief gives it 18 months - for all white-collar work to be automated by AI".

W 100% zgadzam się z podejściem Suleymana, jeżeli chodzi o powtarzalne, automatyczne zadania wykonywane przez pracowników umysłowych. Ale jeśli chodzi o ich ogólną pracę, jestem w takich prognozach bardziej ostrożna. Dlaczego?

Jednym z najważniejszych ograniczeń, z jakim mierzą się dziś firmy odpowiedzialne za rozwój LLM-ów, jest zjawisko określane jako data wall. Chodzi o to, że najważniejsze, najlepsze dane, na których trenowane były modele, zostały już w ogromnej mierze wykorzystane. Jest to istotna bariera, bo (przynajmniej do tej pory) postęp AI opierał się na zasadzie „im więcej danych, tym lepsze wyniki”.

Oczywiście firmy odpowiedzialne za rozwój AI starają się te ograniczenia obejść. Jednym ze sposobów było wprowadzenie modeli rozumujących, czyli tych, które wyposażone są w chain of thought (CoT, chodzi o funkcję, w której możemy zobaczyć „proces myślowy” modelu, zanim udzieli on odpowiedzi; opcja dostępna np. w Claude Opus 4.5). Modele rozumujące nie pozyskują co prawda nowej wiedzy, ale są w stanie lepiej przetwarzać tę, którą już mają i dzięki temu ich odpowiedzi są lepsze.

Mówi się również o tym, żeby kwestię ograniczenia danych rozwiązać, sięgając do niewykorzystanych jeszcze zbiorów, np. trenować modele na zdigitalizowanych zasobach bibliotecznych, wewnętrznych danych firmowych, danych z komunikatorów (czyli na prywatnych wiadomościach z Messengera, WhatsAppa) czy danych medycznych pacjentów. Abstrahując od kontrowersyjności takich pomysłów, prezes Epoch AI wspominał w jednym z wywiadów, że zbiory te są na tyle małe, że nie zwiększą znacząco dotychczasowych zdolności LLM-ów. Mówi się więc też o wykorzystywaniu danych multimodalnych (audio, wideo, obraz) czy danych syntetycznych (co już się robi i o czym pisałam w zeszłym roku, ale grozi to załamaniem modeli).

Natomiast istnieje wciąż bariera, której na razie nie udało się ominąć. I nie wiem, czy w najbliższym czasie będzie to w ogóle możliwe.

Otóż bardzo często zapominamy (TBH: w zasadzie nie widziałam, żeby ktokolwiek o tym głośno mówił), że modele językowe uczą się na ZAPISANEJ ludzkiej wiedzy. I to właśnie dostęp do tej zapisanej wiedzy się kończy. Tymczasem, paradoksalnie, tej zapisanej wiedzy wcale nie jest dużo. Szacuje się (vide Polanyi), że stanowi ona zaledwie 10-20% całkowitej wiedzy człowieka. Ogromna część wiedzy, także w organizacjach, to wiedza ukryta, niezapisana; taka, która istnieje tylko w głowach ludzi.

Dopóki więc AI nie dostanie się do tej ukrytej wiedzy, pełne automatyzowanie pracy umysłowej w organizacjach może być ryzykowne. Bo czy można podjąć dobrą, strategiczną decyzję, bazując tylko na 10% dostępnej informacji? Nie sądzę.
Miałam wczoraj przyjemność wystąpić podczas People Culture TechFest w Rzeszowie. Nie był to jednak mój dzień. Miałam w swoim życiu dwa słabe wystąpienia, to było trzecie. To jest właśnie ten tzw. czynnik ludzki - nie zawsze uda się nam wypaść w maksimum swoich możliwości, nawet jeśli bardzo chcemy.

Tymczasem sztuczna inteligencja jest sztuczna, więc czynnik ludzki jej nie dotyka. Duże modele językowe sprawiają wrażenie, jakby się nigdy nie myliły; odpowiadają zawsze ze stuprocentową pewnością. Tyle że to nie jest prawda. AI wciąż popełnia bardzo dużo błędów i ze względu na to, jak systemy AI są zbudowane, na razie nie potrafimy tych błędów wyeliminować.

Problem polega na tym, że wiele osób nie zdaje sobie z tego sprawy. Jednocześnie rośnie nasz automation bias. Jest to zjawisko od dawna znane w technologii, ale w przypadku AI szczególnie widoczne. Chodzi o to, że im system jest bardziej zaawansowany, tym mamy większe, często nawet stuprocentowe zaufanie do tego, co generuje. W efekcie człowiek rezygnuje z własnej oceny sytuacji, również wtedy, gdy jego wiedza lub intuicja podpowiadają mu inaczej. Następnie na podstawie wygenerowanej informacji podejmuje decyzję. Do tego dochodzi też gigantyczna presja czasu - nie mamy kiedy zweryfikować tego, co wypluwa AI.

Jakie są konsekwencje takiej sytuacji? Po pierwsze, fala złych decyzji w organizacjach. Wiele z nich zresztą już się pewnie dzieje, ale nie wiemy o nich, bo dzieją się za zamkniętymi drzwiami. Inne wypływają, jak chociażby ostatni przykład Amazona, który musiał zmierzyć się z serią awarii spowodowanych kodem błędnie wygenerowanym przez AI. Po tych zdarzeniach Amazon zresztą wprowadził zasadę, że informatycy na stanowiskach juniorskich i średniego szczebla przed wdrożeniem jakichkolwiek zmian wspomaganych przez AI muszą uzyskać zgodę od seniorów.
Po drugie, pojawia się krytyczna luka kompetencyjna. Dziś bardziej niż kiedykolwiek potrzebujemy w organizacjach ludzi z rozwiniętą umiejętnością krytycznego myślenia. Takich, którzy potrafią kwestionować to, co generuje AI. Którzy wiedzą, jak zadawać pytania. Jak sprawdzać źródła. Ludzi, którzy sami potrafią wyciągać wnioski z danych. I którzy samodzielnie myślą.

Starałam się powiedzieć to, co powyżej, podczas wczorajszej rozmowy. Mam nadzieję, że mimo wszystko - wybrzmiało.

Dziękuję Jaroslaw Sroka za rozmowę. Dziękuję również całej ekipie People Culture TechFest, w tym zwłaszcza Urszula Kubaszek, Mariusz Bednarz Dawid Adamski. Wasza gościnność jest nieoceniona. Dziękuję.
Zdjęcie: Paulina Skrzypinska (dzięki!)
Post image by Natalia Hatalska

Related Influencers