W zeszłym tygodniu głośnym echem odbił się wywiad z Mustafą Suleymanem, CEO Microsoft AI, w którym mówił, jak AI wpłynie na pracowników umysłowych. Po tym wywiadzie przetoczyły się przez media takie nagłówki, jak chociażby ten w Fortune: "Microsoft AI chief gives it 18 months - for all white-collar work to be automated by AI".
W 100% zgadzam się z podejściem Suleymana, jeżeli chodzi o powtarzalne, automatyczne zadania wykonywane przez pracowników umysłowych. Ale jeśli chodzi o ich ogólną pracę, jestem w takich prognozach bardziej ostrożna. Dlaczego?
Jednym z najważniejszych ograniczeń, z jakim mierzą się dziś firmy odpowiedzialne za rozwój LLM-ów, jest zjawisko określane jako data wall. Chodzi o to, że najważniejsze, najlepsze dane, na których trenowane były modele, zostały już w ogromnej mierze wykorzystane. Jest to istotna bariera, bo (przynajmniej do tej pory) postęp AI opierał się na zasadzie „im więcej danych, tym lepsze wyniki”.
Oczywiście firmy odpowiedzialne za rozwój AI starają się te ograniczenia obejść. Jednym ze sposobów było wprowadzenie modeli rozumujących, czyli tych, które wyposażone są w chain of thought (CoT, chodzi o funkcję, w której możemy zobaczyć „proces myślowy” modelu, zanim udzieli on odpowiedzi; opcja dostępna np. w Claude Opus 4.5). Modele rozumujące nie pozyskują co prawda nowej wiedzy, ale są w stanie lepiej przetwarzać tę, którą już mają i dzięki temu ich odpowiedzi są lepsze.
Mówi się również o tym, żeby kwestię ograniczenia danych rozwiązać, sięgając do niewykorzystanych jeszcze zbiorów, np. trenować modele na zdigitalizowanych zasobach bibliotecznych, wewnętrznych danych firmowych, danych z komunikatorów (czyli na prywatnych wiadomościach z Messengera, WhatsAppa) czy danych medycznych pacjentów. Abstrahując od kontrowersyjności takich pomysłów, prezes Epoch AI wspominał w jednym z wywiadów, że zbiory te są na tyle małe, że nie zwiększą znacząco dotychczasowych zdolności LLM-ów. Mówi się więc też o wykorzystywaniu danych multimodalnych (audio, wideo, obraz) czy danych syntetycznych (co już się robi i o czym pisałam w zeszłym roku, ale grozi to załamaniem modeli).
Natomiast istnieje wciąż bariera, której na razie nie udało się ominąć. I nie wiem, czy w najbliższym czasie będzie to w ogóle możliwe.
Otóż bardzo często zapominamy (TBH: w zasadzie nie widziałam, żeby ktokolwiek o tym głośno mówił), że modele językowe uczą się na ZAPISANEJ ludzkiej wiedzy. I to właśnie dostęp do tej zapisanej wiedzy się kończy. Tymczasem, paradoksalnie, tej zapisanej wiedzy wcale nie jest dużo. Szacuje się (vide Polanyi), że stanowi ona zaledwie 10-20% całkowitej wiedzy człowieka. Ogromna część wiedzy, także w organizacjach, to wiedza ukryta, niezapisana; taka, która istnieje tylko w głowach ludzi.
Dopóki więc AI nie dostanie się do tej ukrytej wiedzy, pełne automatyzowanie pracy umysłowej w organizacjach może być ryzykowne. Bo czy można podjąć dobrą, strategiczną decyzję, bazując tylko na 10% dostępnej informacji? Nie sądzę.
W 100% zgadzam się z podejściem Suleymana, jeżeli chodzi o powtarzalne, automatyczne zadania wykonywane przez pracowników umysłowych. Ale jeśli chodzi o ich ogólną pracę, jestem w takich prognozach bardziej ostrożna. Dlaczego?
Jednym z najważniejszych ograniczeń, z jakim mierzą się dziś firmy odpowiedzialne za rozwój LLM-ów, jest zjawisko określane jako data wall. Chodzi o to, że najważniejsze, najlepsze dane, na których trenowane były modele, zostały już w ogromnej mierze wykorzystane. Jest to istotna bariera, bo (przynajmniej do tej pory) postęp AI opierał się na zasadzie „im więcej danych, tym lepsze wyniki”.
Oczywiście firmy odpowiedzialne za rozwój AI starają się te ograniczenia obejść. Jednym ze sposobów było wprowadzenie modeli rozumujących, czyli tych, które wyposażone są w chain of thought (CoT, chodzi o funkcję, w której możemy zobaczyć „proces myślowy” modelu, zanim udzieli on odpowiedzi; opcja dostępna np. w Claude Opus 4.5). Modele rozumujące nie pozyskują co prawda nowej wiedzy, ale są w stanie lepiej przetwarzać tę, którą już mają i dzięki temu ich odpowiedzi są lepsze.
Mówi się również o tym, żeby kwestię ograniczenia danych rozwiązać, sięgając do niewykorzystanych jeszcze zbiorów, np. trenować modele na zdigitalizowanych zasobach bibliotecznych, wewnętrznych danych firmowych, danych z komunikatorów (czyli na prywatnych wiadomościach z Messengera, WhatsAppa) czy danych medycznych pacjentów. Abstrahując od kontrowersyjności takich pomysłów, prezes Epoch AI wspominał w jednym z wywiadów, że zbiory te są na tyle małe, że nie zwiększą znacząco dotychczasowych zdolności LLM-ów. Mówi się więc też o wykorzystywaniu danych multimodalnych (audio, wideo, obraz) czy danych syntetycznych (co już się robi i o czym pisałam w zeszłym roku, ale grozi to załamaniem modeli).
Natomiast istnieje wciąż bariera, której na razie nie udało się ominąć. I nie wiem, czy w najbliższym czasie będzie to w ogóle możliwe.
Otóż bardzo często zapominamy (TBH: w zasadzie nie widziałam, żeby ktokolwiek o tym głośno mówił), że modele językowe uczą się na ZAPISANEJ ludzkiej wiedzy. I to właśnie dostęp do tej zapisanej wiedzy się kończy. Tymczasem, paradoksalnie, tej zapisanej wiedzy wcale nie jest dużo. Szacuje się (vide Polanyi), że stanowi ona zaledwie 10-20% całkowitej wiedzy człowieka. Ogromna część wiedzy, także w organizacjach, to wiedza ukryta, niezapisana; taka, która istnieje tylko w głowach ludzi.
Dopóki więc AI nie dostanie się do tej ukrytej wiedzy, pełne automatyzowanie pracy umysłowej w organizacjach może być ryzykowne. Bo czy można podjąć dobrą, strategiczną decyzję, bazując tylko na 10% dostępnej informacji? Nie sądzę.