logo eNewsroom
profesor Aleksandra Przegalińska
Akademia Leona Koźmińskiego, Uniwersytet Harvarda
enewsroom.pl
Bezpośredni link do filmu
Kliknij, aby skopiować do schowka.

80% świata nie korzysta z AI

Choć nagłówki światowych mediów sugerują, że sztuczna inteligencja (AI) jest już wszechobecna, rzeczywistość maluje zgoła inny obraz. Żyjemy w cyfrowej bańce, która przysłania nam fakt, że dla około 80% populacji globu technologia ta pozostaje kompletną abstrakcją. Osoba wyplatająca koszyki w wiejskich regionach Afryki czy rolnik na odległych terenach Azji nie odczuwają skutków działania algorytmów w swojej codzienności. To trzeźwiąca perspektywa, która wybija nas z przekonania, że AI to jedyna i nieuchronna trajektoria rozwojowa dla każdego mieszkańca Ziemi. Nawet w obrębie tych 20% ludzkości, która ma kontakt z nowoczesnymi technologiami, zaledwie niewielki odsetek realnie płaci za narzędzia AI i wykorzystuje je w sposób zaawansowany. Po trzech latach gwałtownej akceleracji tej dziedziny, świat nie stał się jednolitym placem zabaw dla chatbotów. Zamiast tego, obserwujemy głęboką polaryzację postaw. Z jednej strony mamy entuzjastów, którzy z chłoną nowinki, optymalizując swój czas i automatyzując zadania. Z drugiej strony wyrasta potężna fala nieufności i oporu, podsycana przez narracje płynące prosto z Doliny Krzemowej.

– Liderzy technologiczni, tacy jak Sam Altman czy Dario Amodei, budują wizję przyszłości, w której praca „białych kołnierzyków” staje się zbędna. Zapowiedzi masowego zastępowania ludzi przez maszyny w sektorach analitycznych, prawnych czy administracyjnych budują zrozumiałą niechęć. Trudno oczekiwać entuzjazmu od pracowników, którym wprost mówi się, że ich kompetencje lada chwila stracą na wartości – powiedziała serwisowi eNewsroom profesor Aleksandra Przegalińska z Akademii Leona Koźmińskiego oraz Uniwersytetu Harvarda. – Taka retoryka, nastawiona na zysk wąskiej grupy twórców technologii, może stać się zarzewiem poważnej rewolty społecznej. Już teraz widać, że niechęć do AI rośnie, a zjawiska takie jak deepfake’i tylko pogłębiają kryzys zaufania. Wśród obecnych użytkowników AI krystalizują się dwie drogi. Pierwszą jest tzw. „workslop” – zalew nienadzorowanej i często bezwartościowej treści. To cyfrowy szlam, który zamiast pomagać, zatyka kanały komunikacji. Druga droga to świadoma, strukturyzowana współpraca z agentami AI, gdzie człowiek pozostaje nadzorcą i strategiem. To podejście obiecuje ciekawe rezultaty, ale wymaga wysokich kompetencji i krytycznego myślenia. Nie ma jednej drogi, którą podąży świat. Sektory takie jak IT, prawo czy analityka danych zmienią się bezpowrotnie, jednak istnieje realna szansa, że duża część społeczeństwa świadomie „nie wsiądzie do tego pociągu”. Kluczowym wyzwaniem pozostaje utrzymanie ludzkiego nadzoru nad procesami autonomicznymi. Samodzielna, nienadzorowana praca modeli AI niesie ze sobą ryzyka, których jako społeczeństwo możemy nie chcieć zaakceptować. Przyszłość nie musi być dyktatem algorytmów; może być mozaiką różnych postaw, w której człowiek wciąż pozostaje ostatecznym punktem odniesienia - sugeruje Aleksandra Przegalińska.

REKLAMA
Strona korzysta z plików cookie w celu realizacji usług zgodnie z Polityką Prywatności. Możesz określić warunki przechowywania lub dostępu do cookie w twojej przeglądarce.   Zamknij