Sztuczna inteligencja musi być prawidłowo szkolona przez ludzi
Obecnie GenAI jest na bardzo wczesnym etapie rozwoju. Przed nami jeszcze dużo pracy związanej z wypracowaniem odpowiedzialnych społecznie powszechnie respektowanych praktyk wykorzystania GenAI, oraz mechanizmów, które będą strażnikiem jej etycznego stosowania. Aby sprawdzić, czy sztuczna inteligencja działa prawidłowo, należy porównać jej odpowiedzi z obiektywną bazą wiedzy. Skuteczna będzie też kontrola specjalistów, którzy są w stanie stwierdzić czy system faktycznie jest na tyle wyszkolony, że można go upublicznić. Powstaje więc mnóstwo nowych zagadnień i zadań do realizacji, związanych z kontrolą rozwoju narzędzi AI. Dzięki temu nie tylko fachowcy IT, ale również wielu specjalistów z innych obszarów, np. humanistycznych, z powodzeniem znajdzie swoje miejsce w nowej ekonomii, wspieranej przez rozwiązania GenAI.
– W Accenture rozwijamy praktykę Responsible AI, której celem jest projektowanie, rozwijanie i wdrażanie rozwiązań opartych o sztuczną inteligencję w sposób odpowiedzialny społecznie. Powinniśmy ściśle kontrolować dane, na podstawie których szkolimy sztuczną inteligencję – podkreślił w wypowiedzi dla serwisu eNewsroom.pl Dawid Osiecki, Managing Director Data&AI, Accenture w Polsce. – Dokumenty, na których generatywna sztuczna inteligencja ma bazować, muszą być spójne. W przeciwnym razie nie będzie ona pomocna, ponieważ będzie generować niewłaściwe, nieprawdziwe wyniki. Ponadto bardzo ważne jest zaangażowanie prompt engineerów, którzy podpowiadają GenAI, ponieważ jej pierwsze odpowiedzi i wnioski, często nie są satysfakcjonujące. Właściwe odpowiedzi są często wynikiem dni lub nawet tygodni pracy prompterów, którzy potrafią zadawać odpowiednie pytania i pomagać GenAI budować prawidłowe związki przyczynowo skutkowe. Ten nowy zawód wymaga nowych kompetencji, na które zapotrzebowanie będzie rosło – wyjaśnia Osiecki.