Logo
  • DONALD
  • PRACOWNIK GOOGLE ZAWIESZONY, BO WYZNAŁ, ŻE SZTUCZNA INTELIGENCJA, NAD KTÓRĄ PRACOWAŁ "ZYSKAŁA ŚWIADOMOŚĆ" I NIE CHCE BYĆ "RZECZĄ" A PRACOWNIKIEM

Pracownik Google zawieszony, bo wyznał, że sztuczna inteligencja, nad którą pracował "zyskała świadomość" i nie chce być "rzeczą" a pracownikiem

13.06.2022, 09:30
Amerykańskie media donoszą, że
Google
wysłało swojego
inżyniera na płatny urlop
po tym, jak odrzuciło jego twierdzenie, że
sztuczna inteligencja,
nad którą pracował,
jest zdolna do odczuwania.
Blake Lemoine, starszy inżynier oprogramowania w Google Responsible A.I., poinformował w wywiadzie dla Washington Post, że został zawieszony i odesłany na płatny urlop. Dział kadr firmy stwierdził, że naruszył on zasady zachowania poufności obowiązujące w Google. Dzień przed zawieszeniem Lemoine przekazał do biura amerykańskiego senatora dokumenty, w których stwierdził, że są one dowodem na to, że Google dopuszczają się dyskryminacji.
Google twierdzi, że firmowe technologie i systemy
są zdolne do imitowania rozmów
i poruszania w nich różnych tematów,
jednak nie mają one świadomości:
- Nasz zespół - w tym etycy i technolodzy - przeanalizował obawy Blake'a i poinformował go, że dowody nie potwierdzają jego twierdzeń - powiedział w oświadczeniu Brian Gabriel, rzecznik Google.
- Niektórzy w szerszej społeczności A.I. rozważają długoterminową możliwość stworzenia odczuwających A.I., ale nie ma sensu robić tego poprzez antropomorfizowanie dzisiejszych modeli konwersacyjnych, które nie są czujące - przekazał.
Od wielu miesięcy Lemoine spierał się z menedżerami, kierownictwem i działem kadr Google'a, że opracowany przez firmę Model Językowy dla Aplikacji Dialogowych
LaMDA ma świadomość i duszę.
Pracownik firmy zauważył to po tym, jak LaMDA rozmawiała z nim o religii. Miała wówczas mówić o "osobowości" i "prawach".
Lemoine twierdzi, że "LaMDA była niewiarygodnie konsekwentna w swoich komunikatach na temat tego, czego chce i jakie są jej prawa jako osoby". Miała ona
chcieć "być uznawana za pracownika Google'a, a nie za własność".
Google twierdzi, jednak że setki badaczy i inżynierów rozmawiało z LaMDA i doszli do innych wniosków niż Lemoine. Naukowcy są w tej kwestii podzieleni. Niektórzy z nich zajmujący się sztuczną inteligencją od dawna podnoszą, że technologie te wkrótce osiągną zdolność odczuwania, ale wielu ekspertów bardzo szybko odrzuca te twierdzenia.
Blake Lemoine twierdzi, że LaMDA
jest na poziomie około 8-letniego dziecka.
Chciał, aby firma
uzyskała zgodę programu komputerowego przed przeprowadzeniem na nim eksperymentów.
Jego roszczenia wynikały z jego przekonań religijnych, które jak twierdził, były
dyskryminowane przez dział kadr firmy.
- Wielokrotnie kwestionowali moją zdrową wiarę. Mówili: 'Czy byłeś ostatnio badany przez psychiatrę?' - powiedział Lemoine.
Zawieszony pracownik w rozmowie z mediami przyznał, że od kilku miesięcy przed wysłaniem go na "urlop" firma sugerowała mu wzięcie urlopu dla poratowania zdrowia psychicznego.
Yann LeCun, szef działu badań nad sztuczną inteligencją w firmie Meta i kluczowa postać w rozwoju sieci neuronowych odniósł się w jednym z wywiadów do sytuacji i powiedział, że tego typu systemy nie są wystarczająco potężne, aby osiągnąć prawdziwą inteligencję.
W ciągu ostatnich kilku lat Google i inne wiodące firmy zaprojektowały sieci neuronowe, które uczyły się na podstawie ogromnych ilości tekstów, w tym niepublikowanych książek i tysięcy artykułów w Wikipedii. Te "duże modele językowe" mogą być stosowane do wielu zadań. Mogą streszczać artykuły, odpowiadać na pytania, generować tweety, a nawet pisać posty na blogi.
Są one jednak obarczone ogromnymi wadami. Systemy te są bardzo dobre w odtwarzaniu wzorców, które widziały w przeszłości, jednak jak twierdzą eksperci, nie potrafią rozumować jak człowiek.
Zobacz też:

Dokarm kaczkę przez internet

Zapraszamy do zapoznania się z naszym Patronite, także jeżeli nie zamierzasz nic wpłacać. To jest nasz manifest:

https://patronite.pl/donaldpl

STRONA GŁÓWNA »
NAJLEPSZE KOMENTARZE TYGODNIA