
Fot. East News / Disney, Motion Picture Association of America
Telewizja Fox donosi o policyjnym raporcie wygenerowanym przez sztuczną inteligencję, w którym było napisane, że
pewien funkcjonariusz z Utah w zeszłym miesiącu zamienił się w żabę
. Zdaniem stacji niefortunne określenie zostało zamieszczone w dokumencie za sprawą
testów oprogramowania Draft One
, które automatycznie generuje raporty policyjne na podstawie nagrań z kamer nasobnych.
Celem wdrożenia tego systemu było
ograniczenie formalności
związanych z przygotowywaniem raportów przez policjantów. Doszło jednak do sytuacji, w której
oprogramowanie błędnie zinterpretowało dźwięk tła
. W efekcie w raporcie znalazła się informacja o tym, że jeden z funkcjonariuszy zamienił się w żabę.
Postępowanie wyjaśniające w tej sprawie wszczął Departament Policji w Heber City. Okazało się, że
w tle odtwarzany był film Disneya
. Chodzi dokładnie o pozycję
Księżniczka i żaba
. Sytuacja pokazała funkcjonariuszom, jak ważne jest weryfikowanie treści raportów generowanych przez AI.
Policjanci zostali natomiast zmuszeni do poprawienia błędnie wygenerowanego dokumentu. Mimo to szacuje się, że dzięki wykorzystaniu technologii zaoszczędzili oni od sześciu do ośmiu godzin pracy tygodniowo.
Po feralnej sytuacji Departament Policji w Heber City rozpoczął testowanie innego systemu opartego na sztucznej inteligencji,
Code Four
. Jest to rozwiązanie, które również generuje raporty policyjne na podstawie nagrań z kamer nasobnych, jednak oczekuje się, że będzie ono bardziej ostrożne w swoich interpretacjach.
Okres testowania Code Four zakończy się w przyszłym miesiącu.
Wówczas okaże się, który system był dokładniejszy i który ostatecznie zostanie wdrożony do rutynowej pracy przez policjantów. Do tej pory funkcjonariusze korzystali z innych narzędzi opartych na sztucznej inteligencji. Mogą one natychmiast powiadamiać detektywów o zgłoszeniu przestępstwa. Dodatkowo niektórzy używają kamer wspomaganych przez AI.
Krytycy tych rozwiązań ostrzegają i apelują o ostrożność
. Podkreślają, że nadmierne zaufanie wobec nowych technologii może utrudnić proces identyfikacji podejrzanych lub wyjaśniania przestępstw. Inni argumentują, że raporty generowane przez sztuczną inteligencję mogą być zakłamane lub mało dokładne.