
Fot. East News / Pixabay @jarmoluk / International Committee of the Red Cross
Międzynarodowy Komitet Czerwonego Krzyża,
organizacja, która zarządza jednymi z najczęściej wykorzystywanych archiwów naukowych na świecie, poinformowała, że coraz więcej dokumentów archiwalnych jest generowanych przez
sztuczną inteligencję
. Komitet ostrzega, że modele sztucznej inteligencji
są już w stanie tworzyć prace badawcze, czasopisma i archiwa
.
Organizacja opublikowała oświadczenie w tej sprawie. W dokumencie przekazano, że modele sztucznej inteligencji, takie jak ChatGPT, Gemini czy Copilot wprowadzają studentów, badaczy i archiwistów w błąd, generując
"nieprawidłowe lub sfabrykowane odniesienia archiwalne"
. Problematyczna okazuje się nie tylko kwestia fałszywych źródeł, ale również marnowanie czasu badaczy i bibliotekarzy, którzy poszukują nieistniejących tytułów. Zdaniem komitetu, modele AI mają generować nowe treści w oparciu o wzorce statystyczne i mogą w ten sposób tworzyć
wymyślone numery katalogowe
, opisy dokumentów, a nawet
odniesienia do platform, które nigdy nie istniały
. Członkowie organizacji zwracają uwagę na niebezpieczeństwo płynące z korzystania z wymyślonych źródeł.
"Szczególne ryzyko polega na tym, że narzędzia sztucznej inteligencji generatywnej
zawsze dostarczają odpowiedzi, nawet gdy źródła historyczne są niekompletne lub milczą
. Ponieważ ich celem jest generowanie treści, nie mogą one wskazywać, że nie ma żadnych informacji; zamiast tego będą wymyślać szczegóły, które wydają się prawdopodobne, ale nie mają oparcia w zapisach archiwalnych" - zaznaczają.
Międzynarodowy Komitet Czerwonego Krzyża apeluje, że brak odniesień do niektórych cytowań, nie oznacza, że Komitet ukrywa informacje przed czytelnikami.
"
Brak odniesień nie oznacza, że MKCK zataja informacje
. Można to wytłumaczyć różnymi sytuacjami, takimi jak niekompletne cytowania, dokumenty przechowywane w innych instytucjach lub - coraz częściej -
halucynacje generowane przez sztuczną inteligencję
. W takich przypadkach konieczne może być sprawdzenie historii administracyjnej odniesienia, aby ustalić, czy odpowiada ono autentycznemu źródłu archiwalnemu" - napisano w oświadczeniu.
W sprawie fałszywych treści generowanych przez AI głos zabrał również magazyn Scientific American, który opublikował artykuł, zamieszczając w nim rozmowę z Sarah Falls, szefową działu zaangażowania badaczy w Bibliotece Wirginii. Kobieta zdradziła dziennikarzom, że około 15 proc. wszystkich pytań referencyjnych, które otrzymują e-mailem, jest
generowanych przez chatboty
oparte na sztucznej inteligencji, takie jak ChatGPT. Dodatkowo niektóre wiadomości zawierają zmyślone przez AI cytaty zarówno opublikowanych prac, jak i unikalnych dokumentów źródłowych. Kobieta przekazała również, że ludzie mają nie wierzyć bibliotekarzom, gdy ci tłumaczą, że dany zapis nie istnieje.