Przejdź do głównych treściPrzejdź do głównego menu
sobota, 2 listopada 2024 10:35
Reklama
Reklama
Reklama

Sztuczna inteligencja oszalała. Masowo blokowała posty

Coś dziwnego dzieje się z Facebookiem. Uznaje niewinne informacje za mowę nienawiści i je blokuje. Grozi przy tym, że wyłączy konto lub „nałoży ograniczenia”.
Sztuczna inteligencja oszalała. Masowo blokowała posty

Autor: iStock

„Twój post narusza nasze standardy społeczności dotyczące mowy nienawiści” – takie informacje otrzymują na Facebooku internauci. I nie mogą zrozumieć, co się dzieje. Wiele osób może nawet pomyśleć, że ktoś przejął kontrolę nad ich kontem. Inni mogą sądzić, że oprogramowanie platformy zaczęło się poważnie mylić.

Zdjęcia papieża na cenzurowanym

Chodzi o to, że Facebook zaczął za mowę nienawiści uznawać zupełnie niewinne treści. 

„Zaczęło dochodzić do doprawdy absurdalnych sytuacji. Oberwało się np. zdjęciu papieża Jana Pawła II z czasów pielgrzymki do Kolumbii. Podpis ze zdjęcia był jego cytatem i szczerze mówiąc, ciężko było się tam dopatrzeć jakkolwiek nieodpowiednich elementów” – przytacza jeden z przykładów Interia. 

Użytkownicy alarmują, że ich posty są blokowane właśnie z tego powodu. 

Co się dzieje? Trudno na to odpowiedzieć wprost, bo właściciel platformy nie zabrał jeszcze głosu w tej sprawie. Są jednak podejrzenia, że zawiniły błędne algorytmy, które niepozorne treści zaczęły odczytywać jako coś złego. 

Inni zrzucają winę na sztuczną inteligencję, która steruje kontrolą treści na FB. A ta się myli. 

„Ta sztuczna inteligencja i algorytmy (...) Długo się zastanawialiśmy, cóż takiego niezgodne jest z normami (...) I doszliśmy do wniosku, że zbitka trzech słów postawiła algorytmy na baczność: bagażnik, kurier i dystrybucja. Na przyszłość staranniej dobierać będę słowa (...) Post wrzuciłam nowy, będąc oszczędna w słowach(...)” – napisała jedna z internautek.

SI kłamie

Czy SI może się pomylić? Oczywiście. Okazuje się, że błędy popełnia bardzo popularny ChatGPT. Nie tylko się myli, ale wręcz zmyśla. Kiedy ostatnio dziennikarz Krzysztof Stanowski poprosił ChatGPT o podanie ostatnich zdań z „Lalki” Bolesława Prusa, system nie tylko podał cytat, którego nie ma w powieści, ale którego nie ma w żadnej książce. 

Czemu ChatGPT kłamie? 

Bo SI nie przyznaje się, że czegoś nie wie. Nie takich odpowiedzi oczekują użytkownicy. Badanie przeprowadzone przez Got It AI wskazuje, że nawet 20 proc. udzielanych przez ChatGPT odpowiedzi może być błędnych. 


Podziel się
Oceń

Napisz komentarz
Komentarze
32ufvfcofm 14.05.2023 21:23
Komentarz usunięty

FACEBOOK
Reklama
NAPISZ DO NAS

Zapraszamy do kontaktu!

Reklama