Wednesday, May 15, 2024


  • Whisper, un model A.I. pentru transcrierea înregistrărilor audio, a produs propoziții fabricate în aproximativ 1,4% din transcrierile testate.
  • Modelele de Inteligență Artificială pot suferi de „halucinații” auditive, adăugând texte inventate sau ofensatoare în transcrierile audio.
  • Utilizatorii sunt sfătuiți să verifice manual rezultatele oricărui instrument de transcriere A.I.

Inteligența Artificială aude lucruri care nu există în realitate. Un nou studiu dezvăluie că modelele A.I. pot crea „halucinații” auditive în transcrierile lor, ceea ce ridică întrebări serioase despre fiabilitatea acestor tehnologii în diferite domenii.

Studiul recent arată că modelele de Inteligență Artificială pot suferi de „halucinații” auditive, adăugând texte inventate sau ofensatoare în transcrierile audio. De exemplu, Whisper, un model A.I. dezvoltat de OpenAI pentru transcrierea înregistrărilor audio, a produs propoziții fabricate în…

Citeşte mai mult

0 Comments

Leave a Comment