Редактори Вікіпедії запровадили нові правила та обмеження для авторів, які отримують оплату за переклад статей за допомогою штучного інтелекту. Це рішення стало відповіддю на масове виявлення помилок та так званих «галюцинацій» ШІ у перекладених матеріалах, які почали ставити під загрозу надійність енциклопедії, пише 404 Media.
Ситуація виникла після того, як організація «Open Knowledge Association» (OKA), що наймає фрілансерів для розширення Вікіпедії, зобов'язала їх використовувати великі мовні моделі для автоматизації перекладу. Після перевірки редактори виявили, що ці інструменти додають посилання на джерела, які не містять згаданої інформації, а також вставляють абзаци, які взагалі не стосуються теми статті.
Крім того, у деяких випадках через механічне копіювання текстів порушується структура та верстка сторінок. Розслідування редакторів показало, що OKA покладається на низькооплачувану працю підрядників, які часто не перевіряють результат роботи ШІ. Вимоги видавати від 5 до 20 статей на тиждень призводили до того, що якість відходила на другий план.
Редактори Вікіпедії вирішили не забороняти використання ШІ повністю, проте встановили жорсткий механізм - якщо підрядник OKA отримує чотири обґрунтовані попередження за ненадійний контент протягом пів року, його профіль блокується без додаткових попереджень. Статті, створені заблокованими авторами, підлягають імовірному видаленню, якщо ніхто з досвідчених редакторів не візьме на себе відповідальність за їх виправлення.
Засновник OKA Джонатан Циммерман визнав наявність помилок і заявив про впровадження «другого рівня перевірки», де інша ШІ-модель має шукати невідповідності в тексті. Однак експерти наголошують, що метод «перевірки ШІ за допомогою іншого ШІ» є ненадійним, оскільки він не замінює критичне мислення людини.