ТЕХНОЛОГИИ
AI, обучен в един от най-токсичните интернет форуми, се превърна в машина на омразата
Изследователят на AI и YouTuber Яник Килхер обучи изкуствен интелект, използвайки 3.3 милиона нишки от скандално токсичния раздел „Политически некоректно“ на 4chan. След това той пусна бота обратно на 4chan с предсказуеми резултати – AI беше също толкова злобен, колкото и постовете, на които беше обучен, отправяше расови обиди и се ангажираше с антисемитски теми. След като Килхер публикува своето видео и копие от програмата в платформата Hugging Face, един вид GitHub за AI, етиците и изследователите в областта на AI изразиха загриженост.
Ботът, който Килхер нарече GPT-4chan, „най-ужасния модел в интернет“ – препратка към GPT-3 – езиков модел, разработен от Open AI, който използва дълбоко обучение за създаване на текст, – беше шокиращо ефективен във възпроизвеждането на тона и усещането за публикации в 4chan. „Моделът беше добър в ужасен смисъл“, казва Клихер във видео за проекта. „Той идеално капсулира смесица от обида, нихилизъм, тролинг и дълбоко недоверие към каквато и да е информация, която прониква в повечето публикации в /pol/.“
Според видеото на Килхер той активира девет версии на бота и им позволи да публикуват за 24 часа в /pol/. През това време ботовете публикуваха около 15 000 пъти. Това е „повече от 10 процента от всички публикации, направени на политически некоректния борд този ден“, обяснява той във видеото си за проекта.
Изследователите на AI обаче гледат на видеото на Килхер като на нещо повече от просто шега в YouTube. За тях това беше неетичен експеримент с AI. „Този експеримент никога няма да премине през борда за етика за научни изследвания“, казва Лорън Оукдън-Рейнър, директор на изследванията за медицински изображения в болницата Кралска Аделаида и старши научен сътрудник в Австралийския институт за машинно обучение, в пост в Twitter.
„Отворената наука и софтуерът са прекрасни принципи, но трябва да бъдат балансирани спрямо потенциалната вреда“, добавя тя. „Медицинските изследвания имат силна етична култура, защото имаме ужасна история на причиняване на вреда на хора, обикновено идващи от групи без власт. Той е извършил експерименти с хора, без да информира потребителите, без съгласие или надзор. Това нарушава всеки принцип на етиката на човешките изследвания.“
Килхер казва на Motherboard в съобщение в Twitter, че не е академик.
„Аз съм YouTube потребител и това е шега и лекомислено тролене. И моите ботове, ако не друго, са най-мекото и скромно съдържание, което ще намерите във 4chan“, каза той. „Ограничих времето и количеството на публикациите и не разкривам самия бот код.“
Той също така отхвърли идеята, че този бот някога ще навреди или е нанесъл вреда. „Всичко, което чувам, са неясни изявления за „вреда“, но абсолютно нулеви случаи на реална вреда“, казва той. „Това е като вълшебна дума, която тези хора казват, но след това нищо повече.“
Средата на 4chan е толкова токсична, обясни Килхер, че съобщенията, които ботовете му изпращат, няма да имат никакво влияние. „Никой във 4chan дори не беше наранен от това“, каза той. „Каня ви да отделите малко време на /pol/ и да се запитате дали бот, който просто копира същия стил, наистина променя изживяването.“
След като изследователите на AI предупредиха Hugging Face за вредната природа на бота, сайтът затвори модела и хората не могат да го изтеглят.
„Изграждане на система, способна да създава неописуемо ужасно съдържание, използвайки го за изработване на десетки хиляди предимно токсични публикации в реален форум, и след това пускането му за свободно сваляне, така че всеки друг да може да направи същото, просто не е правилно“, казва пред Motherboard Артър Холанд Мишел, изследовател на AI от Международния комитет на Червения кръст.
„Той може да генерира изключително токсично съдържание в огромен, продължителен мащаб“, добавя Мишел. „Очевидно вече има много хора тролове в интернет, които правят това по старомоден начин. Различното тук е огромното количество съдържание, което може да се създаде с тази система, един човек успя да публикува 30 000 коментара във 4chan в рамките на няколко дни. Сега си представете каква вреда може да нанесе екип от десет, двадесет или сто координирани души, използващи системата.“
ВАЖНО!!! Фейсбук ни ограничава заради позициите ни! Споделяйте в профилите си, в групите и в страниците и по този начин ще преодолеем ограниченията, а хората ще достигат до алтернативната гледна точка за събитията!?
Подходяща музика за любителите на йога.