AI най-накрая може да помогне за справяне с речта на омразата

Съдържание:

AI най-накрая може да помогне за справяне с речта на омразата
AI най-накрая може да помогне за справяне с речта на омразата
Anonim

Ключови изводи

  • Нов софтуерен инструмент позволява на AI да следи интернет коментарите за реч на омразата.
  • ИИ е необходим за модериране на интернет съдържание поради огромния обем материал, който надхвърля човешките възможности.
  • Но някои експерти казват, че AI наблюдението на речта поражда опасения за поверителността.
Image
Image

Тъй като речта на омразата онлайн се увеличава, една компания казва, че може да има решение, което не разчита на човешки модератори.

Стартъп, наречен Spectrum Labs, предоставя технология за изкуствен интелект на доставчиците на платформи за откриване и спиране на токсични обмени в реално време. Но експертите казват, че AI мониторингът повдига и проблеми с поверителността.

"Мониторингът с изкуствен интелект често изисква разглеждане на модели във времето, което налага запазване на данните", каза Дейвид Мууди, старши сътрудник в Schellman, компания за оценка на сигурността и съответствието на поверителността, каза пред Lifewire в интервю по имейл. „Тези данни може да включват данни, които законите са маркирали като данни за поверителност (лична информация или PII).“

Още реч на омразата

Spectrum Labs обещава високотехнологично решение на вековния проблем с речта на омразата.

"Средно ние помагаме на платформите да намалят усилията за модериране на съдържание с 50% и да увеличат откриването на токсични поведения с 10 пъти", твърди компанията на своя уебсайт.

Spectrum казва, че е работил с изследователски институти с опит в конкретни вредни поведения, за да изгради над 40 модела за идентифициране на поведение. Платформата за модериране на съдържание Guardian на компанията е изградена от екип от специалисти по данни и модератори, за да „подкрепи защитата на общностите от токсичност."

Има нарастваща нужда от начини за борба с речта на омразата, тъй като е невъзможно човек да следи всяко парче онлайн трафик, Дилън Фокс, главен изпълнителен директор на AssemblyAI, стартираща компания, която предоставя разпознаване на реч и има клиенти, участващи в наблюдението на омразата реч, каза пред Lifewire в интервю по имейл.

„Има около 500 милиона туита на ден само в Twitter“, добави той. „Дори ако един човек може да проверява туит на всеки 10 секунди, Twitter ще трябва да наеме 60 хиляди души, за да направи това. Вместо това ние използваме интелигентни инструменти като AI, за да автоматизираме процеса.“

За разлика от човека, AI може да работи 24 часа в денонощието, 7 дни в седмицата и потенциално да бъде по-справедлив, защото е проектиран да прилага еднакво правилата си към всички потребители, без никакви лични убеждения да се намесват, каза Фокс. Има и цена за тези хора, които трябва да наблюдават и модерират съдържание.

"Те могат да бъдат изложени на насилие, омраза и мръсни действия, които могат да навредят на психичното здраве на човека", каза той.

Spectrum не е единствената компания, която се стреми автоматично да разпознава речта на омразата онлайн. Например Center Malaysia наскоро пусна онлайн инструмент за проследяване, предназначен да открива реч на омразата сред малайзийските нетизени. Софтуерът, който те разработиха, наречен Tracker Benci, използва машинно обучение за откриване на реч на омразата онлайн, особено в Twitter.

Предизвикателството е как да се създадат пространства, в които хората наистина могат да се ангажират конструктивно един с друг.

Загриженост за поверителността

Въпреки че технологични решения като Spectrum могат да се борят с езика на омразата онлайн, те също повдигат въпроси за това колко трябва да контролират компютрите.

Има последици за свободата на словото, но не само за ораторите, чиито публикации ще бъдат премахнати като реч на омразата, каза Ирина Райку, директор по интернет етика в Центъра за приложна етика Markkula в университета Санта Клара, в имейл на Lifewire интервю.

„Позволяването на тормоз в името на „свободата на словото“накара мишените на такова изказване (особено когато е насочено към определени лица) да спрат да говорят – да изоставят напълно различни разговори и платформи“, каза Райку.„Предизвикателството е как да създадем пространства, в които хората наистина могат да се ангажират помежду си конструктивно.“

Мониторингът на говора с изкуствен интелект не трябва да повдига проблеми с поверителността, ако компаниите използват публично достъпна информация по време на мониторинга, каза Фокс. Въпреки това, ако компанията закупи подробности за това как потребителите взаимодействат на други платформи, за да идентифицира предварително проблемните потребители, това може да породи опасения за поверителността.

"Определено може да е малко сива зона, в зависимост от приложението", добави той.

Image
Image

Джъстин Дейвис, главен изпълнителен директор на Spectrum Labs, каза на Lifewire в имейл, че технологията на компанията може да преглежда 2 до 5 хиляди реда данни за части от секундата. „Най-важното е, че технологията може да намали количеството токсично съдържание, на което са изложени човешките модератори“, каза той.

Може да сме на прага на революция в AI, наблюдаващ човешката реч и текст онлайн. Бъдещият напредък включва по-добри независими и автономни възможности за наблюдение за идентифициране на неизвестни досега форми на реч на омразата или други цензурирани модели, които ще се развиват, каза Муди.

ИИ също така скоро ще може да разпознава модели в конкретните модели на реч и да свързва източниците и другите им дейности чрез анализ на новини, публични файлове, анализ на модели на трафик, физическо наблюдение и много други опции, добави той.

Но някои експерти казват, че хората винаги ще трябва да работят с компютри, за да наблюдават речта на омразата.

"ИИ сам по себе си няма да работи", каза Райку. „Трябва да се разпознае като един несъвършен инструмент, който трябва да се използва заедно с други отговори.“

Корекция 25.01.2022 г.: Добавен цитат от Джъстин Дейвис в 5-ия абзац от края, за да отрази имейл след публикуване.

Препоръчано: