- CES 2020: Segway представила кресло-капсулу S-Pod для комфортных поездок - 06.01.2020 14:14
- CES 2020: Seagate показала, как работать с данными - 06.01.2020 13:42
- CES 2020: очень «умная» бытовая техника и изогнутые игровые мониторы Odyssey - 05.01.2020 14:22
Специалисты Корнеллского университета разработали нейросеть, который обучается отличать обычную беседу или вежливый спор от «токсичных» разговоров, способных нанести психологическую травму или оскорбить
Нейросеть обучается на датасете Wikipedia — Talk pages. В нем содержится более тысячи бесед редакторов ресурса о достоверности статей. Многие из них начинались с вежливых и учтивых слов, а заканчивались язвительными высказываниями и грубостями в отношении оппонента. Но чаще всего «токсичными» оказывались разговоры, начинающиеся с фамильярного обращения или прямого вопроса.
Как говорится в исследовании Conversations Gone Awry: Detecting Early Signs of Conversational Failure, опубликованном на сайте вуза, по результатам теста искусственный интеллект всего на 7% хуже человека распознает неприятный разговор с первых слов.
Авторы уверены, что подобный алгоритм станет крайне удобным инструментом в социальных сетях, позволяя вовремя пресекать оскорбительные посты и комментарии. А пока работа по обучению нейросети продолжается, авторы предлагают всем желающим проверить свою способность угадать «токсичность» диалога.