Показать сообщение отдельно
Старый 24.05.2018, 10:02   #66
Черный модер
Moderator
 
Аватар для Черный модер
 
Регистрация: 23.03.2014
Сообщений: 45,796
Черный модер 11Черный модер 11Черный модер 11Черный модер 11Черный модер 11Черный модер 11Черный модер 11Черный модер 11Черный модер 11Черный модер 11Черный модер 11
По умолчанию

Вчені в США навчили штучний інтелект передбачати суперечки
в інтернеті.
Але люди все ще справляються з цим краще.
Дослідники з Корнуельського університету, підрозділу Google
Jigsaw і фонду Wikimedia створили алгоритм, який сканує
обговорення і визначає, як вони закінчаться - суперечкою або
доброзичливою бесідою. Систему тренували на «Обговорення»
до статей на «Вікіпедії», де редактори обговорюють правки в
матеріалах і необхідність поновлення джерел.
Алгоритм був заздалегідь запрограмований шукати певні знаки
в розмові, які впливають на тон бесіди. Наприклад, якщо
обговорення проходить добре, то там зустрічаються подяки
( «Спасибі за вашу допомогу»), вітання ( «Як проходить твій
день?») І слово «будь ласка».
За словами дослідників, все це створює не тільки дружню
атмосферу, а й певний емоційний «буфер» між учасниками. У
такому обговоренні будь-хто може визнати свою неправоту, не
втративши обличчя.
Знаками того, що обговорення правок перетвориться в
суперечку, вчені вважають те, що повторюються прямі питання
( «Чому про це не згадується? Чому ти не подивився на це?») І
пропозиції, які починаються з займенників другої особи - ти або
ви ( «Твої джерела не мають значення »). Особливо недружнім
знаком є ​​перехід на особистості з початку розмови.
На додаток до цих маркерів, вчені визначили загальну
«токсичність» обговорень за допомогою Google Perspective API -
інструменту з штучним інтелектом, який визначає, наскільки
доброзичливим, нейтральним або агресивним є текст.
В кінці «тренувального періоду» алгоритм міг пророкувати
результат діалогів з точністю 65%. Вчені вважають, що
результатом їх роботи стануть машини, які зможуть втручатися
в інтернет-дискусії і запобігати суперечкам.
«Люди можуть заздалегідь запідозрити, що розмова
закінчиться погано і це дослідження показує, що ми можемо
навчити того ж комп'ютери.»
Джастін Чжанг, один зі студентів, які працювали над проектом.
Однак, як зазначили у виданні The Verge, у алгоритму є серйозні
недоліки. Наприклад, точність - результат комп'ютера все ще
нижчий, ніж у людей, які змогли передбачити результат діалогу
з точністю 72%. Крім того, систему навчили на нетипових для
інтернету обговореннях, учасники яких мають спільну мету -
поліпшити матеріал.
Є й етичні моменти: алгоритм може вплинути на потенційно
конструктивні обговорення, якщо прийме рішення занадто рано.
Вчені поки не знають, де проходить необхідна межа, коли
машині слід втрутитися.
Крім того, за словами Чжанг, діалоги можуть бути абсолютно
непередбачуваними: програма бачила приклади дискусій, які за
всіма ознаками були «токсичними», але врешті-решт люди
виправлялися і переходили на спокійний тон.
Черный модер на форуме   Ответить с цитированием