Алгоритам открива токсични играчи во онлајн игрите

54

Онлајн играњето е можност за собирање, дружење и уживање во пријателска конкуренција. За жал, оваа пријатна активност може да биде попречена од навредливиот јазик и токсичноста, што негативно влијае на искуството со играњето и предизвикува психолошка штета.

Токсичноста е субјективна

Различни групи истражувачи развиваат модели на вештачка интелигенција кои можат да детектираат токсично однесување во реално време, додека луѓето си играат. Еден таков модел е опишан во студија објавена од IEEE Transactions on Games.

Моделот сосема прецизно ја детектира токсичноста, а неговиот развој покажува колку е предизвик да се одреди што воопшто значи „токсично“. Тоа, се испоставува, е прилично субјективна работа.

„Не е лесно да се разликува што е токсично за кого. Играчите прифаќаат таква комуникација како норма во нивните заедници или користат јазик што другите би можеле да го сметаат за токсичен без злоба во нивната група пријатели. На крајот на краиштата, овие норми се разликуваат помеѓу различните гејмерски заедници“, објаснува Џулијан Фромел од Универзитетот во Утрехт.

Нов модел

Фромел и неговите колеги претходно открија како токсичноста се нормализира во гејмерските заедници. Ова ги поттикна да развијат нов модел на вештачка интелигенција кој може да биде корисен за филтрирање на проблематичниот јазик и помагање на човечките модератори да одлучуваат за санкции за токсичните играчи.

За да го направат моделот, истражувачите на учесниците им покажаа видеа од играчи кои играат Overwatch. Тие беа изненадени од фактот што проценките за токсичноста на истиот клип многу се разликуваа од субјект до субјект.

Замки во моделирањето

„Она што едно лице го доживува како токсично, друго лице може да го доживее како целосно бенигно. Тоа е поврзано со нашите различни идентитети и потекла и претходните искуства со игрите“, објаснува Фромел. „Ние сме индивидуално различни во нашата чувствителност и тоа го отежнува поставувањето на модел за машинско учење кој ќе се потпира на договорената темелна вистина“.

Користејќи податоци од учесниците во студијата, истражувачите создадоа модел на вештачка интелигенција кој предвидува токсичност со 86,3 проценти точност. Тој е на исто ниво со слични модели на UI (кориснички интерфејс) развиени за истата цел; предноста на ова е што е прилично едноставна, што може да се автоматизира и неинвазивно да се примени во многу игри кои користат гласовен разговор.