Најлошите AI сценарија: Што ќе ни се терминатори, кога имаме „clickbait“ и „deepfake“

69

Со зголемувањето на обемот на надзор и следење на податоците, влегуваме во опасна и неистражена територија со тешко разбирливи потенцијални импликации. Експертите за вештачка интелигенција претставија шест најлоши сценарија за IEEE Spectrum, кои се подеднакво застрашувачки и многу поверојатни од оние прикажани во холивудските SF филмови. Ако сакаме да ги спречиме, велат тие, треба сериозно да се справиме со несаканите последици од воведувањето на вештачката интелигенција во нашите животи.

„Системите за вештачка интелигенција веќе се способни да генерираат дезинформации во голем обем“, предупредува Ендрју Лон, виш соработник во Центарот за безбедност и нови технологии на Универзитетот Џорџтаун (CSET). „Со производство на поголемо количество и разновидност на лажни пораки, овие системи можат да ја прикријат нивната вистинска природа“.

Навистина, акумулацијата на длабоко лажни содржини – лажни слики, видеа, аудио и текст генерирани од напредни алатки за машинско учење – може да ги наведе носителите на одлуки за националната безбедност да преземат активности во реалниот свет врз основа на лажни информации. И обратно; светот во кој постои „deepfake“ содржина може да ги принуди лидерите да дејствуваат со задоцнување. Во двата случаи, тоа може да предизвика големи кризи или војна.

Кога станува збор за вештачката интелигенција и националната безбедност, брзината е целта, но и проблемот. Земјите кои први ќе развијат воени апликации ќе имаат стратешка предност, но по која цена?

Винсент Буланин, виш истражувач во Стокхолмскиот меѓународен институт за мировни истражувања (SIPRI), предупредува дека може да се случат големи катастрофи ако големите сили тргнат по пократок пат. Опасно е да се даде приоритет на брзината пред безбедноста, тестирањето или човечкиот надзор.

Луѓето не смеат да бидат во искушение да ги препуштат командните одлуки и контролата на машините поради брзината на донесување одлуки и да ја отстранат човечката контрола врз моделите за машинско учење што не ги разбираме целосно. Во такво сценарио, автоматизираното лансирање на системи за противракетна одбрана, лансирани без човечка дозвола, може да доведе до нуклеарна војна.

Со секое дигитално дејство, произведуваме нови податоци – е-пошта, текстуални пораки, преземања, купувања, објави, селфи и GPS локации. Дозволувајќи им на компаниите и владите неограничен пристап до овие податоци, ние им обезбедуваме и алатки за следење.

Со додавање на препознавање лица, биометрика, геномски податоци и предвидувачка анализа со вештачка интелигенција, Лон од CSET стравува дека „влегуваме на опасна и неистражена територија со зголемен надзор и следење преку податоци, не разбирајќи ги потенцијалните импликации“.

Моќта на податоците собрани и анализирани еднаш е навистина огромна. Денес, системите за вештачка интелигенција предвидуваат што ќе купиме, како ќе се забавуваме и на кои линкови ќе кликнеме. И кога тие платформи ќе нè запознаат подобро отколку што се познаваме себеси, нема ни да забележиме дека сме лишени од нашата слободна волја и дека сме подложни на контрола однадвор, вели Мајкл К. Хоровиц, директор на „Perry World House“ на Универзитетот во Пенсилванија.

Корисниците на социјалните мрежи станаа стаорци во лабораториски експерименти; Живееме во човечки „Skinner“ кутии, залепени на екраните на нашите паметни телефони, принудени да жртвуваме повеќе драгоцено време и внимание на платформи кои профитираат на наша сметка“.

„Алгоритмите се оптимизирани за да ги задржат корисниците на платформата што е можно подолго“, вели Хелен Тонер од CSET. Со нудење награди во форма на лајкови, коментари и следење, алгоритмите создаваат краток спој во начинот на кој работи нашиот мозок.

За да ги зголемат приходите од рекламирање, компаниите нè одвлекуваат од нашите работни места, семејството и пријателите, обврските, па дури и нашите хоби. Работите да бидат уште полоши, содржината често не прави да се чувствуваме мизерно и полошо од порано. Тонер предупредува дека „колку повеќе време поминуваме на овие платформи, толку помалку време трошиме во потрага по позитивни, продуктивни и исполнети животи“.

Секој ден се повеќе и повеќе од нашиот секојдневен живот им препуштаме на машините со вештачка интелигенција. И тие се исто толку пристрасни како и луѓето кои ги дизајнираат. Затоа, предупредува Лидија Костопулос, потпретседател на KnowBe4, многу системи за вештачка интелигенција не ги земаат предвид различните искуства и карактеристики на различни луѓе. И бидејќи вештачката интелигенција решава проблеми врз основа на пристрасни перспективи и податоци, таквите системи произведуваат ниво на усогласеност што не постои во човечкото општество.

Вештачката интелигенција се претвора во „кафкијански вратар“ кој негира пристап до услуги за клиенти, работни места, здравствена заштита и многу повеќе на луѓето кои не се вклопуваат во просеците. Препуштањето на одлуките на вештачката интелигенција, и покрај добрите намери, на крајот дополнително ги ограничува луѓето, наместо да ги ослободи од секојдневните грижи. Ова, пак, може да доведе до најлоши расистички и сексистички практики и длабоко погрешни и пристрасни исходи на казните.

Вештачката интелигенција се напојува со збирки податоци, напредни статистички модели и алгоритми за предвидување, така што процесот на создавање машинска интелигенција на крајот е фокусиран на математиката.

Линеарната алгебра може да направи лудо моќни работи ако не сме внимателни. Но, што ако луѓето толку се плашат од вештачката интелигенција што владите ја регулираат на начини што го лишуваат човештвото од многу од неговите придобивки?

Прашањето е што е полошо – развој без регулација или забрани со кои ситуацијата ќе се контролира „колку-толку“. Стравот од огромната моќ на оваа огромна технологија може да не спречи да ја користиме за вистинското добро што може да го направи во светот, се согласуваат експертите.