Алгоритмите се насекаде. Дали треба да се грижиме?

105

Секој пат кога го користите вашиот паметен телефон, активирате алгоритми.

Тие се користат за сè, од активирање на препознавање на лице до одредување на видеата што ги гледате во TikTok или избирање на рутата што ви ја нуди Google Maps за да избегнете сообраќајни метежи на патот до канцеларијата.

Алгоритам е всушност низа правила и критериуми кои компјутерскиот систем ги исполнува за да дојде до решение. Тие се користат и во други процеси надвор од Интернет.

Во последниве години, од нив зависат се повеќе одлуки, вклучително и оние кои би можеле да ја променат судбината на луѓето – на пример, кој затвореник може да биде предвремено ослободен или на кој клиент на банка може да му се одобри хипотекарен заем.

Во последните неколку недели компјутерските алгоритми што ги користат големите корпорации повторно се најдоа во фокусот на регулаторите и законодавците, пишува CNN. Една од причините за тоа беа откритијата на поранешната вработена во Facebook, Френсис Хоген, која откри злобни практики и недостатоци во внатрешната контрола на компанијата.

Во САД моментално се расправа за закон кој ќе ги принуди компаниите да им дозволат на своите корисници да посетуваат „бесплатни“ верзии на интернет платформи каде содржината не е одредена со компјутерски алгоритми.

Начинот на кој работат алгоритмите и решенијата до кои тие доаѓаат понекогаш изгледаат мистериозни. Нивните заклучоци не се секогаш разбрани од потрошувачите, а понекогаш и очигледно се погрешни. Во исто време, сепак, тие се исклучително корисни бидејќи овозможуваат забрзување на процесите кои се исклучително сложени.

Меѓутоа, во нивното јадро, тие се едноставно низа чекори. Секој од нас следи одредени алгоритми, дури и надвор од машините и нашиот технолошки секојдневен живот. Подготовката на рецепт, на пример, е алгоритам. Истото важи и за нашите утрински навики и низата дејства што ги правиме, понекогаш несвесно, по будењето и станувањето од кревет.

Но, додека некој може да ги истражува и менува сопствените постапки, оние на машините стануваат сè позагадочни. Главната причина за тоа е подемот на вештачката интелигенција и таканареченото „машинско учење“. Тоа им овозможува на компјутерите да „учат“ со моделирање на нивниот програмски код на начин што наликува на работата на невроните во човечкиот мозок.

Таквиот систем, на пример, може да предизвика компјутерот да „гледа“ илјадници видеа од мачки за да разбере како изгледаат мачките. Google успеа успешно да ја имплементира оваа технологија во 2012 година.

Facebook, Instagram и Twitter користат слични алгоритми за персонализирање на содржината за нивните корисници. Големата предност на вештачката интелигенција лежи во фактот што таа може да обработи огромни количини на информации со кои човечкиот мозок никогаш не би можел да се справи.

Zillow користи платформа која ги вреднува домовите од 2006 година. Се заснова на „машинско учење“ и обработка на низа податоци, вклучувајќи даночни проценки, историја на имот, како и различни детали внесени од сопствениците – број на спални соби, фотографии, ентериер и друго.

Но, дури и во овој случај нема осигурување од грешки. Неодамна, Zillow беше принуден да отпише средства во вредност од 304 милиони долари, главната причина што компанијата ја наведува е купувањето на недвижен имот по цени кои беа нагло повисоки од пазарните.

Facebook, во меѓувреме, се најде на удар на регулаторите поради наводите дека намерно ги поставил алгоритмите на својата социјална платформа за да прикажува конфликтна содржина на корисниците.

Понекогаш алгоритамските грешки може да имаат посериозни последици. Системите за видео препознавање што ги користи полицијата во САД во неколку случаи доведоа до погрешни апсења, потсетува CNN.

Еден од главните проблеми е поврзан со фактот што компаниите генерално не даваат детални објаснувања за тоа како функционираат нивните алгоритми. И понекогаш дури и креаторите на овие алгоритми не се целосно свесни за начинот на кој вештачката интелигенција донесува одредени одлуки. Затоа многу експерти ги нарекуваат овие системи „црни кутии“.

Не постои федерален закон во САД кој одредува во кои случаи и сектори може да се користат компјутерските алгоритми. Некои градови и држави донесоа свои регулативи, особено во областа на препознавање на лица и употреба на биометриски податоци.

Закон познат како Filter Bubble Transparency Act во моментов се расправа во Конгресот. Доколку биде усвоен, компаниите како Google, Meta и TikTok ќе треба да им овозможат на корисниците да ги користат нивните платформи без содржината да биде манипулирана од алгоритми за прилагодување.

Facebook сега нуди слична опција која им овозможува на корисниците да ги гледаат најновите статуси и објави по хронолошки редослед, а не според оној предложен од алгоритмот. Сепак, на Instagram платформата, која исто така е дел од групата Meta, оваа можност беше укината во 2016 година.

Засега, Filter Bubble Transparency Act ги таргетира големите социјални платформи, но сигурно ќе влијае на другите апликации, како што се Spotify и Netflix, кои исто така многу се потпираат на алгоритми за да им понудат содржина на своите клиенти.

Има многу технолошки експерти кои тврдат дека компаниите треба да ја зголемат транспарентноста во користењето и примената на алгоритмите. Според нив, има големо „задоцнување“ во однос на тоа на што е способна вештачката интелигенција и законските прописи кои ја контролираат.