
Европската унија е сè поблиску до договор за најсеопфатното регулирање на вештачката интелигенција во западниот свет.
Преговарачите се согласија на збир на правни акти кои ќе ги контролираат генеративните алатки за вештачка интелигенција како ChatGPT на OpenAI и Bard на Google, пишува Bloomberg.
Делегатите на Европската комисија, Европскиот парламент и 27 земји-членки постигнаа компромис на состанокот што започна во средата попладне и се одолговлекуваше со часови, со што групата се приближи до формален договор за поширок дел од законодавството познат како Закон за вештачка интелигенција.
Договорот претставува критичен чекор во разјаснувањето на политиката за вештачка интелигенција, која – во отсуство на каква било значајна акција од страна на Конгресот на САД – ќе го постави тонот за регулирање на генеративните алатки за вештачка интелигенција во развиениот свет. Овој потег ќе ја направи ЕУ првата влада надвор од Азија која постави силни заштитни мерки за технологијата.
Креаторите на политиките со месеци работеа на финализирање на Законот за вештачка интелигенција и негово усвојување пред европските избори во јуни кои ќе воведат целосно нова комисија и парламент што би можеле да принудат дополнителни промени и да ги запрат напорите.
Широката дебата доцна во ноќта нагласува колку спорна стана дебатата за регулирање на вештачката интелигенција, што ги подели светските лидери и технолошките директори, додека генеративните алатки продолжуваат да растат во популарност. ЕУ – како и другите влади, вклучително и САД и Обединетото Кралство – се бореше да постигне рамнотежа помеѓу потребата да ги заштити своите стартапи со вештачка интелигенција, како што се француската Mistral AI и германската Aleph Alfa, од потенцијални општествени ризици.
Креаторите на политиките на ЕУ предложија план кој ќе бара од развивачите на модели на вештачка интелигенција кои поддржуваат алатки како што е ChatGPT да прикажуваат информации за тоа како нивните модели биле обучени, да го сумираат користениот материјал заштитен со авторски права и да ја означат содржината генерирана од вештачката интелигенција. Системите што претставуваат „системски ризици“ ќе мора да соработуваат со комисијата преку индустриски кодекс на однесување. Тие, исто така, ќе мора да следат и да пријават какви било инциденти од моделот.











