Наскоро лидерът на мнозинството в Сената на САЩ Чък Шумър (демократ от Ню Йорк) обяви голямата си стратегия за формиране на политиката в областта на изкуствения интелект (ИИ) по време на реч във Вашингтон, окръг Колумбия, с което постави началото на нова ера в технологичната политика на САЩ. Той очерта някои ключови принципи за регулиране на ИИ и заяви, че Конгресът трябва бързо да въведе нови закони, пише сайтът на Масъчузетския технологичен институт technologyreview.com.
Планът на Шумър е кулминация на много други, по-малки политически действия. На 14 юни сенаторите Джош Хоули (републиканец от Мисури) и Ричард Блументал (демократ от Кънектикът) внесоха законопроект, който изключва генеративния ИИ от „Раздел 230“ (законът, който защитава онлайн платформите от отговорност за съдържанието, създавано от техните потребители). Миналия месец комисията по наука на Камарата на представителите прие няколко компании, занимаващи се с ИИ, за да им зададе въпроси относно технологията и различните рискове и ползи, които тя носи. Демократите от Камарата на представителите Тед Лиу и Анна Ешу, заедно с републиканеца Кен Бък, предложиха създаването на Национална комисия по ИИ, която да управлява политиката в тази област, а двупартийна група сенатори предложи създаването на федерална служба, която да насърчава, наред с други неща, конкуренцията с Китай.
В същото време водещи компании за изкуствен интелект представиха плановете си за създаване на ръководен от индустрията орган, който да разработи стандарти за безопасност за бързо развиващата се технология, изпреварвайки политиците във Вашингтон, които все още обсъждат дали правителството на САЩ се нуждае от собствен регулатор за изкуствен интелект, съобщава „Вашингтон пост“.
Гугъл, ChatGPT – компанията производител на OpenAI, Майкрософт и Anthropic представиха Frontier Model Forum, който според компаниите ще ускори изследванията за безопасност на ИИ и техническите оценки за следващото поколение системи с ИИ. Тези системи според прогнозите на компаниите ще бъдат още по-мощни от големите езикови модели, които в момента захранват чатботове като Bing и Bard. Форумът ще служи и като център за компаниите и правителствата, които ще обменят информация помежду си за рисковете, свързани с ИИ.
„Изключително важно е компаниите за ИИ, особено тези, които работят по най-мощните модели, да се обединят около общи позиции и да развиват обмислени и адаптивни практики за безопасност, за да гарантират, че мощните инструменти на ИИ ще имат възможно най-широка полза“, каза в изявление Анна Маканджу, вицепрезидент по глобалните въпроси на OpenAI.
Съобщението се основава на доброволните обещания на компаниите, дадени миналата седмица пред Белия дом, че ще подложат системите си на независими тестове и ще разработят инструменти, които да предупреждават обществеността, когато дадено изображение или видео е генерирано от ИИ.
Най-големите технологични фирми подписаха ангажимента на Белия дом да идентифицират изображения, генерирани от изкуствен интелект.
Инициативата, водена от бизнеса, е най-новият признак, че компаниите изпреварват усилията на правителството за изготвяне на правила за разработване и внедряване на ИИ, тъй като политиците във Вашингтон започват да се борят с потенциалната заплаха от бързо развиващата се технология. Някои обаче твърдят, че това участие на индустрията крие своите собствени рискове. От години политиците твърдят, че на Силициевата долина не може да се вярва да изработи свои собствени предпазни огради, след като повече от десетилетие имаше пропуски в защитата на личните данни, заплахи за демокрациите по света и инциденти, които застрашаваха подрастващите докато са онлайн.
Сенаторът републиканец Джош Хоули заяви по време на изслушването във вторник, че компаниите за изкуствен интелект са същите фирми, които са избегнали регулаторен надзор по време на битките на социалните медии с регулаторните органи, като посочи по-специално Гугъл, Мета и Майкрософт като разработчици и инвеститори в областта на изкуствения интелект.
„Говорим за едни и същи хора“, каза Хоули.
Компаниите от Силициевата долина не са чужди на саморегулирането. Компаниите за социални медии създадоха Глобалния интернет форум за борба с тероризма, който използват, за да споделят информация за терористични заплахи в своите услуги. Мета се прочу с това, че създаде Надзорен съвет - орган от независими експерти, финансиран от компанията, който взема решения за модериране на съдържанието - включително решението на компанията да забрани достъпа на тогавашния президент Доналд Тръмп след атаките от 6 януари.
Въпреки това подобни инициативи, ръководени от индустрията, са подложени на критики от страна на защитниците на потребителите, които твърдят, че те прехвърлят отговорността на експерти от трети страни. Защитниците на потребителите също така критикуват саморегулиращите се органи като средство за отклоняване на вниманието на създателите на политики, което отклонява законодателството, необходимо за ограничаване на злоупотребите в индустрията.
Но регулирането, ръководено от правителството, няма да се случи скоро. Законодателите в Конгреса са на ранен етап от създаването на рамка за справяне със заплахата от ИИ. Правителствените агенции започват да се занимават с тази зараждаща се технология, а Федералната търговска комисия е в начален етап на проучване на OpenAI. Политиците в Европа от години работят върху свое законодателство за ИИ, но дори и тяхното по-напреднало предложение е на години от влизане в сила.
Междувременно политиците оказват натиск върху компаниите да предприемат доброволни стъпки за намаляване на потенциалните рискове от ИИ, след като неотдавнашното пускане на ChatGPT подчерта как ИИ може да бъде използван за подсилване на измами, подкопаване на демокрацията и застрашаване на работните места. И четирите компании, които стоят зад Model Forum, участваха в ангажимента на Белия дом за ИИ, който включваше и ангажименти за споделяне на данни за безопасността на системите за ИИ с правителството и външни учени. Някои ръководители на технологични компании приеха и Пакта за ИИ на ЕС - доброволно споразумение с регулаторните органи, за да започнат да се подготвят за предстоящото законодателство на блока.
Форумът е в ранен етап на развитие, но организаторите му твърдят, че той може да се включи в съществуващите правителствени инициативи за справяне с ИИ. През следващите месеци групата ще създаде консултативен съвет, който да ръководи нейната стратегия и приоритети. Компаниите основателки също така ще определят финансиране, работна група и устав.
Model Forum е отворен за компании, които разработват мощни модели, които надхвърлят възможностите, налични в момента в най-напредналите съществуващи модели. Членовете му трябва да демонстрират ангажираност към безопасността и да са готови да работят по съвместни инициативи.
Гугъл и Майкрософт вече са членове основатели на Партньорство за изкуствен интелект - организация с нестопанска цел, създадена през 2016 г. с цел разработване на най-добри практики относно отговорното използване на изкуствения интелект.
„Ние не се застъпваме за регулиране на настоящите модели. Не се застъпваме за регулиране на моделите с отворен код. Не се застъпваме за спиране на малките компании да разработват това. Мисля, че това би било огромна грешка“, каза изпълнителният директор на OpenAI Сам Олтман в Аман, Йордания, в началото на юни.
„Това, което казваме, е, че ако някой - ние, някой друг, но вероятно ние - направи модел, който е толкова умен, колкото цялата човешка цивилизация, има силата на цялата човешка цивилизация, мисля, че заслужава някаква регулация“, добави той с вдигане на рамене.
В този момент от разговора Олтман обикновено отклоняваше разговора от бюрокрацията и бюрократичните процедури, от които се отвращават предприемачите и ентусиастите на изкуствения интелект, дошли да чуят изказването му, и насочваше разговора към идеята за глобална агенция, подобна на Международната агенция за атомна енергия, надзорния орган на ООН за ядрената енергия.
Мета, която миналия месец направи своя модел на изкуствен интелект Llama 2 свободно достъпен за обществеността за изследвания и създаване на нови продукти, забележимо отсъстваше от форума. Говорителката на OpenAI Кайла Ууд заяви, че това е само първоначален старт и че форумът приветства присъединяването на допълнителни компании.
Въпреки това някои от членовете на форума изразиха скептицизъм по отношение на решението на Мета да направи своя модел широко достъпен като софтуер с отворен код.
Главният изпълнителен директор на Anthropic Дарио Амодей наскоро сподели загриженост за бъдещето на отворения код, който по принцип е по-добър за иновациите, но може да представлява катастрофални опасности, когато става въпрос за усъвършенстван изкуствен интелект, каза той в подкаста „Hard Fork“.
Амодей заяви в подкаста, че не възразява срещу настоящата версия на модела с отворен код Llama 2 на Мета.
„Но съм много загрижен за това накъде отива“, каза той.
Един от пионерите на ИИ Йошуа Бенгио, професор в Университета в Монреал и основател на MILA, Квебекския институт за изкуствен интелект, отправи призив към Конгреса на САЩ, който гласи „Регулирайте тази технология и го направете бързо“, предаде сайтът на канадската медийна корпорация Си Би Си (CBC).
„Твърдо вярвам, че са необходими спешни усилия, за предпочитане през следващите месеци“, заяви Бенгио.
В доклада се изброяват множество кошмарни сценарии: корумпирани избори, в които генерирани от ИИ кандидати се представят за личности или системите за гласуване са хакнати; банкови измами; инструкции за атака с биологично оръжие, достъпни само с натискането на един бутон; ядрени оръжия, контролирани от автоматизирани програми, които внезапно стават неуправляеми.
Бенгио предложи серия от възможни действия. Според него е необходима международна координация. Ако САЩ приемат закони сами, каза той, недобросъвестни актьори могат просто да злоупотребят с тази технология другаде.
Той предложи също така да се създадат международни лаборатории със защитен достъп, които да изследват мерки за противодействие на престъпното използване на изкуствения интелект, и заяви, че компаниите за социални медии трябва да бъдат принудени да потвърждават, че потребителите са хора, както правят банките с клиентите си.
Един от сенаторите, Ейми Клобучар, изрази загриженост за банковите сметки на хората, които са изпразнени от цифрови самозванци.
Демократката от Минесота го попита дали би подкрепил закон, който да дава на хората възможност да контролират своя образ, име и глас, а той отговори: „Разбира се. Но бих отишъл и по-далеч.“
Той отбеляза строгите закони и суровите наказателни санкции срещу фалшифицирането на пари. Те възпират хората, каза Бенгио, така че трябва да има и наказания за фалшифицирането на хора.
Накрая, той призова да се ограничат възможностите за публикуване на софтуер с отворен код, като заяви, че злонамерени играчи могат лесно да променят такива системи с нечисти цели.
Перифразирайки своя колега, канадския пионер в областта на изкуствения интелект Джефри Хинтън, Бенгио попита риторично: „Ако ядрените бомби бяха софтуер, щяхте ли да позволите ядрени бомби с отворен код?“
Председателят на комисията, сенатор Ричард Блументал от Кънектикът, откри изслушването, като приветства технологичните умове пред себе си като една от най-изявените групи, които някога е виждал в Конгреса.
Сред тях е и Бенгио, който, както отбеляза Блументал, е пионер в няколко основополагащи компютърни технологии и понякога е наричан един от кръстниците на изкуствения интелект.
Председателят, който е демократ, посочи целта на това изслушване, последното от поредицата, които той ръководи: „Да напишем истински закони - приложими закони.“
Но той се спря и на чувствителната тема - съмненията относно способността на Конгреса да действа бързо, като се има предвид известната му безизходица.
Блументал заяви, че Конгресът не може да допусне да се повтори опитът му със социалните медии, когато години наред говореше и говореше, без да приеме важни закони.
"Извънредната ситуация тук изисква действия. Бъдещето тук не е научна фантастика или фентъзи. То дори не е бъдещето. То е тук и сега", каза Блументал.
Политиците в САЩ проучват различни предпазни огради за ИИ, въпреки че далеч не е ясно дали някоя от тях ще се превърне в закон. Приемането на законопроект ще изисква преминаване през ръководената от републиканците Камара на представителите, както и получаване на 60 % от гласовете в Сената.
Междувременно Белият дом публикува доброволни насоки.
През есента на миналата година администрацията на Байдън публикува първия по рода си закон за правата на изкуствения интелект: в него се настоява подобни инструменти да се използват безопасно, прозрачно, при зачитане на личната информация на потребителите, а институциите, да речем правоприлагащите органи, да не използват алгоритми, които дискриминират.
Компаниите се ангажираха с широкообхватни тестове за безопасност преди пускането на даден продукт, включително тестове от външни експерти, със система за докладване на уязвимости и с използването на водни знаци за идентифициране на измислено изображение.
Президентът на САЩ Джо Байдън изтъкна заплахите, но също така и големите възможности, които според него ИИ носи в борбата с изменението на климата и рака.
„Това е сериозна отговорност. Трябва да се справим добре“, каза Байдън и прогнозира, че през следващото десетилетие технологичните промени ще бъдат повече, отколкото през последните 50 години.
За да открие изслушването за изкуствения интелект, сенаторът демократ Ричард Блументал пусна записано изявление, създадено изцяло от софтуера ChatGPT на OpenAI и ИИ за клониране на глас, обучен на собствените му речи, за да имитира гласа му.