Мъск в писмо до човечеството: Изкуственият интелект може да ни победи и разруши

Водещи фигури в областта на разработването на технологии за изкуствен интелект, сред които Илон Мъск и съоснователят на Apple Стив Возняк, предлагат да се направи пауза в обучението на системи, базирани на ИИ, докато не бъдат разработени и приложени надеждни протоколи за сигурност.

В отворено писмо, разпространено от финансираната от Мъск организация с нестопанска цел Future of Life Institute, те предупреждават за потенциални рискове, пред които човечеството може да бъде изправено заради развитието на изкуствения интелект.

В писмото, което вече е подписано от над хиляда водещи експерти и предприемачи, се предлага шестмесечен мораториум върху обучението на системи, които са по-мощни от технологията зад чатбота ChatGPT.

"Мощни системи, базирани на изкуствен интелект, трябва да се разработват, само когато сме сигурни, че от тях ще има полза и рисковете, които може да възникнат при тяхното развитие, ще бъдат управляеми", гласи посланието.

Авторите на писмото призовават разработчиците на изкуствен интелект да работят с политиците и с регулаторните власти, за да бъдат предотвратени опасностите, които може да възникнат.

В призива се посочват четири основни въпроса, които човечеството трябва да си зададе:

- Трябва ли да позволим на машините да заливат информационните ни канали с пропаганда и лъжи?

- Трябва ли да автоматизираме всички работни места, включително и тези, които носят удовлетворение на хората?

- Трябва ли да развиваме интелект от нечовешки произход, който в бъдеще може да ни надмине по брой, да ни превъзхожда интелектуално и да ни замени?

- Трябва ли да рискуваме да изгубим контрола над нашата цивилизация?

Илон Мъск и Стив Возняк са на мнение, че шест месеца трябва да са достатъчни за разработване и прилагане на надеждни протоколи за сигурност. Но призовават и правителствата по света да се намесят, ако някоя компания не спази мораториума.

Източник: offnews

Facebook коментари

Коментари в сайта

Трябва да сте регистриран потребител за да можете да коментирате. Правилата - тук.

Още новини

Последни новини