Създателите на ИИ с отворено писмо: Това е заплаха, подобна на пандемия и ядрена война

Шефовете на водещи разработчици на изкуствен интелект, вкл. OpenAI, Google DeepMind, Anthropic и други AI лаборатории предупредиха, че технологиите, върху които работят, могат да застрашат съществуването на човечеството и затова трябва да бъдат категоризирани като социални рискове заедно с пандемиите и ядрените войни.
 
"Намаляването на риска от изчезване [на човечеството] поради изкуствен интелект трябва да бъде глобален приоритет заедно с други обществени рискове като пандемии и ядрени войни", гласи отворено писмо от лидери в AI индустрията, цитирано от TechNews.bg.
 
Ник Кейв се обяви срещу писането на текстове на песни от изкуствен интелект
 
Очаква се документът да бъде публикуван от организацията с нестопанска цел Center for AI Safety. Той вече е подписан от над 350 ръководители на компании за изкуствен интелект, изследователи и инженери в тази област, съобщи Ню Йорк Таймс.
 
Сред подписалите документа личат имената на Сам Алтман (OpenAI), Демис Хасабис (Google DeepMind), Дарио Амодей (Anthropic), Джефри Хинтън и Йошуа Бенгио – двама от носителите на наградата Тюринг, считани за кръстници на модерния изкуствен интелект. Третият носител на наградата – Ян Лекун, ръководител на AI изследванията в Meta, все още не е подписал писмото.
 
Защита от ботовете: БАМП се присъедини към световна инициатива
 
Има нарастваща загриженост в обществото относно по-нататъшното развитие на системите с изкуствен интелект. Смята се, че платформи от мащаба на ChatGPT могат да се използват за разпространение на дезинформация и пропаганда.
 
Освен това само в Европа и Съединените щати около 300 милиона души могат да загубят работата си поради навлизането на изкуствения интелект в бизнеса. Тези страхове се споделят от лидерите в индустрията, които се поставят в необичайната позиция да твърдят, че технологиите, които разработват, крият сериозни рискове и трябва да бъдат строго регулирани от държавата.
 
 
Някои скептици смятат, че AI технологиите все още са твърде незрели, за да представляват осезаема заплаха за човечеството, така че трябва да се съсредоточим върху краткосрочни проблеми като пристрастните и неправилни отговори на AI системите.
 
Други анализатори вярват, че AI, сравним с човешките способности, ще се появи в близко бъдеще. За да се избегнат възможни негативни последици, лидерите в индустрията предлагат създаване на организация за регулиране на изкуствения интелект – нещо като аналог на Международната агенция за атомна енергия (МААЕ), която се опитва да предотврати разпространението и използването на ядрени оръжия.
 
IT знаменитости призоваха за пауза в разработките на изкуствения интелект
 
През март повече от хиляда изследователи и представители на индустрията подписаха отворено писмо, което призова за шестмесечно спиране на разработката на напреднали AI системи, обявявайки ги за заплаха за човечеството.
 
"Мисля, че ако нещо се обърка с тази технология, тогава всичко ще бъде напълно различно. И ние искаме да го обявим. Искаме да работим с правителството, за да предотвратим това", каза изпълнителният директор на OpenAI Сам Алтман по време на скорошно изслушване в Конгреса на САЩ.

Свързани новини

Над 200 изпълнителя зад подписката

09.04.2024

Алгоритъмът засега се тества ограничено

03.04.2024

Целият музикален бранш на едно място

05.03.2024

След спрян лиценз в TikTok

02.02.2024

Новини от Meta

25.01.2024