Разследвания и новини без цензура

вторник, 30 май, 2023

разследваща журналистика и новини без цензура

|

info@obektivno.bg

Временна забрана на експериментите с изкуствен интелект искат Мъск и други технологични лидери

Илон Мъск и съоснователят на Apple Стив Возняк са сред изтъкнатите технолози и изследователи на изкуствения интелект, които подписаха отворено писмо, призоваващо за шестмесечен мораториум върху разработването на усъвършенствани AI системи (AI е съкращение от английския термин Artificial Intelligence – в превод изкуствен интелект).

Освен главния изпълнителен директор на Tesla и съоснователя на Apple, над 1100 души са подписали писмото. Те включват Емад Мостак, основател и главен изпълнителен директор на Stability AI, компанията, която помогна за създаването на популярния модел за генериране на текст към изображение Stable Diffusion, и Конър Лийхи, главен изпълнителен директор на Conjecture, друга лаборатория за изкуствен интелект. Евън Шарп, съосновател на Pinterest, и Крис Ларсън, съосновател на компанията за криптовалута Ripple, също подписаха писмото.

Писмото призовава технологичните компании незабавно да прекратят обучението на всякакви AI системи, които биха били „по-мощни от GPT-4“, който е най-новият изкуствен интелект за обработка на езици, разработен от компанията OpenAI от Сан Франциско.

Илон Мъск моногократно е изразявал опасенията си относно безконтролното развитие на изкуствения интелект и заплахата, която може да представлява за човечеството. Той беше първоначално съосновател на OpenAI, като я създаде като изследователска лаборатория с нестопанска цел през 2015 г. и беше нейният най-голям първоначален дарител. През 2018 г. той скъса с компанията и напусна нейния борд. Съвсем наскоро Мъск беше критичен към решението на компанията да създаде подразделение с цел печалба и да приеме милиарди долари инвестиции от Microsoft .

OpenAI вече е сред най-известните компании, разработващи изкуствен интелект, използващ огромни количества текст, изображения и видеоклипове, извлечени от интернет. Тези модели могат да изпълняват много различни задачи без специално обучение. Версиите на тези модели захранват ChatGPT, както и функцията за чат Bing на Microsoft и Bard на Google.

Потенциалът на тези системи да изпълняват много различни задачи – много от които някога се смятаха за възможни за изпълнение само от висококвалифицирани хора, като кодиране или изготвяне на правни документи или анализиране на данни – е това, което накара мнозина да се страхуват от възможността за загуба на работа от внедряването на такива системи в бизнеса. Други се опасяват, че подобни системи са стъпка по пътя към изкуствения интелект, който може да надхвърли човешкия интелект, с потенциално ужасни последици.

„Състезание с хората“

В писмото се казва, че със системите с изкуствен интелект като GPT-4, които сега „стават конкурентоспособни на хората при общи задачи“, има опасения относно рисковете от използването на такива системи за генериране на дезинформация в огромен мащаб, както и за масовата автоматизация на работните места.

Писмото също повдига перспективите тези системи да са на път към създаване на суперинтелект, който може да представлява сериозен риск за цялата човешка цивилизация. В него се казва, че решенията относно изкуствения интелект „не трябва да се делегират на неизбрани технологични лидери“ и че по-мощни системи с изкуствен интелект трябва „да бъдат разработени само след като сме уверени, че техните ефекти ще бъдат положителни и техните рискове ще бъдат управляеми“.

Писмото призовава всички AI лаборатории незабавно да спрат обучението на AI системи, по-мощни от GPT-4, за поне шест месеца. В писмото се казва, че ако самите компании не се съгласят на пауза, тогава правителствата по света „трябва да се намесят и да наложат мораториум“.

Писмото подчертава, че развитието и усъвършенстването на съществуващите AI системи може да продължи, но че обучението на по-нови, дори по-мощни трябва да бъде спряно. „Изследванията и развитието на AI трябва да бъдат пренасочени към превръщането на днешните мощни, най-съвременни системи в по-точни, безопасни, интерпретируеми, прозрачни, стабилни, надеждни и лоялни“, се казва в писмото.

По време на шестмесечната пауза компаниите за изкуствен интелект и академичните изследователи трябва да разработят набор от споделени протоколи за безопасност за проектиране и развитие на изкуствен интелект, които могат да бъдат независимо одитирани и наблюдавани от външни експерти.

Стабилно управление

Писмото също така призовава правителствата да използват шестмесечния прозорец за „драматично ускоряване на развитието на стабилни системи за управление на изкуствения интелект“.

В него се казва, че такава регулаторна рамка трябва да включва нови органи, способни да проследяват и наблюдават развитието на усъвършенстван AI и големите центрове за данни, използвани за неговото обучение. Правителствата трябва да разработят начини за поставяне на водни знаци и установяване на произхода на съдържание, генерирано от AI, като начин за защита срещу дълбоки фалшификации и за откриване дали някои компании са нарушили мораториума и други управленски структури. Правителствата също трябва да въведат правила за отговорност за „вреди, причинени от изкуствения интелект“ и да увеличат публичното финансиране за изследвания на безопасността на изкуствения интелект, пише в писмото.

Обективно
Обективноhttps://obektivno.bg
Обективно.БГ е независима медия за разследваща журналистика, новини без цензура и всички гледни точки.

Подкрепа за независимата журналистика

Обективно.БГ не се финансира от правителства и фондации и разчита единствено на подкрепата на своите читатели.

Разследвания
Свързани публикации

LEAVE A REPLY

Please enter your comment!
Please enter your name here
This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.