Безкомпромісне прагнення до штучного загального інтелекту (AGI) — штучного інтелекту, який відповідає або перевершує людські когнітивні здібності — стикається з дедалі більшою критикою з боку провідних дослідників, політиків і громадських діячів. Понад 700 видатних людей підписали заяву, в якій закликають призупинити розвиток суперінтелекту, доки не будуть введені перевірені заходи безпеки та досягнуто широкого громадського консенсусу.
Зростаюча тривога щодо неконтрольованого розвитку ШІ
Головна проблема полягає не в потенційних перевагах штучного інтелекту, а в швидкості та відсутності нагляду за його розробкою. Швидкий прогрес у напрямку штучного інтелекту створює ризики, починаючи від економічної дестабілізації та порушення громадянських свобод і закінчуючи екзистенційними загрозами. Це не надумані страхи. Навіть деякі піонери в дослідженні штучного інтелекту, такі як Йошуа Бенгіо та Джеффрі Хінтон (їх ще називають «батьками-засновниками штучного інтелекту»), висловлюють серйозні сумніви.
У заяві, опублікованій у четвер, підкреслюється небезпека створення систем ШІ, які можуть перевершити людський інтелект без належного захисту. Ілон Маск, відвертий критик неконтрольованого розвитку штучного інтелекту, раніше попереджав, що сфера «викликає демона». Він та інші технічні лідери зробили аналогічний заклик до призупинення в 2023 році.
Громадська думка відображає глибокий скептицизм
Дебати не обмежуються технологічними колами. Нещодавнє національне опитування, проведене Інститутом майбутнього життя, показує, що лише 5% американців підтримують нинішню швидку та нерегульовану траєкторію розвитку суперінтелекту. Переважна більшість — 64% — вважають, що розробку слід зупинити, доки не буде доведено безпеку та контроль, а 73% виступають за посилення регулювання передових систем ШІ.
Що далі?
Заява залишається відкритою для підписів (наразі понад 27 700), що вказує на зростаючий рух, який вимагає обережності. Питання в тому, чи прислухаються розробники до цих попереджень, чи продовжуватимуть прискорюватися до майбутнього, де потенційні ризики ШІ можуть переважити його переваги. Ця дискусія стосується не лише технологій; це стосується майбутнього людської автономії та безпеки.


























