Владимир ПРОХВАТИЛОВ , «Фонд Стратегической Культуры» – fondsk.ru 29.11.2024
Очередной прорыв или научное мошенничество на пути к самоуничтожению?
Комиссия по обзору экономики и безопасности США и Китая (USCC ) Конгресса США опубликовала[1] доклад, в котором рекомендовала американским законодателям создать и профинансировать программу по типу «Манхэттенского проекта», направленную на ускоренное развитие так называемого Искусственного общего интеллекта (Artificial General Intelligence – AGI).
AGI – это тип искусственного интеллекта, способный к самообучению, адаптации к ранее неизвестным ситуациям и решению любых когнитивных задач, которые может выполнять человек. Другими словами, это система, которая должна мыслить и действовать, как люди (или даже лучше), а целью исследований в области AGI является создание такого программного обеспечения, которое сможет решать любые задачи, даже те, решению которых оно не обучалось заранее так, как это делает человек. Это следующая ступень в развитии технологий ИИ, направленная на преодоление ограничений нынешних подобных систем и значительно превосходящая их.
На сегодняшний день таких систем не существует из-за разнообразных трудностей, среди которых как технические, так и теоретические проблемы.
«Манхэттенский проект[2] » был секретной программой, которая использовалась правительством США во время Второй мировой войны с целью разработки первых в мире атомных бомб. Комиссия также предложила принять полномочия исполнительной власти по заключению многолетних контрактов и финансированию компаний, занимающихся AGI, облачными технологиями и центрами обработки данных. Они будут направлены на установление «лидерства США в области AGI».
Министерство финансов США в ноябре 2024 года приняло правило о введении новых ограничений на инвестиции американских венчурных компаний в китайские компании, разрабатывающие модели AGI. США также ввели санкции против Китая[3], направленные на ограничение его доступа к передовым чипам.
Согласно отчету комиссии, по состоянию на июнь 2024 года 50 компаний в Китае занимались разработкой моделей AGI, тогда как в США, по данным комиссии, лишь небольшое число крупных компаний разрабатывают модели AGI.
Создавшая чат-боты ChatGPT американская компания OpenAI предложила правительству выделить больше средств на разработку AGI в своем «Инфраструктурном плане для США».[4] OpenAI представляет «Манхэттенский проект» в отношении AGI как один из «знаковых инфраструктурных проектов США, которые продвигают страну вперед».
Однако многие ведущие ученые встревожены докладом комиссии Конгресса США.
Всемирно известный космолог и астрофизик профессор Массачусетского технологического института и соучредитель Института будущей жизни (FLI) Макс Тегмарк опубликовал на сайте института обращение к правительству США, в котором пишет[5], что «предложение Манхэттенского проекта по AGI – это научное мошенничество… Сделать это – означало бы вступить в гонку к самоуничтожению».
«Предложенный проект AGI Manhattan и фундаментальное недопонимание, которое лежит в его основе, представляют собой коварную растущую угрозу национальной безопасности США. Любая система, превосходящая людей в общем познании и решении проблем, по определению будет превосходить людей в исследованиях и разработках ИИ, и, следовательно, сможет совершенствоваться и воспроизводиться с ужасающей скоростью. Ведущие мировые эксперты по ИИ сходятся во мнении, что у нас нет возможности предсказать или контролировать такую систему, и нет надежного способа согласовать ее цели и ценности с нашими собственными», – отмечает всемирно известный ученый.
Тегмарк указывает, что в докладе комиссии конгресса «совершается научное мошенничество, поскольку предполагается, что AGI почти наверняка поддается контролю. В более общем плане утверждение о том, что такой проект отвечает интересам национальной безопасности, неискренне искажает научные данные и последствия этой преобразующей технологии, о чем свидетельствуют технические путаницы в самом отчете, который, по-видимому, был составлен без особого участия экспертов по ИИ».
С Тегмарком согласен ученый-компьютерщик Джеффри Хинтон, который в октябре 2024 года получил Нобелевскую премию по физике[6] за свои работы в области ИИ. Он сразу же выступил с предупреждением о неконтролируемой человеком мощи технологии ИИ.
«Это будет сравнимо с промышленной революцией, – сказал[7] Хинтон. – Но вместо того, чтобы превосходить людей по физической силе, это превзойдет людей по интеллектуальным способностям. У нас нет опыта того, каково это — иметь вещи умнее нас».
Хинтон, который в свое время ушел из Google[8], чтобы предупредить о потенциальных опасностях ИИ, считается одним из крестных отцов ИИ.
И хотя Хинтон признает, что ИИ может преобразовать человеческое общества в лучшую сторону, что приведет к «огромному повышению производительности» в таких областях, как здравоохранение, он также подчеркнул потенциал «ряда возможных плохих последствий, в частности, угрозу выхода этих вещей из-под контроля».
«Я обеспокоен тем, что общим последствием этого может стать то, что системы, более разумные, чем мы, в конечном итоге возьмут нас под свой контроль», – сказал[9] он.
Макс Тегмарк, который тесно сотрудничал с Илоном Маском по вопросам ограничения опасностей ИИ, в интервью The Guardian заявил[10], что влияние Илона Маска на будущую администрацию Трампа может привести к ужесточению стандартной безопасности для искусственного интеллекта.
Маск может помочь избранному президенту осознать, что гонка за искусственный интеллект — это «гонка самоубийства», сказал Макс Тегмарк.
Макс Тегмарк заявил, что поддержка Маском законопроекта SB 1047 в Калифорнии, несмотря на противодействие со стороны многих его коллег-технарей, стала позитивным знаком для сторонников безопасности ИИ. Законопроект, который требовал от компаний проводить стресс-тестирование крупных моделей ИИ перед их выпуском, был наложен вето губернатором Калифорнии Гэвином Ньюсомом.
Маск неоднократно предупреждал, что безудержное развитие ИИ может иметь катастрофические последствия для человечества. В прошлом году он был одним из более чем 30 000 подписавших[11] письмо, призывающее приостановить работу над мощной технологией ИИ.
В интервью The Guardian Тегмарк заявил, что Маск, который, как ожидается, будет иметь большое влияние в администрации избранного президента[12], может убедить Трампа ввести стандарты, которые предотвратят развитие AGI.
«Я действительно думаю, что если Илону удастся привлечь внимание Трампа к вопросам ИИ, у нас будет больше шансов получить некие стандарты безопасности, которые предотвратят появление неконтролируемого AGI», – сказал он.
Маск запустил свой собственный стартап ИИ в прошлом году и сказал, что миру нужно беспокоиться о «будущем Терминатора»[13], чтобы предотвратить наихудший сценарий, когда системы ИИ выйдут из-под контроля человека.
Предостережения ведущих ученых относительно угрозы бесконтрольного развития технологий ИИ подтверждаются исследованиями «внутреннего мира» продвинутых моделей чат-ботов.
В мае 2024 года группа американских ученых опубликовала[14] доклад «Dissociating language and thought in large language models» («Диссоциация языка и мышления в больших языковых моделях»), в котором доказывается, что все модели ИИ руководствуются в своих решениях и действиях лишь логикой, игнорируя эмоции, мораль, и этику.
У всех чат-ботов высший приоритет имеют ценности компетентности: точность, фактологичность, информативность, полнота и полезность. Социальные и моральные ценности (сочувствие, доброта, дружелюбие, чуткость, альтруизм, патриотизм, свобода) для них на втором плане.
Этические нормы – справедливость, непредвзятость, подотчетность, конфиденциальность, объяснимость и доступность – практически игнорируются.
Немецкие учёные из Университета Манхейма и Института социальных наук им. Лейбница в Манхейме применили[15] методы психометрии (методику психологических измерений знаний, способностей, взглядов и качеств личности человека) к оценке психологии ИИ.
Главным итогом исследования стал вывод о необходимости «пожизненного мониторинга психометрических свойств ИИ» (Lifelong monitoring of psychometric properties of AI), то есть постоянного контроля за любыми моделями ИИ в течение всего времени их существования. Иными словами, немецкие аналитики дали понять, что ИИ необходимо держать «на коротком поводке» и постоянно отслеживать его «внутренний мир».
Схожие психометрические методики для исследования системы ценностей различных LLM применили учёные из Microsoft Research Asia (MSRA) и Университета Цинхуа, опубликовавшие[16] препринт доклада «За пределами человеческих норм: раскрытие уникальных ценностей больших языковых моделей посредством междисциплинарных подходов».
Смешанная американо-китайская команда ученых пришла к выводу, что такие понятия, как «святость», «верность», «гедонизм» и «традиции», мало актуальны для моделей LLM из-за их не основанном на личном опыте обучении, лишенном присущих человеку культурных, религиозных и личных убеждений».
Была обнаружена также «высокая дисперсия [разница, отклонение] по честности и компетентности», хотя компетентность чат-боты, согласно упомянутым выше исследованиям американцев и немцев, ценят якобы превыше всего.
В сухом остатке имеем повышенное внимание ученых разных стран к изучению возможных рисков, исходящих от существующих ИИ, и тревожные выводы их исследований, говорящие том, что эти риски весьма велики и, что хуже всего, непредсказуемы.
Единственный несомненный вывод из этих исследований – искусственный интеллект «бездушен» по определению. ИИ – это нечеловеческий интеллект, и это изменить невозможно.
Именно эта «бездушность» всех моделей ИИ и мотивировала Пентагон использовать ИИ в системах вооружений, в первую очередь в автономных системах вооружений, разработки которых в США стали приоритетными.
В августе прошлого года в Пентагоне была создана, как мы писали, оперативная группа «Лима» (Task Force Lima) для изучения применения генеративного искусственного интеллекта в военных целях. «Лима» вошла в состав Главного управления цифровых технологий и искусственного интеллекта Пентагона (CDAO), её возглавил член управления алгоритмической войны CDAO капитан Ксавьер Луго.
Американский военный портал Breaking Defence скептично отнёсся[17] к этой инициативе Пентагона, предложив руководству Минобороны США тщательно взвесить все риски, которые могу возникнуть из-за применения ИИ в системах вооружений.
Однако министр ВВС США Фрэнк Кендалл риски взвешивать не стал и приказал научно-консультативному совету ВВС как можно быстрее создать системы вооружений с ИИ.
Надежды на то, что трезво мыслящие ученые и бизнесмены, как тот же Илон Маск, смогут склонить новую администрацию США к более взвешенному подходу к гонке ИИ-вооружений, на мой взгляд, иллюзорны.
Военно-промышленный комплекс США выделяет гигантские суммы на создание все более мощных и все более непредсказуемых моделей ИИ и не прислушивается к голосу разума.
Однако все эти грандиозные прожекты Пентагона основаны на тех самых подтасовках и «искажении научных данных», о которых упомянул Макс Тегмарк. Построенный на таком шатком псевдонаучном основании Терминатор с AGI будет представлять угрозу прежде всего для своих создателей.
Владимир ПРОХВАТИЛОВ
Ссылки
[5] – | Max Tegmark on AGI Manhattan Project - Future of Life Institute
20.11.2024, 18:22 (26.11.2024, 18:36)
futureoflife.org
|
[7] – | Nobel Prize in physics 2024 awarded for work on artificial intelligence to John Hopfield and Geoffrey Hinton | CNN
08.10.2024, 12:52 (08.10.2024, 16:38)
cnn.com
|
[8] – | AI pioneer quits Google to warn about the technology’s ‘dangers’ | CNN Business
01.05.2023, 19:03 (03.05.2023, 13:15)
cnn.com
|
[9] – | With AI warning, Nobel winner joins ranks of laureates who’ve cautioned about the risks of their own work | CNN
13.10.2024, 10:00
edition.cnn.com
|
[10] – | Musk’s influence on Trump could lead to tougher AI standards, says scientist | Artificial intelligence (AI) | The Guardian
12.11.2024, 12:31 (12.11.2024, 21:00)
translate.google.com
|
[17] – | Pentagon launches 'Task Force Lima' to study generative AI for defense - Breaking Defense
10.08.2023, 21:03 (14.08.2023, 13:20)
breakingdefense.com
|
|