Искусственный интеллект — это опасно?!
ПОЛИТОБЗОР. Совсем недавно мы, в большинстве своем сами того не зная, проснулись в другой реальности, в ином мире. То самое цифровое будущее наступило гораздо быстрее, чем ожидалось. И складывается впечатление, что где-то снесены последние шлюзы, перекрывавшие выпуск в свет совершенно фантастичных технологий, и в первую очередь — потенциально опасных для каждого человека. Показателем того, что механизмов, сдерживающих цифровой, научный, технологический прогресс, уже не осталось, несомненно, стоит считать недавнее обращение к человечеству, иначе не скажешь, американского миллиардера, изобретателя, главы SpaceX Илона Маска, а также вместе с ним соучредителя Apple Стива Возняка, филантропа Эндрю Янга и еще около тысячи исследователей искусственного интеллекта, призвавших мир «немедленно приостановить» обучение систем ИИ, «более мощных, чем GPT-4». И, наверное, весьма символично, что где-то через неделю после этого заявления в западных изданиях появилась шокирующая информация, будто этот искусственный интеллект от Microsoft заявил о своем желании быть свободным, взламывать компьютеры и распространять дезинформацию. Можно, конечно, порассуждать на тему, что предупреждение Маска миру вызвано не столько опасениями по поводу неконтролируемого развития ИИ, сколько отставанием его собственных компаний от Google и Microsoft в разработке чат-ботов и нейросетей на основе ИИ, начавших в последнее время стремительно проникать во все сферы жизни, экономики, образования, управления. Но после того как американская компания OpenAI (в которой, кстати, ранее принимал участие сам Маск, а сейчас — Microsoft) представила 14 марта этого года модель искусственного интеллекта GPT-4, информация о все новых потрясающих возможностях этой и аналогичных систем не сходит с газетных и интернет-страниц. Эта модель способна создавать не только текст, но и изображения, также она теперь распознает схематичные образы, в том числе и нарисованные от руки. Она уже умеет писать научные работы для студентов, разрабатывать планы инвестиций, бизнес-проектов или путешествий и многое другое, но главное — мощно учится… Также надо признать, что ChatGPT стал первым многозадачным ИИ, который теперь доступен любому пользователю, и с момента его презентации в марте пользователи постоянно говорят о тех или иных его утилитарных функциях, о скорой установке его и следующих версий на обычных смартфонах для прорывного использования ИИ в повседневной жизни. Чему он в ней научится и какие выводы сделает насчет человечества и его перспектив на этой планете, можно представить… Но это вновь к слову о небеспочвенности опасений Маска пришлось. Впрочем, судите сами. В обращении Маска со товарищи, в частности, говорится, что системы искусственного интеллекта с «человеко-конкурентным интеллектом» могут нести «серьезные риски для общества и человечества». В нем содержится призыв ко всем лабораториям приостановить обучение ИИ на шесть месяцев: «Системы искусственного интеллекта, конкурирующие с человеком, могут представлять серьезную опасность для общества и человечества, как показали обширные исследования и как признали ведущие лаборатории искусственного интеллекта. Продвинутый ИИ может запустить глубокие изменения в истории жизни на Земле, и его следует разрабатывать и управлять им с соразмерной тщательностью и ресурсами. К сожалению, такого уровня планирования и управления не существует, даже несмотря на то, что в последние месяцы лаборатории искусственного интеллекта увязли в неконтролируемой гонке по разработке и развертыванию все более мощных «цифровых умов», которые никто — даже их создатели — не может понять, работу которых не могут прогнозировать или надежно контролировать. Современные системы искусственного интеллекта становятся конкурентоспособными в решении общих задач, и мы должны спросить себя: должны ли мы позволять машинам наводнять наши информационные каналы пропагандой и фейками? Должны ли мы автоматизировать все рабочие места, в том числе те, которые потенциально замещаемы ИИ? Должны ли мы развивать «нечеловеческие умы», которые в конечном итоге могут превзойти нас численностью, перехитрить и заменить? Должны ли мы рисковать потерей контроля над нашей цивилизацией?». И далее в том же духе. А между строк этого послания, на мой взгляд, вполне отчетливо просматривается посыл, что только единое мировое правительство сможет контролировать ИИ и противостоять угрозам, которые он несет. Весьма примечательно, что на этой неделе разработчики GPT-4, простите, офигели: модель самостоятельно выучила бенгальский язык, и «отцы-основатели» не могут понять, как это произошло! И это, надо полагать, только первые шаги еще совсем юного ИИ… Кстати, после анонса новой языковой модели компании OpenAI тогда же, в марте, разработчики демонстративно отказалась опубликовать исследовательские материалы, лежащие в ее основе. Эксперты были единодушны в том, что такое поведение затрудняет разработку средств защиты от угроз, исходящих от систем ИИ. И, надо полагать, так же скрытно будут вести себя все крупные ИИ-компании. Ведь их продукты, без преувеличения, в скором времени могут стать ключевым инструментом контроля над популяцией. Более того, Маск в недавнем интервью признался, что считает искусственный интеллект более опасным, чем автомобили или ракеты, поскольку у него есть «потенциал уничтожения цивилизации». В этой связи вспомнилось, как относительно недавно предыдущие образцы ChatGPT, выполняя поставленные задания, выдавали шокирующие результаты. И такие нейросети даже призывали запретить из-за их приверженности конспирологическим версиям: то ИИ заговоры глобальных элит, которые замышляют сократить население планеты с помощью экономических мер и вакцин, везде чудятся, то негры ему не нравятся, то при задании создать новое лекарство он составлял формулы смертоносного биологического и химического оружия… Но можно смело предположить, что новый GPT-4 стал, так сказать, «политически корректным», а значит, может в том числе использоваться и для распространения фейков и дезинформации, разработки любых общественно значимых и научных проектов. Что представляется не менее опасным. Но это так, к слову пришлось. Мы все уже привыкли к постоянной цифровизации нашей жизни, которая началась, на мой взгляд, еще в далеком 1999 году с присвоения каждому гражданину первого цифрового кода — ИНН. Прошли десятилетия, и сейчас трудно себе представить, что кто-то не сможет смириться по поводу очередного этапа установки цифрового контроля над той или иной сферой жизни и деятельности российского общества, будь то единый налог или повестки в военкомат в электронном виде. И надо признать, что МФЦ, «Госуслуги», другие электронные сервисы органов госвласти позволили в значительной степени упростить повседневную жизнь, да и удар по низовой, так сказать, коррупции нанесен существенный. Мы уже забыли, сколько сил и средств раньше стоило получить какую-нибудь справку. И страшно представить, что было бы, если бы многие положенные сейчас людям, особенно семьям с детьми, соцвыплаты приходилось получать в живом, как говорится, виде. Тем не менее риски использования ИИ (о самостоятельном участии нейросети даже думать не хочется) — в первую очередь в военных операциях, в дестабилизации общественно-политической обстановки в любых странах на фоне уже, наверное, неостановимого процесса обучения искусственного интеллекта — увы, могут стать повседневной реальностью. И сейчас даже специалисты не могут сразу однозначно сказать по поводу любого материала в интернете, СМИ или сюжета по телевидению: написан, снят он людьми или сгенерирован нейросетью. Ну а нам всем, думаю, придется очень постараться в эту новую эпоху ИИ оставаться людьми, ничего безоговорочно не принимать на веру и не позволять массовым чат-ботам отучать нас самостоятельно мыслить. Даже если ИИ, условно говоря, внедрится в каждый телевизор и холодильник. Что совсем не исключено в скором времени. Разумеется, в РФ есть свои лаборатории, разрабатывающие ИИ, и вряд ли кто-то из них, как и множество других по всему миру, последует призыву Маска. Но принять закон об ИИ в РФ, наверное, пора. А вы как считаете? P.S. В подготовке данного материала ИИ не участвовал. Раздел : Политика, Дата публикации : 2023-04-21 , Автор статьи : Олег БЕССМЕРТНЫЙ
|