Искусственный интеллект, как ранее Интернет, способен трансформировать бытие людей, но куда основательнее, чем его предшественник

Вызов брошен. Искусственный интеллект меняет правила игры

Джордж Фредерик Харрис. Мальчик с арфой (фрагмент). 1882
Джордж Фредерик Харрис. Мальчик с арфой (фрагмент). 1882

В 2023 году технология, способная глубоко трансформировать нашу жизнь, оказалась в широком доступе. Подобно тому, как когда-то Интернет из спецпроекта военного ведомства стал обыденностью для большинства жителей Земли, значительно изменив существующую реальность.

Это произошло не сразу, но в какой-то момент Интернет перестал быть специнструментом и начал завоевывать мир. Отправной точкой для этого стал август 1991 года, когда Бернерс-Ли опубликовал описание своего проекта WWW, открыв к нему доступ широкой публики. И та, в свою очередь, высоко оценила это новшество, до конца не понимая, что оно несет миру.

Интернет зародился еще в конце 1960-х годов в недрах Управления перспективных исследовательских проектов министерства обороны США (DARPA) и, разумеется, не случайно был выпущен спецслужбами «на волю». Совсем не все спецтехнологии оказываются в руках обычного потребителя. По прошествии 33 лет мы уже точно можем констатировать тот факт, что Интернет — это не просто компьютерная сеть, накинутая на земной шар… Это фактор, который изменил мир. По-настоящему еще никто не осмыслил качество и глубину этих изменений, поскольку произошло это стремительно, затронув практически все сферы жизни человека.

Но данная статья не об Интернете, а о другой технологии, способной, как и он, трансформировать бытие людей, но сделать это куда основательнее.

Речь идет об искусственном интеллекте (ИИ), который в 2023 году, как и Интернет в 1991 году, перешагнул барьер, отделявший его от публичности. Качественный скачок можно увидеть во взрывном росте числа пользователей нейросетей. Если в 2021 году чатом GPT-3 пользовались 100 000 человек, а в 2022 году — 1 000 000, то к концу 2023 года это число выросло до 10 000 000.

Искусственный интеллект, как и Интернет, шел к своей популярности несколько десятков лет, однако именно 2023 год будет отделять «мир без ИИ» от «мира с ИИ».

Нужно признать, что невозможно, находясь на пороге предстоящих изменений, предсказать, как именно они воплотятся в жизнь. Вряд ли кто-то в 90-х представлял, глядя на примитивный браузер со страничкой, загруженной по Dial-UP, что нам придется через 30 лет глушить Интернет от Starlink над Донбассом, чтобы предотвратить гибель своих солдат и мирных жителей. Интернет стал и оружием. А также средством общения, способом заказать пиццу и источником психических расстройств.

Невозможно предвидеть, во что превратится популярный GPT-4 и его собратья через 10-20-30 лет, соприкоснувшись со столь же бурно изменяющимися реалиями. И какую роль он сам сыграет в этих трансформациях. Даже среди разработчиков ИИ не утихают дискуссии о том, не станет ли их детище орудием уничтожения всего человечества. Как в свое время спорили об этом ученые, работающие над ядерной бомбой. Как бы то ни было, ядерная бомба появилась, и нет никаких предпосылок к тому, что подобные дискуссии станут тормозом к развитию ИИ.

Показателен пример увольнения из совета директоров OpenAI (компания, создавшая GPT-4) Самуэля Харриса Альтмана, который позволил себе отойти от принципов человекоцентричности и социальной ответственности. Эти принципы были положены в основу деятельности OpenAI в момент ее создания. Альтман стал резко наращивать коммерческую составляющую проекта и остальные учредители проголосовали за его увольнение.

Но закончилось тем, что он вернулся, а исключившие его из совета директоров люди сами ушли. Разумеется, красивые пункты в уставе компании остались, хотя недавно исчез пункт о невозможности использовать GPT-4 в военных целях. Так что разговоры о высоких идеалах и ответственности науки перед человечеством отдельно, а бурное и неконтролируемое развитие ИИ — отдельно.

Предлагаю читателю самому разобраться, что это за зверь такой — «Искусственный интеллект», и чем может грозить его широкое пришествие в нашу жизнь. Ведь уже понятно, что это пришествие будет всепроникающим.

ИИ не является по своей сути злом или добром. Как тот же Интернет. Это обоюдоострый инструмент, несущий в себе как возможности, так и риски. Тут важно понимать, во-первых, что это за риски. А во-вторых, в чьих руках окажется этот инструмент.

Вариант, что ИИ становится сам себе хозяином, пока не рассматриваем. «Скайнет» из фильма «Терминатор», конечно, ужасен, но до него еще далеко. По общепринятой терминологии, «Скайнет» — это «широкий» или «общий ИИ». Он обладает возможностью ставить себе цели и самосовершенствоваться. Человечеству пока доступен «узкий ИИ», способный решать задачи лишь в отдельных областях. И многие годы это не изменится, если вообще будет преодолена данная грань.

Но даже возможностей «ограниченного» ИИ хватит, чтобы потрясти все основы. Ряд специалистов называют изобретение ИИ «обрядом посвящения» для человеческой цивилизации, который либо выведет ее на новый уровень, либо погубит. И это не пустые слова.

Одной статьей невозможно охватить то пространство, которое открывается человеку благодаря новому классу технологий. Но в первую очередь хотелось бы исследовать риски, которые несет эта технология, и возможности их преодоления.

Но перед тем, как переходить к основной теме, необходимо понять, что такое «Искусственный интеллект». Определений у ИИ много, но для наших целей достаточно такого.

Искусственный интеллект — способность машин выполнять задачи, требующие человеческого интеллекта. К таким задачам относятся способность обучения для улучшения своих возможностей, способность рассуждения для решения задач, восприятие и интерпретация сложных данных и использование натурального языка для понимания и общения.

По сути ИИ — это тоже компьютерная программа, как те, к которым мы уже давно привыкли. Отличие состоит в том, что обычные программы действуют по жесткому алгоритму, который закладывает в нее программист. Он может быть сверхсложным и похожим на разумное действие. Но это алгоритм, заложенный в машину человеком.

ИИ же необходимо обучать, чтобы он начал выполнять те задачи, для которых его создают. И в этом смысле есть сложность в понимании, как именно машиной принимается решение выполнить то или иное действие. Алгоритмы она выстраивает сама в процессе обучения. По-сути, мы получаем «черный ящик», который, приняв задание на входе, дает решение на выходе. Пути принятия решения во многом остаются закрытыми.

Самый трудоемкий процесс при подготовке модели к работе — это ее обучение. Например, чтобы обучить ИИ писать тексты, необходимо собрать огромный объем информации — статьи, книги, новостные материалы, интернет-форумы и т. д. Эти тексты служат примерами натурального языка. Далее тексты нужно обработать так, чтобы ИИ смог их «понять».

Текст разбивают на отдельные предложения и слова, а также исправляют ошибки и удаляют лишние символы. Далее происходит еще более мелкое дробление на микрофонемы. После начинают использоваться сложные алгоритмы машинного обучения. ИИ учится паттернам: как строятся слова, а из них предложения. Какие структуры и стили присущи текстам.

Более того, современные модели ИИ способны таким образом обучаться любой человеческой сфере деятельности или области знаний. В этом смысле для нее что текст, что изображение или музыка являются лишь разными языками, как русский, английский и немецкий.

Тексты чата GPT-4 практически невозможно отличить от текстов, написанных людьми. Выдать его может размеренность предложений и отсутствие орфографических ошибок. Либо откровенный бред, который периодически проскакивает и который нельзя искоренить в силу присущего самой технологии свойства.

Однако машина не понимает тех смыслов, которые сама закладывает в тексты. Она лишь воспроизводит закономерности, выявленные в языке математиками и реализованные в определенные математические модели. Примерно так же происходит обучение рисованию, вождению автомобиля и другим навыкам.

Для нас же важно понять, что создание работающей модели ИИ — это процесс достаточно сложный и ресурсоемкий, требующий большого и качественного материала для обучения. При этом даже самая передовая модель, обученная на тщательно подобранных и обработанных данных, будет ошибаться и галлюцинировать. В самом лучшем случае в пределах нескольких процентов ответов.

Продолжение следует.

Комментарии
СА

Сергей Александров 12:09 9.02.24

А вот - не надо.

Про то, что интернет станет способом заказать пиццу - правда, не думали (да и не люблю я пиццу...).

А вот о том, что придётся его глушить где-то, чтобы предотвратить гибель солдат и мирных жителей - очень даже думали. И кто-то - писали. А кто-то - игнорировали. Догадайтесь, кто принимал соответствующие решения?

Кстати, про то, что "Старлинк" - В ПЕРВУЮ ОЧЕРЕДЬ ОРУЖИЕ, а никакая не "швабода информации" - тоже было понятно с первого слова, сказанного об этой системе. И сколько было визга, когда ФСБ не дали разрешения на её использование в России - что забыли уже все?

Обсудить в комментариях