banner
Дом / Новости / Какие опасения вызывают ИИ и являются ли некоторые предупреждения «ерундой»?
Новости

Какие опасения вызывают ИИ и являются ли некоторые предупреждения «ерундой»?

Aug 21, 2023Aug 21, 2023

Эксперт рассказал Sky News, что важно «обращать внимание» на возможность вреда от ИИ, и утверждает, что «неясно», знают ли правительства, как регулировать эту технологию безопасным способом.

Репортер новостей @OliveLineham

Вторник 30 мая 2023 20:08, Великобритания

Быстрый рост искусственного интеллекта (ИИ) вызывает обеспокоенность не только у общества и законодателей, но и у некоторых технологических лидеров, стоящих в центре его развития.

Некоторые эксперты, в том числе«крестный отец искусственного интеллекта» Джеффри Хинтон, предупредили, что ИИ представляет собой аналогичнуюриск вымирания человечества в виде пандемий и ядерной войны.

От руководителя компании ChatGPT до руководителя лаборатории искусственного интеллекта Google — более 350 человек заявили, что снижение «риска исчезновения ИИ» должно стать «глобальным приоритетом».

Хотя ИИ может выполнять жизненно важные задачи, такие как алгоритмы анализа медицинских изображений, таких как рентген, сканирование и ультразвук, его быстрорастущие возможности и все более широкое использование вызывают обеспокоенность.

Мы рассмотрим некоторые из основных из них и почему критики говорят, что некоторые из этих страхов заходят слишком далеко.

Дезинформация и изображения, измененные с помощью ИИ

Приложения искусственного интеллекта стали вирусными на сайтах социальных сетей: пользователи публикуют фейковые изображения знаменитостей и политиков, а студенты используют ChatGPT и другие «модели изучения языка» для написания эссе университетского уровня.

Одинобщийобеспокоенность по поводу ИИ и его развития связана с дезинформацией, создаваемой ИИ, и тем, как она может вызвать путаницу в Интернете.

Британский ученый профессор Стюарт Рассел заявил, что одной из самых больших проблем является дезинформация и так называемые дипфейки.

Это видео или фотографии человека, на которых его лицо или тело были изменены в цифровой форме так, что они кажутся кем-то другим. Обычно они используются злонамеренно или для распространения ложной информации.

Пожалуйста, используйте браузер Chrome для более удобного видеоплеера.

Профессор Рассел сказал, что, несмотря на то, что дезинформация уже давно существует в «пропагандистских» целях, разница сейчас в том, что, используя Софи Ридж в качестве примера, он мог бы попросить онлайн-чат-бота GPT-4 попытаться «манипулировать» ею, чтобы она «менее поддерживает Украину».

На прошлой неделе появилось фейковое изображение, котороеказалось, был показан взрыв возле Пентагонана короткое время стало вирусным в социальных сетях, и специалисты по проверке фактов и местная пожарная служба попытались опровергнуть это утверждение.

Оказалось, что изображение, на котором якобы изображено большое облако черного дыма рядом со штаб-квартирой Министерства обороны США, было создано с использованием технологии искусственного интеллекта.

Впервые оно было опубликовано в Твиттере и быстро распространилось в проверенных, но фейковых новостных аккаунтах. Однако специалисты по проверке фактов вскоре доказали, что взрыва в Пентагоне не было.

Но некоторые меры принимаются. В ноябре правительство подтвердило, что распространение порнографических «дипфейков» без согласия будет считаться преступлением согласно новому законодательству.

Превышение человеческого интеллекта

Системы искусственного интеллекта включают в себя моделирование процессов человеческого интеллекта с помощью машин. Но существует ли риск, что они могут развиться до такой степени, что превзойдут контроль человека?

Профессор Эндрю Бриггс из Оксфордского университета заявил Sky News, что существуют опасения, что по мере того, как машины станут более мощными, «может наступить день», когда их возможности превысят человеческие.

Пожалуйста, используйте браузер Chrome для более удобного видеоплеера.

Он сказал: «На данный момент, что бы ни запрограммировала машина для оптимизации, это выбирают люди, и это может быть выбрано во вред или во благо. В настоящий момент это решает человек.

«Опасение заключается в том, что по мере того, как машины становятся все более и более умными и мощными, может наступить день, когда их возможности значительно превысят возможности людей, и люди потеряют способность контролировать то, что машина пытается оптимизировать».

Подробнее: Что такое GPT-4 и как его улучшить?