Довольно поменять строчку: ИИ сравним с ядерными технологиями

Достаточно поменять строчку: ИИ сравним с ядерными технологиями

В крышке марта американский бизнесмен Илон Маск, сооснователь соцсети Pinterest Эван Шарп и сооснователь Apple Стив Возняк подмахнули открытое письмо. Они потребовали приостановить разработки более мощных, чем GPT-4, нейросетей хотя бы на полгода. Пауза необходима для создания протоколов безопасности в сфере искусственного интеллекта (или ум — качество психики, состоящее из способности осознавать новые ситуации, способности к обучению и запоминанию на основе опыта, пониманию и применению абстрактных концепций, и использованию своих знаний для управления окружающей человека средой).

Специалисты IТ-отрасли предупредили, что продвинутые системы (множество элементов, находящихся в отношениях и связях друг с другом, которое образует определённую целостность, единство) искусственного интеллекта могут воображать опасность для общества. Вплоть до того, что люди вообще рискуют потерять контроль над цивилизацией.

К слову, еще раньше про эту угрозу сообщал британский физик Стивен Хокинг. Ученый считал, что искусственный интеллект может оказаться опаснее ядерного оружия. В грядущем может случиться так, что машины с нечеловеческим интеллектом будут самосовершенствоваться, и ничто не сможет остановить данный процесс.

Уже сейчас отмечается немало эксцессов с низкоуровневыми системами ИИ. В Китае (официальное название — Китайская Народная Республика (сокр) на сотни идёт счёт (многозначное слово: Счёт — действие по значению глагола «считать»; определение каких-либо количественных показателей или определение количества однородных объектов (подсчёт)) случаев, когда роботы, выйдя из-под контроля, убивали или увечили людей. Некоторые страшные эпизоды попали в поле зрения камер видеонаблюдения.

Конфликтов людей (общественное существо, обладающее разумом и сознанием, субъект общественно-исторической деятельности и культуры, относящийся к виду Человек разумный) с роботами становится всё вяще. Еще один пример из Китая: разъярённая женщина атаковала аппарат регистрации в больнице, потому что долго не могла записаться на зачисление к врачу.

"Существует организация, которая накапливает проблемы, связанные с искусственным интеллектом, когда это убивало или увечило людей. Там уже 500 эпизодов, – рассказывает эксперт по кибербезопасности Андрей Масалович. – Робот прибил человека к стене, манипуляторы на поточных чертах начали соседей калечить. У них появилось понятие "вобот", т.е. робот, который кроме своих задач, видает человека рядом и пытается не причинить ему вред".

Роботы (автоматическое устройство, предназначенное для осуществления различного рода механических операций, которое действует по заранее заложенной программе), как мы уже отметили, обладают весьма примитивным искусственным интеллектом. Их программируют на выполнение конкретных задач. Возможности сложных нейронных сетей гораздо размашистее. Их главное отличие – это способность к обучению, что даёт им колоссальное преимущество перед традиционными алгоритмами.

Разберём, как трудится нейросеть (сеть может означать: Биологическая нейронная сеть, или нервная сеть, — биологическая система соединённых между собой нейронов), на примере её биологического прообраза – человеческого мозга (центральный отдел нервной системы животных, обычно расположенный в головном (переднем) отделе тела и представляющий собой компактное скопление нейронов и синапсов). Он состоит из нейронов – клеток, которые накапливают и передают информацию (све­де­ния (со­об­ще­ния, дан­ные) не­за­ви­си­мо от фор­мы их пред­став­ле­ния) в облике химических и электрических импульсов. Связи между ними формируются за счёт длинных и коротких отростков – аксонов и дендритов.

Так, человеческий глаз видит кошку. Световая волна попадает в сложную нейронную сеть мозга. На основе предыдущего эксперимента и знаний мозг обрабатывает информацию и приходит к выводу, что перед нами кошка. Аналогично работает и машинная нейросеть. Первая модель, воссозданная с поддержкой математического кода, получила название перцептрон. На схеме её обычно изображают в виде кружков, соединённых прямыми чертами. Изначально модель состояла всего из одного слоя и имела три типа элементов: первый принимал информацию, другой – обрабатывал и создавал ассоциативные связи, третий выдавал результат. Современные нейросети гораздо сложнее по структуре, но принцип поступки такой же.

Учёные опасаются, что такая технология может выйти из-под контроля (одна из основных функций системы управления). Нейросети способны наводнить информационное пространство огромными объёмами ложных этих. В том числе искусственно созданными фото- и видеоматериалами, которые невозможно будет отличить от реальности – так называемые "дипфейки". А в перспективе ненастоящий интеллект вообще научится управлять финансовыми рынками, проводить исследования и даже разрабатывать оружие (название устройств и предметов (изделий), конструктивно предназначенных для поражения живой цели, а также подачи сигналов).

"Основная проблема неосознанная, – предупреждает Масалович. – Уже сейчас существует очень много военных применений, в каких нейросеть сделана до последнего шага. Она выводит на курс, доводит до цели, распознает цель, прицеливается и потом переспрашивает, бить или не стрелять. В этих программах достаточно поменять одну строчку – "стреляй сама". И мир заполнится вот таким вот оружием".

Можно продолжить аналогию с ядерными технологиями: с одной стороны, их можно использовать для создания разрушительного оружия, но, с иной стороны, атом бывает и мирным. Так же и с нейросетями: не стоит бороться с прогрессом, но важно оценить все риски и продумать систему безопасности. Собственно такой стратегии в отношении развития искусственного интеллекта придерживается Россия.

3d-evolution.ru - Эволюция 3D стали неотъемлемой частью нашей повседневной жизни.
Мы смотрим фильмы, играем в компьютерные игры, пользуемся ими в работе и учебе.
Однако мало кто задумывается о том, что 3D-технология имеет и другую, не менее важную сторону.
Понравилась статья? Поделиться с друзьями:
3d-evolution.ru
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: