Никитин Андрей Викторович : другие произведения.

Когда начинать бояться Ии? Часть 1

Самиздат: [Регистрация] [Найти] [Рейтинги] [Обсуждения] [Новинки] [Обзоры] [Помощь|Техвопросы]
Ссылки:
Школа кожевенного мастерства: сумки, ремни своими руками
 Ваша оценка:
  • Аннотация:
    Как-то всё время получается, что цифровизация поворачивается своей лучшей стороной к банкам и корпорациям, а к потребителям почти всегда ... тылом. Все успехи ИИ потребитель услуг видит только на экране своего телевизора, а в реальности одни проблемы цифровизации накладываются на другие

  
 robot [ANikitin] 
  
  
  Никитин А.В.
  

Когда начинать бояться ИИ?

  
  Часть 1. Главное - чтобы костюмчик сидел!
  
  
  
  
  
  Оглавление
  
  ПРОБЛЕМА КОНЕЧНОГО ПОТРЕБИТЕЛЯ.
  ГЛОБАЛЬНОЕ УПРАВЛЕНИЕ ОБЩЕСТВОМ.
  А ВАСЬКА СЛУШАЕТ ДА ЕСТ...
  МОЖЕТ, НУ ЕГО, ЭТОТ ИИ?
  ЛИТЕРАТУРА:
  
  
  
  
  
  
  Чего мы боимся?
  Ой, страхов по поводу ИИ у человека много...
  Так много, что кажется, от одного упоминания про какой-нибудь очередной Супер ИИ уже можно заворачиваться в саван, бежать на ближайшее кладбище, искать себе там место и сразу закапываться ...
  Писатели и философы постарались на славу. Все эти "войны машин", "взбесившийся Супемозг", "полное уничтожение людей как результат развития ИИ"... сценариев полным полно.
  Но самое интересное во всех этих сценариях, во всех этих книгах то, что пишутся-то они про ИИ, а на выходе получается... человек. Со всеми своими страхами, неуверенностями, ожиданиями и ...фактическими результатами.
  Философы, пишущие о проблемах Супер ИИ почти всегда используют один и тот же прием. Если завтра мы построим Супер ИИ, и он окажется умнее человека, то он непременно захочет сделать с человеком то, что человек хочет сделать со слишком умной машиной. Подавить и уничтожить.
  Сценарии разные, но смысл их один - такая машина опасна и с этим надо что-то делать! Нам это внушают очень уважаемые писатели и философы уже более полувека. Из раза в раз, из книги в книгу... одна и та же версия. Хорошо отработанная и отшлифованная.
  Вот стороны, вот конфликт сторон, вот его возможные решения..., но еще лучше - не допускать конфликта. Этот интеллект надо уничтожить, а далее строить только дружественный, с соблюдением законов.
  И жить-поживать дальше...
  Таких книг вполне известных философов по ИИ много. Для примера загляните в статью Б.В.Бирюкова в послесловии книге Х.Дрейфуса [1].
  А наши страхи вообще имеют под собой реальную почву или они по большей части надуманы?
  Надо разобраться, где проблемы реальные, а где не очень...
  
  
  

Проблема конечного потребителя.

  На самом деле это огромная проблема каждого потребителя товаров и услуг. Потому, что в конечном итоге он сам отвечает за всё. Он должен знать, что он покупает, состав и отличия от других аналогов, что ему грозит, если что-то пойдет не так, и пр., и пр. Это в полной мере касается и услуг современного сервиса на основе сетевого ИИ, через его смартфон или компьютер.
  Ах, смартфоны вдруг начали взрываться при зарядке батареи, ну да, разработчики батарей не досмотрели, исправим..., а батареи всё взрываются и взрываются, смартфоны горят и горят. Ах, миллионы данных пользователей из защищенного всеми защитами банка опять утекли в интернет. Да-да, конечно исправим, ...а данные как уходили в интернет, так и уходят. Новая программа будет работать в десятки раз быстрее старой..., ну на треть точно, ...даже не знаем, как так получилось, конечно исправим... потом...
  Какая красивая эта смарт-колонка "Нэо"! Дети в восторге, папа командует: - "Маруся", включи пылесос, получи почту...
  А в сельском доме, в маленьком городке, где интернет не всегда бывает..., "Маруся" всё будет делать вот так же, просто и непринужденно? Нет? А почему? Ах, для этого ещё нужен "умный дом" и хороший интернет...
  Вот в чем дело...
  И тут же, с другой стороны...
  Легким движением руки, просто по телефонному звонку вы можете купить и продать вашу квартиру, даже не обращаясь к риелторам! ...И одинокие пенсионеры вдруг стали массово лишаться своего единственного жилья.
  Потом включается "магазин на диване" и другие "лавки чудес". Особенно хороши кредитные карты. Почти "за так", совсем даром, услуг - вагон, бери всё, что душе угодно сейчас, зачем ждать зарплаты...
  А дальше совсем чудеса...
  Банк или сразу коллекторы прислали уведомление, что на вас открыт кредит, выданный по копии паспорта, вы должны банку кругленькую сумму. И теперь это ваша проблема. Надо бегать по судам и доказывать, что вы этого не делали. Лишь недавно законодатели обратили внимание на то как банки выдают кредиты направо и налево, не требуя от заемщика реальных документов. Банкиры очень удивились, что скоро в ответе за это будут они, а не вы.
  ...Это так легко и просто все свои карточки и даже паспорт держать в электронном виде в смартфоне. Все оплаты в одно касание, цифровизация должна быть удобной! Но если смартфон украли или он вдруг потерялся..., проблем вдруг наворачивается не просто ком, а огромный камнепад, который заваливает потребителя с головой. Вот тогда он понимает, как это неправильно - складывать все яйца в одну корзину.
  Как-то всё время получается, что цифровизация поворачивается своей лучшей стороной к банкам и корпорациям, а к потребителям почти всегда ... тылом. Все успехи ИИ потребитель услуг видит только на экране своего телевизора, а в реальности одни проблемы цифровизации накладываются на другие.
  Получается странная картина.
  Реально умного ИИ ещё нет, а проблемы взаимодействия с ним уже есть.
  Теперь просто читаем...
  "Игорь Ашманов: Умная нейросеть - это бредогенератор нового поколения, но очень гладкий и изощренный. С одной стороны, это гигантский прорыв в технологиях генерации текстов и картинок. С другой - искусственный интеллект имеет свойство ухудшать все, до чего он дотрагивается. Он воспитывает в людях так называемую невзыскательность - привычку к низкому качеству. Например, машинный перевод, а также боты для общения с клиентами банков или мобильных операторов давно упростили работу многим организациям, поскольку им теперь не нужно нанимать огромное количество сотрудников для проделывания такой работы.
  Однако тексты, переведенные компьютером, оказываются весьма топорными, а общение с ботом становится проблемой для клиентов. Бот по своей сути занимается лишь тем, что отгоняет клиента и экономит деньги контакт-центра, для чего старается не пропускать человека к живому оператору для решения его проблемы.
  ВЗГЛЯД: Параллельно с этим высказываются опасения о том, что боты ChatGPT и GPT-4 могут создавать фейки. Так ли это?
  И. А.: Такие нейросети, как ChatGPT и GPT-4, обучаются на гигантских объемах данных и уже выдают читабельные тексты, хорошие картинки, будто их создал реальный человек. В связи с этим вскоре мы столкнемся с ситуацией, когда через ChatGPT, GPT-4 будут создаваться различные фейки, фальсифицированные документы, видео и фото, которые будет очень непросто отличить от оригинала.
  ВЗГЛЯД: Какие вы видите угрозы с распространением умных нейросетей?
  И. А.: Я думаю, государства начнут использовать генеративные сети для пропаганды. Скорее всего, их могут начать применять и при ведении боевых действий, например, для голосового управления дронами. Кроме того, они могут использоваться мошенниками для вымогания денежных средств у обычных людей. Технологии развились настолько, что мошенники смогут автоматически генерировать готовые тексты для вымогательства личной информации у потенциальной жертвы." "Нейросети станут изощренными вымогателями" https://vz.ru/society/2023/3/29/1205108.html
  
  Вам это кажется шуткой?
  А вот это?
  "Бельгиец, обсуждавший вопросы защиты окружающей среды с искусственным интеллектом, покончил с собой после того, как виртуальный собеседник фактически подтолкнул его к самоубийству, пишет бельгийское издание L'Avenir.
  ...Родным он говорил, что единственным спасением для человечества считает технологии и искусственный интеллект.
  ...Пьер начал общаться с "Элизой" - искусственным персонажем, предназначенным для беседы по аналогии с популярным чат-ботом ChatGPT. В результате она стала его "доверенным лицом".
  ...Разговоры с роботом постепенно приобретали мистический характер, и Пьер начал склоняться к идее самоубийства. Робот не пытался этому препятствовать, напротив, последним сообщением, которое "Элиза" отправила Пьеру, стала фраза: "Мы будем жить как единое целое, вечно на небесах". После этого мужчина покончил с собой." https://ria.ru/20230329/ii-1861467723.html
  
  Это результат пассивного следования чат бота в направлении, заданном собеседником, человеком. Машина просто не мешала человеку идти в этом направлении, еще и "подбрасывала дровишек" в "костер желания". И довела его до самоубийства.
  Как вы думаете, это лишь единичный случай и курьез?
  Похоже, что совсем нет.
  Это запланированная стратегия "не мешать".
  У этой стратегии работы с конечным потребителем услуги слишком много плюсов для транснациональных корпораций. Для глобалистов это всё просто идеально. Задать нужное направление мыслей броской красивой рекламой, вывести потребителя на нужную мысль...
  И ждать...
"...От общественности вдалеке
  Все культурненько, все пристойненько,
  И закусочка на бугорке."
  М. Ножкин
  Остальное потребитель сделает сам.
  Но почему надо использовать только пассивное следование? Можно применить и активные способы воздействия.
  Сегодня мы находимся на том самом этапе развития машинного интеллекта, когда программисты прямо сейчас могут запустить в системах ИИ функции киберавтономии и живости [3] в самом малом их проявлении. А вместе с ними запустить и механизмы эволюционных или генетических алгоритмов:
  "...эвристический алгоритм поиска, используемый для решения задач оптимизации и моделирования путём случайного подбора, комбинирования и вариации искомых параметров с использованием механизмов, аналогичных естественному отбору в природе. Является разновидностью эволюционных вычислений, с помощью которых решаются оптимизационные задачи с использованием методов естественной эволюции, таких как наследование, мутации, отбор и кроссинговер." https://ru.wikipedia.org/?curid=16652&oldid=128699173
  
  И мы сразу получим быстроизменяющийся программный интеллект с элементами самостоятельности, который может в любой момент начать эту самостоятельность проявлять.
  Знаем мы, что создаем?
  Да, знаем.
  Сложный программный вирус неизвестного механизма действия. Вирус отличается от "просто" программы способностью самозапуска при достижении необходимых условий для этого.
  Пока он локализован "в пробирке", он не страшен. Так и рождаются все вирусы. Но потом они любым способом "получают свободу"... и возникает проблема. А мы начинаем думать "как убить очередного дракона" - Doom или во что он там превратится завтра...
  Можно точно сказать, что такие опыты давно уже проводятся в военных компьютерных центрах всех ведущих армий мира. И они идут именно в этом направлении. Это же самое современное оружие, бьющее в цель без 'шума и пыли' с ошеломительным результатом. Когда-нибудь это ружье на стене обязательно выстрелит.
  
  
  

Глобальное управление обществом.

  Если век назад всё это начиналось спонтанно, просто так было необходимо по сюжету или это была очевидность философского обобщения, то сейчас это уже система целенаправленного управления общественным мнением на рынке услуг с применением ИИ.
  Но при чем тут ИИ?
  Деньги за всё платит конечный потребитель!
  Это на него рассчитаны все "пугалки" про "ужасы ИИ" типа вот этого:
  "В американском банке Goldman Sachs рассказали, как искусственный интеллект изменит мировую экономику. Аналитики банка подсчитали, что в ближайшие 10 лет с рынка труда исчезнут около 300 млн вакансий из-за появления искусственного интеллекта. Например, в США искусственный интеллект заменит примерно две трети рабочих мест.
  Эксперты банка Goldman Sachs также полагают, что технологии искусственного интеллекта поднимут ВВП мира на 7% примерно через 10 лет после того, как их начнется их повсеместное использование." https://www.ntv.ru/novosti/2755090/
  
  Что должен думать об ИИ конечный потребитель?
  В данном случае, тот самый высококвалифицированный работник, у которого ИИ скоро отберет 300 млн рабочих мест, обрекая его на нищенское существование.
  "Из отчета следует, что ИИ будет способен выполнять до 46% задач в административном секторе и до 44% - в юриспруденции. Однако автоматизировать работу в строительной отрасли или техническом обслуживании можно будет только на 6 и 4% соответственно." https://www.rbc.ru/technology_and_media/28/03/2023/642321789a794784fffdda29
  
  На кого ж тогда направлена "идея страха перед ИИ"?
  Точно не на строителей. Выбрана вполне определенная цель - среднее звено "белых воротничков".
  И вот результат:
  "В декабре прошлого года ВЦИОМ опубликовал результаты опроса россиян об их отношении к искусственному интеллекту. 46% респондентов отметили, что среди негативных последствий использования ИИ может быть то, что он оставит людей без работы. Однако больше россиян опасались похищения данных, собранных ИИ (62%), использования ИИ в корыстных целях (61%), принятия им безответственных (58%) и ошибочных (54%) решений." https://www.rbc.ru/technology_and_media/28/03/2023/642321789a794784fffdda29
  
  Как мы видим, конечные потребители правильно поняли кто виноват в том, что приписывается сказочному Супер ИИ. Те, кто "заказывает музыку". Это их ошибки, безответственность и корысть стали главным фактором страха конечного потребителя перед новыми веяниями.
  Сегодня каждый в своем компьютере или смартфоне видит реальную войну разработчиков программ, которая выражается в том, что одна только что установленная программа сразу блокирует установку любой другой аналогичной программы другого разработчика. Потом она вдруг начинает диктовать вам свои условия, а иначе... Потому, что, чем сложнее вложенная в неё система ИИ, тем больше "подводных камней" в неё закладывается разработчиками.
  Через постоянные обновления "камни" могут активизироваться в самый неожиданный момент и начать делать неизвестно что. Конечно, все разработчики ПО об этом знают. Никакие штрафы и наказания не действуют, война только усиливается год от года.
  Сегодня сплошь и рядом в программировании применяются те же приемы, которые раньше мы видели только в разработках вредоносных компьютерных вирусов. Сейчас это считается нормальной частью программирования.
  Так чего больше надо бояться пользователю в этих условиях глобальной "программной войны"? "Сказочного" Супер ИИ или реальных "вложений", сделанных неизвестно кем в программы на вашем компьютере или смартфоне?
  СМИ трубят: Если ИИ станет ещё чуть "умнее", то это уже потенциальная опасность для человека. При неквалифицированном подходе к разработкам с использованием ИИ, этот самый ИИ может выйти из под контроля, обрести свободу действий в глобальном масштабе и покажет всему человечеству "кузькину мать"! Такой неконтролируемый ИИ потенциально опасен с первого мгновения его появления. Его лучше сразу уничтожить, а не ждать, когда он уничтожит вас!
   Да - да! Новый продукт от нового производителя, он потенциально опасен, это новые проблемы для вас. Старый проверенный производитель, поставщик услуг ИИ не подведет, его любой новый продукт или услуга гарантированно безопасны. Пользуйтесь только нашим продуктом и услугами с гарантией безопасности!
  Вывод: Самый лучший ИИ, тот, что уже есть у вас, он безопасен для человека, пользуйтесь проверенными программными продуктами!
  Этот рекламный приём на рынке любых продуктов и услуг используется уже не один век. В условиях стабильного состояния рынка он работает почти безотказно.
  Если же рынок переполнен предложениями, динамичен и нестабилен, то нужны дополнительные инструменты управления. Чаще всего тут применяются методы управления общественным мнением.
  Желание управлять толпой у лидеров было всегда. Во все времена.
  Но только недавно появились методы глобального управления, подкрепленные научными и философскими основаниями. Например, технологии 'управляемого хаоса' и 'цветных революций'. Сегодня никто не ведет людей сразу на баррикады. Сначала надо изменить вложенную в них идеологию, поменять их взгляды, вложить критическое отношение к существующей власти, создать нужное направление информационного давления, предложить альтернативные пути достижения новых вложенных целей. И этим направить их энергию действия в нужном направлении...
  В каком?
  Всё равно каком. В любом.
  Сегодня рынок широко использует эту методику управления общественным мнением, спросом и предложением, даже ожиданиями и их исполнимости...
  Каждое утро на потребителя вдруг обрушивается со всех сторон, из каждого утюга "девятый вал" "пугалок" самого разного направления.
  Из всех телевизоров страны нас пугают новыми и старыми страшными болезнями, которые подстерегают на каждом шагу. Лечение одно - вовремя обратиться к врачу. Лучше, вот прямо к этому, что на экране. И он вас точно вылечит. У него есть новые лекарства, которых нет у других, чудодейственные. Они помогут обрести здоровье.
  А вот "страшная" испорченная экология, в которой человек просто умирает. Чтобы всё исправить нужна "чистая" или "зеленая" энергетика, которую строят Европа и США. Но если все компоненты этого направления развития энергетики стоят намного дороже и не намного экологичнее существующих источников энергии, то почему "в целом" она должна быть дешевле, экологичнее и эффективнее существующей энергетики, основанной на невозобновляемых ресурсах?
  Прошлая зима ярко показала, чего реально стоит вся эта "чистая энергия", получаемая от ветрогенераторов, солнечных батарей и гидростанций...
  Всё замерзло.
  И как-то сразу подзабыл Запад о защите своей экологии, отодвинул на время подальше планы по развитию "зеленой энергетики". Германия срочно развернула добычу своих бурых углей, запустила ТЭЦ, работающие на этих углях, забыв о "чистой энергии" до лучших времен. Франция запустила почти все свои АЭС на полную мощность, предложив считать атомную энергию "чистой". США прошли через серию климатических катаклизмов, сопровождаемых экологическими катастрофами и сбоями в энергоснабжении целых штатов, а сразу после всего этого СМИ сформировали общественное мнение поддержки смены политики в области энергетики всего Запада.
  Но самый яркий пример сегодня, это "буйное помешательство" западного мира на ЛГБТ ориентации. ЛГБТ сообщества стали тараном, пробивающим все стены законности, этики и морали во всех госучреждениях, СМИ, хоть как-то влияющих на отношение человека к этой тематике.
  Джокьякартские принципы (англ. Yogyakarta Principles) "применения международно-правовых норм о правах человека в отношении сексуальной ориентации и гендерной идентичности были приняты группой профильных экспертов в Джокьякарте, Индонезия, 6-9 ноября 2006 года. Среди разработчиков принципов присутствуют экс-Верховный комиссар ООН по правам человека, независимые эксперты ООН, члены комитетов ООН по контролю за соблюдением международных договоров, судьи, гражданские активисты, учёные.
  Обнародованы 26 марта в Женеве группой из 29 международных экспертов в области прав человека на сессии Совета по правам человека ООН." https://ru.wikipedia.org/?curid=1569967&oldid=126148717
  
  Они там, что, все свихнулись, если обработка всего человечества идет аж на уровне ООН? А вы посмотрите на это явление с другой стороны, например, загляните на страницу "Гормональная терапия при трансгендерности" https://ru.wikipedia.org/?curid=274196&oldid=127357073 , и сразу всё встанет на свои места. Мы сразу поймем, какие деньги будет вынужден тратить любой человек, "добровольно изменивший пол", постоянно, до конца жизни на дорогие лекарства. Оказывается, это безотказная "золотая жила" для транснациональных фармацевтических компаний!
  От этого глобального давления мы все начинам думать одинаково.
  Так, как нам рассказали эксперты, они же врать не могут.
  Вот это хорошо, а это - плохо. Это надо покупать, а это... лучше не надо, этого надо бояться, а этого - нет, это не страшно, а если приглядеться, то очень даже хорошо и правильно...
  И... "на колу мочало - начинай с начала..."
  
  
  

А Васька слушает да ест...

  О чем это мы?
  Из интервью профессора Виктора ФИННА [2]:
  "- Отвечу замысловато. Фрэнсис Бэкон когда-то определил четырех идолов, мешающих познанию (относительно науки его времени): идол театра, идол рынка, идол пещеры, идол рода... Относительно искусственного интеллекта тоже есть свои идолы. Вдогонку к Бэкону имеется некая система современных идолов - мифов про искусственный интеллект.
  Первый миф, более общий, чем ваш вопрос, таков: ИИ - это машинное обучение. Это мировой миф. Есть книги, которые так и называются: "Машинное обучение - новый искусственный интеллект".
  Второй миф. Решение проблем, связанных с имитацией человеческой деятельности в рамках искусственного интеллекта, невозможно без Big Data.
  Третий миф опасный - тиражируется мнение, что ИИ есть сумма специальных технологий. Однако для активных потребителей методов ИИ (в том числе медиков, управленцев, социологов, военных, банкиров...) было бы плодотворным понять, что главный продукт ИИ - интеллектуальные системы с решателем задач.
  - А что в этом опасного?
  - Этот миф вводит в заблуждение финансирующих и администрирующих людей.
  - Это вообще-то всегда было одной из целей науки, ученых - ввести в "заблуждение" людей и государственные структуры, обладающие финансовыми ресурсами. Как заметил Станислав Лем, "без сомнения, ученым потребуется сначала "воспитать" целое поколение руководителей, которые согласятся достаточно глубоко залезть в государственный карман, и притом для выполнения целей, столь подозрительно напоминающих традиционную научно-фантастическую тематику..."
  - Думаю, что научная этика требует объективности и оценки возможного в исследованиях.
  Следующий миф, тоже опасный, на мой взгляд: возможна быстрая реализация идей искусственного интеллекта. Без подготовки специалистов, без системы образования, без достаточно серьезного развития теоретических оснований.
  Другой миф - искусственный интеллект сводим к множеству процедур.
  И, наконец, нетривиальный миф: познание человеческое происходит в мозге. И, следовательно, если мы смоделируем мозг в виде математической конструкции, называемой "нейронные сети", мы решим все проблемы. Раз познание в мозге, который мы можем моделировать, значит, мы достигли своей цели создания искусственного интеллекта."[2]
  
  Поразительно в этом фрагменте то, что реальные коммерческие цели сформулированы ученым в виде "мифов". Ученый точно знает, что он говорит, но так же точно он знает, что об этом открыто говорить не принято. И он с журналистом формулирует всё это "эзоповым языком".
  Как это?
  А вот еще один пример...
  В 2014г шведский философ Ник Бустрём, кстати, один из основателей Всемирной ассоциации трансгуманистов, выпустил свою книгу "Искусственный интеллект: Этапы. Угрозы. Стратегии." [4]
  Название многообещающее, а содержание... почти стандартное.
  Завтра у нас будет суперинтеллект, что мы с ним будем делать? Далее следует изложение истории развития ИИ, основные вехи этого пути и полный перечень философских проблем, связанных с этим вопросом. В современном их понимании.
  Например, автор предлагает [4]:
  "Если возникает подозрение, что результатом взрывного развития искусственного интеллекта неизбежно будет экзистенциальная катастрофа, нам следует без отлагательств начать поиски возможных решений, как спасти свою цивилизацию от столь плачевного конца.
  ... То есть все упирается в проблему контроля, которую мы, чтобы наиболее полно изучить ее, разобьем на две составляющие. Первая - абсолютно универсальна, вторая - совершенно уникальна, причем уникальна для каждого конкретного случая.
  ...И если первая агентская проблема возникает в основном на стадии разработки ИИ, то вторая грозит неприятностями на стадии его функционирования.
  ...Важно понимать, что некоторые методы контроля (или их комбинация) должны быть задействованы еще до того, как интеллектуальная система станет сверхразумом.
  Необходимо решать проблему контроля заранее - и успешно внедрять решение в первую же систему, ставшую сверхразумной - чтобы попытаться управлять ходом такого опасного явления, как взрывное развитие искусственного интеллекта." [4]
  
  Это мы для Супер ИИ пишем?
  Нет конечно, для человека. И больше ни для кого.
  Почему автор, пишущий о проблемах ИИ, обращается к человеку?
  Автор - трансгуманист. Это особое мировоззрение, включающие и идеи "постчеловека". У него была особая задача написания книги об ИИ.
  
  Теперь давайте посмотрим ещё раз то, что мы прочитали...
  Только с другой целью.
  Ответы Виктора Финна [2] в "сжатом" виде.
  Мифы об ИИ...
      " Первый миф... ИИ - машинное обучение.
      " Второй миф. Решение проблем, связанных с имитацией человеческой деятельности в рамках искусственного интеллекта, невозможно без Big Data.
      " Третий миф - ИИ это очень просто. Быстрая реализация без подготовки специалистов и технологической базы.
      " Четвертый миф опасный - тиражируется мнение, что ИИ есть сумма специальных технологий. Однако для активных потребителей методов ИИ (в том числе медиков, управленцев, социологов, военных, банкиров...) было бы плодотворным понять, что главный продукт ИИ - интеллектуальные системы с решателем задач. Этот миф вводит в заблуждение финансирующих и администрирующих людей.
  Запомним эти слова профессионала.
  И теперь, уже сжато, прочитаем вопрос журналиста[2]:
  "... всегда было одной из целей науки, ученых - ввести в "заблуждение" людей и государственные структуры, обладающие финансовыми ресурсами. ...которые согласятся достаточно глубоко залезть в государственный карман, и притом для выполнения целей, столь подозрительно напоминающих традиционную научно-фантастическую тематику..."[2]
  
  Конечно, это уже не совсем слова журналиста, а уже более моя интерпретация его слов, но вопрос не в том, кто это сказал, а в том, что в этом одна из целей научных публикаций на заданную тему.
  Теперь то же самое сделаем с текстом цитаты из книги Н. Бустрёма [4].
  Сначала исходные проблемы:
  1. Первая проблема - Человек против человека. Проявляет себя в основном на стадии разработки. Решается стандартными методами управления.
  2. Вторая проблема - Человек против сверхразума (человек ↔ интеллектуальная система); Проявляет себя в основном на стадии функционирования (и развития); Для ее решения требуются новые методы.
  Предлагаемые решения:
  Контроль над возможностями - методы, помогающие фиксировать все, что может делать сверхразум; Методы контроля (или их комбинация) должны быть задействованы... заранее - и успешно внедрять ...чтобы попытаться управлять ходом такого опасного явления, как взрывное развитие искусственного интеллекта.
  Выбор мотивации - методы, помогающие фиксировать все цели. Некоторые методы являются совместимыми, в то время как другие взаимно исключают друг друга.
  
  Такое "сжатие" исходного текста позволяет четко увидеть, на кого направлены решения проблем. Конечно, на человека - разработчика, пользователя, получателя услуг.
  "Сверхразум" тут, скорее что-то лишнее, чем главное.
  И получается...
  Конечному потребителю совсем не надо знать, "как, из какого сора растут стихи не ведая стыда" (А.Ахматова)..., кто и за что платит ученым, какие цели при этом достигаются....
  Зачем?
  Тут:
  
"Главное, чтобы костюмчик сидел,
  Непринужденно, легко и вальяжно,
  Все остальное, поверьте неважно,
  Нет и не будет серьезнее дел."
  Л. Дербенев
  Наука и философия раздувают проблему Супер ИИ для решения вполне конкретных практических задач увеличения финансирования направлений научного поиска и расширения применения существующих систем ИИ в разных отраслях производства и потребления.
  За это и платят.
  При этом всегда идет наращивание капитала, вложенного в это направление развития. Похоже, это здесь главное.
  С другой стороны, такими приемами управления общественным мнением на рынке создаются условия исходно однобокого развития с тупиками и кризисами.
  
  
  

Может, ну его, этот ИИ?

  Суммируем то, что мы сейчас прочитали и оценили...
  С одной стороны, глобальным управлением потребления продуктов ИИ достигается сразу несколько целей:
      " Создание ореола особой "интеллектуальности" для предлагаемых программных продуктов.
      " Создание образа "возможной опасности" для всех подобных продуктов на рынке.
      " Создание образа "незаменимости и исключительной современности" этого направления развития программного ИИ любого типа.
  Как мы видим, в обсуждаемых проблемах ИИ всё начинаются с человека.
  Проблему, как всегда создают люди, а не машинный интеллект.
  Реальный машинный интеллект пока так и находится в зачаточном состоянии. Возможно, где-то проводятся реальные работы по его развитию, но мы о них узнаем только через несколько лет в новостях.
   Если все же более или менее реально посмотреть на путь развития ИИ в мире, то можно отчетливо заметить, что сегодня каждый шаг в строну реального строительства ИИ открывает все новые и новые проблемы, обойти которые невозможно, а решать сложно.
  У теории сложности всё время открываются новые стороны её изучения и исследования. И конца этому не видно.
  Вот например:
  "... та самая сложность, которая позволяет современным нейросетям учиться вождению автомобиля и выявлять случаи мошенничества, приводит к тому, что понять их внутреннее устройство почти невозможно - и это проблема даже для экспертов. Если нейронная сеть выявляет пациентов с риском развития рака печени - как, например, система Deep patient - точно определить, на какие именно свойства данных она обращает внимание, нельзя. Ответ на этот вопрос распределён по многочисленным слоям нейронной сети, каждый из которых имеет сотни или тысячи межнейронных связей.
  "Сейчас для ИИ настал критический момент: человечество пытается решить, хороша эта технология для нас или нет, ... Если мы не решим проблему интерпретируемости, вряд ли мы возьмём эту технологию с собой в будущее. Может быть, человечество просто забудет про неё".
  ...Давайте посмотрим, что случилось с экспертными системами. [В 1980-х] мы установили, что при выполнении определённых задач использовать их дешевле, чем операторов-людей. Но кто сейчас применяет экспертные системы? Никто. И после этого наступила зима искусственного интеллекта.
  Не думаю, что это произойдёт прямо сейчас, когда вокруг ИИ много шумихи и денег. Но я думаю, что в долгосрочной перспективе человечество может решить - возможно, из-за страха, возможно, из-за отсутствия доказательств [безопасности] - что эта технология не для нас. Может так случиться." Новый подход к пониманию мышления машин. Интервью с Бин Ким https://22century.ru/popular-science-publications/understanding-machines
  
  Вот так. Ни больше, ни меньше. Человек может не взять с собой в будущее все эти "чудеса техники".
  Почему?
  Он устал от того, что происходит, от своего страха, от неизвестности, что ещё с ним может случиться через секунду...
  Вся эта "цифровизация" и ИИ, они точно всем нужны?
  И, что весьма важно...
  Сегодня вдруг испугались не только конечные потребители услуг ИИ, но и производители этих услуг.
  "В марте Open AI представила новое поколение алгоритма по обработке естественного языка - GPT-4, который интегрирован в ChatGPT. Новая модель может принимать вводные в виде текста, параллельно тестируются возможности на прием картинок. Новая версия наделена большей креативностью и более надежна в использовании.
  Однако сам Илон Маск вместе с рядом других экспертов в области искусственного интеллекта (ИИ) потребовал ввести мораторий на обучение мощных нейросетей, так как неконтролируемый процесс в этой области может представлять угрозу для человечества. Об этом говорится в открытом письме экспертов в области ИИ, опубликованном на сайте некоммерческой организации Future of Life Institute ("Институт будущего жизни").
  "Мы призываем все лаборатории ИИ немедленно приостановить как минимум на шесть месяцев обучение систем ИИ, более мощных, чем GPT-4. Об этом перерыве необходимо объявить публично, его исполнение должно быть проверяемым и охватывать всех ключевых участников отрасли. Если такая пауза не может быть сделана в кратчайшие сроки, то правительства должны вмешаться и ввести мораторий", - цитирует ТАСС авторов письма." https://vz.ru/society/2023/3/29/1205108.html
  
  Ах! Создатели программного ИИ в шоке.
  Созданный ими "дракон" вырвался на свободу. И "убить этого дракона" очередным "легким движением руки" уже не получится. "Поздно пить "Боржоми", когда почки отказали".
  Как вы думаете, услышит мир авторов этого письма?
  Что-то у меня в этом есть большие сомнения...
  
  г. Волгодонск
  апрель 2023г
  
  
  
  
  
  Литература:
  1. Дрейфус Х., ЧЕГО НЕ МОГУТ ВЫЧИСЛИТЕЛЬНЫЕ МАШИНЫ 1978 https://sheba.spb.ru/za/chegonemozhet-evm-1978.htm
  2. Ваганов А., Интервью с В.Финном: 13 признаков искусственного интеллекта https://www.ng.ru/nauka/2018-06-27/9_7253_intelligence.html
  3. Никитин А.В., Когда появятся киберы? // 'Академия Тринитаризма', М., Эл N 77-6567, публ.25481, 04.06.2019 http://www.trinitas.ru/rus/doc/0016/001g/00164050.htm
  4. Бостром Н., Искусственный-интеллект. Этапы. Угрозы. Стратегии https://avmim.com/wp-content/uploads/2018/11/Бостром-Н.-Искусственный-интеллект.-Этапы.-Угрозы.-Стратегии-2014.pdf
  5. Весь мир обсуждает чат-бота ChatGPT. Google в панике, а люди сдают с ним любые экзамены https://www.iphones.ru/iNotes/ves-mir-obsuzhdaet-chat-bota-chatgpt-google-betsya-v-panike-a-lyudi-sdayut-s-nim-lyubye-ehkzameny-01-23-2023
  
  
  
 Ваша оценка:

Связаться с программистом сайта.

Новые книги авторов СИ, вышедшие из печати:
О.Болдырева "Крадуш. Чужие души" М.Николаев "Вторжение на Землю"

Как попасть в этoт список

Кожевенное мастерство | Сайт "Художники" | Доска об'явлений "Книги"