SquirrelCat

Нейросети - это не зло. Пользователи и создатели - вот зло во плоти

Давайте посмотрим, проблема в том что благими намерениями выложена дорога в ад или в том, что никаких благих намерений не предвещалось.

С одной стороны "все для людей". С другой - угроза утечек и вред для самостоятельного мышления. 

Например, Open AI, создатель самых популярных нейросетей ChatGPT позиционирует себя как айтишников на страже "улучшайзинга возможностей" для человечества. 
Спорить сложно: с появлением ChatGPT возможностей для упрощения работы стало больше. Теперь мы можем быстрее кодить, за пару минут создавать годную картинку для соцсетей (а то и обложку для альбома или киноафишу), генерировать разнообразный контент, да чего уж там - писать научные работы.
Midjourney, например, становится серьезной угрозой для дизайнеров и художников-иллюстраторов.
Аналитики Goldman Sachs еще год назад писали, что ИИ способен заменить 300 млн рабочих мест в сфере юриспруденции и административном секторе.


Конечно, в тот же день, что нейросети пришли к нам, начались разговоры о том, что "машины отберут у нас работу". А значит что? Правильно, ату их!
Прошло всего 200 лет с расцвета движения луддитов, позвольте напомнить. В начале XIX века в Англии на волне промышленной революции, когда фабрики стали вытеснять мануфактуры, активисты принялись портить и уничтожать станки, способные заменить работу многих рабочих.
Однако индустриальное общество вполне сформировалось и устояло, и даже постиндустриальное неплохо себя чувствует.

Конечно, наряду с преимуществами, мы получаем и негативные последствия. 

Одна из обсуждаемых опасностей - проблема технологической сингулярности - ИИ сбежит от своих создателей, "обретет сознание" и наделает в мире дел (а то и захватит мир). Правда, если спросить у ChatGPT, способен ли он на такие проделки, ответит, что он является лингвистической моделью, которая ограничена программированием и заложенными данными. Но, может быть, он врет.

Конечно, есть некоторые правила и ограничения, пользователи получают доступ к продукту с собственными параметрами цензуры... Но эти самые пользователи очень по-разному подкованы в техническом смысле и некоторые не просто создают картинки "цыплята во дворе" и "рок-фестиваль",  но и обходят ограничения с помощью так называемых jailbreak-промптов. В результате ChatGPT создает что пожелаете: и порно, и экстремисткие материалы. OpenAI решает проблему, но тут надо понимать, что вина в создаваемом контенте лежит на пользователях. 
Захватывать мир и потрясать демократии с помощью ChatGPT можно, но право же, и до появления ИИ такие возможности были. Да и вообще, было бы желание.

Критика

Подробнее

Хайп вокруг "появления" уже очевидно засорение социальных медиа контентом, который создан ИИ. Следствие - очевидное ухудшение качества информации в интернете. Такому ухудшение не год и не два. Фейкового контента в сети хватает и возможности ChatGPT по созданию материалов на любую тему открывает новые горизонты для мошенников. Нейросети позволяют создавать иллюзию экспертности. Но разве до сих пор нас не обманывали? Обмана станет слишком много? 
Вероятно, при критически большом проценте фейковой информации к достоверности всего и вся в сети появятся вопросы даже у людей с незамутненным сознанием. 
Таким образом избыток обмана даст толчок к ужесточению проверки  информации. 
Самый простой пример: случаев, когда вам звонит кто-то из МЛС, представляясь внуком, попавшим в аварию, стало настолько расхожим явлением, что редкий пенсионер не насторожится. 

События

Подробнее

Право же, желая помешать людям творить зло, стоило бы начать с борьбы с огнестрельным оружием. А там, через борьбу с химическим, биологическим и ядерным, однажды и до нейросетей доберемся.

Проблема проверки достоверности информации или предоставления доступа компаний к своим ресурсам - это давно реальность. Запреты на использование нейросетей в написании научных работ - не более чем "еще один запрет". Когда мне было 20 и мы, и даже наши родители получали высшее образование, наши преподаватели порой говорили нашим одногруппникам "твоя курсовая - это компиляция, иди переделывай, я это не приму". 

Какая разница, что за способ вы применили для обмана преподавателя? 
Печальней всего, конечно, обстоит для студентов гуманитарных специальностей. Где уж несчастному ИИ разобраться с тонкостями философских, к примеру, учений? Только прибегать к прямым цитированиям.
Нейросети создадут много мусорного контента? Тем ценнее будет контент, который неспециалист сможет получить от эксперта. От живого, отметим, эксперта.

О компании

Подробнее

К сожалению, в этой истории все не ограничивается нерадивыми пользователи, которые то обнаженную грудь норовят кому-то пририсовать, то у дедушки украсть миллион.
Создатели все того же ChatGPT, проповедующие нереальные возможности для всех вокруг, далеко не белые и пушистые. В каком-то смысле они сродни тем, кто ворует у вас деньги с банковского счета.

Причин несколько. И пожалуй главная в том, что OpenAI одновременно блеют аки агнцы про все для всех, в то же время залезая рукой в карман любого автора любого контента. На авторские права им откровенно наплевать. ChatGPT обучал не лично Сэм Олтмен, показывая ему азбуку и картинки с животными, приобретенными в соседнем магазине. Нет, те самые буквы, картинки и более сложные штуки создавало великие множество авторов. Нейросеть, да, сама ничего не придумывает. Иногда она комбинирует части чужих (например, текстов, на самом деле - не только) для создания собственного, а иногда (и на этом ChatGPT ловили) ничего собственного не создает, ограничиваясь цитированием без ссылки на источник.

То, что у кого-то нейросеть заберет работу - полбеды, возможно, забрав одну работу, она откроет тому же человеку доступ к другой. Вторая половина беды - в этике. Нейросеть умеет то, что умеет потому что научилась на текстах, картинках и аудио реальных людей, вложивших в их создание время, умение, деньги и душу. Ну это как если бы Сэм Олтмен не купил для нейросети азбуку, а украл бы ее, этакий папа Карло, в голову укушенный.

Так, реакция на это наглое бесплатное обучение на чужих материалах, уже есть и проявляется в создании технологий, мешающей правильному распознанию визуальных материалов. Запретить пользоваться результатами нашего труда не можем, но можем подпортить датасет нейросетей, повышая процент мусорных результатов.

И еще немного об этике.
Если в период презентации Олтмен и компания утверждали, что задача и миссия OpenAI в создании безопасных ИИ технологии, то по прошествии небольшого времени (реально, около года) все тот же Олтмен бравировал успехом, имеющимся и будущим, потому что "ИИ должны заменить "среднего человека" на работе".

Не дать ему новые возможности, как мы писали выше, а просто - заменить. Слушайте, у вас если совести нет, вы хоть наймите кого-то опытного, пускай вам заявления для СМИ готовит, надо иметь хоть какую-то совесть. 

Альтруисты, да. А еще - очень миролюбивые альтруисты. Альтруисты-пацифисты, мы бы даже сказали.
OpenAI изначально позиционировали себя и свой продукт с условием неприятия использования ИИ в военных целях, что было отражено в публичных документах. Куда делись эти  благие устремления к 2024 году? Вице-президент OpenAI по глобальным вопросам, Анна Маканджу уже не скрывает факт сотрудничества компании с Пентагоном, причем сие не вынужденная мера, а нечто "вполне соответствующее миссии компании".
Но, возможно, Пентагон "заставил их".

 Около года назад, Илья Суцкевер сообщил, что отказ от изначального проповедуемых целей объясняется намерением  OpenAI выйти на коммерческий рынок. Примерно в это же время компанию сотрясали скандалы с то ли уходом, то ли возвращением Сэма Олтмена. И хотя OpenAI по сей день позиционируют себя как независимое от инвесторов объединение альтруистов, Олтмен был возвращен "в команду" благодаря позиция именно их крупнейшего донора - Microsoft.

События

Подробнее

Ну, внезапно. Они просто послушали мнения умных людей.
Что тут сказать? Если вы читаете, что в последние годы социальные медиа боты активно используются для усиления дезинформации, созданной нейросетями, о людях и событиях и управляют общественным мнением, то помните - боту от вас ничего не надо. 
Не бойтесь нейросетей. Бойтесь людей. Все зло и вся ложь в мире до сих пор генерировалась нашими сородичами.

SquirrelCat
120

Подпишитесь и читайте Vistat в

Автор SquirrelCat

Космос, техника, энергетика, оружие, инфраструктура, футбол и многое другое. Обсуждаем, анализируем и прогнозируем. Во всяком случае - пытаемся.