Нейросети - это не зло. Пользователи и создатели - вот зло во плоти
Давайте посмотрим, проблема в том что благими намерениями выложена дорога в ад или в том, что никаких благих намерений не предвещалось.
С одной стороны "все для людей". С другой - угроза утечек и вред для самостоятельного мышления.
Аналитики Goldman Sachs еще год назад писали, что ИИ способен заменить 300 млн рабочих мест в сфере юриспруденции и административном секторе.
Конечно, в тот же день, что нейросети пришли к нам, начались разговоры о том, что "машины отберут у нас работу". А значит что? Правильно, ату их!
Прошло всего 200 лет с расцвета движения луддитов, позвольте напомнить. В начале XIX века в Англии на волне промышленной революции, когда фабрики стали вытеснять мануфактуры, активисты принялись портить и уничтожать станки, способные заменить работу многих рабочих.
Однако индустриальное общество вполне сформировалось и устояло, и даже постиндустриальное неплохо себя чувствует.
Конечно, наряду с преимуществами, мы получаем и негативные последствия.
Конечно, есть некоторые правила и ограничения, пользователи получают доступ к продукту с собственными параметрами цензуры... Но эти самые пользователи очень по-разному подкованы в техническом смысле и некоторые не просто создают картинки "цыплята во дворе" и "рок-фестиваль", но и обходят ограничения с помощью так называемых jailbreak-промптов. В результате ChatGPT создает что пожелаете: и порно, и экстремисткие материалы. OpenAI решает проблему, но тут надо понимать, что вина в создаваемом контенте лежит на пользователях.
Захватывать мир и потрясать демократии с помощью ChatGPT можно, но право же, и до появления ИИ такие возможности были. Да и вообще, было бы желание.
Критика
Хайп вокруг "появления" уже очевидно засорение социальных медиа контентом, который создан ИИ. Следствие - очевидное ухудшение качества информации в интернете. Такому ухудшение не год и не два. Фейкового контента в сети хватает и возможности ChatGPT по созданию материалов на любую тему открывает новые горизонты для мошенников. Нейросети позволяют создавать иллюзию экспертности. Но разве до сих пор нас не обманывали? Обмана станет слишком много?
Вероятно, при критически большом проценте фейковой информации к достоверности всего и вся в сети появятся вопросы даже у людей с незамутненным сознанием.
Таким образом избыток обмана даст толчок к ужесточению проверки информации.
Самый простой пример: случаев, когда вам звонит кто-то из МЛС, представляясь внуком, попавшим в аварию, стало настолько расхожим явлением, что редкий пенсионер не насторожится.
События
Право же, желая помешать людям творить зло, стоило бы начать с борьбы с огнестрельным оружием. А там, через борьбу с химическим, биологическим и ядерным, однажды и до нейросетей доберемся.
Проблема проверки достоверности информации или предоставления доступа компаний к своим ресурсам - это давно реальность. Запреты на использование нейросетей в написании научных работ - не более чем "еще один запрет". Когда мне было 20 и мы, и даже наши родители получали высшее образование, наши преподаватели порой говорили нашим одногруппникам "твоя курсовая - это компиляция, иди переделывай, я это не приму".
Печальней всего, конечно, обстоит для студентов гуманитарных специальностей. Где уж несчастному ИИ разобраться с тонкостями философских, к примеру, учений? Только прибегать к прямым цитированиям.
Нейросети создадут много мусорного контента? Тем ценнее будет контент, который неспециалист сможет получить от эксперта. От живого, отметим, эксперта.
О компании
Руководители
В число основателей и руководителей организации и её дочерней коммерческой компании вошли учёные и инженеры, работающие в области искусственного интеллекта, в том числе Илья Суцкевер, Грег Брокман, Тревор Блэквелл, Андрей Карпатый и Войцех Заремба.Цель компании
OpenAI ставит перед собой цель разработать "безопасный и полезный" сильный искусственный интеллект. Его организация определяет как "высокоавтономные системы, превосходящие человека в выполнении наиболее экономически ценной работы".Инвесторы
Организация получила венчурное финансирование от ряда крупных инвесторов — Y Combinator, Amazon Web Services, Infosys, Рида Хоффмана, Джессики Ливингстон и Питера Тиля.
К сожалению, в этой истории все не ограничивается нерадивыми пользователи, которые то обнаженную грудь норовят кому-то пририсовать, то у дедушки украсть миллион.
Создатели все того же ChatGPT, проповедующие нереальные возможности для всех вокруг, далеко не белые и пушистые. В каком-то смысле они сродни тем, кто ворует у вас деньги с банковского счета.
Причин несколько. И пожалуй главная в том, что OpenAI одновременно блеют аки агнцы про все для всех, в то же время залезая рукой в карман любого автора любого контента. На авторские права им откровенно наплевать. ChatGPT обучал не лично Сэм Олтмен, показывая ему азбуку и картинки с животными, приобретенными в соседнем магазине. Нет, те самые буквы, картинки и более сложные штуки создавало великие множество авторов. Нейросеть, да, сама ничего не придумывает. Иногда она комбинирует части чужих (например, текстов, на самом деле - не только) для создания собственного, а иногда (и на этом ChatGPT ловили) ничего собственного не создает, ограничиваясь цитированием без ссылки на источник.
О ChatGPT
ПодробнееЧто умеет?
Способен вести диалог, искать ошибки в коде, сочинять стихи, писать сценарии и даже спорить.Ограничения программы
Модель вознаграждения ChatGPT, разработанная с учётом человеческого надзора, может быть чрезмерно оптимизирована и, таким образом, снижать производительность в соответствии с законом Гудхарта.Написание кода с помощью ChatGPT
Чат-бот не только подсказывает, как выполнить операцию или процесс, но и анализирует код, ищет в нем недостатки, а также переводит из одного языка программирования в другой. Его уже успешно применяли для создания простых, но полнофункциональных приложений для iOS и Android.Доступность
Доступ к сервису ограничен в таких странах, как Китай, Россия, Белоруссия, Афганистан, Венесуэла, Туркменистан, Иран. Также ранее сервис не был доступен для жителей Украины и Италии.
То, что у кого-то нейросеть заберет работу - полбеды, возможно, забрав одну работу, она откроет тому же человеку доступ к другой. Вторая половина беды - в этике. Нейросеть умеет то, что умеет потому что научилась на текстах, картинках и аудио реальных людей, вложивших в их создание время, умение, деньги и душу. Ну это как если бы Сэм Олтмен не купил для нейросети азбуку, а украл бы ее, этакий папа Карло, в голову укушенный.
Так, реакция на это наглое бесплатное обучение на чужих материалах, уже есть и проявляется в создании технологий, мешающей правильному распознанию визуальных материалов. Запретить пользоваться результатами нашего труда не можем, но можем подпортить датасет нейросетей, повышая процент мусорных результатов.
И еще немного об этике.
Если в период презентации Олтмен и компания утверждали, что задача и миссия OpenAI в создании безопасных ИИ технологии, то по прошествии небольшого времени (реально, около года) все тот же Олтмен бравировал успехом, имеющимся и будущим, потому что "ИИ должны заменить "среднего человека" на работе".
Не дать ему новые возможности, как мы писали выше, а просто - заменить. Слушайте, у вас если совести нет, вы хоть наймите кого-то опытного, пускай вам заявления для СМИ готовит, надо иметь хоть какую-то совесть.
Около года назад, Илья Суцкевер сообщил, что отказ от изначального проповедуемых целей объясняется намерением OpenAI выйти на коммерческий рынок. Примерно в это же время компанию сотрясали скандалы с то ли уходом, то ли возвращением Сэма Олтмена. И хотя OpenAI по сей день позиционируют себя как независимое от инвесторов объединение альтруистов, Олтмен был возвращен "в команду" благодаря позиция именно их крупнейшего донора - Microsoft.
События
О чем статья?
ПодробнееВо благо или во вред?
Нет здесь ни черного, ни белого. Нейросети могут как помочь специалисту, так и заменить его. Автоматизация процессов — явление более старое, чем ИИ.Надо ли бороться?
Прошло всего 200 лет с расцвета движения луддитов, позвольте напомнить. Впрочем, современные "луддиты" уже умеют портить контент для ИИ.Новые риски
Угроза утечек и вред для авторского контента, самостоятельного мышления. Даже любимых футурологами "обретений сознания" можно дойти в опасениях.Пользователи
Получили доступ к простым и совершенным инструментам для мошенничества, создания фейков. Но создавать фейки можно и без нейросетей, просто сложней.Разработчики
Заявленные цели и миссии за год-полтора рассыпались, альтруисты-пацифисты из OpenAI показали себя не с лучшей стороны и сами нарушают наши права.