Искусственный интеллект – еще пару лет назад это выражение казалось невероятно футуристичным. А уже сегодня мечты о мегапродвинутых технологиях превратились в планы на обозримое будущее. Многие, конечно, с трепетом ждут появления в реальной жизни “джарвисов” – как в этих ваших фильмах Marvel. Но есть и люди, которые, мягко говоря, скептически относятся к бурному развитию ИИ. Многие аргументы они черпают из фильмов серии “Терминатор”, где пресловутый Скайнет устраивает ядерные войны. Разумеется, до всемирного апокалипсиса еще далековато. Но парочку скандалов нейросети уже успели породить. О самых интересных мы расскажем в этом материале.

Робот может написать симфонию, или Как у нейросети забрали патент

Во всем мире распространен такой охранный документ как патент. Благодаря этой бумажке вы можете создавать всякие изобретения и не бояться, что у вас их кто-то украдет. В более художественной параллели с патентом (книги, кино, музыка) находится авторское право. И в обоих случаях защита будет действовать, только если вы человек – машинам вход воспрещен. 

Да, современные технологии уже доказали, что робот может и симфонию написать, и программный код настрочить. Более того, в 2019 году нейросеть Dabus создала инновационный контейнер для еды, который явно нуждался в патенте. Но Верховный суд Великобритании отклонил запрос о признании искусственного интеллекта изобретателем. Возникло больше вопросов, чем ответов. Ведь по закону право авторства нельзя передавать, а у Dabus нет другого выхода. Ждем новое движение “Жизни ИИ тоже важны”.

Отдай мне свое лицо! А еще голос, одежду и все остальное

Нейросети могут не только создавать что-то новое, но и преобразовывать хорошо забытое старое. Причем далеко не всегда легально. Так произошло и со знаменитой Скарлетт Йоханссон, образ которой “украли” для создания рекламы. Нейросеть Lisa AI сгенерировала голос и лицо кинозвезды — “дипфейк” — и стала от имени Скарлетт раскручивать мобильное приложение. “Черная вдова” не потерпела такого хамства и подала на разработчиков в суд. Однако это далеко не первый такой случай. Ранее похожая ситуация случилась с другим популярным актером – Томом Хэнксом. 

На фото пример технологии “дипфейк” с актером Томом Крузом

Отдельно стоит упомянуть порно-дипфейки. Когда лица знаменитостей (в том числе и Йоханссон) появляются в фильмах для взрослых. И это куда хуже, чем безобидная реклама приложения для смартфона.

Художники всех стран, объединились – и ищут новую работу…

Среди нейросетей огромной популярностью пользуется Midjourney. Это искусственный интеллект, который может создать любое изображение на основе вашего текстового запроса. И чем дальше развивается приложение, тем более точные и качественные выходят картинки. За свои способности Midjourney хоть и получила признание со стороны обычных людей, но от художников и дизайнеров на ИИ обрушилась только волна хейта. А как бы вы себя повели, если бы вашу работу, на которую уходит нескольких дней, месяцев или даже лет, машина выполнила за несколько минут? Вдобавок ко всему нейросети учатся на картинах миллионов людей, в последствии отбирая хлеб у своих “учителей”. Все это привело к недовольству, искам и даже забастовкам художников.

ChatGPT – расист. Удар, откуда не ждали

И вот очередь подошла до самой популярной нейросети – ChatGPT. Это чат-бот, который может вести с вами разговор на любые темы, перефразировать различный контент и даже написать диплом. Однако главной задачей ИИ, исходя из названия, является общение с пользователями. А людей хлебом не корми – дай поиспытывать новую технологию на прочность. И моральную проверку бот явно не прошел. Так, при помощи некоторых запросов можно заставить нейросеть стать и расистом, и сексистом, и гомофобом. Конечно, OpenAI всеми силами пытается сделать свое детище максимально дружелюбным. Но пока факт остается фактом — ChatGPT можно подставить. А хейт как всегда направлен на разработчиков.

Никогда не доверяй современным технологиям

Однако не только люди могут подставить ChatGPT. Сама нейросеть не против подшутить над пользователями. Одной из таких жертв стал американский юрист Стивен А. Шварц. В деле против компании колумбийской авиакомпании Avianca адвокат представил суду несколько похожих прецедентов. Вот только выяснилось, что таких кейсов никогда не существовало. Думаю, вы уже догадались, кто дал Шварцу лживую информацию. Да, ChatGPT может ссылаться на несуществующие судебные дела. По словам самого Стивена, он не знал, что нейросеть может врать. Но незнание не освобождает от ответственности.