Роботы создают изображения и рассказывают анекдоты. 5 вещей, которые нужно знать о фундаментальных моделях и следующем поколении ИИ

MIL OSI Перевод. Анализ вечернего отчета – с английского на русский –

Источник: The Conversation (Австралия и Новая Зеландия). – Аарон Дж. Сносуэлл, научный сотрудник с докторской степенью, вычислительное право.

Изображение, созданное DALL-E 2 в ответ на запрос «рисунок рукой робота». OpenAI

Если вы видели фотографии чайник в форме авокадо или прочитайте хорошо написанную статью, которая отклоняется от слегка странных касательных, возможно, вы столкнулись с новой тенденцией в области искусственного интеллекта (ИИ).

Системы машинного обучения называются ДАЛЛ-Э, GPT и Пальма производят фурор своей невероятной способностью генерировать творческую работу.

Эти системы известны как «основные модели», и это не только реклама и трюки для вечеринок. Так как же работает этот новый подход к ИИ? И будет ли это концом человеческого творчества и началом дипфейкового кошмара?

1. Что такое модели фундамента?

Модели фундамента работать, обучая единую огромную систему на больших объемах общих данных, а затем адаптируя систему к новым задачам. Более ранние модели, как правило, начинали с нуля для каждой новой проблемы.

DALL-E 2, например, был обучен сопоставлять изображения (например, фотографию домашнего кота) с подписью («Мистер Пушистик, полосатый кот отдыхает на солнышке») путем сканирования сотен миллионов примеров. После обучения эта модель знает, как выглядят кошки (и другие вещи) на картинках.

Но модель также можно использовать для многих других интересных задач ИИ, таких как создание новых изображений только на основе подписи («Покажите мне коалу, бросающую мяч») или редактирования изображений на основе письменных инструкций («Сделайте так, чтобы эта обезьяна уплата налогов»).

2. Как они работают?

Модели Foundation работают на «глубокие нейронные сети», которые слабо вдохновлены тем, как работает мозг. Они включают сложную математику и огромную вычислительную мощность, но сводятся к очень сложному типу сопоставления с образцом.

Например, просматривая миллионы изображений-примеров, глубокая нейронная сеть может связать слово «кошка» с шаблонами пикселей, которые часто появляются на изображениях кошек — например, с мягкими, пушистыми, мохнатыми пятнами текстуры. Чем больше примеров видит модель (чем больше данных она показывает) и чем больше модель (чем больше у нее «слоев» или «глубины»), тем сложнее могут быть эти шаблоны и корреляции.

Прочитайте больше:Что такое нейронная сеть? Ученый-компьютерщик объясняет

Базовые модели в каком-то смысле являются просто продолжением парадигмы «глубокого обучения», которая доминировала в исследованиях ИИ в последнее десятилетие. Однако они демонстрируют незапрограммированное или «непредвиденное» поведение, которое может быть как неожиданным, так и новым.

Например, языковая модель Google PaLM, по-видимому, способна давать объяснения сложным метафорам и шуткам. Это выходит за рамки простого имитируя типы данных, которые изначально были обучены обрабатывать.

Языковая модель PaLM может отвечать на сложные вопросы.ИИ Google

3. Доступ ограничен — пока

О масштабах этих систем искусственного интеллекта трудно даже подумать. PaLM имеет 540 миллиардов параметров, а это означает, что даже если бы все на планете запомнили 50 чисел, у нас все равно не хватило бы памяти для воспроизведения модели.

Модели настолько огромны, что для их обучения требуется огромное количество вычислительных и других ресурсов. По одной оценке, стоимость обучения языковой модели OpenAI GPT-3 составляет около 5 миллионов долларов США.

Прочитайте больше:Могут ли роботы писать? Машинное обучение дает блестящие результаты, но некоторая сборка все же требуется

В результате только крупные технологические компании, такие как OpenAI, Google и Baidu, в настоящее время могут позволить себе создавать базовые модели. Эти компании ограничивают доступ к системам, что имеет экономический смысл.

Ограничения на использование могут дать нам некоторое утешение: эти системы не будут использоваться в гнусных целях (например, для создания поддельных новостей или клеветнического контента) в ближайшее время. Но это также означает, что независимые исследователи не могут исследовать эти системы и делиться результатами открыто и подотчетно. Поэтому мы еще не знаем всех последствий их использования.

4. Что эти модели будут означать для «креативных» отраслей?

В ближайшие годы будет выпущено больше моделей фундаментов. Меньшие модели уже публикуются в формы с открытым исходным кодом, технологические компании начинают поэкспериментируйте с лицензированием и коммерциализацией этих инструментов и исследователи ИИ усердно работают над тем, чтобы сделать технологию более эффективной и доступной.

Замечательная креативность, демонстрируемая такими моделями, как PaLM и DALL-E 2, демонстрирует, что эта технология может повлиять на творческие профессиональные рабочие места раньше, чем предполагалось изначально.

Прочитайте больше:ИИ может стать нашими рентгенологами будущего в условиях кадрового кризиса

Традиционная мудрость всегда говорила, что роботы в первую очередь заменят рабочие места «синих воротничков». Работа «белых воротничков» должна была быть относительно защищена от автоматизации, особенно профессиональная работа, требующая творческого подхода и обучения.

Модели искусственного интеллекта с глубоким обучением уже демонстрируют сверхчеловеческую точность в таких задачах, как просмотр рентгеновских снимков и выявление состояния глаз дегенерация желтого пятна. Базовые модели вскоре могут обеспечить дешевое, «достаточно хорошее» творчество в таких областях, как реклама, копирайтинг, стоковые изображения или графический дизайн.

Будущее профессиональной и творческой работы может выглядеть несколько иначе, чем мы ожидали.

5. Что это означает для юридических доказательств, новостей и СМИ

Модели фундамента неизбежно повлиять на закон в таких областях, как интеллектуальная собственность и доказательства, потому что мы не сможем предположить творческое содержание является результатом деятельности человека.

Нам также придется столкнуться с проблемой дезинформации и дезинформации, создаваемой этими системами. Мы уже сталкиваемся с огромными проблемами дезинформации, как мы видим в развертывание российского вторжения в Украину и назревшая проблема глубокая подделка изображения и видео, но базовые модели готовы решить эти проблемы.

Прочитайте больше:Ежедневно в сети публикуется 3,2 миллиарда изображений и 720 000 часов видео. Сможете ли вы отличить настоящее от подделки?

Время подготовиться

Как исследователи, которые изучить влияние ИИ на общество, мы думаем, что базовые модели приведут к огромным преобразованиям. Они жестко контролируются (на данный момент), поэтому у нас, вероятно, есть немного времени, чтобы понять их последствия, прежде чем они станут серьезной проблемой.

Джин еще не совсем выпущен из бутылки, но модели фундамента — это очень большая бутылка, а внутри очень умный джинн.

Исследование Аарона Дж. Сносвелла финансируется Центром передового опыта Австралийского исследовательского совета в области автоматизированного принятия решений и общества (CE200100005).

Дэн Хантер получает финансирование от Центра передового опыта Австралийского исследовательского совета по автоматизированному принятию решений и обществу (CE200100005)

– исх. Роботы создают изображения и рассказывают анекдоты. 5 вещей, которые нужно знать о базовых моделях и ИИ нового поколения — https://theconversation.com/robots-are-creating-images-and-telling-jokes-5-things-to-know-about-foundation-models-and-the-next-generation-of-ai-181150

ПРИМЕЧАНИЕ РЕДАКТОРА: Эта статья является переводом. Приносим свои извинения, если грамматика и/или структура предложения не идеальны.