Бояндин Константин Юрьевич : другие произведения.

Генеративный Ии: текст (2025-01-26)

Самиздат: [Регистрация] [Найти] [Рейтинги] [Обсуждения] [Новинки] [Обзоры] [Помощь|Техвопросы]
Ссылки:
Школа кожевенного мастерства: сумки, ремни своими руками Юридические услуги. Круглосуточно
 Ваша оценка:
  • Аннотация:
    Искусственный интеллект и всё, с ним связанное

Искусственный интеллект

Оглавление

Генеративный искусственный интеллект (ГИИ) (2025-01-26)

Генеративный искусственный интеллект (ГИИ) - подмножество искусственного интеллекта, разработанное для порождения контента (текста, звуковых файлов, изображений,видео и т.д.). На случай, если вы подзабыли, что такое искусственный интеллект: не открывая секцию "Пояснение" ниже, ответьте для себя на этот вопрос, а затем откройте и прочтите "мой" вариант (на самом деле, вариантов множество, единого общепринятого определения нет; я привожу те варианты, против которых у меня самого нет возражений).

Подробности

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ является программно-аппаратным комплексом со следующими характеристиками:
   — решает задачи, для поиска ответов на которые которых традиционно требуется интеллект человека
   — интерпретирует исходные данные (воспринимаемый внешний мир) как знаковую систему
   — в состоянии адаптировать методы и приёмы решения поставленной задачи по мере обработки данных из внешнего мира

Нейронная сеть — тоже зонтичный (обобщённый) термин, относящийся к большой группе искусственных нейронных сетей (математических моделей, которые, сильно упрощая, строятся по аналогии с тем, как устроены и работают естественные нейронные сети высших форм жизни на Земле). Т.е., каждая искусственная нейронная сеть (далее просто "нейронная сеть", НС) — это искусственный интеллект, но не наоборот.

Когда среднестатистический обыватель употребляет словосочетания "искусственный интеллект" или "нейронная сеть" ("нейросеть", "нейронка"), подразумевается обычно вполне конкретный вид ГИИ — "сочиняющий" тексты, музыку и т.д. В сочетании с тем, что в слово "интеллект" многие говорящие вкладывают наличие сознания, его модели или чего-то подобного, на выходе — огромное количество предубеждений и суеверий по поводу ГИИ.

Ещё раз.

ГИИ — это не сознание, это (упрощая) компьютерная программа. У ГИИ нет свободы воли, нет намерений, нет мировоззрения, нет планов и целей — нет ничего, что хотя бы отдалённо позволяло бы именовать его личностью, предполагать наличие сознания. ГИИ не "ведёт себя", а возвращает некий тип данных на основании своей модели и пользовательского ввода.

Поговорим сегодня о текстовых ГИИ.

Текстовые ГИИ

Существуют сотни текстовых ГИИ (ТГИИ, наверняка на слуху ChatGPT, Character.AI, GigaChat), суть работы которых указана выше: в рамках каждой "сессии общения" (чата) ГИИ генерирует текст, при помощи алгоритма, который пытается предположить, опять же, какое слово с наибольшей вероятностью необходимо добавить в чат в данный момент.

Основная сложность для ТГИИ — память, контекст общения. Сейчас намекается, что в разных вариациях ChatGPT объём контекста, скользящего окна памяти, до 32 килобайт лексических единиц (т.н. токенов; токен — минимальный кирпичик, из которого ТГИИ конструирует текст на выходе; это может быть словом, фрагментом полного слова или словосочетанием).

То есть, упрощая, при размере контекста 32 килобайта именно такое количество текста в чате (об всех участвующих собеседников) учитывается моделью ТГИИ при создании очередного сообщения. Всё, что за пределами последних 32 килобайт (или иного значения, если размер контекста другой), не учитывается, те. ТГИИ про это "забывает". Чем длиннее контекст — тем более целостным, логически непротиворечивым выглядит порождаемый текст. Так что если вы решили использовать ТГИИ для генерации художественных текстов большого объёма — имейте это в виду.

Накладные расходы (время работы процессоров, размер оперативной памяти и т.д.) при увеличении размера контекста растут нелинейно (в разных моделях по-разному), и та модель, что сумеет найти эвристику или иным образом ускорить работу при большой длине контекста, получит очевидное преимущество перед конкурентными продуктами.

Принципы работы

Чтобы понять принципы работы ТГИИ, нужно — особых вариантов нет — изучить описание его математической модели. Есть распространённое заблуждение, что все генеративные модели, когда им "ставят задачу", занимаются перебором вариантов среди того, что есть в их "единой памяти" — базе данных модели, которую "обучили" (ввели в неё тот или иной корпус текстов и преобразовали текст на естественном языке в сложную БД взаимосвязей между лексическими элементами).

Обучение давно уже не делается сугубо вручную, этим "занимаются" другие варианты ИИ "самостоятельно" (без вмешательства человеческого оператора), или под присмотром оператора (с возможностью корректировки в случае появления перекоса). Но вне зависимости от способа проводить обучение, в конечной БД нет самих текстов, на которых шла тренировка — восстановить их из БД если и можно, то в виде "творческой переработки" средствами ТГИИ.

При необходимости можно погрузиться в сугубую математику, чтобы продемонстрировать, что ТГИИ не "ищет похожее" а адаптирует вывод под указанный (или создаваемый в процессе) контекст.

Важность контекста

В корпусе текстов, "скормленных" ТГИИ, есть все мыслимые виды самых разных утверждений, которые во многих случаях могут быть несовместными с другими вариантами утверждений. Типовое рекомендованное начало работы с ТГИИ выглядит так: задайте контекст, и только потом формулируйте необходимые запросы.

Например, "Ты — эксперт по художественной русскоязычной литературе XIX века. Скажи, какие из русскоязычных писателей этого периода сочиняли произведения жанра готического романа?".

Если требуется сложный контекст, его следует задать по возможности подробно (области познания, "черты характера" "собеседника", все прочие базовые утверждения, которым "собеседнику" необходимо придерживаться. Если же не задать никакого контекста, итоги в общем случае могут быть непредсказуемыми — нельзя заранее предположить, "с чьей точки зрения" ТГИИ будет формулировать ответ на поставленную задачу.

Отсюда типовая сложность и типовые претензии к ТГИИ: "почему чат-бот на вопрос, чей Крым, не ответил так, как я ожидаю?" Потому что не было контекста, а случайно (или не случайно) выбранный оказался несовместим с ожиданиями оператора. Можно долго спорить, преднамеренно ли создатели моделей допускают перекосы по части спорных тем (таких как политические, религиозные и морально-нравственные утверждения), но даже если не было злого умысла создать БД с сильным перекосом в заранее заданные ассоциации, ТГИИ всё равно сможет выдать вовсе не то, что ожидается. Единственный вариант (не считая того, что БД должна быть статистически и структурно состоятельной) — задавать по умолчанию вполне конкретный контекст, чтобы искин "знал", что считать истинным, а что нет, и на какие утверждения в этой связи опираться.

Внешние источники

В какой-то момент времени многие ТГИИ (включая ChatGPT и GigaChat) "научились" "читать" внешние источники в качестве источников справочного и дополнительного материалов. Не всегда можно потребовать от них прочитать внешние данные прямо сейчас, обычно ТГИИ "листает" Интернет время от времени, используя рекомендованные типы источников.

Так что если ТГИИ сослался, например, на Википедию, и контекст включает текущие события или политически (морально, и т.д.) неоднозначные события, ожидайте в ответ от ТГИИ значительного перекоса, в силу того, что Википедия подконтрольна властям США и тамошние команды администраторов правят и создают контент, согласующийся с текущей политической повесткой властей США.

Галлюцинации

Галлюцинации ГИИ — выходные данные, не согласующиеся с контекстом и запросом оператора. Галлюцинируют, в той или иной степени, все ГИИ; в ряде случаев используются ИИ категоризации (КИИ, которые пытаются "понять" то, что выдал ГИИ и отнести к тем или иным категориям, по сути — моделирующие то, как человек понимает текст. Тогда, если такой КИИ отыщет явное несоответствие контексту, то может пометить фрагмент как галлюцинацию и потребовать от ГИИ создать фрагмент заново (в каждой такой операции участвует некое псевдослучайное число, позволяющее добиваться большого разнообразия возможных последовательностей ответа).

Из-за галлюцинаций во всех сервисах ТГИИ есть пояснение, что порождённый ТГИИ текст не следует считать фактическим материалом, или хотя бы внутренне непротиворечивым.

Ряд исследователей полагает, что сам факт существования галлюцинаций может свидетельствовать о том, что ГИИ могут успешно эмулировать творческую активность человека: галлюцинации — это выход за пределы, за рамки контекста, создание чего-то такого, что "не лезет ни в какие ворота".

"Мнение" ТГИИ

Обмен ниже произведён с сервисом GhatGPT, модель 1o. Помните о том, что все без исключения сообщения ТГИИ следует подвергать сверке с фактическими данными.

Спросим ТГИИ
Оператор:Ты — эксперт по текстовому генеративному искусственному интеллекту (т.е., по таким продуктам как ChatGPT, GigaChat, Character.AI и т.п., а также по лежащим в их основе технологиям).

Сформулируй особенности порождённого текстовым генеративным искусственным интелектом (далее сокращённо ТГИИ) контента, конкретно освети вопросы:

— достоверности контента (в части согласования с фактическими данными объективной реальности)

— зависимости контента от контекста (прежнего обмена с пользователем в рамках текущего чата)

— возможности свести к минимуму вероятность фактических ошибок и галлюцинаций ТГИИ

В тех случаях, когда это известно, приведи размер "памяти ТГИИ", т.е. длины скользящего окна контекста в лексических единицах (токенах). Приведи примеры размера контекста минимум для пяти известных публичных сервисов ТГИИ.

ChatGPT v1o:
Текст, порождённый текстовыми генеративными системами искусственного интеллекта (ТГИИ), имеет ряд характерных особенностей, которые можно рассматривать с точки зрения достоверности, зависимости от контекста и способов минимизации ошибок. Ниже приведены основные пункты, а также примеры размеров контекстных окон для нескольких популярных публичных сервисов ТГИИ.

1. Достоверность (согласованность с фактическими данными)

Вероятностная природа вывода. Большинство ТГИИ (LLM-модели) обучены на огромных массивах текстов и порождают ответы, ориентируясь на вероятностные закономерности слов и фраз. Это означает, что итоговый текст не гарантированно будет достоверным, поскольку модель не «проверяет» фактологические утверждения, а лишь «продолжает» статистически правдоподобный контекст.

Риск «галлюцинаций». «Галлюцинации» (hallucinations) — это ситуация, когда модель придумывает несуществующие факты или даёт логически/фактологически неверные ответы. Это может происходить, если модель не обладает «знанием» о конкретном факте (или оно недостаточно «явно» закреплено в её параметрах), но при этом стремится выдать связный и убедительный текст.

Ограниченный тренинг-дата. ТГИИ обычно обучаются на данных, доступных до определённого момента времени. Следовательно, они могут не знать о событиях, произошедших после окончания периода сбора обучающих данных. Это снижает релевантность ответов, когда вопрос касается новейших фактов.

2. Зависимость от контекста (предыдущего обмена в рамках текущего чата)

«Скользящее» или «посессионное» окно контекста. Модель при каждом новом запросе (пользовательском сообщении) получает в качестве «входа» (prompt) определённую часть истории диалога — то, что помещается во внутреннее окно контекста. Чем больше объём этого окна, тем больше предыдущей информации модель способна «удержать» в памяти при формировании ответа.

Учет истории диалога. Если модель «видит» предыдущие реплики, она может продолжать тему, исправлять ранее упомянутые неточности и поддерживать логическую связность. Однако если предыдущая история переписки не помещается в окно контекста (например, оно переполнено), модель «забывает» более ранние детали и факты.

Риск накопления ошибок. Если на ранних этапах общения модель (или человек) допустит неточность, эта неточность может «записаться» как часть контекста и приводить к дальнейшему воспроизведению ошибки, если пользователь или сама модель явно её не скорректируют.

3. Способы минимизации вероятности фактических ошибок и галлюцинаций

— Факт-чекинг и использование сторонних инструментов. Наиболее эффективный путь — это проверять ключевые факты и даты через внешние сервисы или базы данных. Некоторые усовершенствованные решения пытаются интегрировать LLM с поисковыми системами или внутренними валидационными модулями.

— Уточняющие вопросы к пользователю. Если контекст недостаточно ясен, модель может запрашивать разъяснения (в зависимости от архитектуры и настроек) — это снижает риск неверной интерпретации вопроса.

— Подготовка подсказок (prompt engineering). Правильные инструкции и формулировка запроса помогают модели сфокусироваться и повышают точность ответа. Например, прямое требование «Проверь, есть ли точное подтверждение этого факта» или «Дай ссылку на источник» может повысить корректность.

— Индивидуальное «дообучение» (fine-tuning) или «retrieval-augmentation». Подключение модели к специализированной библиотеке (knowledge base) с проверенными данными. Во время генерации ответа LLM может обращаться к этой библиотеке, что существенно уменьшает риск галлюцинаций.

— Использование цепочек размышлений (Chain-of-Thought prompting). Запрос, вынуждающий модель «пошагово» объяснять ход рассуждений. Иногда это помогает модели «самопроверять» логику и отсеивать явно неправильные варианты.

4. Примеры размеров «памяти ТГИИ» (контекстного окна)

Ниже приведены ориентировочные данные о размере контекстного окна (в токенах) для ряда известных публичных сервисов (данные могут меняться по мере обновлений систем):

OpenAI GPT-3.5 (ChatGPT, ранние версии): Около 4 096 токенов (примерно 3–4 тыс. слов в пересчёте на среднюю длину слова).

OpenAI GPT-4: Существуют две основные версии модели с разным контекстом: 8 192 токена и 32 768 токенов (в «расширенной» версии).

Google Bard: Точных официальных цифр в открытом доступе по токенам часто нет, Google указывает иные метрики, но по оценкам пользователя и испытаниям можно говорить о порядке 8–16 тысяч токенов для последних моделей.

Character.AI: Точная публичная информация о размере окна не раскрывается, однако по ряду тестов пользователей и утечкам инсайдерской информации оценивается в пределах 8–10 тысяч токенов (хотя компания может менять эти параметры).

GigaChat (Сбер): Публичные версии модели GigaChat (на базе семейства ruGPT/Transformers) по разным сборкам могут иметь от 2 048 до 16 384 токенов в контексте, в зависимости от конкретной конфигурации.

Meta Llama 2 (для полноты набора): Llama 2 (7B, 13B и 70B параметров) имеет контекстное окно 4 096 токенов по умолчанию. Существуют модификации с расширенным контекстом (до 32 768 токенов), но они не всегда доступны в публичных демо.

Обратите внимание, что токен не равен слову один к одному: в зависимости от используемого токенизатора и языка (английский, русский, смешанная речь) распределение слов по токенам варьируется.

Ключевые выводы

— Достоверность ответов ТГИИ напрямую связана с вероятностной (статистической) природой генерации и «глубиной»/качеством обучения.

— Контекст (объём «памяти») играет важную роль. Большие окна позволяют модели учитывать больше предыдущей информации диалога и снижать риск противоречий, однако при переполнении старые данные «забываются».

— Минимизация ошибок возможна благодаря комбинации мер: продуманным подсказкам (prompt engineering), внешнему факт-чекингу, интеграции с поисковыми системами и валидационными базами, а также цепочкам размышлений.

— Таким образом, контент, порождённый ТГИИ, лучше всего использовать как помощник для творческих и вычислительных задач. При этом всегда необходима «финальная проверка» человеком, особенно в вопросах, где критична фактологическая точность.

===== Перейти к комментариям

Предварение

Vidu: видео по описанию или картинке (2024-08-05)

Созданием цифрового видео по описанию или на базе исходного (референтного) изображения сейчас мало кого можно удивить, это можно делать и своими усилиями, средствами давно известного SD (Stable Diffusion, вычислительной системы порождения цифровых изображений по текстовому описанию и/или на базе других изображений).

Вчера Vidu (онлайн-сервис от КНР) стал доступен всем желающим, бесплатно там можно сделать до 20 4-секундных ролика в месяц.

Пример работы сервиса (ссылка на картинке откроет страницу, где можно запустить ролик).

Фонтан юности - Лира рен ам Морвен

Как и в случае других генеративных сервисов, на выходе может быть полно брака (и в смысле того, что сервис делает ролик не по тем действиям, и в смысле качества и согласованности самого ролика). С учётом, что ролик генерируется от 10 до 15 секунд, итоговые результаты впечатляют.

На картинке - персонаж пишущейся книги "Фонтан юности"; орков Варкрафта помнят, вероятно, все, но в книге общее с орками - только внешний вид. Картинка иллюстрирует знакомство протагонистов, Катерины Полозовой (она же Карин рем ан Корвус) и её напарницы, той самой девушки-орка Лиры рем ан Морвен (самоназвание по книге "рима").

ИИ взял картинку за основу сцены и, по описанию, Лира должна посмотреть с удивлением, шире улыбнуться и пройти мимо. Если покадрово посмотреть на изменение интерьера и отрисовку облика самой Лиры, вполне можно впечатлиться.

Не обошлось и без дефектов; чёрные пятна на лице Лиры - сажа; по сюжету, напарницам (обе служат в полиции) только что пришлось спасать людей от пожара, отсюда сажа. ИИ трактует сажу как отверстия.

Что особенно впечатляет - это то, как ИИ достраивает облик самой Лиры. По описанию статической картинки, у неё две косички; ИИ добавляет третью за спину, и вполне убедительно дорисовывает и полицейскую форму, и всё то, что прицеплено на поясе Лиры.

Это всё ИИ делает самостоятельно: в описании сценария ролика нет ни слова о том, где всё происходит. Если вас всё ещё не впечатлило то, как ИИ проанализировал картинку, экстраполировал трёхмерную модель Лиры и продолжил интерьер воображаемого помещения - то сейчас самое время.

По описанию, насколько я могу судить, на моём локальном оборудовании, если бы я располагал ПО и тренировочной базой, это всё считалось бы порядка 5-8 минут. Вполне приемлемо для оборудования, что слабее даже среднего игрового компьютера.

Очень советую найти ежемесячно десяток-другой минут и поэкспериментировать.

===== Перейти к комментариям

Предварение (2024-08-03)

С чего начать в области, о которой большинство людей имеют самое превратное представление?

Вкратце (TL;DR)

Указанная аббревиатура от ("too long; didn't read" — "слишком длинно, не (до)читал") обычно используется в виде шутливого указания на самую суть. Можно, конечно, написать "не осилил" (или на новоязе, "ниасилил"), тут уже вопрос вкуса.

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ является программно-аппаратным комплексом со следующими характеристиками:
   - решает задачи, для поиска ответов на которые которых традиционно требуется интеллект человека
   - интерпретирует исходные данные (воспринимаемый внешний мир) как знаковую систему
   - в состоянии адаптировать методы и приёмы решения поставленной задачи по мере обработки данных
       из внешнего мира

Т.е., и мультиварка, и "умная лампа", и бортовой компьютер автомобиля, и система мониторинга здоровья в связи с системой жизнеобеспечения (тот же аппарат ИВЛ) и прочие "умные вещи" - это всё варианты реализации ИИ, при том не имеющие по сути ничего общего ни по типу используемых алгоритмов, ни по области применения, ни по взаимодействию с человеческим оператором.

Можно просто спросить виновника торжества. Ниже будут приводиться в т.ч. ответы виртуального собеседника, одной из реализаций большой языковой модели (LLM). В разных ситуациях я буду спрашивать разные реализации и версии LLM, поэтому абсолютно все ответы помечены, со стороны ИИ, как LLM.

Важная оговорка. Разумеется, это не разговор, а работа вычислительной системы (текст на входе порождает текст на выходе). По уму, все ссылки на общение следует явно пометить как имитацию (т.е., писать "спросил", "ответил"), но я предпочитаю не замусоривать текст. Всё, что касается взаимодействия с вычислительными системами, является (очень или не очень) правдоподобной имитацией общения.

Далее текст от человека помечается словом "оператор".

Оператор: Я наблюдаю прискорбное состояние информированности людей о состоянии дел в области искусственного интеллекта. У большинства людей сложилось самое превратное представление об ИИ (предрассудки - от "Скайнета", что вот-вот покончит со всеми людьми и до сентенций вида "ИИ делает то, что человек умеет делать намного лучше").

С чего можно начать просвещение и каким путём идти?

LLM:

Просвещение в области искусственного интеллекта (ИИ) — это важная задача, учитывая распространение мифов
и недопонимание среди широкой аудитории. Начать можно с основ и постепенно углубляться в более сложные аспекты,
используя разнообразные методы и подходы. Вот несколько шагов, которые могут помочь в этом процессе:

Шаг 1: Объяснение Основ
    1. Разработка Информационных Материалов:
        Создайте простые и доступные объяснения о том, что такое ИИ, как он работает и какие 
        существуют виды ИИ (например, узкий ИИ и общий ИИ).
        Используйте аналогии и примеры из повседневной жизни для объяснения сложных концепций.
    2. Видеоконтент:
        Запишите короткие видеоролики, объясняющие основные принципы ИИ и развеивающие распространенные 
        мифы.
        Используйте анимацию и графику для визуализации процессов и идей.
        
Шаг 2: Публикации и Социальные Сети
    1. Блоги и Статьи:
        Пишите статьи, которые объясняют актуальные достижения в области ИИ, их применение и ограничения.
        Размещайте эти статьи на популярных платформах и в социальных сетях.
    2. Социальные Сети:
        Создайте профиль в социальных сетях, посвященный просвещению в области ИИ.
        Публикуйте факты, мифы и реалии о ИИ, используя инфографику и короткие посты.

Шаг 3: Образовательные Программы
    1. Онлайн-курсы:
        Разработайте онлайн-курсы или вебинары, которые помогут людям понять, что такое ИИ и как он работает.
        Курсы могут быть как для начинающих, так и для тех, кто хочет углубиться в тему.
    2. Лекции и Семинары:
        Организуйте лекции и семинары в школах, университетах и на рабочих местах.
        Приглашайте экспертов в области ИИ для выступлений и обсуждений.

Шаг 4: Интерактивные Мероприятия
    1. Хакатоны и Воркшопы:
        Проводите хакатоны и воркшопы, где люди могут сами попробовать создать простые модели ИИ.
        Это поможет им лучше понять, как работают алгоритмы и модели ИИ.
    2. Дискуссионные Клубы:
        Создайте дискуссионные клубы, где люди могут обсудить свои страхи и надежды, связанные с ИИ.
        Это поможет развеять мифы и дать людям возможность задать вопросы экспертам.

Шаг 5: Публикации и Партнерства
    1. Публикации в СМИ:
        Сотрудничайте с журналистами и пишите статьи для газет и журналов.
        Рассматривайте возможность создания серии статей или рубрики, посвященной ИИ.
    2. Партнерства с Образовательными Учреждениями:
        Сотрудничайте с университетами и школами для разработки учебных программ по ИИ.
        Помогайте организовывать курсы и семинары для студентов и преподавателей.

Заключение
    Процесс просвещения о ИИ требует времени и усилий, но он важен для формирования правильного восприятия
    технологий в обществе. Важно использовать разнообразные методы и каналы коммуникации, чтобы достичь широкой
    аудитории и предоставить им достоверную информацию. Совместные усилия экспертов, преподавателей и энтузиастов
    помогут создать более информированное и подготовленное общество, готовое к использованию и адаптации
    новых технологий.

Похоже на план. Вполне можно двигаться по шагам, без особой спешки.

Объяснение основ

Если спросить, скажем, тысячу человек разного возраста, образованности и т.д., не позволяя им искать ответ в Интернете, то ответы будут самыми разными, противоречащими другим ответам в том числе. Начнём с простого опыта.

Оператор: дай определение искусственного интеллекта

LLM:

Определение искусственного интеллекта (ИИ) может быть многогранным и зависеть от контекста,
в котором он рассматривается. Моё определение искусственного интеллекта:

Искусственный интеллект — это область компьютерной науки, занимающаяся разработкой
систем и алгоритмов, способных выполнять задачи, которые требуют человеческого интеллекта.
К таким задачам относятся обучение, рассуждение, восприятие, понимание естественного языка,
принятие решений и адаптация к новым обстоятельствам. 

ИИ стремится создавать машины, которые могут анализировать данные, выявлять закономерности,
принимать обоснованные решения и взаимодействовать с окружающим миром в соответствии с целями,
поставленными разработчиками.

Основные компоненты ИИ:
  Машинное обучение (ML): Разработка алгоритмов, которые позволяют системам автоматически
      улучшаться с опытом, используя данные.
  Глубокое обучение (DL): Подобласть машинного обучения, основанная на нейронных сетях со
      многими слоями, способная обрабатывать большие объемы данных для выявления сложных
      закономерностей.
  Обработка естественного языка (NLP): Технологии и алгоритмы, которые позволяют машинам
      понимать, интерпретировать и генерировать человеческий язык.
  Компьютерное зрение: Методы и технологии, позволяющие компьютерам интерпретировать и
      понимать визуальную информацию из окружающего мира.
  Робототехника: Интеграция ИИ в физические устройства, позволяя им выполнять задачи в реальном мире.

Применения ИИ:
  Медицина: Диагностика заболеваний, персонализированное лечение, управление медицинскими данными.
  Автономные транспортные средства: Автомобили с автоматическим управлением, дроны.
  Финансы: Алгоритмическая торговля, кредитный скоринг, обнаружение мошенничества.
  Промышленность: Оптимизация производственных процессов, предиктивное обслуживание оборудования.
  Обслуживание клиентов: Чат-боты, виртуальные ассистенты.

Этические и социальные аспекты:
  Конфиденциальность данных: Как собираются, хранятся и используются данные пользователей.
  Автоматизация труда: Влияние ИИ на занятость и рабочие места.
  Безопасность ИИ: Разработка систем, которые будут безопасны и надежны в использовании.

Таким образом, ИИ — это междисциплинарная область, включающая элементы компьютерной науки,
математики, когнитивных наук и инженерии, направленная на создание интеллектуальных систем,
способных выполнять сложные задачи, требующие умственных усилий, характерных для человека.

Что ж, а теперь заглянем в другие источники, поскольку несколько странно было бы опираться на определение искусственного интеллекта, сгенерированное искусственным интеллектом.

Википедия, русскоязычный сегмент. ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ: Искусственный интеллект (ИИ; искин; англ. artificial intelligence, AI) — свойство искусственных интеллектуальных систем выполнять творческие функции, которые традиционно считаются прерогативой человека (не следует путать с искусственным сознанием); наука и технология создания интеллектуальных машин, особенно интеллектуальных компьютерных программ.

Определение выше дано Джоном Маккарти в 1956 (год, когда впервые прозвучало словосочетание "artifical intelligence", "искусственный интеллект").

В английском языке словосочетание artificial intelligence не имеет антропоморфной окраски, которую оно приобрело в традиционном русском переводе: слово intelligence в используемом контексте скорее означает «умение рассуждать разумно», а вовсе не «интеллект» (для которого есть английский аналог "intellect").

Даются следующие определения искусственного интеллекта:

В английском сегменте определение ИИ (AI) ощутимо другое: Artificial intelligence (AI), in its broadest sense, is intelligence exhibited by machines, particularly computer systems. It is a field of research in computer science that develops and studies methods and software that enable machines to perceive their environment and use learning and intelligence to take actions that maximize their chances of achieving defined goals. Such machines may be called AIs.

Перевод: Искусственный интеллект (ИИ), в его широчайшем смысле, есть интеллект, проявляемый машинами, в особенности вычислительными системами. Это исследовательское направление в информатике, которое разрабатывает и изучает методы и программные реализации, которые позволяют машинам воспринимать окружающий их мир, использовать обучение и интеллект, чтобы предпринимать действия, максимизирующие их шансы достижения поставленных целей. Такие машины можно называть ИИ.

В этой ленте новостей будет использоваться следующее рабочее определение искусственного интеллекта (искин, ИИ):

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ является программно-аппаратным комплексом со следующими характеристиками:
   решает задачи, для поиска ответов на которые которых традиционно требуется интеллект человека
   интерпретирует исходные данные (воспринимаемый внешний мир) как знаковую систему
   в состоянии адаптировать методы и приёмы решения поставленной задачи по мере обработки данных
       из внешнего мира
Пусть и нечёткое, но фиксирующее основные свойства ИИ.

===== Перейти к комментариям


 Ваша оценка:

Связаться с программистом сайта.

Новые книги авторов СИ, вышедшие из печати:
О.Болдырева "Крадуш. Чужие души" М.Николаев "Вторжение на Землю"

Как попасть в этoт список

Кожевенное мастерство | Сайт "Художники" | Доска об'явлений "Книги"