![]() |
![]() |
![]() |
|||||
![]() |
Знаки препинания сильно влияют на способность ИИ отвечать на запросы |
||||||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-04-03 15:04 ![]() ![]() ![]() Их удаление из текста снижает точность ответов ИИ на запросы до 20%, сообщили в пресс-службе Института искусственного интеллекта AIRI Российские ученые обнаружили, что знаки препинания и служебные части речи - элементы языка, которые часто воспринимаются пользователями как малозначимые, - играют ключевую роль в обработке информации языковыми моделями. Их удаление из текста снижает точность ответов ИИ на запросы до 20%, сообщила пресс-служба Института искусственного интеллекта AIRI. "Изучение принципов действия языковых моделей - одна из главных задач нашей научной группы. Мы работаем над этим уже два года. Глубокое понимание того, как модели принимают решения, поможет сделать их не только эффективнее, но и безопаснее. Сейчас мы стремимся улучшить управляемость рассуждений языковых моделей, чтобы упростить их обучение и повысить качество", - пояснил сотрудник Института AIRI Антон Разжигаев, чьи слова приводит пресс-служба института. Как отмечают ученые, современные большие языковые модели разбивают тексты на так называемые токены - небольшие блоки, среди которых системе необходимо выделить наиболее важные для понимания. Пока у математиков нет четкого понимания, какие типы токенов наиболее важны для корректной работы ИИ, какие данные сохраняются в связке с этими блоками. Для получения подобных сведений российские исследователи разработали LLM-микроскоп - набор инструментов, позволяющий визуализировать и анализировать внутреннее поведение различных форм больших языковых моделей, а также "видеть" промежуточные результаты работы системы. Исходный код и примеры работы данного LLM-микроскопа были опубликованы в открытом виде в глобальной сети. Используя данный инструмент, Разжигаев и его коллеги впервые изучили, как на работу ИИ влияют мало значащие для человека элементы запроса на английском языке, в том числе знаки препинания, артикли и разные служебные части речи. Эти расчеты показали, что больше всего информации о контексте содержится именно в данных элементах текста, а не в существительных, что побудило ученых изучить, как на качество работы ИИ повлияет удаление всех знаков препинания и служебных частей речи. Проведенные опыты показали, что подобная процедура значительным образом (до 20%) снизила точность ответов большого числа открытых и закрытых систем ИИ на два разных набора тестовых заданий для больших языковых моделей. Это происходило даже в том случае, когда ученые просили саму систему ИИ удалить наименее значимые токены из текста, что подчеркивает неожиданно важную роль знаков препинания и служебных частей речи в работе ИИ, подытожили исследователи. Источник: nauka.tass.ru Комментарии: |
||||||