Алгоритмы анализа тональности текста: как искусственный интеллект понимает эмоции

Вместе с дата-сайентистом и биоинформатиком Марией Дьяковой подготовили гайд о том, как устроены самые популярные языковые модели и что нужно знать, чтобы начать с ними работать. Би Лиу, китайский ученый, считает тональностью «тип оценки мнения или мнение, которое подразумевает отрицательное или положительное настроение», но не включает в это определение субьективность и эмоции [Bing Liu, 2012]. Гораздо более сложная версия вышеописанного — это, вероятно, слово, которое существует где-то в GPT-4, и на основе этого слова модель может составить список вероятных вещей, которые будут следующими. Если бы мы просто усилили ваши умственные способности — скажем, вложили в ваш мозг всю компьютерную мощь мира, — вы всё равно не смогли бы достоверно предсказать «of», исходя просто из «Jack». Вам понадобится больше контекста, чтобы понять, о каком именно «jack» идёт речь. Современные технологии имеют огромное влияние на коммуникацию и языковую практику. — некий margin, который определяет, насколько сильно модель должна отделять хороший и плохой ответы друг от друга. Поменяв температуру, способ сэмплирования или использовав разные чек-пойнты модели, возможно получить два разнообразных ответа и . Не ограничивая общность, предположим, что, согласно некоторым предпочтениям, асессоры или пользователи установили, что первый ответ лучше второго. Существуют также техники ускорения обучения моделей и оптимизации использования памяти, но с этим предлагаем читателям ознакомиться самостоятельно. Наконец, обсудив, как готовить обучающие данные, перейдем к прародителю ChatGPT. Таким образом с некоторого размера модели наблюдается повышение метрик качества при дальнейших дообучениях генерализованной модели на отложенных задачах. Получается, что можно оптимизировать подводку, или, другими словами, находить наиболее оптимальный промт, который лучше прочих решает поставленную задачу. Чтобы улучшить качество решения задачи, авторы предлагают осуществлять калибровку подводок. Для улучшения этого подхода были предложены feedforward архитектуры нейронных сетей (feedforward neural networks), чтобы аппроксимировать вероятность слова. Эта модель представляет собой простую нейронную сеть, которая предсказывает следующее слово на основе фиксированного числа предыдущих слов. веб-страница FNNLM улучшает традиционные n-граммные модели за счёт использования скрытых слоёв, которые позволяют модели лучше улавливать зависимости в данных. Однако и эта модель имеет ограничения, так как может обрабатывать только фиксированное количество предыдущих слов.● Рекуррентные нейронные сети (RNN). В отличие от FNNLM, рекуррентные нейронные сети способны учитывать произвольное количество предыдущих слов благодаря их архитектуре, которая включает в себя циклические соединения. http://pattern-wiki.win/index.php?title=lynggaardmcfadden2167 Это позволяет моделям RNN учитывать долгосрочные зависимости в тексте, что существенно повышает качество генерации и понимания текста.● LSTM и GRU. Этот ответ неверен, поскольку модель определённого размера может «извлечь пользу» из выборки ограниченного размера. Может получиться, что увеличение выборки не даст никакого прироста в качестве модели. Поэтому увеличение выборки с какого-то момента приведет лишь к бесполезной трате ресурсов на обучение. Задача предсказания следующего слова не так проста, как кажется. Для того, чтобы научить компьютер решать эту задачу, нужно понять, какие предсказания мы хотели бы получать от него.

Построение языковой модели


Благодаря тонкой настройке ее можно использовать и для других задач. Например, для классификации или NER (Named Entity Recognition) — распознавания сущностей в тексте. Позиционная языковая модель[17] оценивает вероятность того, что данные слова встречаются в тексте близко друг к другу, не обязательно непосредственно рядом.

У языковых моделей самый большой и крутой словарь из всех, что вы когда-либо видели

При рассмотрении языковых моделей без их применения к конкретной задаче (например, машинному переводу) существует одна универсальная мера, которая может дать нам представление о том, насколько хороша наша языковая модель. Такие языковые модели на основе FFNN могут обучаться на больших текстовых корпусах в режиме «без учителя» (т.е. не требуется явного размеченного набора данных). Нейронные языковые модели (или языковые модели с непрерывным пространством) используют непрерывные представления или вложения слов для своих прогнозов[12]. LLM прогнозируют следующее слово в зависимости от текста, который был введен ранее. Механизм внимания в архитектуре трансформеров позволяет модели сосредотачиваться на ключевых аспектах текста, что способствует созданию осмысленного ответа.

Как обычно работает модель LLM?


Интонация играет важную роль в выражении прагматических значений и функций в русском языке. Она помогает передавать эмоциональную окраску высказывания, выявлять отношение говорящего к сказанному, указывать на намерения и умыслы, а также согласовывать коммуникативные взаимодействия. Правильное использование интонационных средств позволяет говорящему лучше передавать свои мысли и эмоции, а слушателю лучше понимать смысл высказывания. Интонация помогает выразить эмоциональное отношение говорящего к сказанному, например, удивление, радость, грусть или раздражение. С помощью интонации можно передать не только смысл слов, но и их уровень важности или степень уверенности в высказывании. Искусственный интеллект (ИИ) является одним из наиболее перспективных инструментов для решения проблем бизнеса. Например, освоить востребованное направление в Data Science — NLP можно на совместной магистратуре ТГУ и Skillfactory. https://bcs.org/membership-and-registration/member-communities/ai-specialist-group/ Студенты изучают дисциплины, которые развивают лингвистическое и математическое мышление для решения практических задач в области речевых технологий. Упаковано с последними достижениями в области искусственного интеллекта, веб-разработки и технологий будущего. Но невозможно игнорировать моральные проблемы, поднятые языковыми моделями.