Как использовать нейросети в обычной жизни и когда лучше этого не делать (по крайней мере пока)
Как использовать нейросети в обычной жизни и когда лучше этого не делать (по крайней мере пока)

Как использовать нейросети в обычной жизни и когда лучше этого не делать (по крайней мере пока)

15 сентября, 20233 минуты на чтение
1,1к

Сегодня нейросети пишут дипломы, сочиняют музыку, рисуют как профессиональные художники и общаются как разумные существа. Но заменить человека они всё еще не могут: визуальные и текстовые генеративные модели — мощный, но пока несовершенный инструмент.

Главный аналитик-исследователь Центра технологий искусственного интеллекта Газпромбанка Екатерина Меньщикова рассказывает, в каких случаях можно использовать нейросети и когда лучше пока не надо.


Использовать: чтобы спросить о чем угодно
Не использовать: если при этом нужно предоставлять персональные данные

Чат-боты прекрасно научились имитировать живое общение — им можно задавать любые вопросы, попросить что-то рассказать или дать совет. Некоторые даже умудряются использовать ChatGPT как психолога, который может посочувствовать и помочь распутать эмоционально сложную ситуацию.

При этом промпты — текстовые запросы, на основе которых нейросеть будет формулировать ответ, — не должны содержать конфиденциальную или чувствительную информацию. Языковые модели используют часть пользовательских запросов для дообучения в процессе работы, и нет гарантии, что данные одного пользователя не попадут в выдачу другого.


Использовать: для творчества
Не использовать: в коммерческих целях

Нейросети умеют писать стихи и рассказы, генерировать идеи, рисовать картины и сочинять музыку. Но авторское право на результаты их творчества пока остается предметом споров. Во-первых, для обучения алгоритмов часто используют объекты чужого авторского права, а значит, их элементы могут попадать в выдачу.

К примеру, нейросеть может создать рисунок в стиле известного иллюстратора. Использование такого контента в коммерческих целях может привести к претензиям со стороны правообладателей. Прецеденты уже есть — несколько художников подали в суд на создателей нейросети Stable Diffusion за использование своих рисунков для обучения алгоритмов.

Кроме того, люди пока не решили, кому принадлежат права на итог генерации — пользователю, составившему промпт, или владельцу нейросети, сгенерировавшей ответ. Отчасти это решается покупкой платного доступа, который предоставляют многие разработчики.


Использовать: для рутинных дел
Не использовать: для сложных и нестандартных задач

Нейросети хорошо справляются с рутинными задачами, которые выполняются по определенному алгоритму или правилу: создают фрагменты программного кода, переводят с одного языка на другой, пишут письма по шаблонам, проверяют грамматику, сокращают и структурируют тексты, составляют планы поездок. А вот сложные многокомпонентные задачи им пока не под силу. Допустим, самостоятельно написать диссертацию они не могут.

Даже нашумевшая история Александра Жадана, который успешно защитил диплом, созданный ChatGPT, при ближайшем рассмотрении оказывается не такой простой. Студенту пришлось разделить работу на части, для каждой прописать промпт, проанализировать ответы и несколько раз скорректировать запрос, чтобы нейросеть выдала нужный результат. При этом дипломная комиссия заметила в готовой работе бессвязность и нарушение логики.


Использовать: если вы можете оценить работу GPT
Не использовать: без проверки фактов

Языковые модели запрограммированы так, чтобы генерировать естественные ответы, а не достоверные, поэтому выдачу чат-ботов обязательно нужно проверять. Она может быть неправильной или предвзятой из-за того, что данные, на которых обучали алгоритм, содержали неточности или не имели нужной информации.

Кроме того, существует такое явление, как галлюцинации нейросетей, когда языковая модель просто-напросто придумывает ответ. Например, американский адвокат Стивен Шварц попросил ChatGPT найти прецеденты по одному из своих дел и представил их суду. Оказалось, что все они были придуманы алгоритмом,  причем так убедительно, что адвокат не стал их проверять.


Использовать: если запрос подразумевает вариативность
Не использовать: если нужен точный ответ

Чат-боты могут выдавать разные варианты ответа на один и тот же запрос — их даже можно попросить ответить иначе или переформулировать мысль. Иногда это хорошо. Например, когда ответ непонятен, другая формулировка может помочь разобраться. Но если требуется высокая точность ответа, чат-боты могут ошибаться.

Например, если дать алгоритму список продуктов и спросить, что из них приготовить, нейросеть предложит несколько рецептов, и какой-то из них наверняка окажется удачным. А если ограничить выдачу только рецептами тортов, нейросеть может выдать что-то заведомо невкусное и обмануть ожидания.

Нейросети — мощный инструмент, способный помогать людям и повышать эффективность их работы. Да, сегодня его нельзя назвать совершенным, но это не повод от него отказываться.

Если внимательно изучить возможности нейросетей, чтобы учитывать их слабые места, ими можно и нужно пользоваться. Кроме того, это научит пользователей быть внимательными, больше анализировать и четко формулировать свои мысли, а эти навыки никогда не будут лишними.

15 сентября, 2023

Сейчас читают

Редакция рекомендует

Картина дня

Свежие материалы

Свежие новости

Свежие материалы