Эффективность чат-бота ChatGPT в генерации складных ответов на вопросы, эссе и других текстов заставила его создателей – компанию OpenAI – начать работу над инструментом для выявления подобных материалов.
В официальном блоге OpenAI говорится, что компания создает алгоритм-классификатор, какой сможет определить текст (зафиксированная на каком-либо материальном носителе человеческая мысль; в общем плане связная и полная последовательность символов) как сгенерированный нейросетями, когда его пытаются выдать за созданный человеком.
Это может пригодится для войны с массовыми кампаниями дезинформации в интернете, чтобы ловить пытающихся жульничать школьников и студентов или выявлять чат-ботов, прикидывающихся людьми (общественное существо, обладающее разумом и сознанием, субъект общественно-исторической деятельности и культуры, относящийся к виду Человек разумный). Разработку выложили в открытый доступ, чтобы набрать отзывы пользователей и совершенствовать ее дальше.
В настоящий момент система будет несовершенна. В OpenAI говорят, что она пока малоэффективна для текстов короче 1000 знаков, однако чем текст длиннее, тем точность труды алгоритма выше. Пока он может выдавать как ложноотрицательные, так и ложноположительные результаты.
Ранее сообщалось, что чат-бот ChatGPT успешно отозвался на большинство экзаменационных вопросов курса MBA престижной американской бизнес-школы.