В Бельгии недавно разгорелась дискуссия по поводу использования искусственного интеллекта, поскольку ректор Гентского университета Петра де Сутер использовала искусственный интеллект при написании своей речи на церемонии вручения дипломов в сентябре прошлого года, но в ее тексте содержатся ошибки и две сфабрикованные цитаты – это то, что известно как «галлюцинация», сообщила бельгийская общественная телерадиокомпания RTBF.
По словам Петры де Сутер, Альберт Эйнштейн якобы сказал: «Догма — враг прогресса». Однако на самом деле учёный никогда не произносил этих слов. Следовательно, это галлюцинация, ложная информация, которую искусственный интеллект представляет как истину.
Представьте, что вы используете ChatGPT для написания речи. Вы просите его включить цитату Альберта Эйнштейна на тему прогресса. Возможны два сценария: либо он выдает реальную цитату, либо правдоподобную цитату, то есть то, чего Эйнштейн не говорил, но мог бы сказать.
Иг Берсини, профессор и директор лаборатории искусственного интеллекта в одном из бельгийских университетов, объяснил это явление.
«Искусственный интеллект объединил цитаты Эйнштейна, чтобы создать новую, имеющую смысл. Статистически, Эйнштейн мог это сказать. ChatGPT объединяет слова, которые часто ассоциировались друг с другом. Но, конечно, эта цитата фальшивая, потому что Эйнштейн никогда её не произносил», — сказал Берсини.
Когда мы говорим, что цитата имеет смысл, мы имеем в виду, что это статистическая конструкция. Она объединяет разные слова, входящие в цитату человека, но порядок этих слов не существует. Эйнштейн никогда не говорил: «Догма — враг прогресса».
В случае с цитатами это фатальная ошибка, считает Иго Берсини.
«Это, очевидно, то, что обязательно нужно проверить. И если вы ректор университета, вы, безусловно, должны придерживаться определенного кодекса этики в отношении знаний, и когда дело доходит до цитат, вы обязательно должны проверять их подлинность», потому что нескольких кликов в поисковой системе достаточно, чтобы доказать ошибку.
Гиганты в области искусственного интеллекта пытаются уменьшить количество подобных галлюцинаций.
В некоторых районах они практически отсутствуют.
«Когда слов меньше, как, например, в программировании и математике, словарный запас в точных науках более ограничен, поэтому искусственный интеллект работает очень хорошо. Ситуация усложняется, когда речь идёт о романах, эссе, философских текстах или речах. Слова более разнообразны и могут иметь несколько значений», — сказал Берсини, добавив, что в этих областях необходима особая осторожность.
Несчастный случай с Петрой де Сутер служит напоминанием.
Искусственный интеллект может нас обманывать. Он также совершает ошибки, поскольку усваивает все предоставленные ему тексты. Это также свойственно человеческой природе. За исключением того, что люди понимают понятия правды и лжи, в отличие от искусственного интеллекта. Он не проверяет свои источники.
Поэтому вам предстоит тщательно обрабатывать собранную информацию и постоянно применять критическое мышление, добавил Берсини.
Бонусное видео: