Поддержать команду Зеркала
Беларусы на войне
  1. Проголосовать должны все. Узнали, как ради стопроцентной явки на выборах в больницах ограничивают права пациентов
  2. ООН направила Беларуси письмо с обвинениями. Рассказываем, о чем речь
  3. Северная Корея отправит дополнительный контингент своих бойцов. Эксперты оценили, когда они смогут оказаться на поле боя и что это изменит
  4. В Беларуси банкротится компания такси — к ней возникли вопросы из-за налогов
  5. Муж пресс-секретаря Лукашенко нашел способ, как подзаработать на пропаганде. Деньги на это взяли из карманов налогоплательщиков
  6. «Это доктор от Бога». В Минске за «политику» судят известного врача-онколога
  7. Прощальный всплеск протестов. Вспоминаем, когда и почему беларусы последний (пока что) раз вышли на улицы
  8. Зеленский рассказал, на какие условия Путина никогда не пойдет Украина: «Пускай хоть все союзники мира объединятся»
  9. «Были попытки сфотографировать бюллетени». В ФПБ сообщили о «первых внештатных ситуациях» на досрочном голосовании
  10. У мобильных операторов — очередные изменения
  11. Безвизовый режим между Беларусью и Вьетнамом вступает в силу 30 января. Но ездить туда безопасно не всем
  12. МИД Беларуси обещал выйти со срочным заявлением. Ничего нового в нем не прозвучало
  13. В Минске строят медцентр для сотрудников КГБ и их семей. На него потратят минимум 15 миллионов долларов «спонсорских денег»


Институт инженеров электротехники и электроники (IEEE) провел тест Тьюринга, чтобы оценить, насколько современные модели искусственного интеллекта могут имитировать человеческое общение, пишет LiveScience.

Изображение используется в качестве иллюстрации. Фото: pixabay.com
Изображение используется в качестве иллюстрации. Фото: pixabay.com

Сообщается, что в ходе эксперимента 500 участников вели диалог с четырьмя агентами: человеком и тремя различными ИИ-моделями: программой эпохи 1960-х ELIZA, GPT-3.5 и GPT-4. Люди должны были за пять минут определить, общаются они с человеком или ИИ.

Исследователи заявили, что GPT-4 успешно прошел тест Тьюринга. Участники ошибочно принимали GPT-4 за человека в 54% случаев. «Это достижение подчеркивает значительный прогресс в развитии ИИ, но также вызывает опасения относительно социальных и экономических последствий широкого использования таких технологий», — отметили ученые.

Система ELIZA была принята за человека в 22% случаев, GPT-3.5 в 50%, а человек в 67%.

Ученые подчеркивают, что тест Тьюринга имеет свои ограничения и критикуется за слишком упрощенный подход к оценке интеллекта. Исследователи добавили, что стилистические и эмоциональные факторы играют большую роль в прохождении теста, чем традиционные представления об интеллекте.

Тест Тьюринга, предложенный Аланом Тьюрингом в 1950 году, оценивает способность машины демонстрировать интеллект, неотличимый от человеческого.