Microsoft утверждает, что их GPT-4 проявляет признаки мышления, сходные с человеческими.
Существуют ли возможности для новых технологий в сфере искусственного интеллекта быть сопоставимыми или полностью заменить человеческое мышление?
Примерно пять лет назад ведущие технологические компании, такие как Google, Microsoft и OpenAI, активно начали работу над созданием мощных языковых моделей, известных как LLM. Эти системы научились анализировать обширные объемы текста, включая книги и статьи. Обнаруживая закономерности, они научились генерировать собственный текст и успешно поддерживать диалог. Мы уже видели подобные возможности в чат-боте с искусственным интеллектом ChatGPT от OpenAI.
Microsoft, в партнерстве с OpenAI, также активно вовлекается в гонку по разработке искусственного интеллекта и создала технологию, основанную на ChatGPT, названную GPT-4. Эта технология в настоящее время считается самой мощной системой. По словам некоторых исследователей, эта система проявляет навыки человеческого мышления. Один из таких исследователей - Себастьян Бубек, бывший профессор Принстонского университета, в возрасте 38 лет. Он опубликовал на своем YouTube-канале семинар, проведенный в Массачусетском технологическом институте, посвященный экспериментам с GPT-4. Вместе со своими коллегами он попросил GPT-4 составить математическое доказательство о бесконечном существовании простых чисел в стихотворной форме. Согласно словам Себастьяна, ответ GPT-4 оказался впечатляющим как с математической, так и с поэтической точек зрения. Затем последовал ряд экспериментов, связанных с программированием, написанием текстов и диалогов. Себастьян утверждает, что GPT-4 успешно справилась с поставленными задачами, продемонстрировав глубокое понимание таких областей, как политика, физика, история, компьютерные науки, медицина и философия, объединяя их.
Однако не все исследователи в области искусственного интеллекта приняли с оптимизмом заявления Microsoft о способности GPT-4 проявлять человеческое мышление. Главный исполнительный директор OpenAI, Сэм Альтман, в интервью журналу Intelligencer заявил, что "все еще существует множество областей, в которых он не проявляет хороших результатов". Несмотря на утверждения Microsoft о уникальности GPT-4, на главной странице, посвященной этой технологии, на сайте OpenAI сказано: "он по-прежнему не является надежным источником информации". Исходя из этого заявления, мы не можем полностью полагаться на достоверность данных, представленных новым искусственным интеллектом.
Комментарии