Для улучшения взаимопонимания с Siri, Apple предлагает новое исследование AI под названием ReALM
Чтобы улучшить взаимодействие с Siri, исследователи Apple создали систему AI под названием "ReALM". Она способна анализировать содержание на экране, контекст разговора и фоновую информацию, что, вероятно, поможет Siri лучше понимать запросы и взаимодействовать более естественно.
На arXiv.org недавно появился документ под названием "ReALM: Resolving Links as Language Modeling". ReALM применяет крупномасштабные языковые модели для перевода сложных задач разрешения ссылок в чисто языковые задачи моделирования. Он значительно превосходит существующие методы в эффективности, как показывают исследования.
Исследователи Apple отмечают, что для голосового помощника важно понимать контекст, включая справочные материалы.
Ключевой подход ReALM к обработке справочных материалов заключается в анализе объектов и их расположения на экране для воссоздания содержания и создания текстовых подсказок. Исследователи показывают, что этот подход, сочетаясь с точно настроенной языковой моделью, способной разрешать кореференции, может превзойти GPT-4 в задачах синтаксического анализа.
Исследователи считают, что ReALM превосходит предыдущие методы, функционирует аналогично современному GPT-4, но при этом имеет относительно небольшое количество параметров. Более того, ReALM лучше, чем GPT-4, обрабатывает пользовательские операторы, специфичные для конкретной области, что делает его идеальным выбором для выполнения на устройстве.
Несмотря на то что Apple отстает от таких конкурентов, как Microsoft, Google и Meta, в быстро развивающемся мире искусственного интеллекта, компания Apple шаг за шагом достигает значительного прогресса в этой области. Предстоящая всемирная конференция разработчиков (WWDC 2024) будет важным событием для наблюдения за схемой искусственного интеллекта Apple. На данный момент рынок ожидает, что Apple раскроет свои планы в области искусственного интеллекта.
Комментарии