Исправляет все ошибки одним нажатием.
Proofread: Fixes All Errors with One Tap
June 6, 2024
Авторы: Renjie Liu, Yanxiang Zhang, Yun Zhu, Haicheng Sun, Yuanbo Zhang, Michael Xuelin Huang, Shanqing Cai, Lei Meng, Shumin Zhai
cs.AI
Аннотация
Впечатляющие возможности в больших языковых моделях (LLM) предоставляют мощный подход для переосмысления опыта ввода пользователей. В данной статье демонстрируется Proofread, новая функция Gboard, основанная на серверной LLM в Gboard, обеспечивающая безупречные исправления на уровне предложений и абзацев одним касанием. Мы описываем полную систему в данной статье, начиная от генерации данных, разработки метрик до настройки модели и развертывания. Для получения моделей достаточного качества мы реализуем тщательный синтетический конвейер данных, адаптированный к онлайн-сценариям использования, разрабатываем многоаспектные метрики, используем двухэтапный подход к настройке модели для получения специализированной LLM для функции: Обучение с Учителем (SFT) для базового качества, за которым следует подход настройки с Подкреплением (RL) для целевой доработки. В частности, мы обнаружили, что последовательная настройка на задачи переписывания и корректировки обеспечивает лучшее качество на этапе SFT, и предлагаем глобальные и прямые вознаграждения на этапе настройки RL для дальнейшего улучшения. Обширные эксперименты на людском размеченном золотом наборе показали, что наша настроенная модель PaLM2-XS достигла 85.56\% хорошего соотношения. Мы запустили функцию на устройствах Pixel 8, обслуживая модель на TPU v5 в Google Cloud, с тысячами ежедневно активных пользователей. Задержка обслуживания была значительно снижена благодаря квантизации, сегментации текста и спекулятивному декодированию. Нашу демонстрацию можно посмотреть по ссылке https://youtu.be/4ZdcuiwFU7I{Youtube}.
English
The impressive capabilities in Large Language Models (LLMs) provide a
powerful approach to reimagine users' typing experience. This paper
demonstrates Proofread, a novel Gboard feature powered by a server-side LLM in
Gboard, enabling seamless sentence-level and paragraph-level corrections with a
single tap. We describe the complete system in this paper, from data
generation, metrics design to model tuning and deployment. To obtain models
with sufficient quality, we implement a careful data synthetic pipeline
tailored to online use cases, design multifaceted metrics, employ a two-stage
tuning approach to acquire the dedicated LLM for the feature: the Supervised
Fine Tuning (SFT) for foundational quality, followed by the Reinforcement
Learning (RL) tuning approach for targeted refinement. Specifically, we find
sequential tuning on Rewrite and proofread tasks yields the best quality in SFT
stage, and propose global and direct rewards in the RL tuning stage to seek
further improvement. Extensive experiments on a human-labeled golden set showed
our tuned PaLM2-XS model achieved 85.56\% good ratio. We launched the feature
to Pixel 8 devices by serving the model on TPU v5 in Google Cloud, with
thousands of daily active users. Serving latency was significantly reduced by
quantization, bucket inference, text segmentation, and speculative decoding.
Our demo could be seen in https://youtu.be/4ZdcuiwFU7I{Youtube}.Summary
AI-Generated Summary