Proofread: Los alle fouten op met één tik
Proofread: Fixes All Errors with One Tap
June 6, 2024
Auteurs: Renjie Liu, Yanxiang Zhang, Yun Zhu, Haicheng Sun, Yuanbo Zhang, Michael Xuelin Huang, Shanqing Cai, Lei Meng, Shumin Zhai
cs.AI
Samenvatting
De indrukwekkende mogelijkheden van Large Language Models (LLMs) bieden een krachtige benadering om de typ-ervaring van gebruikers opnieuw vorm te geven. Dit artikel presenteert Proofread, een nieuwe functie in Gboard die wordt aangedreven door een server-side LLM, waarmee naadloze correcties op zins- en alineaniveau mogelijk zijn met één tik. We beschrijven het volledige systeem in dit artikel, van gegevensgeneratie en metriekenontwerp tot modelafstemming en implementatie. Om modellen van voldoende kwaliteit te verkrijgen, implementeren we een zorgvuldige synthetische gegevenspijplijn die is afgestemd op online gebruiksscenario's, ontwerpen we veelzijdige metrieken, en gebruiken we een tweestaps afstemmingsbenadering om de specifieke LLM voor de functie te verkrijgen: Supervised Fine Tuning (SFT) voor basiskwaliteit, gevolgd door Reinforcement Learning (RL) afstemming voor gerichte verfijning. Specifiek ontdekken we dat sequentiële afstemming op herschrijf- en proefleestaken de beste kwaliteit oplevert in de SFT-fase, en stellen we globale en directe beloningen voor in de RL-afstemmingsfase om verdere verbetering te zoeken. Uitgebreide experimenten op een door mensen gelabelde gouden set toonden aan dat ons afgestemde PaLM2-XS-model een goed ratio van 85,56\% behaalde. We hebben de functie gelanceerd op Pixel 8-apparaten door het model te hosten op TPU v5 in Google Cloud, met duizenden dagelijkse actieve gebruikers. De latentie bij het serveren werd aanzienlijk verminderd door kwantisatie, bucket-inferentie, tekstsegmentatie en speculatieve decodering. Onze demo is te zien op https://youtu.be/4ZdcuiwFU7I{Youtube}.
English
The impressive capabilities in Large Language Models (LLMs) provide a
powerful approach to reimagine users' typing experience. This paper
demonstrates Proofread, a novel Gboard feature powered by a server-side LLM in
Gboard, enabling seamless sentence-level and paragraph-level corrections with a
single tap. We describe the complete system in this paper, from data
generation, metrics design to model tuning and deployment. To obtain models
with sufficient quality, we implement a careful data synthetic pipeline
tailored to online use cases, design multifaceted metrics, employ a two-stage
tuning approach to acquire the dedicated LLM for the feature: the Supervised
Fine Tuning (SFT) for foundational quality, followed by the Reinforcement
Learning (RL) tuning approach for targeted refinement. Specifically, we find
sequential tuning on Rewrite and proofread tasks yields the best quality in SFT
stage, and propose global and direct rewards in the RL tuning stage to seek
further improvement. Extensive experiments on a human-labeled golden set showed
our tuned PaLM2-XS model achieved 85.56\% good ratio. We launched the feature
to Pixel 8 devices by serving the model on TPU v5 in Google Cloud, with
thousands of daily active users. Serving latency was significantly reduced by
quantization, bucket inference, text segmentation, and speculative decoding.
Our demo could be seen in https://youtu.be/4ZdcuiwFU7I{Youtube}.