ChatPaper.aiChatPaper

MinorBench: Een handmatig opgebouwde benchmark voor inhoudelijke risico's voor kinderen

MinorBench: A hand-built benchmark for content-based risks for children

March 13, 2025
Auteurs: Shaun Khoo, Gabriel Chua, Rachel Shong
cs.AI

Samenvatting

Grote Taalmodellen (LLMs) dringen snel door in het leven van kinderen – via adoptie door ouders, scholen en peer-netwerken – maar het huidige onderzoek naar AI-ethiek en -veiligheid behandelt niet adequaat de inhoudelijke risico’s die specifiek zijn voor minderjarigen. In dit artikel belichten we deze hiaten met een real-world casestudy van een LLM-gebaseerde chatbot die werd ingezet in een middelbare school, waarbij wordt onthuld hoe leerlingen het systeem gebruikten en soms misbruikten. Op basis van deze bevindingen stellen we een nieuwe taxonomie voor van inhoudelijke risico’s voor minderjarigen en introduceren we MinorBench, een open-source benchmark ontworpen om LLM’s te evalueren op hun vermogen om onveilige of ongepaste vragen van kinderen te weigeren. We evalueren zes prominente LLM’s onder verschillende systeemprompts, waarbij aanzienlijke variabiliteit in hun naleving van kindveiligheid wordt aangetoond. Onze resultaten bieden praktische stappen voor robuustere, kindgerichte veiligheidsmechanismen en benadrukken de urgentie om AI-systemen aan te passen om jonge gebruikers te beschermen.
English
Large Language Models (LLMs) are rapidly entering children's lives - through parent-driven adoption, schools, and peer networks - yet current AI ethics and safety research do not adequately address content-related risks specific to minors. In this paper, we highlight these gaps with a real-world case study of an LLM-based chatbot deployed in a middle school setting, revealing how students used and sometimes misused the system. Building on these findings, we propose a new taxonomy of content-based risks for minors and introduce MinorBench, an open-source benchmark designed to evaluate LLMs on their ability to refuse unsafe or inappropriate queries from children. We evaluate six prominent LLMs under different system prompts, demonstrating substantial variability in their child-safety compliance. Our results inform practical steps for more robust, child-focused safety mechanisms and underscore the urgency of tailoring AI systems to safeguard young users.

Summary

AI-Generated Summary

PDF43March 14, 2025