ChatPaper.aiChatPaper

ディープラーニングに基づく年齢推定と性別分類によるターゲット広告

Deep Learning-Based Age Estimation and Gender Deep Learning-Based Age Estimation and Gender Classification for Targeted Advertisement

July 24, 2025
著者: Muhammad Imran Zaman, Nisar Ahmed
cs.AI

要旨

本論文では、ターゲット広告キャンペーンの効果を高めるために設計された、顔画像からの年齢と性別の同時分類を行う新しい深層学習ベースのアプローチを提案する。我々は、両タスクに最適化されたカスタム畳み込みニューラルネットワーク(CNN)アーキテクチャを提案し、顔の特徴に内在する年齢と性別の情報間の相関を活用する。これらのタスクを独立して扱う既存の手法とは異なり、我々のモデルは共有表現を学習し、性能の向上を実現する。ネットワークは、照明、ポーズ、画像品質の変動に対してロバスト性を確保するために注意深く前処理された、大規模で多様な顔画像データセットで学習される。実験結果は、性別分類の精度が95%に達し、年齢推定では5.77年の平均絶対誤差を達成するなど、大幅な改善を示している。特に、異なる年齢層における性能を分析し、若年層の年齢を正確に推定する際の特定の課題を明らかにする。この分析は、これらのバイアスに対処するためのターゲットデータ拡張とモデル改良の必要性を明らかにする。さらに、異なるCNNアーキテクチャとハイパーパラメータ設定が全体の性能に与える影響を探り、将来の研究に貴重な知見を提供する。
English
This paper presents a novel deep learning-based approach for simultaneous age and gender classification from facial images, designed to enhance the effectiveness of targeted advertising campaigns. We propose a custom Convolutional Neural Network (CNN) architecture, optimized for both tasks, which leverages the inherent correlation between age and gender information present in facial features. Unlike existing methods that often treat these tasks independently, our model learns shared representations, leading to improved performance. The network is trained on a large, diverse dataset of facial images, carefully pre-processed to ensure robustness against variations in lighting, pose, and image quality. Our experimental results demonstrate a significant improvement in gender classification accuracy, achieving 95%, and a competitive mean absolute error of 5.77 years for age estimation. Critically, we analyze the performance across different age groups, identifying specific challenges in accurately estimating the age of younger individuals. This analysis reveals the need for targeted data augmentation and model refinement to address these biases. Furthermore, we explore the impact of different CNN architectures and hyperparameter settings on the overall performance, providing valuable insights for future research.
PDF22July 25, 2025