ディープラーニングに基づく年齢推定と性別分類によるターゲット広告
Deep Learning-Based Age Estimation and Gender Deep Learning-Based Age Estimation and Gender Classification for Targeted Advertisement
July 24, 2025
著者: Muhammad Imran Zaman, Nisar Ahmed
cs.AI
要旨
本論文では、ターゲット広告キャンペーンの効果を高めるために設計された、顔画像からの年齢と性別の同時分類を行う新しい深層学習ベースのアプローチを提案する。我々は、両タスクに最適化されたカスタム畳み込みニューラルネットワーク(CNN)アーキテクチャを提案し、顔の特徴に内在する年齢と性別の情報間の相関を活用する。これらのタスクを独立して扱う既存の手法とは異なり、我々のモデルは共有表現を学習し、性能の向上を実現する。ネットワークは、照明、ポーズ、画像品質の変動に対してロバスト性を確保するために注意深く前処理された、大規模で多様な顔画像データセットで学習される。実験結果は、性別分類の精度が95%に達し、年齢推定では5.77年の平均絶対誤差を達成するなど、大幅な改善を示している。特に、異なる年齢層における性能を分析し、若年層の年齢を正確に推定する際の特定の課題を明らかにする。この分析は、これらのバイアスに対処するためのターゲットデータ拡張とモデル改良の必要性を明らかにする。さらに、異なるCNNアーキテクチャとハイパーパラメータ設定が全体の性能に与える影響を探り、将来の研究に貴重な知見を提供する。
English
This paper presents a novel deep learning-based approach for simultaneous age
and gender classification from facial images, designed to enhance the
effectiveness of targeted advertising campaigns. We propose a custom
Convolutional Neural Network (CNN) architecture, optimized for both tasks,
which leverages the inherent correlation between age and gender information
present in facial features. Unlike existing methods that often treat these
tasks independently, our model learns shared representations, leading to
improved performance. The network is trained on a large, diverse dataset of
facial images, carefully pre-processed to ensure robustness against variations
in lighting, pose, and image quality. Our experimental results demonstrate a
significant improvement in gender classification accuracy, achieving 95%, and a
competitive mean absolute error of 5.77 years for age estimation. Critically,
we analyze the performance across different age groups, identifying specific
challenges in accurately estimating the age of younger individuals. This
analysis reveals the need for targeted data augmentation and model refinement
to address these biases. Furthermore, we explore the impact of different CNN
architectures and hyperparameter settings on the overall performance, providing
valuable insights for future research.