オンラインゲーム等での不適切なユーザ投稿を自動摘発するAIモデルを作る、古典的でシンプルな題材を扱います。
なお、現実は思ったほどシンプルではないです。昨今のAI(自然言語モデル)の判断は概ね優れているものの、ゲーム運営担当としばしば判断基準がずれており、このままでは本サービスに適用できません。特に、運営がOKと断じたものをAIがNGと判定する「冤罪」ケースは極力避ける必要があります。そこで、ファインチューニング(FT)等で改善を図ることになりますが、ではモデルが望む判断基準を持つように、適切なトレーニングデータをどう作成すれば良いでしょうか?
本セッションではトレーニングデータの作成に焦点を当て、運営と共に実際に苦心した点, 効果的・効率的にデータ作成を行う技術的サポート等について詳説します。不適切投稿のチェックに悩む運営担当者のみなさま、必見です!
講演者プロフィール
村上 宰和

2012年セガ中途入社、データサイエンス・アナリティクス系部署にてゲームタイトル向けビッグデータ分析システムの立ち上げ, 開発, 運営に従事。
2019年より現在の開発技術部に異動後、AI技術R&Dに軸足を移し、社内業務特化型AIエージェントや今回の不適切投稿自動摘発AIモデルなどを開発、現在に至る。
《講演者からのメッセージ》
皆様のご来場を心待ちにしております!
古くて新しい、シンプルなようで実は奥深い「禁則AI」の世界を一緒に体験しましょう。
横島 太志

モバイル向けコンテンツプロバイダやSNSプラットフォーム企業でのサーバーアプリケーション開発を経て、2012年にセガに入社。
Webコンテンツやフレームワークの開発を通じて、ゲームを軸とした新規事業の立ち上げに携わる。
2022年より、社外技術と社内アセットの融合による新たな価値創出を目指し、事業開発を推進中。
CEDEC講演歴
・CEDEC2019 スクラムチームでモブプロ!-立ちはだかる導入・運用の壁とその成果-
・CEDEC2020 在宅勤務でスクラム!
《講演者からのメッセージ》
皆さんの業務や組織の中で、このセッションの内容が何かのキッカケになれば幸いです。