某大手メディアにて今までヒトが対応していたトリミング&補正作業をAIが学習。
大量の報道写真を掲載するまでにかかっていた労力を大幅に短縮。
開発のイメージ
開発者インタビュー
PROFILE
AIQ株式会社 エンジニア部 コアテクノロジー担当部長深水 拓郎
大手電機メーカー系Sierを経験後、大手ソフトウェアベンダーにて米国でのR&D/技術評価や、国内メーカーのウェアラブルデバイス向けにIoT、モバイルアプリ、クラウド開発などの開発からプロジェクト管理までを経験しました。現在はエンジニアリングのチーフとして新しい領域にチャレンジしつつ、海外のMaker Faireに参加するなどMaker活動を行っています。
本来AIで学習させる際は、「①画像」「②処理方法」「③成果物」のデータがあるとベストです。どんな処理をしたかという経緯が非常に重要であるといえます。しかし、本案件では、「①色調補正する前の画像」と「③人間が色調補正した後の画像」は提供いただけたものの、 一番大事な「②処理方法」のデータが抜け落ちていました。
そのため今回は、次の二段階の方法で開発を行いました。
Phase1:この画像はどのような加工がされたのか?を予測するモデルを作る
Phase2:上記結果を基に補正のデータを作る
Phase1の加工予測モデルについては、論文にしか出ていないAIモデルや、社内で実験的に開発したモデルを試したり、担当しているメンバーで検討を重ねていきました。その結果、少し泥臭いですが、最新のAIモデルだけでなく、一次関数のように固定のパラメーターを使い、技術をかけ合わせることで最終的な結果を導き出すことができました。
本案件もそうですが、「少ない教師データ」から最終結果を導き出すことができることです。なぜ可能になるかというと、日頃から教師データを作り込んで、“ニュアンス”を感じ取り、実践を重ねていくことを大事にしているからです。
例えば、犬とキリンの判別は簡単ですが、犬の中でもどの犬種なのかといった細かい内容を判別するのは容易ではありません。差が小さいだけでなく、人間の目で見ると明らかに違う場合も、AIで見ると同じ判定をされるケースも少なくありません。このような“ニュアンス”について、自分たちで写真を撮ってAIを作る。そして失敗したときは、「なぜうまく行かなかったのか?」「どうして失敗しているのか?」を観察し、ひたすら試してみることを続けているからこそ、少ない教師データでも満足のいく結果につなげることができると考えています。それがAIQの強みです。