Keep Innovating! Blog

Keep Innovating! Blog

MLSE夏合宿で感じた、MLOpsだけでは解決できないAI開発の責任分界について

MLOps
髙岡陽太

こんにちは。技術創発推進室の髙岡です。普段は画像処理系の機械学習モデルの研究開発をやっています。先月までは、今年はちょっと涼しいな、と思っていたのに、急に暑くなりましたね。皆様お変わりありませんでしょうか。

さて先日 7/2 から 7/4 にかけて、機械学習工学研究会(MLSE)主催の夏合宿が催されました。「普段の研究開発のワークフローをよりお手軽にしたい」という気持ちから、MLOps 系の情報交換がしたくて、このたび合宿に初参加いたしました。

この合宿の中で、AI 開発と運用の責任分界に関するディスカッションをする機会がありました。責任分界の問題は MLOpsの技術論に直接関わるものではありませんが、AIの現実的な開発・運用体制を考える上では重要なポイントです。

今回は、まずこのディスカッションについて紹介したあと、「AI開発の責任分界問題」について当社が考える一つの解決策を説明します。

■機械学習工学研究会の夏合宿について

本題に入る前に、今回参加した機械学習工学研究会とその夏合宿についてご紹介します。

機械学習工学研究会は、2018 年に発足した、日本ソフトウェア科学会(JASST)の研究会です。研究会の主旨は「機械学習システムの開発・運用にまつわる生産性や品質の向上を追求する研究者とエンジニアが、互いの研究やプラクティスを共有し合う会」となっています。

今年の夏合宿はリモートでの開催でしたが、ボイスチャット・テキストチャット(zoom,discord)や Web ホワイトボード(mural)を活用しながら、それぞれセッションに分かれて活発な交流が行われていました。

3 日間にわたり様々なセッションが催されましたが、そのうち「企画セッション 4:本番適用のためのインフラと運用に関する討論会」では以下の2 つのサブテーマについて議論が行われました。

  • 「機械学習における監視・観測とアーキテクチャ例」
  • 「責任分界とシステム」

でした。

(議論の詳しい内容は こちら:MLSE夏合宿2020 企画セッション討論会メモ に公開されています。興味深い内容なので、是非一読をおすすめします。)

■責任分界の話

ここからが本題です。

「責任分界とシステム」のサブテーマでは、AIの事業適用における責任分界、すなわち「AIの専門家が、社内外の非専門家とどう責任分担を決め、どう連携を取るか」という点を中心に議論が行われました。AI の専門家は、AI については詳しいですが、一方で事業ドメインの知識は事業を担当している方々に及びません。一方、この逆もまた然りで、事業サイドの方々(エンジニアも、そうでない人も)は必ずしも AI に詳しいわけではありません。AI専門家側と非専門家側との間の、AI に関する責任分界――「AI 専門家は何を作るか・どう渡すか」「AI の非専門家に、成果物をどうやって受け取って・使ってもらうか」――について、技術論から組織論までを含んだ様々な事例や工夫が紹介され、興味深い議論でした。

さて、この専門家と非専門家の間の非対称性の問題は、AI を内製している組織でも発生しているようですが、AI 開発を外注・受注している組織ではより大きく顕在化しやすい問題です。実際、私たちも機械学習を含んだシステムの受託開発を経験したことがありますが、やはりこの責任分界にからんだ問題で結構苦労しました。これはどんなAI開発の場合もほぼ間違いなく関係してくる問題なので、以下で少し詳しく説明しておきたいと思います。

■AI 開発を外注するときに、困ること

(1)技術要件設定の難しさ

AI開発を外注しようとすると、技術要件の設定が問題となることが多いです。仕事を外注するときには当然契約を交わし、そこで責任分界を定義するのが普通です。その際、受注側の責任範囲には技術要件(システムが満たすべき機能・性能)を含めるのが常識ですから、AI開発でも同様に技術要件を盛り込みたくなりますが、ここに大きな困難が生じます。

なぜなら、AI開発では機械学習を使うため、性能や機能は作ってみなければ分からないケースがほとんどだからです。受託側としては契約時点でAIの予定性能を契約に盛り込めと言われても現実的に不可能なわけです。だからといって、技術要件なしで開発契約をするのは発注側にとってかなり困難です。

(2)本当に欲しいAIがなかなか得られない

契約にもとづく受発注の関係性のなかで開発を行うと、基本的には受注側は契約を満たす最小限の成果物で済ませようとします。これはビジネス原理上の問題であり、精神論等では乗り越えられない問題です。

一方、発注側は契約書にもれなく本質要件を盛り込むのはなかなか困難です。本来はそのような契約に縛られることなく開発しながら得た気づきをフィードバックして改良し、本当に欲しいAIに近づけていきたいはずですが、外注によるAI開発では、お互いのビジネスゴールがもともと一致していないため、こうした理想的なやり方が難しくなります。

上記のようなAI開発の外注時の責任分界から生まれる問題を解決する方法について、私たちの考え方を次に説明したいと思います。

■共同研究開発で責任分界を無くす

さて、私たちが実施しているAI開発プロジェクトでは、そもそも責任分界の問題はほとんどありません。その最たる理由は「共同研究開発であること」です。

共同研究開発という形式を取ると、前節で述べたような「ある契約に基づくプロジェクト」の「発注側」と「受注側」という関係は、「目的を同じくするひとつのチーム」の中の「事業面の知見を多く持っている人」と「AI 関連の知見を多く持っている人」という関係に置き換わります。

また、プロジェクトの成果物も共有する形にしますので、チームは共通のゴールに向かって無理なく協力・協働することができます。このゴールが共有できるという点は、AI開発に大きな効果があると私も実感しています。そうした効果についても次にご紹介しておきます。

■共同研究開発には他にもメリットがある

(1) 発想を広げやすくなる

AI開発を受注した場合は、どうしても担当者は期日までに確実な結果を出そうとして発想や手法が保守的になりますが、共同研究開発の場合はこのような制約は少なくなるので、かなり発想を広げたチャレンジができるようになります。こうしたチャレンジはイノベーションには欠かせないものです。

(2) ナレッジの共有化・人材育成効果

共同研究開発は、ナレッジの共有化にも役立ちます。

共同研究開発チームでは、最初は AI 非専門家だった人も実践を通じてAIについての知見を深めていくことができます。これは外注では得ることのできない深い知見です。同様に、AI専門家側も、ターゲット領域について知識が深まっていきます。このようにして、共同研究開発ではチーム全体としてナレッジの共有化・深化が進みます。

そして、このチームは実践的な学びの環境として理想的なものになるでしょう。単なる座学ではない実務を通じた学習(OJT)ですので、今後重要と言われる『AIの社会実装が分かる人材』の育成の効果がとても高いものとなります。

■私たちと一緒に「共同研究開発」しませんか?

ここまでご説明してきたとおり、外注によるAI開発では責任分界の問題が起こりがちです。このことは現在のAI技術の性質に由来するもので、通常のシステム開発よりも発注側・受注側双方に大きな弊害になります。そこで私たちは、AI系開発は共同研究開発(オープンイノベーション)の形で実施することを提案しています。

共同研究開発は、AIを実務に活用したいパートナー様にとって望ましい方法です。また、私たちのようなAI技術の提供側にとっても、もっとパフォーマンスを発揮しやすい方法の一つであり、双方にとってメリットが生まれる健全な体制だと考えています。

私たちオープンストリーム・技術創発推進室は、研究開発プロジェクトの運営経験が豊富です。AI導入や開発を検討されているパートナー様は、是非お気軽にご連絡・ご相談ください!(お問い合わせ先:https://www.opst.co.jp/contact/c_other/ )

タグ
メンバー
ページトップ