[広島で考えるAIプロセス]人とAIの協働モデル

AIとひとの協働とは [ブログ一覧]研究メモ
AIとひとの協働には、順序がある

AIが急速に普及する現在、
AIは単なるツールではなく、人と共に働く存在へと変化し始めています。

文章作成、情報整理、分析など、AIが担う役割は広がり続けています。
しかし一方で、

・AIをどのように使えばよいのか
・AIにどこまで任せるべきなのか

といった問題については、まだ十分に整理されているとは言えません。

AI OS Labでは、この問題を
AIの能力の問題ではなく、AIの運用順序の問題
として捉えています。

その考え方を整理したものが、本研究で扱う
AIプロセス(協働モデル)
です。


▶ AIチームの基本はこちら

☛[AIチームとは?ツールからチームへ]

国際的な広島AIプロセス

2023年に広島で開催された
G7 Hiroshima Summit
では、生成AIの安全性や信頼性を確保するための国際的な取り組みとして
Hiroshima AI Process
が提唱されました。

この枠組みでは主に

・AIの安全性
・AIの透明性
・AIの責任
・AIガバナンス

などが議論され、生成AIの国際的なルール整備が進められています。

つまりこの意味での広島AIプロセスは
国家レベルでAIの安全な利用を整備する政策的枠組み
です。

AI OS LabにおけるAIプロセス

広島で生活をするAI OS Labでは、この名称に着想を得て、
AIと個人が協働する際の判断順序を整理したモデルとして
AIプロセス(協働モデル)
という概念を整理しています。

これは国際政策とは異なり、
AIと人がどの順序で協働するか
という実務的なプロセスを扱うものです。

AIプロセス(協働モデル)

AIプロセス(協働モデル)とは、
手順ではなく、判断順序を定義した構造です。

AI OS Labでは、人とAIの協働は
次の順序で整理できると考えています。

⒈ 人間が問題を定義する
⒉ 人間がAIの役割を設計する
⒊ AIが情報処理を行う
⒋ 人間が最終判断を行う
⒌ AIチームとして運用する

※まずは1つの作業を決めてから、この順序に当てはめます

人間が問題を定義する

最初に行うのは、問題の定義です。

問題定義では、次の3点を明確にします。

・目的(何を達成したいか)
・出力(何を作るのか)
・制約(時間・文字数・条件など)

この3つを
1行で書けない場合は整理不足
と判断します。

AIは問題を発見するよりも、問題解決を補助することを得意としています。
そのため、前提条件は人間が決める必要があります。

AIの役割を設計する

次に行うのは、AIの役割設計です。

作業を分解し、それぞれに役割を割り当てます。

例:

・情報収集
・構造整理
・文章生成
・評価・チェック

AIの役割は最大4つまでに制限します。
増やしすぎると管理できなくなるためです。

AIが情報処理を行う

AIは次のような処理を行います。

・情報整理
・視点提示
・仮説生成

ここで重要なのは
AIは判断主体ではない
という点です。


▶ AI協働で起きる思考停止|AI時代の依存と距離の問題

☛[AI依存との違い]

AIの出力は、そのまま使わず
思考の材料として扱います。

例:

「この考えの弱点を3つ出して」
といった指示で補助的に使います。

人間が最終判断を行う

AIの出力をもとに、最終判断は人間が行います。

ここでは

・倫理
・社会的影響
・責任

といった要素が関わります。

AIは判断を補助できますが、責任主体にはなりません。

AIチームとして運用する

AIを役割ごとに分けることで、AIはチームとして機能します。

ここで重要なのは、人の役割です。

・指示担当
・中間チェック担当
・最終判断者

※1人で兼任しても問題ありません

運用ルール(重要)

実際に運用する際は、以下を固定します。

■ 終了条件
・重大な指摘がなくなったら終了
・修正は最大2回まで
・時間制限を設ける

■ 省略対策
・整理工程は必須
・チェックは簡易でも必ず実施

■ KPI(評価指標)
・作業時間
・修正回数
・完成率

※数値にできない場合は、作業回数や時間で判断する
※KPIは作業単位または週単位で確認する

AIチームからAIオーケストラへ

AIチームが発展すると、
状況に応じて役割を変えながら連携する状態になります。

この状態を
AIオーケストラ
と呼びます。

例:

・想定と違う結果が出たとき → 順番を変更
・違和感が出たとき → 役割を変更

人間はオーケストレーターとして
AIの配置と流れを調整します。


AIオーケストラという新しい協働構造


☛[ChatGPTプロジェクトの使い方で広がるAIチーム]

日本語要約

AIの運用をツールの問題ではなく「判断順序の問題」として整理したモデルを
AIプロセス(協働モデル)と呼びます。

これは手順ではなく、
人とAIがどの順序で判断・処理を行うかを定義した構造です。

English Abstract

This article introduces the AI Process (Collaboration Model) — a structured framework for Human–AI collaboration based on decision order rather than procedural steps.

Inspired by the Hiroshima AI Process proposed at the G7 Hiroshima Summit in 2023, AI OS Lab developed a parallel concept focusing not on national AI governance but on the practical sequence of decision-making in individual Human–AI collaboration.

The model consists of five stages:
1. Humans define the problem
2. Humans design AI roles
3. AI performs information processing
4. Humans make the final judgment
5. AI operates as a team

The key distinction is that this model defines decision order, not execution steps. It ensures that human responsibility remains central while AI functions as a structured support system.

This article was originally written in Japanese by the author. The English abstract was prepared with the assistance of AI translation tools.

AI OS Labの研究

AI OS Labの研究対象は、AIの性能ではありません。

研究しているのは
AIの運用構造
です。

AIの数を増やすことではなく、

・どう配置するか
・どう連携させるか

という設計を扱います。

その基盤となるモデルが
AIプロセス(協働モデル)
です。

最後に

AIは「どう使うか」ではなく
どう設計するか
の段階に入っています。

この順序を持つことで、

・判断がブレない
・役割が混ざらない
・再現できる

という状態が生まれます。

一文定義

AIプロセスとは
手順ではなく
人とAIの判断順序を固定する構造である

コメント

タイトルとURLをコピーしました