Claude Code全員導入でレビュー時間74%短縮した話

ClassLab Engineering の Dev チームメンバーが執筆しました。

「個人で使ってみた」記事は山ほどあります。でも、チーム全員がAIコーディングツールを使い、運用ルールを整備し、定量的に効果を測定している事例は、まだ少ないのではないでしょうか。

私たちClassLabは、10名のエンジニアチーム全員がClaude CodeとGitHub Copilotを日常業務で使っています。この記事では、チーム導入の設計判断、独自の成熟度モデル、3層アーキテクチャの全容、そして3ヶ月間の定量結果を包み隠さず公開します。

読者が持ち帰れるものとして、AI駆動開発 成熟度モデル(5段階)のセルフチェックシートと、Claude Code設定テンプレートを記事末尾に用意しました。


目次

目次

  1. 背景 — なぜチーム全体でAIツールを導入したか
  2. 課題 — 導入前の5つの痛み
  3. 設計 — 2つのツールの使い分けと3層アーキテクチャ
  4. 実装 — 3フェーズの展開と運用ルール
  5. 結果 — 3ヶ月間の定量・定性データ
  6. AI駆動開発 成熟度モデル — チームの現在地を測る
  7. うまくいかなかったこと — 正直な失敗談5選
  8. 展望 — 次に取り組むこと
  9. 導入テンプレート — 明日から使える設定ファイル

1. 背景 — なぜチーム全体でAIツールを導入したか

ClassLabはライフライン(電気・ガス)の取次事業を基盤に、年間15万件の申込処理を支えるシステムを自社開発しています。エンジニアは約10名。少人数で複数の新規事業(AI音声研修、コールセンター自動化、不動産テック向けモバイルアプリなど)を同時に開発しています。

2025年後半、2つの限界に直面しました。

限界①: 開発速度がビジネスの成長に追いつかない

新規事業の立ち上がりが加速する一方、エンジニアの頭数は増えない。採用は半年〜1年かかる。「今いるメンバーの生産性を2倍にする」以外に解がなかったのが正直なところです。

限界②: AI活用が属人化していた

一部のメンバーがGitHub Copilotを使い始めていましたが、活用レベルはバラバラでした。

graph LR
    A[メンバーA: コード補完のみ] --> X[ナレッジが分散]
    B[メンバーB: テスト生成に活用] --> X
    C[メンバーC: 未使用] --> X
    X --> Y[チームとしての学習が進まない]

「あの人はAIをうまく使えている」という属人的な状態では、チーム全体の生産性は上がりません。AI活用を個人の好みからチームのインフラに引き上げる——これが全体導入の出発点でした。


2. 課題 — 導入前の5つの痛み

AIツール導入前のチームの状態を、5つの指標で定量化しました。

# 指標 導入前の値 痛みの本質
1 コードレビュー待ち時間 平均4.2時間 レビュアーのキャパがボトルネック。PRを出してから半日放置が常態
2 ドキュメント作成時間 1件あたり3-5時間 設計書・議事録・運用手順書が溜まり続ける
3 テストカバレッジ 42% 「テストを書く時間がない」が口癖に
4 バグ修正の初動 平均1.5営業日 原因調査に時間がかかり、修正着手が翌日以降に
5 1人あたり月間PR数 12件 月20営業日で12件 = 1.7日に1件。機能開発に手が回らない

最も致命的だったのは①コードレビューの待ち時間です。

10名のチームでは、レビュアーに割ける人数が限られます。PRを出してから「見ました」の返事が来るまで4時間。修正指摘が入ればさらに1ラウンド。この待ち時間がデプロイ頻度のボトルネックになっていました。

graph TD
    PR[PR作成] -->|待ち 4.2h| R1[レビュー1回目]
    R1 -->|修正 1-2h| FIX[修正コミット]
    FIX -->|待ち 2-3h| R2[レビュー2回目]
    R2 --> MERGE[マージ]
    
    style PR fill:#ef4444,color:#fff
    style R1 fill:#f59e0b,color:#fff
    style R2 fill:#f59e0b,color:#fff
    style MERGE fill:#10b981,color:#fff

PR作成からマージまで平均7-9時間。 1日に1回のデプロイがやっとでした。


3. 設計 — 2つのツールの使い分けと3層アーキテクチャ

GitHub Copilot × Claude Code の役割分担

検討の結果、GitHub CopilotClaude Codeを併用する方針に決めました。同じ「AIコーディングツール」ですが、得意領域がまったく異なります。

観点 GitHub Copilot Claude Code
一言で言うと 手を速くするツール 頭を増やすツール
主な用途 コード補完・インライン生成 マルチファイル編集・設計・レビュー・分析
作業粒度 行〜関数レベル ファイル〜プロジェクトレベル
使うタイミング コーディング中(常時ON) 設計・レビュー・調査・ドキュメント作成
得意なこと パターンベースの高速補完 推論・対話・複数ステップの作業
苦手なこと 複数ファイルの整合性 リアルタイムの行単位補完

「Copilotで書いて、Claude Codeでレビューする」 ——この分業が私たちの基本パターンです。

Claude Code 3層アーキテクチャ

Claude Codeをインストールしただけでは「便利なチャットボット」止まりです。チームで本格運用するために、以下の3層でカスタマイズしています。

graph TB
    subgraph L3["Layer 3: 外部連携(MCP サーバー 10+接続)"]
        SF[Salesforce]
        SL[Slack]
        AS[Asana]
        PW[Playwright]
        GA[Google Analytics]
        OTHER[その他 5+]
    end
    
    subgraph L2["Layer 2: 専門家(エージェント 15+種 / スキル 25+種)"]
        CR[code-reviewer]
        SR[security-reviewer]
        AR[architect]
        TD[tdd-guide]
        PL[planner]
        VF[verifier]
        QA[qa-evaluator]
        TR[tracer]
    end
    
    subgraph L1["Layer 1: 基盤(ルール + フック + パーミッション)"]
        RULES[ルールファイル群
500+行] HOOKS[フック
3イベント] PERM[許可ツール
100+] end L3 --> L2 L2 --> L1

それぞれの層を詳しく解説します。

Layer 1: 基盤 — ルール・フック・パーミッション

全プロジェクト共通のコーディング規約・セキュリティルール・テスト要件をMarkdownファイルで定義しています。Claude Codeはこれらを常に参照し、ルールに従ったコードを生成します。

ルールファイルの構成:

ファイル 行数 役割
agents.md ~90行 エージェント一覧・使い分け・並列実行ルール
coding-style.md ~50行 イミュータブルパターン必須・ファイル800行上限
development-workflow.md ~100行 リサーチ→計画→TDD→レビュー→コミットの順序
security.md ~30行 コミット前チェックリスト8項目・シークレット管理
testing.md ~30行 TDD必須・80%カバレッジ・テストタイプ3種
performance.md ~130行 モデル選定・コンテキスト管理・ハーネス簡素化
git-workflow.md ~25行 Conventional Commits・PR作成手順
patterns.md ~30行 Repository Pattern・API Response Format
hooks.md ~30行 フック設計・TodoWrite活用

重要な設計判断: ルールをAI自身が読めるフォーマットで書く

人間が読んで理解するドキュメントと、AIが参照して従えるルールは別物です。私たちのルールファイルは、Markdownの表形式で条件→アクションを明示しています。

# 例: coding-style.md の一部

## Immutability (CRITICAL)
ALWAYS create new objects, NEVER mutate existing ones.

## File Organization
MANY SMALL FILES > FEW LARGE FILES:
- 200-400 lines typical, 800 max
- Extract utilities from large modules

「CRITICAL」「ALWAYS」「NEVER」といったキーワードでAIに優先度を伝え、曖昧な表現を排除しています。

フック(自動化の要):

Claude CodeのHooks APIを活用し、特定のアクションの前後で自動処理を実行しています。

// settings.json のフック設定(簡略化)
{
  "hooks": {
    "PostToolUse": [
      {
        "matcher": { "toolName": "slack_reply_to_thread" },
        "command": "python post_sync.py"
        // Slack投稿後に自動でタスク管理システムと同期
      }
    ],
    "UserPromptSubmit": [
      {
        "command": "python prompt_validator.py"
        // 送信前にプロンプトの品質を自動チェック
      }
    ],
    "SessionStart": [
      {
        "command": "python session_init.py"
        // セッション開始時にプロジェクト文脈を自動読み込み
      }
    ]
  }
}

フックにより「Slackにメッセージを送ったら自動でタスク管理と同期」「セッション開始時にプロジェクトの進捗を自動で読み込み」といった処理が、開発者の意識なく動作します。

Layer 2: 専門家 — エージェントとスキル

用途別のエージェントを15種類以上、スキルを25種類以上用意しています。

主要エージェント一覧:

エージェント 役割 使用タイミング
code-reviewer コード品質の静的レビュー コード変更後(必須)
security-reviewer セキュリティ脆弱性の検出 コミット前(必須)
architect システム設計・スケーラビリティ 新機能・リファクタリング
tdd-guide テスト駆動開発のガイド 新機能・バグ修正
planner 実装計画の策定 複雑な機能開発
verifier 品質主張の証拠ベース検証 「テスト通った」等の主張時
qa-evaluator Playwright経由のUI/UXテスト フロントエンド変更後
tracer 仮説駆動デバッグ バグ修正が3回失敗した後
build-error-resolver ビルドエラーの自動修正 ビルド失敗時

エージェント運用の最も重要なルール: 生成者と評価者の分離

これが私たちの核心的な設計原則です。コードを生成したセッション(エージェント)が、自分の成果物を評価してはならない。

なぜか? 自己評価は常にバイアスがかかるからです。AIエージェントであっても、自分が生成したコードに対しては「良さそう」「動くはず」という楽観的な判断をしがちです。

graph LR
    GEN[コード生成
メインセッション] -->|別エージェント起動| CR[code-reviewer
品質チェック] CR -->|別エージェント起動| SR[security-reviewer
セキュリティ] SR -->|人間へ| HUMAN[人間のレビュー
最終判断] style GEN fill:#3b82f6,color:#fff style CR fill:#8b5cf6,color:#fff style SR fill:#ef4444,color:#fff style HUMAN fill:#10b981,color:#fff

AIの出力を別のAIがレビューし、その結果を人間が最終判断する。この3段階の評価チェーンが、AI活用で品質を落とさない仕組みです。

例外ルール: git diff --stat の変更行数が10行以下かつ既存テスト全PASSの場合はセルフチェック可。ただしセキュリティ関連は行数に関係なく必ず別エージェントレビュー必須。

Layer 3: 外部連携 — MCPサーバー

10以上のMCPサーバーを接続し、Claude Codeから直接業務システムを操作できるようにしています。

MCPサーバー 用途 主な操作
Salesforce 顧客データ分析 レポート取得・SOQL実行
Slack チームコミュニケーション メッセージ検索・投稿
Asana タスク管理 タスク作成・更新・検索
Playwright E2Eテスト・QA ブラウザ操作・スクリーンショット
Google Analytics アクセス解析 レポート取得・ファネル分析
Context7 ライブラリドキュメント 最新API仕様の参照
NotebookLM ナレッジベース 社内ドキュメント検索

MCPの最大の価値はコンテキストスイッチの削減です。「Salesforceのこのレポートを取得して分析して」「Slackのこのスレッドの議論を要約して」——こうした指示がClaude Codeの中で完結します。


4. 実装 — 3フェーズの展開と運用ルール

Phase 1: 環境標準化(1週間)

まず全員の開発環境を統一しました。Claude Codeのカスタマイズ設定をGitリポジトリで管理し、git pull一発で全員の環境を同期できるようにしました。

# 共有設定の構造(gitで管理)
~/.claude/
  ├── agents/          # 15+種のエージェント定義
  │   ├── code-reviewer/
  │   ├── security-reviewer/
  │   ├── architect/
  │   ├── tdd-guide/
  │   └── ...
  ├── rules/           # 共通ルールファイル群(9ファイル / 500+行)
  │   ├── coding-style.md
  │   ├── security.md
  │   ├── testing.md
  │   └── ...
  ├── skills/          # 25+種のスキル
  │   ├── wp-post/     # WordPress投稿
  │   ├── salesforce-cx-ops/
  │   └── ...
  └── settings.json    # フック + パーミッション設定

新しいエージェントやルールの追加はPRベースでレビューします。ルールの変更はプロダクトコードと同じ品質基準でレビューする——これが環境の品質を維持する秘訣です。

Phase 2: ペアプログラミング移行期間(2週間)

いきなり全員に「Claude Codeを使え」と言っても、使いこなせる人と使えない人に分かれます。最初の2週間はペアプロ期間として、以下の取り組みを行いました。

ペアプロのルール: – AI活用に慣れたメンバー(リード)と、まだ使い始めのメンバー(ジュニア)でペアを組む – リードは自分の操作を見せるのではなく、ジュニアにClaude Codeを操作させる – 「この場面ではCopilot」「この場面ではClaude Code」の判断基準を言語化して共有 – つまずきポイントは即座にSlackの共有チャンネルに投稿

2週間で見えてきたパターン:

場面 推奨ツール 理由
関数の実装 Copilot パターンマッチが速い
テスト作成 Claude Code 仕様理解→テスト設計→実装の複数ステップが必要
コードレビュー Claude Code (code-reviewer) 複数ファイルの文脈理解が必要
バグ修正 Claude Code (tracer) 仮説生成→検証の繰り返しが必要
API設計 Claude Code (architect) トレードオフの議論が必要
リファクタリング Copilot + Claude Code Copilotでインライン変更、Claude Codeで整合性確認
ドキュメント作成 Claude Code 構造化された長文生成が得意

Phase 3: 運用ルールの確立(継続的改善)

使い始めて見えてきた問題に対して、ルールを段階的に追加していきました。

発見された問題 発見時期 対策ルール
AIが既存コードと異なるスタイルで書く 1週目 coding-style.md: イミュータブルパターン必須、ファイル800行上限
セキュリティ的に危険なコードが生成される 2週目 security.md: コミット前チェックリスト8項目
テストを省略しがち 2週目 testing.md: TDD必須、80%カバレッジ
レビューが形骸化する 3週目 agents.md: 生成者と評価者の分離原則
エージェントの使い分けが不明確 4週目 agents.md: 場面別の即時エージェント使用ガイド
コンテキストウィンドウの枯渇 6週目 performance.md: モデル別コンテキスト戦略
ルール自体の肥大化 8週目 performance.md: 四半期棚卸しプロセス

開発ワークフロー全体の標準化:

graph TD
    START[タスク受領] --> RESEARCH[0. リサーチ & 再利用
既存実装を検索] RESEARCH --> PLAN[1. 計画
planner エージェント] PLAN --> TDD[2. TDD
tdd-guide エージェント] TDD --> RED[テスト作成 RED] RED --> GREEN[実装 GREEN] GREEN --> REFACTOR[リファクタリング] REFACTOR --> CR[3. code-reviewer
品質レビュー] CR --> SR[4. security-reviewer
セキュリティ] SR --> HUMAN[5. 人間レビュー] HUMAN --> COMMIT[6. コミット & プッシュ] style RESEARCH fill:#3b82f6,color:#fff style PLAN fill:#8b5cf6,color:#fff style TDD fill:#f59e0b,color:#fff style CR fill:#8b5cf6,color:#fff style SR fill:#ef4444,color:#fff style HUMAN fill:#10b981,color:#fff

5. 結果 — 3ヶ月間の定量・定性データ

定量結果

導入から3ヶ月後の数値です。

# 指標 導入前 導入後 改善
1 コードレビュー待ち時間 4.2時間 1.1時間 -74%
2 ドキュメント作成時間 3-5時間/件 0.5-1時間/件 -80%
3 テストカバレッジ 42% 78% +36pt
4 バグ修正の初動 1.5営業日 0.3営業日 -80%
5 1人あたり月間PR数 12件 28件 +133%

計測方法: GitHub Insights + 社内ダッシュボード(claude-activity-tracker)による3ヶ月平均値。PR数にはドキュメント更新・設定変更を含む。

①コードレビュー待ち時間 -74% の内訳:

graph TD
    subgraph BEFORE["導入前: 平均7-9時間"]
        B1[PR作成] -->|待ち 4.2h| B2[人間レビュー1回目]
        B2 -->|修正 1-2h| B3[修正コミット]
        B3 -->|待ち 2-3h| B4[人間レビュー2回目]
        B4 --> B5[マージ]
    end
    
    subgraph AFTER["導入後: 平均2-3時間"]
        A1[PR作成] -->|即時| A2[code-reviewer
自動一次レビュー] A2 -->|修正 0.5h| A3[修正コミット] A3 -->|待ち 1.1h| A4[人間レビュー
AIレビュー結果付き] A4 --> A5[マージ] end

ポイントは2つあります:

  1. AI一次レビューが即時に完了する: code-reviewerエージェントがPR作成直後にレビューを実行。人間のレビュアーが見る時点で、スタイル違反・セキュリティ問題・テスト不足はすでに解消されている
  2. 人間のレビューが軽くなる: AIが既にチェックした項目は人間がスキップできるため、レビュー1回で完了するケースが大幅に増加

定性的な変化

ジュニアメンバーの立ち上がりが速くなった

新メンバーが入社してから最初のPRを出すまでの期間が、約2週間から3日に短縮しました。エージェントがペアプロ相手になるため、シニアメンバーの「教える時間」が減りました。

特に効果が大きかったのはtdd-guideエージェントです。「まずテストを書いて、それが通る最小限のコードを書く」というTDDのサイクルを、エージェントが繰り返しガイドしてくれます。

ドキュメントの質と量が劇的に改善

「時間がないから書かない」がなくなりました。Claude Codeでの設計書・議事録・手順書の作成が日常化し、3ヶ月で50以上のドキュメントが生まれました。これは導入前の1年分に匹敵します。

セキュリティが「事後確認」から「事前確認」に

security-reviewerが自動でスキャンするため、「あとで確認する」→「コミット前に確認済み」に変わりました。コミット前のチェックリスト8項目(ハードコードされたシークレット、SQLインジェクション、XSS、CSRF、認証/認可、レート制限、エラーメッセージの情報漏洩、入力バリデーション)が自動化されています。


6. AI駆動開発 成熟度モデル — チームの現在地を測る

導入から3ヶ月の経験を基に、AI駆動開発の成熟度モデル(5段階) を体系化しました。

モデル概要

Level 名称 特徴 到達目安
L1 個人利用 一部メンバーがCopilotを使用。組織的な管理なし
L2 チーム標準化 全員がツールを使用。共通ルール整備。環境統一 1ヶ月
L3 品質統合 エージェントによる自動レビュー。TDD。評価チェーン確立 3ヶ月
L4 外部連携 MCP経由で業務システムと統合。ワークフロー全体が自動化 6ヶ月
L5 自己最適化 メトリクス駆動の継続改善。ルールの自動棚卸し。ハーネス簡素化 12ヶ月

各レベルの詳細チェックリスト

L1 → L2 への移行(環境統一):

  • [ ] 全メンバーがClaude CodeまたはCopilotを使用している
  • [ ] 共有設定(ルールファイル)がGitで管理されている
  • [ ] コーディング規約がAIが読めるMarkdown形式で定義されている
  • [ ] ペアプロ期間を設けてナレッジを共有した
  • [ ] Copilot / Claude Codeの使い分け基準が明文化されている

L2 → L3 への移行(品質統合):

  • [ ] code-reviewer相当のエージェントが全PRに対して実行されている
  • [ ] security-reviewer相当のエージェントがコミット前に実行されている
  • [ ] 「生成者と評価者の分離」原則が運用されている
  • [ ] テストカバレッジ70%以上
  • [ ] TDDワークフローが標準化されている

L3 → L4 への移行(外部連携):

  • [ ] 3つ以上のMCPサーバーが接続されている
  • [ ] Hooksで自動処理が2つ以上稼働している
  • [ ] 業務システム(タスク管理/チャット/CRM等)とClaude Codeが連携している
  • [ ] コンテキストスイッチなしで調査→実装→レビューが完了できる

L4 → L5 への移行(自己最適化):

  • [ ] 生産性メトリクスを自動収集している
  • [ ] 四半期ごとにルール・エージェントの棚卸しを実施している
  • [ ] モデルのアップデートに合わせてハーネスを簡素化している
  • [ ] 「なくても大丈夫なルール」を定期的に削除している

ClassLabの現在地

私たちは現在L4(外部連携)からL5(自己最適化)への移行途中です。メトリクス収集の仕組み(claude-activity-tracker)は構築済みで、四半期棚卸しプロセスも導入しました。次の課題は「モデル進化に合わせたハーネスの簡素化」です。


7. うまくいかなかったこと — 正直な失敗談5選

良いことばかりではありません。正直に共有します。

失敗①: Copilotの補完を信じすぎる問題

特に導入初期、「Copilotが書いたから正しいはず」という油断がありました。ロジック的に明らかにおかしいコードがそのままマージされたことが2件。

当初はCopilotとClaude Codeを独立したレイヤーとして設計していましたが、実運用で統合の必要性がわかりました。現在はCopilot生成コードも含めて全変更にcode-reviewerを通す運用にしています。

教訓: AIが書いたコードだからこそ、AIにレビューさせる。

失敗②: ルールの肥大化

3ヶ月で500行以上のルールファイルが蓄積しました。ルールが増えるほどClaude Codeのコンテキストウィンドウを消費し、本来の作業に使えるトークンが減ります。

対策として四半期棚卸しチェックリストを導入しました:

  1. 指示なしでもモデルが従っているルールは? → 削除候補
  2. メインセッションと同じ出力のエージェントは? → 統合候補
  3. 3ヶ月間一度も発火しなかったガードレールは? → 削除検討

教訓: ルールは増やすだけでなく、定期的に減らす仕組みが必要。

失敗③: MCPサーバーの初期設定コスト

10以上のMCPサーバーの接続設定は正直面倒でした。認証情報の管理、APIの仕様差異、レート制限の考慮、WAFによるブロック回避——一つひとつは小さな問題ですが、積み重なると数日を要します。

教訓: 初期投資は覚悟する。ただし一度設定すれば、日々のコンテキストスイッチ削減効果は計り知れない。

失敗④: エージェントの過信

code-reviewerエージェントが「問題なし」と判断したコードに、実際にはロジックバグがあったケースがありました。エージェントはコードの構造的な品質は得意ですが、ビジネスロジックの正確性は人間の確認が不可欠です。

教訓: AIレビューは人間レビューの代替ではなく、補完。最終判断は人間が行う。

失敗⑤: 新しいモデルへの過剰な期待

モデルがアップデートされるたびに「これでエージェントの数を減らせるのでは」と期待しますが、実際にテストすると期待ほどの改善がないケースも多いです。

教訓: モデル進化を前提にハーネスを設計するが、削除は必ず2回のテストセッションで品質劣化がないことを確認してから。


8. 展望 — 次に取り組むこと

短期(3ヶ月以内)

  1. エージェント統合テスト: 言語別ビルドエラー解決エージェント(5種: C++, Go, Java, Kotlin, Rust)を汎用1種に統合できるか検証中
  2. Hooks APIメトリクス拡張: セッション単位の生産性メトリクスを自動収集し、ダッシュボードに統合
  3. 社内ナレッジベース連携: 社内WikiをMCPサーバー経由でClaude Codeに接続

中期(6ヶ月以内)

  1. CI/CDパイプラインとの統合: PRマージ時にcode-reviewer + security-reviewerを自動実行
  2. DORAメトリクスとの相関分析: AI活用度とデプロイ頻度・変更リードタイムの関係を定量化

この記事のまとめ

  • Copilotは手を速くする。Claude Codeは頭を増やす。 役割が違うから併用が最適解
  • 個人の道具ではなく、チームのインフラとして設計する。 ルール・エージェント・フック・MCPを標準化しGitで管理
  • 生成者と評価者は必ず分離する。 AI → AI → 人間の3段階評価チェーン
  • 成熟度モデル(L1〜L5)で現在地を把握する。 段階的に導入すれば10名チームでも1ヶ月で軌道に乗る
  • うまくいかないことも設計の一部。 油断・肥大化・過信への対策を事前に用意する

AI駆動開発は、ツールを入れれば終わりではありません。チームとしてどう使うかの設計が、生産性を決定します。


9. 導入テンプレート — 明日から使える設定ファイル

最後に、読者が明日から使えるClaude Code設定テンプレートを公開します。

最小構成(L2: チーム標準化 到達用)

# CLAUDE.md — チーム共通ルール(最小構成テンプレート)

## コーディング規約
- イミュータブルパターン必須: オブジェクトを変更せず、新しいコピーを作成する
- ファイルは200-400行を目安、800行を上限とする
- 関数は50行以内に収める
- ネストは4段階以内

## テスト要件
- テストカバレッジ 80%以上
- ユニットテスト・統合テスト・E2Eテストの3種を必須とする
- TDD: テストを先に書き、失敗を確認してから実装する

## セキュリティ
- ハードコードされたシークレット禁止(環境変数を使用)
- 全ユーザー入力をバリデーション
- SQLはパラメータ化クエリのみ
- エラーメッセージに内部情報を含めない

## コミットメッセージ
- Conventional Commits形式: feat/fix/refactor/docs/test/chore

エージェント定義テンプレート(code-reviewer)

# code-reviewer エージェント

## 役割
コード変更の品質をレビューし、問題点を報告する。

## レビュー観点
1. コーディング規約への準拠
2. セキュリティ脆弱性(OWASP Top 10)
3. テストの十分性
4. パフォーマンス問題
5. 可読性・保守性

## 出力フォーマット
- 重要度: CRITICAL / HIGH / MEDIUM / LOW
- ファイルパス:行番号 を明記
- 修正提案を具体的に記載

セルフチェックシート

あなたのチームはどのレベルですか?以下のチェックリストで現在地を確認してください。

Level チェック項目 あなたのチーム
L1 1人以上がAIコーディングツールを使っている
L2 全員がツールを使い、共通ルールがある
L2 ルールがGit管理されている
L3 エージェントによる自動レビューが全PRに適用されている
L3 生成者と評価者が分離されている
L3 テストカバレッジ70%以上
L4 MCPサーバーが3つ以上接続されている
L4 Hooksで自動処理が稼働している
L5 生産性メトリクスを自動収集している
L5 四半期ごとにルールを棚卸ししている

L1-L2: まだ始めたばかり。環境統一から着手を L3: レビュー自動化ができればチームの生産性が跳ねる段階 L4-L5: 外部連携と自己最適化。ここまで来ればAI駆動開発が「当たり前」に


ClassLabで一緒にAI駆動開発を推進しませんか?

ClassLabでは、この記事で紹介した環境を日常的に使い、少人数で大きなインパクトを出すことを目指しています。

「AIツールを活用した開発チームで働きたい」「チームのインフラとしてAIを設計する側に回りたい」という方、まずはカジュアルにお話ししましょう。

関連記事


  • URLをコピーしました!
  • URLをコピーしました!

この記事を書いた人

目次