.md
Skill.mdサーチャーJP
カテゴリ一覧に戻る

データ・分析・リサーチ

データ分析・レポート生成・市場調査・トレンド把握

表示:
/ 全123
T

AIとの対話履歴を分析して、自分のスキル伸び具合を診断できる

by tokoroten

対話履歴を自動解析:Claude Code、GitHub Copilot Chat、Cursor、Clineなど複数のAIエージェントツールのログを自動検出し、過去の会話データを一元収集できます。 技術理解度を推定:プロンプトの質や複雑さから、自分がAIにどの程度の指示を出せているか、技術的な深さはどのレベルかを診断します。 AI依存度をスコア化:日々のコーディング作業でAIをどの程度頼っているか、自分でやっている部分とAI任せの部分のバランスを数値で見える化します。 レポートを自動生成:分析結果を日本語のMarkdownレポートとして自動出力し、期間や特定プロジェクト単位での比較も可能です。 複数のAIツールを使い分けている開発者:どのツールをどの場面で活用しているか、全体像を把握したい人 AI時代のスキルを自己評価したい人:AIと協働する中で、自分の技術力がどう変化しているか知りたい人 チームのAI活用状況を把握したい管理職:メンバーのAI依存度やスキル傾向を客観的に分析したい人 学習の効果を数値で見たい人:Linter指摘のような客観的な指標で、自分の成長を可視化したい人 このスキルは、ユーザーが「プロンプトをレビューして」「対話履歴を分析して」「理解度を診断して」と依頼したときや /prompt-review コマンドで呼び出されたときに動作します。前処理スクリプト scripts/collect.py を実行してClaude Code、GitHub Copilot Chat、Cursor、Cline、Roo Code、Windsurf、Antigravity、Gemini CLI、OpenAI Codex、OpenCodeのログを自動検出し、フィルタ済みのJSONを取得します。引数処理は柔軟で、数値のみで日数フィルタ(例:30日分)、文字列のみでプロジェクト名フィルタ、両者の組み合わせに対応。タイムスタンプ付きファイル名を生成し、スクリプト出力を保存・参照することで、複数の対話ソースからデータを統合。結果は日本語Markdownレポート(reports/prompt-review-YYYY-MM-DD.md)として出力されます。

レビュー
3444.2k2026-03-17
O

過去データを自然言語で検索

by okikusan-public

自然言語で知識グラフを検索: 「トヨタの前回レポートは?」のような日本語の質問をそのまま入力すると、Neo4j に蓄積された過去データから該当する情報を自動で探します。 複数の過去情報源を横断検索: 過去のレポート、スクリーニング結果、取引記録、リサーチ、市況データなど、複数の情報源からまとめて検索できます。 保有銘柄の自動標記: 検索結果に現在の保有銘柄が含まれていれば「保有中」マークを自動付記し、ポートフォリオ管理の効率化を図ります。 最新データとの比較を提案: 過去レポートの検索結果が返ったら、「最新データとの差分を確認するなら /stock-report 推奨」と自動的にアドバイスを提供します。 Markdown形式で結果を表示: 検索結果をわかりやすいMarkdown形式で表示。データがない場合はその旨を明確に表示します。 投資分析担当者: 過去のリサーチレポートや取引記録をすばやく引き出したい人 ポートフォリオマネージャー: 銘柄の過去レポートと現在のポジションを関連付けて確認したい人 市場分析者: 過去の市況データやスクリーニング結果を参考に、最新分析の背景を確認したい人 経営判断支援: 過去のリサーチ結果を素早く参照し、意思決定の根拠を確認したい人 実行方法: python3 .claude/skills/graph-query/scripts/run_query.py "自然言語クエリ" でNeo4jに接続し、自然言語を解釈してグラフクエリに変換・実行します。自然言語→スキル判定は .claude/rules/intent-routing.md に従います。 結果表示と統合ルール: 結果はMarkdown形式で表示され、データが見つからない場合はその旨を表示。Neo4jが未接続の場合は「データが見つかりませんでした」と表示します。前提知識統合ルール(KIK-466)に基づき、クエリ結果に保有銘柄が含まれれば「保有中」マークを付記、過去レポート検索結果には「最新データとの差分を確認するなら /stock-report 推奨」と自動促示します。

911.4k2026-03-22
M

マスターデータのスキーマを効率よく編集・追加

by moorestech

VanillaSchema 配下の YAML スキーマを安全に編集できる。ブロック・アイテム・液体など、マスターデータのスキーマ構造を体系的に変更・追加でき、SourceGenerator の自動コード生成の仕組みが分かります。 スキーマ追加・削除時の設定変更が自動化される。csc.rsp への追加・削除、_CompileRequester.cs の更新手順が明確で、ビルド失敗のリスクが減ります。 再利用可能なスキーマ部品(ref)を活用できる。inventoryConnects.yml など共通パターンをスキーマ部品として定義し、定義の重複を削減できます。 switch・cases、foreignKey などの高度なスキーマ機能を使いこなせる。条件分岐、他スキーマへの参照、共有インターフェース定義など、複雑なマスターデータ構造を表現できます。 Moorestech プロジェクトでマスターデータを管理するエンジニア。YAML スキーマから自動生成される C# クラスの関係を理解でき、スキーマ変更時の対応ミスが減ります。 新しいブロックタイプ・パラメータを追加する開発者。スキーマ定義から SourceGenerator 発動、コード生成までのフロー全体が把握でき、追加作業の手戻りが減ります。 CI/CD パイプラインの失敗を減らしたい DevOps エンジニア。JSON データとスキーマのプロパティ名をすべてチェック、grep コマンドで更新漏れを検出する方法が明確です。 マスターデータ管理を一から構築する技術リーダー。ref・defineInterface・switch/cases などのパターンが実例で示されており、保守性の高いスキーマ設計が可能になります。 マスターデータの YAML スキーマ編集ガイド。ディレクトリ構造は VanillaSchema 直下にブロック・アイテム・液体など主スキーマ、ref 配下に inventoryConnects.yml など再利用可能な部品。編集手順は 4 ステップ:(1) VanillaSchema 配下の YAML を編集、(2) スキーマ追加・削除時に moorestech_server/Assets/Scripts/Core.Master/csc.rsp を編集(/additionalfile:Assets/../../VanillaSchema/newSchema.yml 追加または削除行削除)、(3) _CompileRequester.cs の dummyText 定数を変更してトリガー、(4) MCP または Unity でリビルド(生成コードは Mooresmaster.Model.*Module 名前空間)。重要パターンとして ref は ref: inventoryConnects で VanillaSchema/ref/inventoryConnects.yml を参照、switch/cases で blockType によって条件分岐したプロパティ定義、defineInterface で IChestParam など共有プロパティを定義・実装、foreignKey で items スキーマ参照など。重要ルールは optional: true は必要時のみ、手動で Mooresmaster.Model クラス作成禁止、変更後は _CompileRequester.cs を更新してコミット。プロパティのリネーム・削除時は CRITICAL:JSON データ更新(TestMod、Client.Tests、../moorestech_master、mooresmaster.SandBox 全対象)、grep で旧プロパティ名の残存確認必須(.claude/worktrees を除外)。スキーマ変更後も CRITICAL 検証あり。

テストコミット
699652026-04-12
W

ビジネスプロセスを物語で可視化し共通理解を作れる

by wfukatsu

複雑な業務フローを誰もが理解できる物語に変換:難しい業務ルールやシステム動作をストーリー形式で段階的に説明するため、技術者でない経営層やスタッフも直感的にプロセスを理解できます。 暗黙知の引き出しと形式知への変換:ベテラン社員の頭の中にある「こういう時はこうする」という知識をAIとの対話を通じて言語化し、マニュアルやシステム設計に反映させられます。 業務フローの抜け漏れと例外を一気に可視化:7段階のファシリテーションプロセスで、通常フローだけでなく失敗時の対応やシステムトラブル時の代替手段が明確になるため、リスク管理や運用マニュアル作成に直結します。 Mermaidで自動生成された図解で即座に共有:物語から自動的に可視化図が生成されるため、会議や研修で「この場面はどこに当たるのか」という議論が可能になります。 複数プロセスを関連付けて全体ドメインマップを構築:個別のドメインストーリーを積み重ねることで、組織全体の業務体系図やシステム連携図が完成するため、新人研修やシステム企画の基礎資料になります。 業務改革やプロセス改善の推進者:現状業務を可視化し、どこに無駄や矛盾があるかを全員で共通認識したい場合、ストーリー形式で引き出した情報が改善提案の根拠になります。 システム開発やBPM導入に関わるコンサルタント:クライアントの業務を深く理解し、システム要件を正確に定義したい場合、このプロセスで引き出した情報が要件定義書の品質を大幅に向上させます。 品質管理や監査部門:各部門の業務がどのように連携し、どこにリスク要因があるかを把握したい場合、例外シナリオ分析から予防的な対策を講じられます。 組織の新入社員研修や教育企画の担当者:複雑な業務フローを時系列に分かりやすく説明する教材が短期間で整備でき、教育効果が格段に上がります。 本スキルは、ドメインストーリーテリング手法を用いてビジネスプロセスを物語形式で可視化するエージェントです。コア要素は3つ:アクター(人・役割・システム)、ワークアイテム(扱うモノ・情報)、アクティビティ(実行行動)です。実行モードは2つ:インタラクティブモード(ユーザーとの対話で引き出す、推奨)と自動生成モード(既存資料から自動生成、低精度だが高速)です。7段階のファシリテーションプロセスは:(1)舞台設定─スコープと目的確定(2)物語開始─最初のアクターと行動特定(3)展開─アクティビティの時系列追跡(4)確認─内容レビュー(5)例外検討─失敗パターンと対応(6)可視化─Mermaidシーケンス図生成(7)クロージング─追加シナリオ確認と終了判定です。出力は[domain]-story.mdとしてドメインストーリー(概要・登場人物・ワークアイテム・メインストーリー・ストーリーフロー図・例外シナリオ・業務ルール・ドメインイベント・用語集・関連ストーリー・改善提案・メタデータ)を含みます。

レビュー
83172026-02-23
H

要求分析ツリーの活動情報を自動生成

by haru860

業務要求(ビジネス層)と IT 要求(システム層)から、それらに紐付く活動情報を自動抽出・生成できます。 各活動に対して詳細説明と最も関連度の高い業務要求を自動マッピングできます。 構造化された TSV ファイル形式で活動情報を自動出力し、後続の分析工程へデータを引き継げます。 既存ファイルの自動削除と新規出力を組み合わせて、常に最新の活動情報を維持できます。 要件分析担当者:ビジネス要求と IT 要求から活動を系統的に抽出したい方 システム企画者:要求分析の各段階を自動化し、作業効率を高めたい方 プロジェクトマネージャー:Phase 4-3 の活動作成を加速したい方 このスキルは RequirementTreeActivity エージェントを起動し、Phase 4-2(業務要求・IT 要求の分析)の完了を前提に活動情報を生成します。実行手順は以下の通りです。 1. Task ツールで RequirementTreeActivity エージェントを起動し、追加指示(引数)を渡す 2. output/requirement-tree-activity.tsv が存在する場合は削除 3. Write ツールで TSV ファイルを出力:パスは output/requirement-tree-activity.tsv、ヘッダーは「活動」「説明」「業務要求」。各行は 1 つの活動を表し、業務要求は最も関連度が高い 1 つのみを指定 4. 出力ファイルの存在を確認し、完了報告を実施 重要な制約として、同一の活動名で複数行を作成せず、活動 1 つにつき必ず 1 行で出力することが求められます。

81002026-03-12
W

分析用の出力フォルダをワンコマンドで整備できる

by wfukatsu

標準フォルダ構造を自動作成 - リファクタリング分析に必要な00_summary~99_appendixまで8つのディレクトリを一括作成し、手動でのフォルダ作成作業をゼロにできます。 メタデータファイルを自動初期化 - project-metadata.jsonを自動生成して、プロジェクト名・バージョン・ソース情報・分析ステータスをあらかじめ設定できます。 複数の出力先に対応 - デフォルトのreports/フォルダのほか、カスタムパスを指定して任意の場所に同じ構造を作成できます。 既存ファイルを上書きしない安全設計 - 既にフォルダがあっても上書きしないため、前回の分析結果を誤って消す心配がありません。 分析開始前の準備を一元化 - コマンド1つで複雑なセットアップが完了し、すぐに実際の分析作業に入られます。 アーキテクト・リファクタリング推進者 - 大規模なコード分析を始める前に標準的な出力構成を用意したい エンジニアチーム - 複数プロジェクトの分析結果を統一されたフォルダ構造で管理したい テックリード・CTO - 分析環境のセットアップ手順を標準化して、チーム全体の効率を上げたい コンサルタント・外部専門家 - クライアント毎に分析出力フォルダを素早く準備したい /init-output [出力パス]で呼び出す(パス省略時はreports/)。生成フォルダは00_summary・01_analysis・02_evaluation・03_design・04_stories・05_estimate・graph/data・99_appendixの8階層。mkdir -pで既存ディレクトリを保持します。メタデータファイルproject-metadata.jsonは、project(name・version・created_at・updated_at)、source(path・type・languages・frameworks)、analysis(status・modules_count・domains_count・average_mmi)、agents(system_analyzer~microservice_architect各エージェントのステータス)を初期値として自動生成。Bashツール実行で完成。書き込み権限がない場合はエラー出力。相対・絶対パス対応。

設計
82572026-02-23
T

Webサイトを自在に操作してデータを取得する

by tomo3141592653

ページを参照参照ID付きで表示:agent-browserがページ要素に@e1、@e2などの参照IDを自動付与し、複雑なHTML構造をシンプルに操作できます。 クリック・入力・スクロールを直感的に実行:参照IDを指定するだけで、フォーム入力、ボタンクリック、ページスクロールが実行でき、ブラウザ自動化スクリプトのような複雑な記述が不要です。 ログイン処理を含むWebサイト操作:ユーザー認証が必要なサイトでのログイン操作から、その後のデータ取得まで一貫して行えます。 スクリーンショットとWebスクレイピングの両立:ページのビジュアルをスクリーンショットで確認しつつ、構造化されたテキスト情報も同時に抽出できます。 パフォーマンス計測とネットワーク監視(高度な用途):chrome-devtools MCPで読み込み時間やAPI呼び出しを監視し、パフォーマンス問題を特定できます。 Webサイトから自動でデータを収集したいが、複雑なスクレイピング技術は避けたい人 ユーザー認証が必要なWebサイトの情報を定期的に取得する必要がある場合 HackerNewsやニュースサイトなどから最新情報を自動で抽出したい人 ブラウザの自動操作ツールを初めて使う人で、簡潔な記法で操作したい場合 agent-browserはデフォルトで使用します。理由は、未使用時にトークンを消費しないこと、参照ID(@e1、@e2等)でコンテキスト93%削減、シンプルなブラウザ操作に十分という点です。chrome-devtools MCPは高度な操作が必要なときのみ動的ロードします。 agent-browserの基本コマンドはopen(ページを開く)、snapshot(ページ構造を見る)、click(要素をクリック)、fill(フォーム入力)、scroll(スクロール)、screenshot(スクリーンショット)、closeです。Refsシステムでページ要素に@e1、@e2等のIDが付与され、これを使用して操作します。 chrome-devtools MCPは、パフォーマンス計測(performance_start_trace等)、ネットワークリクエスト監視、コンソールメッセージ取得、複数タブ操作、JavaScriptプログラムの実行が必要な時に使用します。主要ツールはnavigate_page、take_snapshot、take_screenshot、click、fill、evaluate_script、list_network_requests、list_console_messages、パフォーマンストレース機能です。

テスト記事
63412026-03-07
U

ヒット商品事例から営業戦略を分析・参考にできる

by Unson-LLC

日本のトップマーケター16人による、実際のヒット商品・サービスの成功事例から営業・マーケティング戦略を即座に参照できます。 「Amazonと自社サイト、どちらの販売チャネルを重視すべき?」「インフルエンサーを活かした販売展開とは?」といった具体的な経営判断の参考になります。 EC・D2C(Direct to Consumer)事業で新商品をヒットさせるための思考法やパターンを、実際の事例を通じて学べます。 EC・D2C事業に携わるマーケターや企業経営者 新商品・新サービスのローンチ戦略を検討している方 インフルエンサー活用やSNSマーケティングを計画している事業者 ECモール(AmazonやShopifyなど)と自社サイトの戦略的な使い分けを知りたい方 本書は16人のトップマーケターの事例を6章+応用編で構成。第1章は「トレンド×自社強み×明確なコンセプト」の掛け合わせやニッチ市場狙いの事例(YOLU、BULK HOMME、BOTANIST)。第2章はインフルエンサー発のP2C戦略からD2C化への進化(VALXプロテイン・山本義徳事例で「シャワー効果」によるファン拡大を記録)。第3章は「プロセスエコノミー」として製造過程や作り手の努力に価値を付与する手法(FACTELIER工場直結戦略、TELESA育児ターゲット設定)。第4章はAmazon・楽天等ECモールと自社サイトの特性を活かした売上最大化戦略(ALLNA ORGANIC競合ベンチマーク手法)。第5章はニッチ市場特化プラットフォーム、第6章は経営改革によるブランド刷新事例を扱い、全体として「売れた未来から逆算する」ビジネス設計の本質を記述しています。

テスト設計
61902026-04-01
U

出荷物の進捗を一元管理し速度を可視化

by Unson-LLC

コードリリース・請求書送付・契約締結など、形式は異なっても「完了して外に出した成果物」を統一的に記録・追跡できます。シップのステータス(planned→in_progress→in_review→shipped→verified)を一貫性を持って管理し、チーム全体のアウトプット速度を可視化します。 North Star指標として「1スプリントあたりのshipped数」を自動集計することで、チームの生産性トレンド・ブロッカーの有無・タスク粒度の適正さを数値で把握できます。 複数タスクを1つのシップに紐付け(N:1関係)ることで、「何をやったら何が出荷されたか」の追跡可能性が向上し、チーム内の因果関係が明確になります。 スクラムマスター・アジャイルコーチ:チームの出荷速度を可視化し、スプリント計画を最適化したい人 CEO・経営層:組織全体のアウトプット(開発・営業・バックオフィス)を統一メトリクスで把握したい人 プロダクトマネージャー:機能リリースから営業資料納品まで、全出荷物のステータスを一元管理したい人 核概念:シップ=「チームが外に出したもの」。タスク(Input・やること)とシップ(Output・出したもの)の違いを明確に区別。North Star指標=shipped数/スプリント期間でチーム生産速度を計測。 ステータスフロー:planned(出荷予定登録)→in_progress(作業中)→in_review(レビュー待ち)→shipped(出荷完了、出荷日・証跡URL必須記入)→verified(効果確認済み)。 Ship種別分類:開発系(feature_released・improvement_released・bugfix_released・maintenance_resolved等)、営業・マーケ系(campaign_delivered・sales_material_delivered・contract_executed等)、バックオフィス系(invoice_sent・vendor_paid・expense_reimbursed・month_close_done・tax_filed等)。 タスク紐付け:複数タスクが1シップに紐付く(N:1)ことで、何をやったら何が出荷されたかを追跡可能に。shipped時には出荷日・証跡URL(PR・納品書・メール記録等)必須記入。

レビューテストドキュメント
6892026-04-01
W

既存コードベースの構造と問題点を自動分析・可視化

by wfukatsu

対象システムのソースコード全体をスキャンして、使用している技術スタック(言語・フレームワーク・ライブラリ)を自動特定できます ディレクトリ構成、モジュール構造、依存関係を詳細に分析し、現行システムの全体像を把握できます 技術的負債(後付けパッチ、重複コード、古い設計パターン)、セキュリティリスク、アンチパターンを検出・リポート化します ドメイン駆動設計(DDD)への移行可能性を評価し、リファクタリング計画の基礎情報を体系的に提供します 複雑なコードベースの調査レポートを reports/before/ に自動出力、別エージェントとの並列作業にも対応します レガシーシステムの現状把握・リファクタリング計画を立てるアーキテクト・シニアエンジニア 新しいプロジェクトに参画し、コードベースを短時間で理解したい開発者 セキュリティ監査・品質向上を目的に、既存システムの問題点を列挙したい 他チームから引き継いだシステムの構造や依存関係を整理して、改善施策を検討する立場 このエージェントは Step 0~4 で構成されています。Step 0 では対象パスからプロジェクト名を特定し、出力ディレクトリを作成します。Step 1 の技術スタック調査では package.json、pom.xml、build.gradle などから言語・フレームワーク・データベース・ビルドツール・テストフレームワークを特定。Step 2 の構造分析ではファイルインベントリ、ディレクトリ構成、モジュール依存関係を調査。Step 3 の問題点特定では技術的負債、セキュリティリスク、アンチパターンを検出。Step 4 の DDD 適合性評価では既存構造を DDD に適合させるための課題を分析します。結果は reports/before/{project}/ に technology-stack.md・codebase-structure.md・issues-and-debt.md・ddd-readiness.md として段階的に出力されます。大規模コードベースの場合は Task tool の Explore エージェントを並列起動してコンテキストを保護します。

テストドキュメントセキュリティ
52322026-02-11
W

データベース構造を可視化したER図を自動生成

by wfukatsu

現行ER図の自動生成 - システムのデータ構造をMermaid形式のER図として可視化し、エンティティ間の関係を一目で理解できます。 エンティティ属性の一覧化 - すべてのエンティティの属性・制約をカタログ化し、データモデルの詳細を確認できます。 関連パターンと多重度の分析 - エンティティ間の「1対多」「多対多」などの関連パターンと多重度を自動検出・記録します。 ドメイン別のER図分割 - 大規模なシステムをドメイン(業務領域)ごとに分割したER図を生成し、複雑さを軽減できます。 ORMアノテーションとDDLから自動抽出 - コード内の@EntityなどのアノテーションやSQL定義から情報を直接収集するため、手動作成不要です。 データベース設計者・DBA - システムのデータ構造を整理し、テーブル間の関係を可視化したい 開発チームの新入者 - 既存システムのデータモデルを素早く理解したい アーキテクト・企画担当者 - システム全体のデータフローと構造を俯瞰したドキュメントが必要 保守・改修担当者 - 既存機能の拡張時に、現行データ構造の影響範囲を把握したい このエージェントはコードベースのORMアノテーション(@Entity、@OneToMany、@ManyToOne、@ManyToMany、@OneToOne、@JoinColumn、@JoinTableなど)とDDL(CREATE TABLE、FOREIGN KEY REFERENCES)、およびマイグレーションスクリプトをスキャンして、以下の4つの成果物を生成します。 Step 1 では前提ファイル(data-model-analysis.md、db-design-analysis.md)を参照するか、コードから直接情報を収集。Step 2以降 でエンティティカタログ、関連分析、ドメイン別ER図を生成し、最終的に reports/01_analysis/er-diagram-current.md に出力します。大規模コードベース対応として、SubエージェントでExploreを並列起動して効率化することも可能です。

設計PR
51562026-02-11
I

アーキテクト向けの最新動向を自動調査・レポート化

by iwasa-kosui

設計パターン・Cloud Native・Platform Engineering・クラウドベンダー動向など、ソフトウェアアーキテクトが注視すべき直近1ヶ月の動向を自動調査できます。複数の領域を並行調査するので、手動で情報収集するより圧倒的に早くまとめられます。 調査結果を kosui.me の reports コレクションに MDX 記事として自動出力します。Martin Fowler・CNCF・Kubernetes・AWS など、主要な情報源から最新情報を自動抽出してレポートします。 GitHub Actions から呼ばれた場合は、調査結果を Draft PR として自動作成します。チーム全体で動向を共有し、アーキテクチャ判断の基盤を効率化できます。 ソフトウェアアーキテクト・CTO・技術リーダーで、業界動向を定期的にキャッチアップしたい人 Cloud Native・Platform Engineering などの最新プラクティスを組織全体で共有したい組織 GitHub Actions で定期的に自動実行させて、月次のアーキテクチャ動向レポートを自動生成したい人 このスキルは、4つの領域(設計パターン・アーキテクチャ思想/Cloud Native・CNCF/Platform Engineering・SRE・Observability/クラウドベンダー・業界動向)をグループ分けし、グループごとに独立したサブエージェント(Agent)を並行起動して調査します。各エージェントには WebSearch と WebFetch を使用させ、Martin Fowler blog・InfoQ・ThoughtWorks Technology Radar・CNCF blog・Kubernetes blog・OpenTelemetry・Istio・Linkerd・Cilium・Platform Engineering・Terraform・OpenTofu・Pulumi・SRE Google・Grafana・AWS Architecture blog・GCP など、業界標準の情報源を検索対象とします。調査クエリ例には site: 指定や具体的な検索キーワードが含まれ、各領域の最新動向を効率的に収集できる設計になっています。調査結果を統合し、MDX 記事として kosui.me/reports に出力する流れです。

記事設計PR
41802026-04-13
T

context.mdから全12個の分析を依存関係に基づいて並列実行し、戦略提言まで自動完結

by tarosky

context.md を起点に、市場規模(TAM)、競合分析、ペルソナ、トレンド分析など全12種類の分析を自動実行します。 4つのフェーズに分けて、依存関係に基づいた段階的な並列実行を行い、先行分析が完了してから次段階の分析を開始することで、効率的かつ正確に進めます。 各フェーズは複数タスク(サブエージェント)を同時実行し、全体の実行時間を大幅に短縮できます。 最終的に全12の分析結果を統合し、統合戦略提言(synthesis) まで自動生成します。 既存ファイルの上書き/スキップを選択でき、継続実行にも対応します。 スタートアップの起業家・事業企画者 — 新ビジネスの戦略立案を最初から最後まで一気に進めたいとき 経営企画・事業開発チーム — 複数分析を手作業で指示するのではなく、一度のコマンドで全体を回したいとき コンサルティング企業 — 顧客の初期戦略分析を素早く完成させ、さらに深掘り分析に時間を使いたいとき 既存事業の拡大検討 — 現事業の TAM・競合・GTM を横串で再評価する際に、分析漏れなく実行 本スキルは context.md から全12分析を依存関係に基づいて4フェーズで並列バッチ実行します。前提条件: context.md が存在すること(なければ /init 先実行を案内)、output/ ディレクトリ存在。実行前確認: AskUserQuestion で「すべて再実行」vs「未実行のみ」を選択。Phase 1(基礎分析、並列4タスク): TAM、トレンド、競合分析、ペルソナを context.md のみから独立実行。Phase 2(クロスリファレンス分析、並列3タスク): SWOT、価格戦略、ジャーニーを Phase 1 出力参照で実行。Phase 3(統合型分析、並列4タスク): 財務モデル、海外展開、GTM戦略、リスク評価を Phase 1+2 全出力参照で実行。Phase 4(統合戦略提言、単独): synthesis で全出力ファイル統合。各フェーズは Task ツールでサブエージェント(subagent_type: "general-purpose")を並列起動。フェーズごとに進捗報告(開始時・完了時)を出力。

32892026-02-12
A

バックログのブロッカーを分析して自動解消Issue作成

by AtsushiHashimoto

docs/backlog.md のバックログ項目を自動分析し、「後回しにした理由」を分類して、解消可能なブロッカーを判定します。 自動解消可能なブロッカー(実装・テスト追加・設計完了で対応可能なもの)に対して、具体的なIssue(例:「test: Add real FAISS E2E tests」)を自動作成します。 ユーザー確認が必要なブロッカー(判断が必要な場合)も検出し、レポートするため、何も見落とさないようにできます。 ドライラン機能で、実際にIssue作成する前に分析結果を確認でき、安心して実行できます。 バックログに積み上がったタスクの阻害要因を整理し、開発を加速させたいプロジェクトマネージャーやリード ブロッカーが何かをリストアップするのに手作業をかけたくない開発チーム ブロッカー解消のための具体的なタスク化を自動化したいアジャイルチーム バックログ (docs/backlog.md) のブロッカーを分析し、自動解消可能なものについてIssueを作成します。ブロッカーがない項目のIssue化は別スキル /issue/backlog が担当します。使用方法は /issue/unblock(標準実行)、/issue/unblock --dry-run(分析のみ)、/issue/unblock --all(ユーザー確認必要な項目も報告)です。各バックログ項目から「後回しにした理由」を分析し、🤖自動解消可能(実装・テスト追加で解消)と👤ユーザー確認必要に分類します。自動解消可能な項目について具体的な不足を分析し、対応するIssueを作成するワークフローとなっています。

テストドキュメント設計
11272026-04-07
S

外部システムをデータパイプラインで自動連携させる

by suwa-sh

Salesforce・ServiceNow・その他外部APIから、dlt(データロードツール)を使ってデータを自動抽出・変換・ロードできます。 外部システムのAPI仕様から、認証・ページネーション・増分ロードに対応したPythonパイプラインを自動生成できます。 抽出したデータをdbt(データビルドツール)で加工し、プロセスマイニング(open-process-mining)用のイベントログフォーマットに変換できます。 ユーザーマッピング・case_id生成・アクティビティイベント化などを含む、本番運用可能なSQL変換テンプレートを一式出力します。 Docker・dbtテストを含めた動作確認コマンドを案内し、すぐに実運用できるパイプラインを提供できます。 CRM・HRシステム・ERP等の外部データをプロセスマイニングで分析したいデータアナリスト 複数システムのイベントログを統合し、エンドツーエンドのビジネスプロセスを可視化したい企業 APIから自動でデータ取得し、最小限の手作業で分析パイプラインを構築したい開発チーム データ品質を確保しながら、外部システムとの連携を拡張していきたいデータエンジニア 本スキルは6ステップで構成されます。Step 1 でユーザーに「連携先システム名(snake_case)・API仕様(エンドポイント・認証・レスポンス構造)・プロセスタイプ名(kebab-case)・イベント定義・ユーザー識別子」を確認。Step 2 でdlt.resourceデコレータ・ページネーション・増分ロード・ユーザー識別子を含むdlt/sources/{system}_source.pyと、@dlt.sourceで束ねたパイプラインを生成。Step 3 でdlt/pipelines/{system}_pipeline.pyにdataset_name="bronze_raw"とエラーハンドリングを実装。Step 4 でconfig.tomlとsecrets.toml.exampleにセクション[sources.{system}_source]形式の認証情報を追記。Step 5 で_bronze__sources.ymlにBronzeテーブル定義を追加し、stg_{system}_{entity}.sqlにuser_mapping CTE・case_extraction CTE・events CTEを実装、stg_all_events.sqlに UNION ALL で統合。Step 6 でdlt実行・dbt run・dbt testのDocker Composeコマンドを案内し、Bronze層のデータ確認まで行います。

テストドキュメント
11702026-03-07
T

リサーチプロジェクトをドラマティックに立ち上げられる

by tnagakubo

プロジェクトフォルダ自動生成: 新しいリサーチプロジェクト用のフォルダ構造をprojects/{project-name}/下に一括作成できる SUITS.mdシーンを自動追加: プロジェクト開始時の劇的なシーン(Harvey、Donna、Mike、Rachelらによる会話)をSUITS.mdの最上部に自動挿入 チーム全体の役割分担を明示: Harvey(戦略決定)、Donna(プロジェクト管理)、Mike(方法論設計)、Rachel(文献調査)など、各メンバーの初期タスクを自動アナウンス プロジェクト開始のモチベーション演出: ドラマティックな設定により、チーム全体を巻き込んでプロジェクトをスタートさせる チーム全体でリサーチプロジェクトを組織的に進めたい人 プロジェクト開始の記録を自動的にドキュメント化したい人 Takユーザー(このスキルはTakのみが実行可能) SUITS.mdを使用したドラマティックなワークフロー管理を採用しているチーム このスキルはTakのみが実行可能な制限付きスキルで、model: sonnetが指定されています。実行フローは以下の通り:Donnaがプロジェクトフォルダprojects/{project-name}/を作成し、SUITS.mdの最上部に新しいシーンエントリを追加します。その後Harveyがプロジェクト戦略をアナウンスし、初期タスクを割り当てます。チームメンバーはその後SUITS.mdに対話を追記していきます。SUITS.mdシーンエントリのテンプレートとして、INT. PEARSON SPECTER LITT - CONFERENCE ROOM - DAYの場面で、Harveyが全員に指示を出し、Donnaがプロジェクト管理を宣言、Mike、Rachel、Katrinaが各自の役割を表明するドラマティックな会話が提供されています。重要な制限として「Only Tak can start projects」「Scene added at TOP of SUITS.md」「Harvey sets direction immediately」が明記されています。

設計
1982026-03-24
N

ROADMAPを分析して複数タスクを並列実装

by ncukondo

ROADMAPを自動分析して、並列実行可能なタスクを特定し、最大4つまで同時に実装を進められます 各タスクを独立したワーカープロセスで実行することで、メインエージェントは管理・指揮に専念できます PR作成からレビュー、修正、マージまでの全フローを自動オーケストレーション(自動制御・調整)します レビュー指摘に対して自動で修正ループを回し、LGTM(Good to Merge)まで対応します タスク完了後にROADMAPを自動更新して、進捗を常に最新に保ちます 複数の機能開発を同時に進めたいプロジェクトマネージャー スケーラブルな実装フローを構築したいチームリード ROADMAPベースで体系的に開発を管理したい開発チーム レビュー~マージまでの手動作業を自動化したい開発者 このスキルは、spec/tasks/ROADMAP.md を確認し、依存グラフから並列実行可能なタスクを特定します。メインエージェントは管理・指揮のみを行い、実装・テスト・レビューはサブエージェント(ワーカー)に完全に委譲します。各ワーカーは独立した Claude CLI プロセスとして tmux pane で実行されるため、権限問題が発生せず真の並列実行が可能です。タスク分析、ワーカースポーン、進捗監視、PR確認、レビュー結果の自動フィードバックループ(修正→再レビュー→LGTM判定)、マージ、ROADMAP更新の8ステップで構成されています。最大4並列(main + 4 workers)まで同時実行でき、spawn-worker.sh で worktree 作成・npm install・tmux pane 作成・Claude CLI 起動を自動化します。

レビューテスト設計
12882026-03-28
S

Polibase のデータ処理パイプラインを正確に実行

by sage-base

Polibase の 6 つの設計原則(政党 Web サイトからの政治家情報取得、議事録からの話者抽出、LLM による政治家マッチング、議員団管理、段階的メンバー抽出、Streamlit UI による入力)を理解し、正しい処理順序で実行できます。 標準フロー(PDF 議事録→Minutes Divider→Conversations 抽出→Speaker Extraction→Politician Matching)と Web Scraping フロー(GCS 統合)の 2 つのパイプラインを使い分けられます。 議事録の分割、話者情報の抽出、政治家との高精度マッチング(ルールベース+LLM ハイブリッド)を段階的に実行でき、各ステップの出力形式・入力形式を正確に把握できます。 全角/半角文字混在などの日本語政治データ特有の課題に対応した処理が可能です。 既存の政治家データを定期的に更新し、最新の役職・選挙区情報を常に反映できます。 Polibase 開発者・メンテナー:複数の処理パイプラインの依存関係と実行順序を理解したい 日本の政治データを扱うシステム構築者:議事録処理や政治家情報の自動抽出を実装したい Web スクレイピング・自動化エンジニア:政党 Web サイトからの定期的なデータ取得を実装したい データベース設計者:複雑な政治家マッチング・議員団管理の E-R モデルを理解したい 6 つの設計原則:(1)政治家情報は政党公式 Web サイトから定期取得、(2)話者と発言は議事録から構造化抽出、(3)話者-政治家マッチングは LLM 活用、(4)議員団(Parliamentary Groups)は投票ブロックと役職付きメンバーシップを表現、(5)会議メンバーは members_introduction_url から段階的に抽出し信頼度スコア付き、(6)データ入力は Streamlit UI から管理。標準フロー:PDF→Minutes Divider(src/minutes_divide_processor/、LangGraph+Gemini)→Conversations テーブル→Speaker Extraction(src/extract_speakers_from_minutes.py)→Speakers テーブル→Politician Matching(ルール+LLM)→リンク済み Speakers。Web Scraping フロー:政党 Web サイト→Web Scraper(--upload-to-gcs フラグで GCS 保存)→GCS Storage→Meetings テーブル(gcs_pdf_uri, gcs_text_uri 保存)→Minutes Divider(--meeting-id で GCS から直接取得)→標準フロー合流。

レビュードキュメント設計
1522026-04-13
S

データベース変更をAlembicで安全に管理できる

by sage-base

Alembicを使用したデータベーススキーマ変更を構造的に管理し、upgrade/downgradeロジックを自動チェック。 マイグレーション作成時に冪等性(べきとうせい)やロールバック対応の実装漏れを早期に検出。 スキーマ変更時のデータ保全フローを提示し、重要なフロー情報(conversations、speakersなど)の誤削除を防止。 ダンプ/リストア機能でDockerボリューム削除後も過去データから選別的に復旧可能に。 シードファイルとマイグレーションの実行順序による「0行更新」問題を自動検出・修正提案。 チーム開発でデータベース設計の変更が必要になった開発者やマネージャー 本番環境のデータを失わずに開発環境でスキーマをテストしたい人 マイグレーション履歴を正確に追跡し、いつでもロールバック可能な状態を保ちたい人 スキーマ変更によるダウンタイムを最小化したい運用チーム Alembicを使用したデータベースマイグレーション作成時に自動アクティベート。マイグレーションファイル作成、スキーマ変更、テーブル/カラム/インデックス追加時にjust migrate-new "name"で新規作成、just migrateで適用、just migrate-rollbackで1段階戻す。必須チェックリストとして、upgrade()・downgrade()の実装、冪等性確保(IF NOT EXISTS/IF EXISTS使用)、テスト実施、ロールバックテスト、シードファイル更新を確認。シード生成後にカラム削除するとDBリセット失敗の原因に。スキーマ変更時にDockerボリューム削除(just clean)が必要な場合、事前にjust exec uv run sagebase dump-databaseでJSONダンプを取得し、再起動後just exec uv run sagebase restore-dump --truncateでフロー情報をリストア。ダンプ/リストアコマンドで全テーブルまたは指定テーブルのみ操作可能。

テストドキュメントPR
1232026-04-13
L

徹底調査と信頼性の高い情報データベースを構築・管理

by langcore-org

表面的な情報ではなく、複数の情報源から事実を検証しながら深く調査できるので、信頼性の高い情報が得られます。 テレビ番組・放送回情報、タレント情報などを一元管理し、日付・曜日の矛盾がないか、ゲスト情報が正確かなどを自動チェックできます。 既存データの誤りを特定し、追加・削除・修正が必要な項目を差分リストで明示してから作業を進めるため、予期せぬ影響を防げます。 調査内容の検証方法と検証日を記録することで、データの信頼性と履歴が明確に追跡できます。 わからないことはわからないと正直に報告し、AI(Teddy)が参照するナレッジベースの品質を継続的に改善できます。 テレビ番組情報や放送データを正確に管理・更新する必要がある放送局やメディア関係者 複数の情報源から事実を検証して、信頼性の高いデータベースを構築したい研究者やコンテンツ企画者 AIが参照する知識ベースの正確性が重要なシステム運用者やデータ管理者 時系列データやゲスト情報など、矛盾・重複が起きやすいデータを扱う組織 調査は探索であり、固定的な手順ではなく臨機応変に深掘り・横展開します。基本姿勢は好奇心主導、柔軟な軌道修正、品質重視、不確実性の受け入れ、自分の理解を疑うことです。 データ品質管理は最重要で、「作成→コミット→検証」ではなく「作成→サンプル検証→問題発見→修正→コミット」の順序が必須です。時系列データ(放送回・イベント)、ゲスト/出演者リスト、日付+曜日の組み合わせは検証の危険度が高く、複数の信頼できる情報源(一次情報源)でクロスチェックが必要です。 調査開始時は、ユーザーの質問を言い換えて意図を確認し、前提条件と既存データを確認したうえで差分リストを作成します。削除が「過去の実績」なのか「誤記載」かを必ず確認してから修正範囲を宣言します。検証結果は検証日、対象、検証方法、結果(正確/一部誤り/重大誤り)、修正内容、未検証項目をまとめて記録します。

ドキュメントコミット
1242026-03-27
表示:
/ 全123