Skill.md検索
2258件の Skill.mdから、あなたに最適なものを見つけましょう
実験結果を対話的に確認・記録できる
by Prgckwb
CVスコアとLBスコアをユーザーとの対話を通じ自然に確認し、複数runがある場合は最高LB(またはLBがなければ最高CV)をbest runとして自動判定します。 ユーザーの考察や学びをヒアリングし、「仮説は正しかったか」「予想外だったことは」「次に何を試すか」といった深い思考を引き出すことで、単なる記録ではなく学習の定着を促進します。 実験README.mdに結果テーブルと各foldのスコア詳細を自動更新し、EXP_SUMMARY.mdの大実験テーブルとExperiment Treeをbest runのスコアで自動更新します。 複数runの比較や fold 別スコアの分散を把握しやすく、次の実験設計の参考になります。 Kaggleコンペで実験結果を体系的に記録・管理したいデータサイエンティスト 多数の機械学習実験を行い、過去の学びを活かしたい研究者 CVとLBの乖離や予想外の結果を整理し、原因分析したいエンジニア チーム内で実験結果を共有し、ナレッジを蓄積したい組織 スキルは5フェーズで構成。フェーズ1では対象実験をGlobで検索し、その README.md から目的・仮説を確認。複数runの場合は一覧提示して選択を促す。フェーズ2では「CVスコアは」「LBスコアは」「fold別スコアは」と順に確認し、不明な箇所は-で記録。フェーズ3(最重要)は「仮説は正しかったか」「何が分かったか」「次に何を試すか」といった考察をヒアリングし、薄い答えは掘り下げ質問。フェーズ4では実験README.mdのResult テーブル(split, cv, lb)とRunsテーブル(各runの変更点と スコア)を更新し、各fold スコアがあれば追記。EXP_SUMMARY.mdのExperimentsテーブルはbest runのスコアを記載し、Experiment TreeのノードをWIP→Good(青)→Best(緑)に更新。best runが変わった場合は他ノードを降格。セキュリティ漏洩検出やリファクタリング計画策定は含まない。
Kaggleコンペの環境をワンステップで初期化できる
by Prgckwb
テンプレートリポジトリのセットアップ状況を自動診断:8項目のチェックリスト(uv sync、コンペ名反映、データダウンロード、設計ドキュメント作成、バリデーション戦略記載、設定ファイル更新、評価指標設定)を自動確認し、完了状況をビジュアル表示できます。 コンペティション情報をドキュメント・アプリ全体に一括反映:コンペ名をREADME・pyproject.toml・FastAPI設定・HTMLテンプレート・CLAUDE.md・app/config.pyなど複数箇所に自動更新し、情報の入力漏れを防げます。 必須ドキュメントのテンプレート内容を対話的に埋める:docs/official/overview.md、docs/official/data.md、EXP_SUMMARY.mdなどのプレースホルダーを、ユーザーとの対話形式で実装仕様に合わせて埋められます。 環境構築とドキュメント作成を同時に進行:uv sync、input/データダウンロード、設定ファイル更新などを順序立てて実行でき、セットアップ漏れを防げます。 後回しにできる項目はスキップ可能:ユーザーが「後でやる」と答えた項目は自動的にスキップでき、柔軟なセットアップフローが実現できます。 Kaggleコンペに初めて参加する初心者:テンプレートリポジトリの複雑なセットアップを自動化・対話化することで、迷わずに環境を整えられます。 複数のKaggleコンペに同時参加するデータサイエンティスト:テンプレート初期化を自動化することで、コンペごとの環境構築時間を短縮でき、分析に集中できます。 チーム内での統一されたセットアップフローを確立したいコンペ主催者:init スキルをチーム全体で共有することで、参加者による初期設定の差異を最小化できます。 設計ドキュメント作成を習慣化したい分析者:必須ドキュメント(overview、data、Validation Strategy)の記入をセットアップフローに組み込むことで、後付けドキュメント作成を回避できます。 kaggle:init スキルは、テンプレートリポジトリクローン直後のセットアップスキル。コンペ名記載、docs/official作成、環境確認を対話的に実行。セットアップチェックリスト8項目:(1)コンペ名がドキュメント・アプリに反映済み(README.mdタイトル確認),(2)uv sync実行済み(.venv/存在確認),(3)input/データダウンロード済み(ファイル存在確認),(4)docs/official/overview.md記入済み(プレースホルダー確認),(5)docs/official/data.md記入済み(プレースホルダー確認),(6)Validation Strategy記載済み(EXP_SUMMARY.md確認),(7)app/config.pyのCOMPETITION_ID設定済み(デフォルト値確認),(8)評価指標がCLAUDE.md wandbテーブルに反映済み(プレースホルダー確認)。フェーズ1「診断」:各項目を自動確認し、サマリー表示。フェーズ2「実行」:未完了項目を対話形式で進行。コンペ情報反映箇所:README.md(1行目)、pyproject.toml(name)、app/main.py(FastAPI title)、app/templates/base.html(サイドバーBrand・フッター)、app/templates/index.html(ヒーロータイトル)、CLAUDE.md(wandb project)、app/config.py(COMPETITION_ID)。環境セットアップ:uv sync確認・実行案内。
機械学習の学習済みモデルをKaggleに自動公開
by Prgckwb
実験の出力ディレクトリをそのままKaggle Datasetに変換・アップロード:複雑な変換やメタデータ作成なしで、フォルダ構造を保ったまま(fold0/fold1/など)Kaggle上に公開できます。 学習済みモデルを研究コミュニティと簡単に共有:チェックポイントファイルをKaggleの標準形式でホストし、他の研究者が即座に利用・引用できる環境を整えます。 実験メタデータを自動管理・更新:Dataset IDやタイトル、ライセンス情報をYAML形式で一元管理し、新バージョンの追加も自動化します。 複数実験の並列管理と版管理:異なる実験や複数のrun(小実験)を整理して管理し、バージョン更新メッセージで変更内容を明確に記録できます。 機械学習の研究結果をオープンソース化・公開したい研究者・学生 Kaggleコンペで学習済みモデルをチームメンバーや審査員と共有する必要があるデータサイエンティスト 複数の前処理パイプラインやモデルチェックポイントを体系的に管理したいML エンジニア 過去の実験結果を再現・参照可能な形で記録・公開したい機械学習プロジェクト管理者 4フェーズで実行:(1)対象実験・run・チェックポイントの特定:src/exp*/をGlobで検索し、config/config.yamlのrun_nameを確認、ls -lhRでチェックポイント一覧表示。(2)Kaggle Datasetメタデータ準備:既存のdataset-metadata.jsonを確認、なければユーザーからKaggleユーザー名とコンペティションslugを取得し、{kaggle_user}/{comp_slug}-{exp_name}形式のslugで新規作成。(3)アップロード実行:初回はkaggle datasets create -p src/{exp_name}/output/{run_name}/、更新はkaggle datasets versionでメッセージ付き。(4)完了報告:アップロード情報・fold数・ファイル一覧・Notebookから参照するパス例を提示します。