Skill.md検索
2258件の Skill.mdから、あなたに最適なものを見つけましょう
研究論文の弱点を投稿前に徹底的に洗い出す
by DivaGabriel
査読者視点の厳しい審査を事前実施 — 国際学会の審査委員レベルの専門知識で、論文の新規性・方法論・実験設計の問題点を明確に指摘。 最強の競合論文を自動検索・対比 — あなたの研究が「本当に新しいのか」を確認するため、最も関連性の高い3論文を探し出し、差異を具体的に説明。 Worst Case(最も脆い場面)を点名 — すべての手法には限界があります。論文のどこが最も脆いか、どのベンチマークやデータセットで失敗しやすいかを先制的に指摘。 Rejection(不採択)の理由を予測し、補強案を提示 — 査読者が「なぜこの論文を落とすか」の論理を言語化し、投稿前に対策できるようにサポート。 論文投稿前に品質を確認したい研究者 — 不採択の理由を事前に察知し、修正して合格確度を上げられます。 Rebuttal(再反論)を準備中の著者 — 査読者からの指摘を予測し、反論の準備や追加実験の計画ができます。 競合研究の脆弱性を分析したい研究チーム — 他社の論文の弱点を構造的に理解し、自分たちの研究の差別化ポイントを強化。
研究に最適なデータセットをAIが推薦・評価
by DivaGabriel
研究目的に合わせたデータセットを優先順位付きで推薦 — 「VQA関連の有名データセット」という一般的な紹介ではなく、あなたの仮説を検証するのに最適な順序付きリストを提供。 各データセットの「何が検証できて何ができないか」を明確化 — VQAv2は汎用的な視覚理解を測定し、TextVQAはOCR能力に特化する、というように、設計意図と検証範囲を説明。 Worst Caseデータセットを明示 — あなたの手法が最も苦手とする場面(高周波情報が必要な問題など)を測定できるデータセットを指摘し、誠実なベンチマーク設計をサポート。 ダウンロード方法と前処理コードを提示 — HuggingFace・公式サイトなどから実際に取得する手順と、Pythonコードで即座に実験を開始できるようにサポート。 研究初期段階でデータセット選定に迷っている研究者 — 複数候補の中から、実験戦略に合わせた最適な組み合わせをアドバイス。 論文の信頼性を高めたい著者 — ベンチマーク選択の恣意性を排除し、弱点も含めて誠実に評価できるデータセット構成を実現。 計算リソースに制約がある研究チーム — GPUメモリや実行時間の制限の中で、最大の検証価値を得られるデータセット選定をサポート。
GPU メモリ不足の根本原因を特定し、最適な解決策を提案
by DivaGabriel
CUDA OOM エラーの原因を正確に特定:どのテンソルがいつメモリを消費しているかを数値で把握し、単なる「モデルが大きい」という曖昧な診断ではなく、具体的な GB 単位での消費箇所を明確にします。 GPU メモリの構成を詳細に分析:モデル重み、KV キャッシュ、アクティベーション、一時バッファなど各要素の消費量を計算し、どこが最大のボトルネックかを可視化します。 推論速度低下の段階的診断:vision encoder、projector、LLM forward など各ステージごとのレイテンシーを計測し、実際のボトルネックがどこにあるかを特定します。 訓練の不安定性や多 GPU 問題を解決:gradient accumulation 中のメモリ圧力、DDP マルチカード訓練での同期問題など、複雑な分散訓練シナリオの根本原因を追跡できます。 実行可能な最適化アクション提案:profiling データに基づき「第 X 層の activation が Y GB を占めるため、gradient checkpointing を追加すると Z GB 削減可能」など、具体的な改善手順を明示します。 大規模言語モデル(LLM)や画像認識モデルを扱う研究者・エンジニア:メモリ効率の最適化が直結する推論コストや訓練時間短縮に寄与します。 複数の GPU で分散訓練を実施しているチーム:DDP や FSDP での予期しないクラッシュやスケーリング不効率の問題を系統的に解決できます。 プロトタイプ段階から本番環境への移行を急ぐ開発者:推測値や一般的な最適化手法ではなく、実測データに基づいた正確な改善判断ができます。 メモリとレイテンシーの両立を求める推論サーバー運用者:段階的な計測結果から、バッチサイズや KV キャッシュ戦略などのトレードオフを数値で評価できます。
論文から実装コードまで、信頼できる参考資料を体系的に発掘
by DivaGabriel
公式実装から社群版まで多層的に検索:論文の PDF 内リンク、著者の GitHub、Papers with Code、HuggingFace など複数チャネルを段階的に調査し、最も信頼性の高い実装を優先順位付きで提示します。 コード品質を客観的に評価:ライセンス、メンテナンス状況、依存ライブラリのバージョン、実装の完全性など複数の観点から「直接使用可能か、修正が必要か、参考程度か」を明確に判定します。 環境互換性のリスクを事前予測:PyTorch バージョン、CUDA バージョン、Python 依存関係などから、あなたの開発環境での実行可能性を実装前に把握できます。 引用戦略を具体的に指示:単に「このリポジトリを使う」ではなく「このモジュールはそのまま、この部分は修正が必要、ここは一から実装」など、どの部分をどう利用するかの具体的なロードマップを提供します。 学術論文をベースに実装を進める研究者やエンジニア:公開コードの有無や品質の判断が、プロジェクト工期を大きく左右する場面で活用できます。 複数の実装候補から最適なベースコードを選定したい開発チーム:客観的な評価基準に基づき、後々の技術的負債を最小化する選択ができます。 オープンソース依存を慎重に管理する必要がある企業・組織:ライセンス互換性やメンテナンス継続性を事前に確認した上で安心して引用できます。 新しい分野の実装に着手する際、既存実装をキャッチアップしたい研究者:論文読解と実装の間にある「どのコードが論文の本質を反映しているか」という判断を客観化できます。
論文の数式を shape 注釈付き実行可能コードに翻訳
by DivaGabriel
複雑な数学公式を実装コードに正確に変換:行列式、周波数変換(FFT/DCT)、注意機構など抽象的な数学を、メモリレイアウトと計算順序を反映した PyTorch コードに翻訳します。 テンソル shape の変化を完全に追跡:各操作前後での shape 変化を # (B, H, W, D) -> (B, H*W, D) のように明示し、実装時の次元指定(dim パラメータ)の誤りを防止します。 数値型とデバイス処理を明確にする:FP16/FP32 の自動変換(autocast)、GPU ↔ CPU の移動、複素数テンソルの型変換など、論文では触れられない低レベルの実装詳細を正確に処理します。 周波数領域・トップ k・gather などの落とし穴を回避:FFT による FP32 への upcast、topk の int64 index、gather の shape 制約など、初心者が陥りやすいバグを事前に指摘し、正しい実装例を示します。 検証可能な実装コード:コピペして実際に動作するコードを提供し、論文の理解度と実装の正確性を同時に検証できます。 論文の数学記号から実装への変換に手間取る機械学習エンジニア:数式と実コードの対応を明確にすることで、実装時間を大幅短縮できます。 新しいネットワークアーキテクチャを自分で実装する研究者:既存実装がない最新論文のモジュールでも、数式さえあれば正確に実装を再現できます。 PyTorch の細かい API(broadcast、gather、complex tensor)の使い分けが不確かな学習者:具体例を通じて「どの状況でどのメソッドを選ぶか」が体で理解できます。 高速化や GPU メモリ最適化を目指す開発者:shape 追跡により、不要な reshape や contiguous copy を削除し、メモリと計算効率を改善できます。
複数タスクを賢く分割して並行実行し、進捗をリアルタイム表示
by DivaGabriel
複雑なプロジェクトを最小単位に自動分割:「相互に独立した子タスクが何個あるか」を分析し、並行実行できる部分を特定。タスク分割案を明示して ユーザー確認後に実行するため、ずれのない効率的な進行が可能です。 タスク依存関係を自動判定し最適な実行パターンを選択:並行実行すべき、順序実行すべき、混合型かを判断し、Pipeline や Parallel など実行モードを自動提案します。 複数エージェントの状態をリアルタイム可視化:各子タスクの進捗状況を [running] [✓ completed] のように動的表示し、全体の進捗把握が容易です。 事前定義済みエージェントカード(Agent Card)を活用:論文検索、コード生成、結果分析など頻出タスク用の role テンプレートを再利用でき、毎回ゼロから prompt を生成する無駄を削減します。 最後に結果を自動統合:各エージェントの出力を収集して整合性を確認し、統合レポートを生成。ユーザーは最終結果のみ確認すれば OK。 複数の調査・実装・検証を並行したい研究プロジェクトチーム:論文検索、モデル実装、ベンチマーク実行などを同時に進め、プロジェクト全体の時間短縮ができます。 単一タスクで複数の視点(レビュアー視点、実装者視点など)を必要とする作業:エージェント分割により、各視点を独立して処理し最後に統合するため、品質が向上します。 エージェント呼び出しの overhead を削りたい運用者:事前定義カードにより API 呼び出し回数を最小化し、レスポンス時間と cost を同時に削減できます。 大規模なドキュメント分析やデータ処理が必要な組織:独立した sub-task に分割して軽量モデルで並行処理するため、高速化と cost 削減を両立できます。
失敗を許さない執念で問題を徹底解決する
by DivaGabriel
何度やってもうまくいかないバグ・エラーに対して、表面的な対症療法ではなく根本原因を徹底的に追跡できます。ログ・ソースコード・設定ファイル・依存関係まで、段階的に調査範囲を広げて犯人を特定します デプロイ失敗・API連携エラー・インフラ問題など、環境起因のトラブルに直面しても、「環境のせい」と諦めるのではなく、自力で検証・修正できるマインドセットに切り替わります。主動的な問題解決姿勢が身につきます 問題を修正したら「念のため同類問題がないか」と主動的に周辺をチェックする習慣がつき、隠れたバグや設定ミスを事前に防ぐことができます 本番環境でトラブルが頻発し、焦点が定まらないエンジニア 同じ種類のエラーが何度も再発して疲弊しているチーム 問題解決のプロセスをより体系的・執念深くしたいテックリード・SRE
論文の研究結果を確実に再現できる
by DivaGabriel
論文の核心アルゴリズムと実装の差分を事前に把握できる — 論文に書いてあるが実装されていない部分、実装にあるが論文に記載されていないTrickなどを体系的に洗い出し、復現の落とし穴を事前に回避できます。 分段階的な検証計画で、無駄なGPU時間を削減できる — 「Sanity Check → 小規模検証 → 全量復現」と段階を踏むことで、初期段階で問題を検出し、無駄な長時間計算を防げます。 論文の Table 1 の数字を確実に再現できる — baseline の復現から始まり、超パラメータ、データ前処理、推論時のTrickまで、結果の差を生む全要因をチェックリストで管理し、数字ズレの原因を素早く特定できます。 環境依存による問題を事前に検出できる — CUDA バージョン、PyTorch のバージョン、ハードウェア差異など、環境要因による結果ズレを事前にリストアップして対策を準備できます。 研究論文の手法を自分の環境で再現したい研究者・機械学習エンジニア 論文の主張を実験で検証したい大学院生やポスドク 論文のコードが提供されていない、または提供されているが環境が大きく異なる場合の実装者