VS Code の音声入力を AI コーディングで使う方法
VS Code Speech の基本と、AI コーディング用プロンプト入力で使うときの注意点を整理します。
vscode 音声入力で調べている人は、VS Code の中で声を使ってコードや AI チャットへ入力したいと考えているはずです。
VS Code には公式の VS Code Speech 拡張があり、エディタへの dictation や VS Code の chat との音声対話に使えます。
公式ドキュメントでは、録音はオンラインサービスへ送られず、ローカルのマシンで処理されると説明されています。
この記事では、VS Code の音声入力を AI コーディングでどう使うかを、日本語のプロンプト入力に絞って整理します。
音声入力を開発全体で使う考え方は、音声コーディングを日本語で始める方法から確認できます。
VS Code で音声入力は使える?
VS Code で音声入力は使えます。
公式の VS Code Speech 拡張を入れると、エディタ本文への入力や、VS Code のチャット入力を声で行えるようになります。
1.Editor dictation で本文に入力できる
Editor dictation は、エディタ上のカーソル位置に音声入力する機能です。
コードそのものを長く話して入力するより、コメント、メモ、テスト観点、コミットメッセージの下書きに使うと始めやすいです。
公式ドキュメントでは、エディタ以外にも SCM のコミット入力やレビューコメントのような rich editor で動くことが説明されています。
短い文章を VS Code 内で完結させたいときには、外部アプリを挟まない自然さがあります。
2.Voice in chat で AI へ話しかけられる
Voice in chat を使うと、VS Code のチャットへ音声でプロンプトを入れられます。
AI コーディング用途では、こちらの方が効果を感じやすいはずです。
「このテストが落ちる原因を調べて」「この関数の責務を分けたい」のような依頼は、キーボードで打つより声の方が速い場面があります。
ただし、声を止めたときに送信される挙動や待機時間の設定があるため、長文を話すときは送信タイミングに注意します。
AI コーディングで向いている使い方
VS Code の音声入力は、VS Code 内の作業に寄せるほど使いやすくなります。
エディタ、チャット、レビューコメントが同じ場所にあるため、短い指示を積み重ねる用途に向きます。
1.調査依頼を声で出す
AI コーディングでは、いきなり実装させるより、まず調査を頼む場面が多くあります。
「このファイルの認証フローを説明して」「このエラーがどの設定から来ているか調べて」のような依頼は、音声入力と相性がよいです。
コード片の正確な記号入力が少なく、自然な日本語で意図を伝えられるからです。
調査依頼では、対象ファイルと知りたい観点を声に出すだけでも十分に役立ちます。
2.レビュー観点を追加する
実装後のレビュー観点も、音声で追加しやすい入力です。
「モバイル幅で文字が重ならないか見て」「既存 API のレスポンス形式が変わっていないか確認して」のように、気になった点をすぐ入れられます。
手で書くと面倒な補足ほど、声で入れる価値があります。
ただし、検証対象が曖昧だと AI が広く見すぎるため、画面名、ファイル名、テスト名を一緒に話します。
日本語で使うときの注意点
VS Code Speech は便利ですが、日本語の AI コーディングでは音声認識後のプロンプト品質を確認する必要があります。
公式には複数言語への対応があり、speechLanguage 設定で言語を選べますが、技術用語の表記ゆれまでは別問題です。
1.技術用語の崩れを記録する
日本語で話すと、英単語、コマンド名、固有名詞がかな表記になったり、別語に置き換わったりします。
VS Code 内だけで使う場合でも、Django、pytest、TypeScript、Cloud Run、schema など、自分がよく使う語の崩れ方を記録してください。
毎回崩れる語は、発音を変える、短く区切る、後で手直しする語として扱う、のどれかで対応します。
完璧な辞書を作るより、よく壊れる10語から潰す方が効果があります。
2.長文は分割する
VS Code のチャットへ長い音声プロンプトを入れるときは、1つの発話に詰め込みすぎない方が安全です。
調査、修正、検証、説明を一度に頼むと、どれを優先すべきか曖昧になります。
まず調査だけを頼み、結果を見てから修正を頼み、最後に検証を頼む流れに分けると、AI とのやり取りが安定します。
Cursor に日本語音声でプロンプトを送る方法でも同じ考え方を使えます。
Cursor や外部ツールとの使い分け
VS Code Speech は VS Code 内では自然ですが、すべての入力を置き換えるものではありません。
毎日の作業場所によって、VS Code 内蔵か外部ツールかを分けると無理がありません。
1.VS Code 内なら公式拡張を優先する
VS Code を主な開発環境にしているなら、まず VS Code Speech を試すのが自然です。
追加の常駐アプリを増やさず、チャットやエディタ入力をそのまま声で扱えます。
録音がローカル処理である点も、開発内容を話す人にとって安心材料になります。
ただし、組織やプロジェクトのセキュリティ方針がある場合は、自分の環境での拡張機能利用ルールも確認してください。
2.複数アプリへ貼るなら外部ツールを使う
Cursor、ブラウザ、ターミナル、Slack、GitHub のコメント欄にも同じ音声入力を使いたいなら、クリップボード出力できる外部ツールが便利です。
Superwhisper のような汎用ツールや、Gemini API を使った自作ツールはこの領域に入ります。
VS Code 内蔵以外にも選択肢はありますが、まずは自分の作業が VS Code 内で完結するかを見極めます。
VS Code だけで済むのか、複数の入力場所があるのかを先に決めると選びやすくなります。
よくある質問
VS Code の音声入力は公式機能として使いやすい一方で、日本語の開発作業では限界もあります。
導入前に迷いやすい点を短く確認します。
VS Code で音声入力はできますか?
できます。
VS Code Speech 拡張を入れると、エディタへの dictation や VS Code の chat への音声入力を使えます。
まずは短い調査依頼やレビュー観点から試すと、効果を判断しやすいです。
VS Code の音声入力はオフラインで使えますか?
公式ドキュメントでは、VS Code の音声サポートはオンラインである必要がなく、録音はオンラインサービスへ送られずローカルで処理されると説明されています。
ただし、AI チャット機能自体は利用するモデルや設定によって外部サービスと通信します。
音声認識と AI への送信を分けて考えることが大切です。
日本語の技術用語は正確に入りますか?
環境や語によります。
日常文としては読めても、ファイル名やコマンド名が崩れることがあります。
よく使う技術用語を10個ほど試し、送信前に直す前提で始めると現実的です。
VS Code 内の作業から声を試す
VS Code の音声入力は、AI コーディングを声で始める入口としてかなり取り組みやすい選択肢です。
最初は、エディタ本文へコードを書くのではなく、チャットへの調査依頼、レビュー観点、テスト観点を声で入れてみてください。
VS Code の中で完結するなら公式拡張を使い、複数アプリを横断したくなったら外部ツールを検討する流れが自然です。
おたすけまるの voice-prompt のリポジトリは、VS Code 外も含めた日本語プロンプト整形の検証として確認できます。