メインコンテンツまでスキップ

AIコーディングツールの選び方

このページは、AIコーディングツールの違いを整理するための補足です。

本編では、最初に使うツールを1つ選べば十分です。 ここでは、どれが絶対に正解かを決めるのではなく、自分の作業環境や目的に合うものを選ぶ観点を確認します。

インストール方法、料金、対応OS、使えるモデル、ログイン方法は変わります。 具体的な手順を実行する前には、必ず公式ドキュメントを確認してください。

AIコーディングとは

AIコーディングは、人間が作りたいものや直したい問題を言葉で説明し、AIにコード作成、調査、修正、レビュー、テスト作成などを手伝わせる開発スタイルです。

ただし、AIに丸投げすることではありません。 人間が目的を決め、提案を確認し、実行するかどうかを判断します。

AIが得意なこと:

  • 既存コードの説明
  • エラー文の読み解き
  • 小さな修正案の作成
  • テストケースの提案
  • 似たコードの繰り返し作業
  • ドキュメントやREADMEの下書き

AIが苦手になりやすいこと:

  • プロジェクトの目的そのものを決めること
  • 最新の仕様を何も見ずに正確に判断すること
  • 複雑な要件の優先順位を決めること
  • セキュリティや公開範囲の責任を持つこと
  • 生成したコードが本当に動くか保証すること

AIは「速く書ける相棒」にはなりますが、「責任を代わりに持つ開発者」にはなりません。

AIの仕組みをざっくり知る

多くのAIコーディングツールは、LLMを使っています。 LLMは Large Language Model の略で、大量の文章やコードから、次に続きそうな言葉やコードを予測するAIです。

人間がプロンプトを送ると、AIはその内容をもとに返答を作ります。 プロンプトとは、AIへの依頼文のことです。

AIがよい答えを返しやすくなる情報を、コンテキストと呼びます。 たとえば次のようなものです。

今いるディレクトリ
読ませたファイル
エラー文
実行したコマンド
プロジェクトの目的
守ってほしいルール

AIコーディングエージェントは、このコンテキストを集めながら作業します。 ローカルのリポジトリ内で起動すると、ファイルを読んだり、差分を作ったり、コマンドを実行したりできます。

便利な反面、権限も強くなります。 だからこそ、次を確認する習慣が大切です。

何を読ませたか
何を変更しようとしているか
どのコマンドを実行しようとしているか
その結果を自分で確認できるか

ツールの種類

AIを使った開発支援には、いくつかの種類があります。

このページでは、厳密には次のように分けて考えます。

  • AIコーディングエージェント
  • AIコードエディタ
  • エディタ拡張
  • Webブラウザで相談する汎用AI
  • ローカルLLM

Webブラウザで相談するAIは、厳密にはAIコーディングツールそのものではありません。 ただし、コーディング学習やエラー調査ではよく使うため、周辺ツールとして一緒に整理します。

AIコーディングエージェント

AIコーディングエージェントは、ターミナルや開発環境の中で、リポジトリを読みながら作業を手伝うAIです。

特徴:

  • ファイルを読める
  • 複数ファイルの変更案を作れる
  • コマンド実行を提案または実行できる
  • Git差分を見ながら作業できる
  • テストやビルドの結果を見て次の修正を考えられる

この教材では、まずこの種類のツールとして Codex または Claude Code を扱います。

向いている場面:

  • 既存リポジトリを読みながら相談したい
  • 小さな修正を一緒に進めたい
  • エラーを見ながら原因を探したい
  • 変更前に差分を確認しながら進めたい

気をつけること:

  • 起動するディレクトリを間違えると、別のファイルを読ませてしまう
  • 許可設定によってはファイル編集やコマンド実行までできる
  • 提案が正しく見えても、ビルドやテストで確認する必要がある

AIコードエディタ

AIコードエディタは、エディタそのものにAI機能が強く組み込まれている開発環境です。

代表例として、Cursorのようなツールがあります。 CursorはVisual Studio Codeに近い操作感を持つAIコードエディタとして知られています。

向いている場面:

  • エディタ中心で作業したい
  • ファイルを開きながらAIに修正させたい
  • 補完、チャット、複数ファイル編集を同じ画面で使いたい

気をつけること:

  • 既存のエディタから乗り換えるコストがある
  • エディタ独自の設定や課金体系を理解する必要がある
  • AIがどのファイルを見ているかを意識する必要がある

この教材では、最初の一本道を保つためにAIコードエディタは必須にしません。 ただし、慣れてきたら有力な選択肢になります。

エディタ拡張

エディタ拡張は、VS Codeなどの既存エディタにAI機能を追加する方法です。

代表例として、GitHub CopilotやContinueなどがあります。

向いている場面:

  • すでに使っているエディタを変えたくない
  • 入力中の補完を受けたい
  • 開いているファイルについて質問したい
  • チームで同じエディタ設定を使いたい

気をつけること:

  • 補完が便利すぎて、意味を理解せずに採用しやすい
  • 拡張機能ごとに送信される情報や設定が違う
  • ターミナル型エージェントほど作業全体を任せる設計ではない場合がある

Webブラウザで相談する汎用AI

Web版のChatGPT、Claude、Geminiなどは、コーディング専用ツールではありません。 ただし、学習や調査ではとても役に立ちます。

向いている場面:

  • インストール前に、コマンドの意味を確認したい
  • エラー文を見て、次に何を確認するか聞きたい
  • 用語や背景を短く説明してほしい
  • 設計案やREADMEの下書きを相談したい

注意すること:

  • AIが教材本文やローカルファイルを見られない前提で質問する
  • OS、実行したコマンド、出たエラー、今いるディレクトリを自分で書く
  • パスワード、APIキー、トークン、秘密鍵、ログイン認証コードは貼らない

Web版AIは、コードベースを直接見ているわけではありません。 そのため、「この教材では」「このリポジトリでは」とだけ聞くより、状況を自分で説明するほうが答えが安定します。

ローカルLLM

ローカルLLMは、自分のPC上で動かすLLMです。 OllamaやLM Studio、llama.cppなどを使うと、インターネット上のAPIではなくローカル環境でモデルを動かせます。

向いている場面:

  • 外部サービスに送れない文章を扱いたい
  • AIの仕組みを実験しながら学びたい
  • ネットワークに依存しない環境を試したい
  • 小さなモデルを使って補助的な作業をしたい

気をつけること:

  • 十分なメモリやストレージが必要になる
  • 大きいモデルほどPCの性能が必要になる
  • クラウド型の高性能モデルより回答品質が落ちることがある
  • セットアップやモデル選びで迷いやすい
  • 「ローカルだから必ず安全」とは限らない

ローカルLLMは面白い選択肢ですが、初学者が最初に必須で扱うものではありません。 この教材では、まずクラウド型のAIコーディングエージェントで基本の確認習慣を身につける方針にします。

この教材で扱うもの

第0部では、ターミナルで使うAIコーディングエージェントとして、CodexまたはClaude Codeを使える状態にします。

どちらを選んでも、本編で大切にする確認習慣は同じです。

どのディレクトリで起動しているか
どのファイルを読ませているか
どこまでの操作を許可しているか
提案された変更やコマンドを自分で確認できるか

Codex

Codexは、OpenAIのAIコーディングエージェントです。 この教材では、ターミナルから codex コマンドで起動する使い方を想定します。

向いている場面:

  • OpenAIアカウントをすでに使っている
  • ターミナル上でリポジトリを読みながら相談したい
  • 変更前に差分やコマンドを確認しながら進めたい

確認する公式情報:

Claude Code

Claude Codeは、AnthropicのAIコーディングエージェントです。 この教材では、ターミナルから claude コマンドで起動する使い方を想定します。

向いている場面:

  • Claudeアカウントをすでに使っている
  • ターミナル上でリポジトリを読みながら相談したい
  • 公式インストーラーで導入して使いたい

確認する公式情報:

その他の選択肢

この教材では必須にしませんが、世の中では次のような選択肢もよく使われます。

Cursor

Cursorは、AI機能を中心にしたコードエディタです。 エディタ内でファイルを開き、チャットや補完、複数ファイル編集を同じ画面で扱えます。

エディタを変えてもよい人には使いやすい一方で、教材の最初の一本道としては選択肢が増えすぎます。 そのため本編では必須にしません。

公式情報:

GitHub Copilot

GitHub Copilotは、GitHubが提供するAI開発支援です。 エディタ拡張やGitHub上の機能として使われることが多く、補完やチャット、レビュー支援などの用途で使われます。

GitHubと深く連携したい場合は有力な選択肢です。 ただし、この教材ではVS Codeや特定エディタを必須にしないため、本編の必須手順には入れません。

公式情報:

Gemini CLI

Gemini CLIは、GoogleのGeminiをターミナルから使うためのCLIです。 ターミナルでAIエージェントを使う選択肢の1つです。

GoogleアカウントやGemini系の環境を使いたい人には選択肢になります。 ただし、最初に扱うツールを増やすと学習ルートが複雑になるため、本編ではCodexまたはClaude Codeに絞ります。

公式情報:

Continue

Continueは、VS CodeやJetBrains系エディタで使えるAIコードアシスタントです。 クラウドモデルだけでなく、ローカルLLMと組み合わせる用途でも使われます。

エディタ拡張やローカルLLMに興味が出てきた段階で検討するとよい選択肢です。

公式情報:

Ollama

Ollamaは、ローカルでLLMを動かすためのツールです。 AIコーディングエージェントそのものというより、ローカルLLMを動かす土台として使われます。

公式情報:

世間でよく聞く評価軸

AIコーディングツールの評価は、時期やモデル更新で大きく変わります。 そのため「いま一番強いツール」を覚えるより、評価軸を持つほうが役に立ちます。

よく比較される観点:

  • 既存コードを読む力
  • 複数ファイルをまたぐ修正の安定感
  • コマンド実行やテスト実行との相性
  • 差分を確認しやすいか
  • 承認フローがわかりやすいか
  • エディタとの統合が自然か
  • 日本語で相談しやすいか
  • 料金や利用上限が自分に合うか
  • チームや会社のルールに合うか
  • 公式ドキュメントと更新頻度が信頼できるか

よくある見られ方:

  • ターミナル型エージェントは、リポジトリ全体を見ながら作業しやすい
  • AIコードエディタは、普段の編集作業にAIを組み込みやすい
  • エディタ拡張は、既存の開発環境を変えずに始めやすい
  • Web版AIは、学習や相談には便利だが、ローカルファイルを直接見ない
  • ローカルLLMは、実験やプライバシー面で魅力があるが、性能や運用の難しさがある

ただし、これらは一般的な傾向です。 実際には、モデル更新、プラン、OS、プロジェクト規模、チームのルールで使い勝手が変わります。

選ぶときの考え方

迷ったら、すでにアカウントを持っていて、ログインや支払いの準備が少ないものから始めます。

比較で迷いすぎるより、まず1つのツールで次を練習するほうが大切です。

読み取りだけを依頼する
変更前に説明させる
変更予定ファイルを確認する
実行するコマンドの意味を確認する
変更後の差分を見る
ビルドやテストで確認する

使うツールを後から変えても構いません。 大切なのは、AIに任せきりにせず、人間が目的、判断、責任を持つことです。

避けたい選び方

次のような選び方は避けます。

  • SNSで見かけた非公式コマンドを、そのまま実行する
  • 公式ドキュメントを確認せずにインストールする
  • 無料か有料かだけで決める
  • 「賢そうだから」という理由だけで、権限の強い設定にする
  • いきなり編集、削除、commit、pushまで任せる
  • どのファイルがAIに見えているか確認しない
  • AIの出力をテストせずに公開する

AIコーディングツールは、今後も変化し続けます。 変化に追いつくためにも、ツール名より先に、確認習慣と安全な進め方を身につけておきましょう。