ロジスティック回帰の結果の見方4ステップ

AI用語

この記事は、ロジスティック回帰の「仕組み」ではなく、出力された結果をどう読み解くかだけにフォーカスした実務向けガイドです。係数・オッズ比・p値・AUCなど、読み方の優先順位を整理し、最短で正しい結論にたどり着くためのポイントだけをまとめています。

📖この記事のポイント

  • まず尤度比検定と擬似R²で、モデル全体として読み進める価値があるかを判断する!
  • 次に係数・オッズ比・p値・信頼区間をセットで見て、各変数の方向性と効果の大きさを解釈する!
  • 混同行列とAUCで予測性能を確認し、必要に応じてしきい値を感度・特異度のバランスで調整する!
  • 最後にオッズ比をパーセント表現に変換した文章テンプレやFAQを使い、実務でそのまま説明に使える形に落とし込む
  • たった2時間の無料セミナー会社に依存しない働き方&AIスキルを身につけられる!
  • 今すぐ申し込めば、すぐに月収10万円UPを目指すための超有料級の12大特典も無料でもらえる!

\ 累計受講者10万人突破 /

無料特典を今すぐ受け取る
監修者プロフィール
森下浩志
日本最大級のAI情報プラットフォーム「romptn ai」編集長。著書に「0からはじめるStable Diffusion」「0からはじめるStable Diffusion モデル・拡張機能集編」など、AmazonベストセラーのAI関連書籍を多数執筆。AIにおける情報の非対称性を解消するための社内研修や出張講義も行う。

ロジスティック回帰の結果はこの順番で見る

結果表の読み方は次の4ステップで完結します。

  • ステップ1:モデル全体の有意性(尤度比検定・擬似R²)
  • ステップ2:各変数の影響(係数・オッズ比・p値・信頼区間)
  • ステップ3:予測性能(混同行列・AUC)
  • ステップ4:レポート用に文章化する

たった2時間の無料セミナーで
会社に依存しない働き方&AIスキル
を身につけられる!

今すぐ申し込めば、すぐに
月収10万円UPを目指すための
超有料級の12大特典も無料!

ステップ1:モデル全体が有意か(読み進める価値があるか)

  • 尤度比検定のp値:0.05未満なら「説明変数を入れたモデルは有意に良い」と判断。
  • 擬似R²:絶対値よりも「別モデルとの比較」に使う。

ここでNGなら、係数の解釈に進んでも意味が薄いため、まず「モデル全体として成立しているか」を確認します。

たった2時間のChatGPT完全入門無料セミナーで ChatGPTをフル活用するためのAIスキルを身につけられる!

今すぐ申し込めば、すぐに
ChatGPTをマスターするための
超有料級の12大特典も無料!

ステップ2:変数ごとの効果を見る(係数・オッズ比・p値)

  • 係数(β):プラス=目的変数が1になりやすい、マイナス=なりにくい。
  • オッズ比:exp(β)。1より大きい=増加方向、1未満=減少方向。
  • p値+信頼区間:p<0.05 かつ 95%信頼区間が「1をまたがない」→有意。

※注意:オッズ比=確率の何倍ではない。

例)ベース確率10%でオッズ比2倍 → 確率は約18%   ベース確率50%でオッズ比2倍 → 確率は約67%

ステップ3:予測性能の確認(混同行列とAUC)

  • 混同行列:Accuracy だけで判断せず、感度・特異度・F1も見る。
  • AUC(ROC-AUC):0.7以上で一定の識別力、0.8以上は良好。

しきい値の基本

デフォルト0.5では最適とは限らないため、感度と特異度のバランスで調整します。

ステップ4:実務で使える文章に変換する

例:購買予測の場合

  • 年齢が1歳上がるごとに、購買オッズが約7%増加した(オッズ比=1.07)。
  • 95%信頼区間は1.03〜1.12で、統計的に有意だった。

例:離脱モデルの場合

  • 利用頻度が高いほど離脱しにくく、1段階増えると離脱オッズが18%低下した(オッズ比=0.82)。

ツール別:結果表の指標名を確認

指標Python(statsmodels)scikit-learn
係数paramscoef_
オッズ比exp(params)exp(coef_)
p値pvaluesなし
信頼区間conf_int()なし
AUCsklearnで計算roc_auc_score()

よくある質問(FAQ)

  • オッズ比0.8は悪い? → 方向性の問題。目的次第。
  • 係数がマイナス=悪い? → 1になりにくい方向を示すだけ。
  • カテゴリ変数は? → 基準カテゴリとの比較で読む。
  • AUC0.7は弱い? → 実務では「十分使える」ケースも多い。
  • p値0.051は切り捨て? → 効果量と信頼区間も合わせて判断。

まとめ

  • ロジスティック回帰の結果は「モデル全体→変数→性能→文章化」で読む。
  • オッズ比は確率の倍率ではない点に要注意。
  • Accuracyだけで判断せず、AUCと感度・特異度を確認する。
  • p値・信頼区間・効果量をセットで読み取る。

結果の見方だけに絞れば、ロジスティック回帰は想像以上にシンプルです。この記事をフレームとして使えば、どんな分析結果でも迷わず読み取れるようになります。

romptn ai厳選のおすすめ無料AIセミナーでは、AIの勉強法に不安を感じている方に向けた内容でオンラインセミナーを開催しています。

AIを使った副業の始め方や、収入を得るまでのロードマップについて解説しているほか、受講者の方には、ここでしか手に入らないおすすめのプロンプト集などの特典もプレゼント中です。

AIについて効率的に学ぶ方法や、業務での活用に関心がある方は、ぜひご参加ください。

\累計受講者10万人突破/