免費開始練習
高考申論題 109年 [統計] 迴歸分析

第 一 題

📖 題組:
下表為2019年不動產經營業依據實價交易總金額、房仲店數,及平均每店全年傭收資料。X3之定義為:若該縣市非為直轄市定義為0,若該縣市為直轄市定義為1。 縣市:臺南市、新北市、高雄市、桃園市、新竹縣市、彰雲投、臺中市、臺北市、其他縣市(共9筆觀察值)。 X1 房仲店數,Y 交易總金額(億),X2 平均每店全年傭收(萬),X3 直轄市。 以交易總金額為反應變數,得到下列迴歸估計結果:(模型A至G的迴歸估計值表,詳見原題) 表中s為迴歸誤差之標準差的估計值。以顯著水準為0.05,回答下列問題:
📝 此題為申論題,共 6 小題

小題 (一)

檢定各模型中X2之係數顯著性,並比較其結果。(16分)

思路引導 VIP

看到本題,首先要辨識出包含變數 X2 的模型有哪些(模型B、D、F、G)。接著,應建立假設檢定 H0: β2 = 0 vs H1: β2 ≠ 0,並計算各自的 t 統計量(估計值除以標準誤)。最關鍵的是要注意各模型的「自由度 (n-k-1)」不同,n=9,需根據附表一查出對應的臨界值。最後,比較這些模型中 X2 顯著性的變化,這是在考驗考生對「共線性(Multicollinearity)」或「遺漏變數偏誤(Omitted Variable Bias)」對係數顯著性影響的理解。

🤖
AI 詳解
AI 專屬家教

【考點分析】 本題測驗多元迴歸模型中的個別係數 t 檢定,以及多重共線性/變數間交互影響對係數顯著性的干擾。 【理論/法規依據】

小題 (二)

分別解釋並比較模型C與G中X3之係數估計值的意義。(5分)

思路引導 VIP

這是一道經典的「虛擬變數(Dummy Variable)」解釋題。要特別區分「簡單迴歸(無控制其他變數)」與「多元迴歸(有控制其他變數)」在解釋上的根本差異。X3=1代表直轄市,X3=0代表非直轄市。必須用「平均而言」和「控制其他變數不變之下」這兩個關鍵詞來構建完美的論述。

🤖
AI 詳解
AI 專屬家教

【考點分析】 虛擬變數在簡單線性迴歸與多元線性迴歸中的經濟意涵與係數解釋,以及控制變數對邊際效果的影響。 【理論/法規依據】

小題 (三)

寫出模型D的變異數分析表(analysis of variance table),並檢定其迴歸係數是否皆等於0。(10分)

思路引導 VIP

本題要求重建 ANOVA 表。這需要運用已知資訊反推。模型D有 X1, X2 (k=2),n=9。已知 s=323.1, R^2=0.974。可以利用 s^2 = MSE 反推 SSE = MSE * (n-k-1)。接著利用 R^2 = 1 - (SSE/SST) 反推 SST,進而求出 SSR = SST - SSE,以及 MSR = SSR / k。最後計算整體 F 檢定量,並與附表二的臨界值比較。

🤖
AI 詳解
AI 專屬家教

【考點分析】 測驗考生對變異數分析表 (ANOVA table) 各項元素(SST, SSR, SSE, df, MS, F)之間數學關係的熟練度,以及整體模型適配度的 F 檢定。 【理論/法規依據】

小題 (四)

計算模型E的R平方。(6分)

思路引導 VIP

要求模型E的 R^2。R^2 = 1 - (SSE_E / SST)。模型E的 s = 695.6,因此 SSE_E 可以透過 df * s^2 算出來 (df=6)。但我們需要 SST。因為應變數 Y 在所有模型中都一樣,所以 SST 是一個常數。我們可以從上一題(模型D)求得的 SST 帶入,或者直接根據原始資料計算真實的 SST 來避免進位誤差。將算出的 SSE_E 與 SST 帶入公式即可。

🤖
AI 詳解
AI 專屬家教

【考點分析】 測驗對判定係數 $R^2$ 定義的理解,以及利用跨模型不變的總變異 (SST) 來求解未知模型的配適度。 【理論/法規依據】

小題 (五)

若以向前選取(forward selection)方法,請詳述選取變數的程序及最終會選到那些變數。(15分)

思路引導 VIP

向前選取法的核心邏輯:從「空模型」出發,每次挑選「在統計上最顯著(t值絕對值最大或p值最小)」的變數加入模型,直到沒有任何尚未加入的變數能達顯著水準為止。必須一步一步模擬這個過程:

  1. 第一步:比較單變數模型 (A, B, C),選最好的。
🤖
AI 詳解
AI 專屬家教

【考點分析】 測驗變數篩選法中「向前選取法 (Forward Selection)」的演算法邏輯與實際操作步驟。 【理論/法規依據】

小題 (六)

若以向後剔除(backward elimination)方法,請詳述選取變數的程序及最終會選到那些變數。(8分)

思路引導 VIP

向後剔除法與向前選取法剛好相反。它從「全模型(包含所有變數)」開始,每次剔除「最不顯著(t值絕對值最小或p值最大)」的變數,直到留在模型裡的所有變數都達顯著水準為止。在這裡,全模型就是模型 G。只要檢查模型 G 中各變數的 t 值是否都大於臨界值即可。

🤖
AI 詳解
AI 專屬家教

【考點分析】 測驗變數篩選法中「向後剔除法 (Backward Elimination)」的操作邏輯。 【理論/法規依據】

📜 參考法條

附表一:Percentage Points of the t Distribution 附表二:F - Distribution (α = 0.05 in the Right Tail)

📝 同份考卷的其他題目

查看 109年[統計] 迴歸分析 全題

升級 VIP 解鎖