Regresi Campuran Nonparametrik Spline Linier Truncated dan Fungsi Kernel untuk Pemodelan Data Kemiskinan di Provinsi Papua

Selamat Datang di Blog Edukasionesia. Berikut ini akan postingan kami yang mengenai Regresi Campuran Nonparametrik Spline Linier Truncated dan Fungsi Kernel untuk Pemodelan Data Kemiskinan di Provinsi Papua. Semoga Bermanfaat, Ayo silakan dibaca dengan saksama.
ABSTRAK

Model regresi campuran nonparametrik \(y_i=f(u_i,\widetilde{v}_i)+\epsilon_i,\) \(i=1,2,\cdots,n,\) \(\widetilde{v}_i={(v_{1i},v_{2i},\cdots,v_{mi})}^T,\) memiliki kurva regresi bersifat aditif \(f(u_i,\widetilde{v}_i)=g(u_i)+\sum_{j=1}^{m}h_j(v_{ji}).\) Komponen \(g(u_i)\) dihampiri dengan spline linier truncated, sedangkan komponen \(h_j(v_{ji})\) dihampiri dengan kernel Nadaraya-Watson. Error random \(\epsilon_i\) mengikuti distribusi normal \(N(0,\sigma^2)\). Tujuan dari penelitian ini adalah melakukan kajian mengenai estimator kurva regresi campuran nonparametrik spline dan kernel \(f(u_i,\widetilde{v}_i)\) dan mengaplikasikannya pada data kemiskinan di Provinsi Papua. Hasil kajian menunjukkan bahwa estimator kurva regresi spline \(g(\widetilde{u})\) adalah \( \widehat{\widetilde{g}}_{\widetilde{\phi},\widetilde{\xi}}(u,\widetilde{v}) = \boldsymbol {S \left ( \widetilde{\xi},\widetilde{\phi} \right )} \widetilde{y} \) dan estimator kurva regresi kernel \(\sum_{j=1}^{m} \widetilde{h}_j(v_{j})\) adalah \(\sum_{j=1}^{m} \widehat{\widetilde{h}}_j(v_{j}) = \boldsymbol {V\left (\widetilde{\phi}\right )} \widetilde{y}.\) Selanjutnya, estimator kurva regresi campuran nonparametrik spline dan kernel \(\widetilde {f}(u,\widetilde{v})\) adalah \(\widehat{\widetilde{f}}_{\widetilde{\phi},\widetilde{\xi}}(u,\widetilde{v})= \boldsymbol {Z \left ( \widetilde{\xi},\widetilde{\phi} \right )} \widetilde{y},\) dimana \(\boldsymbol {Z \left ( \widetilde{\xi},\widetilde{\phi} \right ) = S \left ( \widetilde{\xi},\widetilde{\phi} \right ) + V\left (\widetilde{\phi}\right )}.\) Matriks \(\boldsymbol {S \left ( \widetilde{\xi},\widetilde{\phi} \right )},\) \(\boldsymbol {V\left (\widetilde{\phi}\right )}\) dan \(\boldsymbol {Z \left ( \widetilde{\xi},\widetilde{\phi} \right )} \) tergantung pada lokasi titik-titik knot \(\widetilde{\phi}\) dan bandwidth \(\widetilde{\xi}.\) Estimator-estimator tersebut adalah estimator bias, namun masih kelas estimator linier. Model regresi campuran nonparametrik terbaik adalah model yang menggunakan banyaknya titik knot, lokasi titik-titik knot dan bandwidth optimum yang diperoleh dengan meminimumkan fungsi Generalized Cross Validation (GCV). Pemilihan lokasi titik-titik knot dan bandwidth dilakukan secara simultan. Model regresi campuran nonparametrik spline dan kernel diterapkan pada data kemiskinan di Provinsi Papua, dimana sebagai variabel responnya adalah persentase penduduk miskin \((y)\), variabel prediktor yang mengikuti kurva regresi spline adalah PDRB perkapita \((u)\), dan variabel-variabel prediktor yang mengikuti kurva regresi kernel adalah gini ratio \((v_1),\) rata-rata lama sekolah \((v_2),\) tingkat pengangguran terbuka \((v_3)\) dan laju pertumbuhan ekonomi \((v_4).\) Model terbaik diperoleh ketika model menggunakan 3 titik knot. Estimasi model memberikan \(R^2\) sebesar 92,02%. Model dapat digunakan untuk skenario kebijakan.

Kata kunci: kernel nadaraya-watson, regresi campuran nonparametrik, regresi nonparametrik aditif, spline linier truncated.


Artikel ini mungkin agak berat dan sulit dipahami bagi sebagian orang. Oleh karena itu dianjurkan untuk memahami artikel-artikel berikut terlebih dahulu:
1. Analisis Regresi: Parametrik, Nonparametrik dan Semiparametrik
2. Regresi Nonparametrik Spline Truncated
3. Regresi Nonparametrik Kernel

I. PENDAHULUAN

Analisis regresi adalah salah satu metode statistika yang sering digunakan di berbagai bidang penelitian. Analisis ini digunakan untuk mengetahui pola hubungan dua atau lebih variabel dalam bentuk fungsional. Masing-masing variabel tersebut dikelompokkan ke dalam variabel respon dan variabel prediktor. Identifikasi awal adanya pola hubungan dapat dilakukan dengan memanfaatkan pengalaman masa lalu atau menggunakan diagram pencar (scatter plot). Jika bentuk pola hubungan fungsionalnya diketahui, maka model regresi yang digunakan adalah model regresi parametrik. Sebaliknya, jika bentuk pola hubungan fungsionalnya tidak diketahui, maka model regresi yang digunakan adalah model regresi nonparametrik [1].

Model regresi nonparametrik sangat baik digunakan untuk pola data yang tidak diketahui karena memiliki fleksibilitas yang tinggi, dimana data diharapkan mencari sendiri bentuk estimasi kurva regresinya tanpa dipengaruhi oleh subyektifitas peneliti [1]. Ada banyak estimator kurva regresi nonparametrik yang telah dikembangkan oleh para peneliti, diantaranya spline [1] [2] [3] [4] [5] [6] [7] [8] dan kernel [1] [9] [10] [11] [12] [13] [14] [15]. Kelebihan dari kurva regresi spline adalah memiliki kemampuan yang sangat baik dalam menangani data yang perilakunya berubah-ubah pada sub-sub interval tertentu [8], sedangkan kelebihan dari estimator kernel adalah memiliki kemampuan yang baik dalam memodelkan data yang tidak mempunyai pola tertentu [11].

Menurut Budiantara, Ratnasari, Ratna, & Zain [16], model-model regresi nonparametrik maupun semiparametrik yang dikembangkan oleh para peneliti selama ini, jika ditelusuri lebih mendalam, pada dasarnya terdapat asumsi yang sangat berat dan mendasar pada modelnya. Masing-masing prediktor dalam regresi nonparametrik multiprediktor dianggap memiliki pola yang sama sehingga para peneliti memaksakan penggunaan hanya satu bentuk estimator model untuk semua variabel prediktornya. Oleh karena itu, menggunakan hanya satu bentuk estimator saja dalam berbagai bentuk pola hubungan data yang berbeda-beda tentu akan mengakibatkan estimator yang dihasilkan kurang cocok dengan pola data. Akibatnya estimasi model regresi menjadi kurang baik dan menghasilkan error yang besar. Oleh karena itu, untuk mengatasi masalah tersebut beberapa peneliti telah mengembangkan estimator kurva regresi campuran nonparametrik dimana masing-masing pola data dalam model regresi nonparametrik dihampiri dengan estimator kurva yang sesuai.

Tujuan dari penelitian ini adalah melakukan kajian mengenai estimator kurva regresi campuran nonparametrik spline dan kernel dalam model regresi campuran nonparametrik multiprediktor aditif dan mengaplikasikannya pada data kemiskinan di Provinsi Papua. Provinsi Papua merupakan provinsi yang persentase penduduk miskinnya tertinggi di Indonesia tahun 2013 yaitu sebesar \(31\text{,}52\) persen.


II. KAJIAN PUSTAKA

A. Regresi Nonparametrik Spline Truncated

Diberikan data berpasangan \((u_i,y_i ),\) \(i=1,2,\cdots,n,\) dimana pola hubungannya dapat dinyatakan dalam model regresi \(y_i=g(u_i)+\epsilon_i.\) Kurva regresi \(g(u_i)\) dihampiri dengan kurva regresi spline truncated, sehingga \[g(u_i)=\sum_{k=0}^{p} \beta_k u_i^k+ \sum_{l=1}^q \lambda_l {\left(u_i-\xi_l\right)}_+^p\] dimana \[{\left(u_i-\xi_l\right)}_+^p = \begin{cases} {\left(u_i-\xi_l\right)}_+ & u_i \geq \xi_l \\ \\ 0 & u_i \lt \xi_l. \end{cases}\] Kurva regresi \(g(u_i)\) merupakan kurva regresi nonparametrik spline truncated derajat \(p\) dengan banyaknya titik-titik knot adalah \(q.\) Derajat \(p\) merupakan derajat pada persamaan polinomial. Kurva regresi polinomial derajat 1 disebut dengan kurva regresi linier, kurva regresi polinomial derajat 2 disebut dengan kurva regresi kuadratik, sedangkan kurva regresi polinomial derajat 3 disebut dengan kurva regresi kubik. Titik-titik knot \(\xi_1, \xi_2, \cdots, \xi_q\) adalah titik-titik yang menunjukkan pola perilaku dari kurva pada sub-sub interval yang berbeda, dimana \(\xi_1 \lt \xi_2 \lt \cdots \lt \xi_q.\)

B. Regresi Nonparametrik Kernel

Diberikan pasangan pengamatan independen \((v_i,y_i ),\) \(i=1,2,\cdots,n\) yang hubungannya dimodelkan secara fungsional dalam bentuk \(y_i = h(v_i )+\epsilon_i ,\) dimana kurva regresi \(h(v_i)\) merupakan kurva yang tidak diketahui bentuknya. Kurva \(h(v_i)\) dapat diestimasi menggunakan estimator kernel Nadaraya-Watson. Estimator kernel Nadaraya-Watson adalah \[\widehat{h}_\phi(v_i)=n^{-1}\sum_{i=1}^{n}W_{\phi i}(v)y_i.\] Fungsi \(W_{\phi_j i} (v_j)\) merupakan fungsi pembobot \[W_{\phi i}(v) = \frac {K_\phi(v_i-v)} {n^{-1} \sum_{i=1}^{n} K_\phi(v_i-v)},\] dimana \(K_{\phi_j} (v_j-v_{ji})\) adalah fungsi kernel \[ K_{\phi} (v_i-v) = \frac{1}{\phi}K\left ( \frac{v_i-v}{\phi} \right ).\] Fungsi kernel \(K\) adalah fungsi yang bernilai riil, kontinu, terbatas dan simetris dengan integralnya sama dengan satu atau \(\int K(z)dz=1\). Fungsi kernel \(K\) dapat berupa kernel uniform, kernel segitiga, kernel epanechnikov, kernel kuadrat, kernel triweight, kernel kosinus atau kernel gaussian [17]. Kernel gaussian cukup sering digunakan, dimana fungsi ini lebih smooth dibandingkan dengan fungsi kernel yang lain. Bentuk fungsi kernel gaussian adalah \[K(z) = \frac {1}{\sqrt {2\pi}}\exp{\left(-\frac{1}{2}z^2\right)} \quad \cdots \cdots \cdots \quad (1)\] dimana \(-\infty \lt z \lt \infty.\)

C. Tinjauan Kemiskinan

Kemiskinan diartikan sebagai kekurangan sumber daya yang dapat digunakan untuk meningkatkan kesejahteraan sekelompok orang, baik secara finansial maupun semua jenis kekayaan yang dapat meningkatkan kesejahteraan masyarakat. Dikategorikan miskin bilamana seseorang atau keluarga tidak dapat memenuhi kebutuhan pokok minimumnya sandang, pangan, papan, kesehatan, dan pendidikan. Dimensi ekonomi dapat diukur dengan nilai rupiah meskipun harganya selalu berubah-ubah setiap tahunnya tergantung pada tingkat inflasi [18]. Untuk mengukur kemiskinan, Badan Pusat Statistik (BPS) menggunakan konsep kemampuan memenuhi kebutuhan dasar (basic needs approach), dimana kemiskinan dipandang sebagai ketidakmampuan dari sisi ekonomi untuk memenuhi kebutuhan dasar makanan dan bukan makanan yang diukur dari sisi pengeluaran.

Sejumlah variabel dapat dipakai untuk melacak persoalan kemiskinan. Dari variabel-variabel tersebut dapat dihasilkan serangkaian strategi dan kebijakan penanggulangan kemiskinan yang tepat sasaran dan berkesinambungan. Variabel-variabel yang mempengaruhi kemiskinan diantaranya adalah ketimpangan pendapatan [19], pendidikan [20] [21], pengangguran [22] [23], pertumbuhan ekonomi [19] [24] [25] dan PDRB perkapita [24] [25].


III. METODE PENELITIAN

A. Data dan Variabel

Penelitian ini menggunakan data sekunder tahun 2013 yang diperoleh dari publikasi terbitan Badan Pusat Statistik (BPS). Unit observasi yang digunakan adalah seluruh kabupaten/kota yang ada di Provinsi Papua, yaitu sebanyak 29 kabupaten/kota. Jenis variabel terdiri dari variabel respon dan variabel prediktor. Sebagai variabel respon adalah persentase penduduk miskin, sedangkan sebagai variabel prediktor adalah rata-rata lama sekolah, tingkat pengangguran terbuka (TPT), gini ratio, laju pertumbuhan ekonomi dan PDRB perkapita.

B. Tahapan Penelitian

Tahapan penelitian dimulai dengan pengenalan bentuk model regresi campuran nonparametrik spline dan kernel, yang dilanjutkan dengan kajian estimasi kurva regresinya, sifat estimator kurva regresi, pemilihan banyak titik knot, lokasi titik knot dan bandwidth optimum. Terakhir adalah mengaplikasikan model pada data kemiskinan.


IV. HASIL PENELITIAN DAN PEMBAHASAN

A. Model Regresi Campuran Nonparametrik Spline dan Kernel

Diberikan data berpasangan \((u_i,v_{1i},v_{2i},\cdots,v_{mi},y_i),\) \(i=1,2,\cdots,n\) yang memiliki hubungan diasumsikan mengikuti model regresi nonparametrik \[y_i = f(u_i,\widetilde{v}_i) + \varepsilon_i, \qquad \cdots\cdots\cdots \qquad(2)\] dimana \(\widetilde{v}_i=(v_{1i},v_{2i}, \cdots, v_{mi} )^T\). Bentuk kurva regresi \(f(u_i,\widetilde{v}_i)\) diasumsikan tidak diketahui dan hanya diketahui bahwa kurva tersebut smooth dalam arti kontinu dan differensiabel. Error random \(\varepsilon_i\) berdistribusi normal dengan \(\text{E}[\varepsilon_i] = 0\) dan \(\text{Var}[\varepsilon_i]=\sigma^2\). Selain itu, kurva regresi \(f(u_i,\widetilde{v}_i)\) diasumsikan bersifat aditif, sehingga dapat ditulis dalam bentuk \[f(u_i,\widetilde{v}_i) = g(u_i) + \sum_{j=1}^m h_j (v_{ji}). \qquad \cdots\cdots\cdots \qquad (3)\] Bentuk pola hubungan variabel respon \(y_i\) dengan variabel prediktor \(u_i\) diasumsikan berubah-ubah pada sub-sub interval tertentu, sedangkan bentuk pola hubungan variabel respon \(y_i\) dengan variabel prediktor \(v_{ji}\) diasumsikan tidak diketahui atau tidak memiliki pola tertentu. Secara teoritis, kurva regresi \(g(u_i)\) dapat dihampiri dengan kurva regresi spline, sedangkan kurva regresi \(h_j(v_{ji})\) dapat dihampiri dengan kurva regresi kernel. Dengan demikian, kurva regresi \(f(u_i,\widetilde{v}_i)\) disebut dengan kurva regresi campuran nonparametrik yang dikelompokkan menjadi dua komponen yaitu komponen kurva regresi spline dan komponen kurva regresi kernel. Komponen \(g(u_i)\) merupakan komponen kurva regresi spline, sedangkan komponen \(\sum_{j=1}^m h_j (v_{ji})\) merupakan komponen kurva regresi kernel.

Komponen kurva regresi spline \(g(u_i)\) pada persamaan \((3)\) didefinisikan oleh kurva regresi spline linier truncated \[g(u_i) = \beta_0 + \beta_1 u_i + \sum_{l=1}^q \lambda_l (u_i - \xi_l)_+ \qquad \cdots\cdots\cdots \qquad (4)\] dimana \[(u_i - \xi_l)_+ = \begin{cases} (u_i-\xi_l ) & , u_i\geq \xi_l \\ \\ 0 & , u_i \lt \xi_l \end{cases}\]
Selanjutnya, komponen kurva regresi kernel \(h_j(v_{ji})\) pada persamaan \((3)\) didefinisikan oleh estimator kurva regresi kernel Nadaraya-Watson \[\widehat{h}_{j\phi_j} (v_{ji}) = n^{-1} \sum_{i=1}^n W_{\phi_j i} (v_j) y_i. \qquad \cdots\cdots\cdots \qquad (5)\] dimana \[W_{\phi_j i} (v_j) = \frac {(K_{\phi_j} (v_j - v_{ji})} {(n^{-1} \sum_{i=1}^n K_{\phi_j} (v_j-v_{ji})} ,\] \[K_{\phi_j} (v_j-v_{ji}) = \frac{1}{\phi_j} K \left(\frac{v_j-v_{ji}}{\phi_j} \right).\]
B. Estimasi Kurva Regresi

Jika kurva regresi spline linier truncated \((4)\) berlaku untuk \(i=1\) sampai dengan \(i=n,\) maka kumpulan persamaan-persamaan \(g(u_1), g(u_2),\cdots,g(u_n)\) akan membentuk suatu persamaan vektor dan matriks \[\widetilde{g}(u) = \mathbf{G} \boldsymbol{(\widetilde{\xi})} \widetilde{\theta}, \qquad \cdots\cdots\cdots \qquad (6)\] dimana \[\widetilde{g} = \begin{bmatrix} g(u_1)\\ g(u_2)\\ \vdots\\ g(u_n) \end{bmatrix}, \qquad \qquad \widetilde{\theta} = \begin{bmatrix} \beta_0\\ \beta_1\\ \lambda_1\\ \lambda_2\\ \vdots\\ \lambda_q \end{bmatrix}\] \[\mathbf{G} \boldsymbol {(\widetilde{\xi})}=\begin{bmatrix} 1 & u_1 & (u_1-\xi_1)_+ & \cdots & (u_1-\xi_q)_+\\ 1 & u_2 & (u_2-\xi_1) & \cdots & (u_2-\xi_q)_+\\ \vdots & \vdots & \vdots & \ddots & \vdots\\ 1 & u_n & (u_n-\xi_1) & \cdots & (u_n-\xi_q)_+ \end{bmatrix}.\] Vektor \(\widetilde{g}(u)\) berukuran \(n \times 1\), vektor \(\widetilde{\theta}\) berukuran \((q+2)\times 1\), dan matriks \(\mathbf{G} \boldsymbol{(\widetilde{\xi})}\) berukuran \(n \times (q+2).\) Selanjutnya, komponen kurva regresi kernel \(h_j (v_{ji})\) pada persamaan \((3)\) diestimasi menggunakan estimator kernel Nadaraya-Watson \((5).\) Persamaan \((5)\) tersebut berlaku untuk \(i=1\) sampai dengan \(i=n,\) sehingga kumpulan persamaan-persamaan \(\widehat{h}_{j\phi_j}(v_{j1}), \widehat{h}_{j\phi_j}(v_{j2}),\cdots,\widehat{h}_{j\phi_j}(v_{jn})\) membentuk sebuah persamaan vektor dan matriks \[\widehat{\widetilde{h}}_{j\phi_j}(v_j) = \boldsymbol{\mathrm{V}_j(\phi_j)}, \qquad \cdots\cdots\cdots \qquad (7)\] dimana \[\widehat{\widetilde{h}}_{j\phi_j}(v_j) = \begin{bmatrix} \widehat{h}_{j\phi_j}(v_{j1})\\ \widehat{h}_{j\phi_j}(v_{j2})\\ \vdots\\ \widehat{h}_{j\phi_j}(v_{jn}) \end{bmatrix}, \qquad \widetilde{y}=\begin{bmatrix} y_1\\ y_2\\ \vdots\\ y_n \end{bmatrix}\] \[\boldsymbol{\mathrm{V}_j(\phi_j)} = \begin{bmatrix} n_{-1}W_{\phi_j1}(v_{j1}) & n_{-1}W_{\phi_j2}(v_{j1}) & \cdots & n_{-1}W_{\phi_jn}(v_{j1})\\ n_{-1}W_{\phi_j1}(v_{j2}) & n_{-1}W_{\phi_j2}(v_{j2}) & \cdots & n_{-1}W_{\phi_jn}(v_{j2})\\ \vdots & \vdots & \ddots & \cdots\\ n_{-1}W_{\phi_j1}(v_{jn}) & n_{-1}W_{\phi_j2}(v_{jn}) & \cdots & n_{-1}W_{\phi_jn}(v_{jn}) \end{bmatrix}\] Vektor \(\widehat{\widetilde{h}}_{j\phi_j}(v_j)\) berukuran \(n\times 1\), vektor \(\widetilde{y}\) berukurab \(n \times 1,\) dan matriks \(\boldsymbol{\mathrm{V}_j(\phi_j)}\) berukuran \(n\times n.\) Berdasarkan persamaan \((7),\) maka estimator untuk komponen kurva regresi kernel \(\sum_{j=1}^m h_j (v_{ji})\) pada persamaan \((3)\) akan menjadi \[ \sum_{j=1}^m \widehat{\widetilde{h}}_{j\phi_j} (v_j) = \sum_{j=1}^m \boldsymbol{\mathrm{V}_j(\phi_j)} \widetilde{y} = \boldsymbol{\mathrm{V}\left( \widetilde{\phi}\right )} \widetilde{y} \qquad \cdots\cdots\cdots \qquad (8) \] dimana \[ \boldsymbol{\mathrm{V}\left( \widetilde{\phi}\right )} = \sum_{j=1}^m \boldsymbol{\mathrm{V}_j (\phi_j)} = \boldsymbol{\mathrm{V}_1 (\phi_1)} + \boldsymbol{\mathrm{V}_2 (\phi_2)} + \cdots + \boldsymbol{\mathrm{V}_m (\phi_m)} \] \[\boldsymbol{\mathrm{V}\left( \widetilde{\phi}\right )} = \begin{bmatrix} \displaystyle{n^{-1}\sum_{i=1}^n W_{\phi_j 1} (v_{j1})} & \displaystyle{n^{-1}\sum_{i=1}^n W_{\phi_j 2} (v_{j1})} & \cdots & \displaystyle{n^{-1}\sum_{i=1}^n W_{\phi_j n} (v_{j1})}\\ \displaystyle{n^{-1}\sum_{i=1}^n W_{\phi_j 1} (v_{j2})} & \displaystyle{n^{-1}\sum_{i=1}^n W_{\phi_j 2} (v_{j2})} & \cdots & \displaystyle{n^{-1}\sum_{i=1}^n W_{\phi_j n} (v_{j2})}\\ \vdots & \vdots & \ddots & \vdots\\ \displaystyle{n^{-1}\sum_{i=1}^n W_{\phi_j 1} (v_{jn})} & \displaystyle{n^{-1}\sum_{i=1}^n W_{\phi_j 2} (v_{jn})} & \cdots & \displaystyle{n^{-1}\sum_{i=1}^n W_{\phi_j n} (v_{jn})}& \end{bmatrix}\] Matriks \(\boldsymbol{\mathrm{V}\left( \widetilde{\phi}\right )}\) berukuran \(n \times n.\)

Jika kurva regresi spline linier truncated \(\widetilde{g}(u)\) diberikan oleh persamaan \((6)\) dan estimator untuk komponen kurva regresi kernel \(\sum_{j=1}^m h_j (v_{ji})\) diberikan oleh persamaan \((8),\) maka model regresi campuran nonparametrik spline dan kernel \((2)\) dapat disajikan dalam bentuk vektor dan matriks \[\widetilde{y} = \boldsymbol{\mathrm{G}\left( \widetilde{\xi}\right )} \widetilde{\theta} + \boldsymbol{\mathrm{V}\left( \widetilde{\phi}\right )} \widetilde{y} + \widetilde{\varepsilon}, \qquad \cdots\cdots\cdots \qquad (9)\] Dimana vektor \(\widetilde{\varepsilon}=(\varepsilon_1,\varepsilon_2,\cdots,\varepsilon_n )^T\) merupakan vektor error berukuran \(n \times 1.\) Berdasarkan persamaan \((9)\), diperoleh \[\widetilde{\varepsilon} = \left(\boldsymbol{\mathrm{I}-\mathrm{V} \left( \widetilde{\phi} \right)} \right) \widetilde{y} - \boldsymbol{G\left(\widetilde{\xi} \right)} \widetilde{\theta}.\] Selanjutnya, jumlah kuadrat error adalah \[\|\widetilde{\varepsilon}\|^2=\left \| \left(\boldsymbol{\mathrm{I}-\mathrm{V} \left( \widetilde{\phi} \right)} \right) \widetilde{y} - \boldsymbol{G\left(\widetilde{\xi} \right)} \widetilde{\theta}\right \|^2. \qquad \cdots\cdots\cdots \qquad (10)\] Matriks \(\mathbf{I}\) merupakan matriks identitas berukuran \(n \times n\).

Error random \(\widetilde{\varepsilon}\) berdistribusi multivariat normal dengan \(\text{E}[\widetilde{\varepsilon}]=0\) dan \(\text{E}[\widetilde{\varepsilon}{\widetilde{\varepsilon}}^T] = \sigma^2\mathbf{I}\) sehingga fungsi likelihood \(L(\widetilde{\theta},\sigma^2|\widetilde{\phi},\widetilde{\xi})\) diberikan oleh \[ \begin {align*} L(\widetilde{\theta},\sigma^2|\widetilde{\phi},\widetilde{\xi}) &= \prod_{i=1}^n \frac{1}{\sqrt {2\pi\sigma^2}} \exp {\left (-\frac{1}{2\sigma^2} \varepsilon_i^2 \right )}\\ &= \left (2\pi\sigma^2 \right )^{-\frac {n}{2}} \exp {\left (-\frac{1}{2\sigma^2} \|\widetilde{\varepsilon}\|^2 \right )} \end {align*} \] Jika jumlah kuadrat error diberikan oleh persamaan \((10)\), maka \[ L(\widetilde{\theta},\sigma^2|\widetilde{\phi},\widetilde{\xi}) = \left (2\pi\sigma^2 \right )^{-\frac {n}{2}} \exp {\left (-\frac{1}{2\sigma^2} \left \| \left(\boldsymbol{\mathrm{I}-\mathrm{V} \left( \widetilde{\phi} \right)} \right) \widetilde{y} - \boldsymbol{G\left(\widetilde{\xi} \right)} \widetilde{\theta}\right \|^2 \right )}. \] Berdasarkan metode MLE, estimator untuk parameter \(\widetilde{\theta}\) diperoleh dari optimasi \(\displaystyle \max_{\widetilde{\theta}\in R^{q+2}} \left \{L(\widetilde{\theta},\sigma^2|\widetilde{\phi},\widetilde{\xi}) \right \},\) sehingga \[ \max_{\widetilde{\theta}\in R^{q+2}} \left \{\left (2\pi\sigma^2 \right )^{-\frac {n}{2}} \exp {\left (-\frac{1}{2\sigma^2} \left \| \left(\boldsymbol{\mathrm{I}-\mathrm{V} \left( \widetilde{\phi} \right)} \right) \widetilde{y} - \boldsymbol{G\left(\widetilde{\xi} \right)} \widetilde{\theta}\right \|^2 \right )} \right \}. \] Jika jumlah kuadrat error diberikan oleh persamaan \((10)\), maka \[ L(\widetilde{\theta},\sigma^2|\widetilde{\phi},\widetilde{\xi}) = \left (2\pi\sigma^2 \right )^{-\frac {n}{2}} \exp {\left (-\frac{1}{2\sigma^2} \left \| \left(\boldsymbol{\mathrm{I}-\mathrm{V} \left( \widetilde{\phi} \right)} \right) \widetilde{y} - \mathbf{G}\boldsymbol{\left(\widetilde{\xi} \right)} \widetilde{\theta}\right \|^2 \right )}. \] Berdasarkan metode MLE, estimator untuk parameter \(\widetilde{\theta}\) diperoleh dari optimasi \(\displaystyle \max_{\widetilde{\theta}\in R^{q+2}} \left \{L(\widetilde{\theta},\sigma^2|\widetilde{\phi},\widetilde{\xi}) \right \},\) sehingga \[ \max_{\widetilde{\theta}\in R^{q+2}} \left \{\left (2\pi\sigma^2 \right )^{-\frac {n}{2}} \exp {\left (-\frac{1}{2\sigma^2} \left \| \left(\boldsymbol{\mathrm{I}-\mathrm{V} \left( \widetilde{\phi} \right)} \right) \widetilde{y} - \mathbf{G}\boldsymbol{\left(\widetilde{\xi} \right)} \widetilde{\theta}\right \|^2 \right )} \right \}. \] Jika fungsi likelihood \(L(\widetilde{\theta},\sigma^2|\widetilde{\phi},\widetilde{\xi})\) ditransformasi ke bentuk logaritma natural \[ l(\widetilde{\theta},\sigma^2|\widetilde{\phi},\widetilde{\xi})=\ln {L(\widetilde{\theta},\sigma^2|\widetilde{\phi},\widetilde{\xi})} \] maka optimasi tersebut akan menjadi \[ \max_{\widetilde{\theta}\in R^{q+2}} \left \{ {L(\widetilde{\theta},\sigma^2|\widetilde{\phi},\widetilde{\xi})} \right \} = \max_{\widetilde{\theta}\in R^{q+2}} \left \{l(\widetilde{\theta},\sigma^2|\widetilde{\phi},\widetilde{\xi}) \right \} \] sehingga \[ \max_{\widetilde{\theta}\in R^{q+2}} \left \{-\frac{n}{2}\ln \left (2\pi\sigma^2 \right ) -\frac{1}{2\sigma^2} \left \| \left(\boldsymbol{\mathrm{I}-\mathrm{V} \left( \widetilde{\phi} \right)} \right) \widetilde{y} - \mathbf{G}\boldsymbol{\left(\widetilde{\xi} \right)} \widetilde{\theta}\right \|^2 \right \}. \] Optimasi akan maksimum ketika komponen \[ Q(\widetilde{\theta},\sigma^2|\widetilde{\phi},\widetilde{\xi})= \left \| \left(\boldsymbol{\mathrm{I}-\mathrm{V} \left( \widetilde{\phi} \right)} \right) \widetilde{y} - \mathbf{G}\boldsymbol{\left(\widetilde{\xi} \right)} \widetilde{\theta}\right \|^2 \] mempunyai nilai yang minimum, sehingga \[ \max_{\widetilde{\theta}\in R^{q+2}} \left \{ {L(\widetilde{\theta},\sigma^2|\widetilde{\phi},\widetilde{\xi})} \right \} = \min_{\widetilde{\theta}\in R^{q+2}} \left \{ \left \| \left(\boldsymbol{\mathrm{I}-\mathrm{V} \left( \widetilde{\phi} \right)} \right) \widetilde{y} - \mathbf{G}\boldsymbol{\left(\widetilde{\xi} \right)} \widetilde{\theta}\right \|^2 \right \}. \] Untuk mendapatkan estimator dari \( \widetilde{\theta}, \) maka perlu dilakukan derivatif parsial terhadap \( Q(\widetilde{\theta},\sigma^2|\widetilde{\phi},\widetilde{\xi}).\) Selanjutnya, derivatif parsial tersebut disamakan dengan \(0,\) \[ \frac {\partial}{\partial \widetilde{\theta}} \left [ Q(\widetilde{\theta},\sigma^2|\widetilde{\phi},\widetilde{\xi}) \right ] = 0 \] Derivatif parsial akan menghasilkan persamaan normal \[ \left (\mathbf{G}\boldsymbol{\left(\widetilde{\xi} \right)} \right )^T \mathbf{G}\boldsymbol{\left(\widetilde{\xi} \right)} \widetilde{\theta} = \left (\mathbf{G}\boldsymbol{\left(\widetilde{\xi} \right)} \right )^T \left(\boldsymbol{\mathrm{I}-\mathrm{V} \left( \widetilde{\phi} \right)} \right) \widetilde{y}. \] Sehingga estimasi untuk \(\widetilde{\theta}\) diberikan oleh \[ \begin {align*} \widehat{\widetilde{\theta}} \left ( \widetilde{\xi},\widetilde{\phi} \right ) &= \left [ \left (\mathbf{G}\boldsymbol{\left(\widetilde{\xi} \right)} \right )^T \mathbf{G}\boldsymbol{\left(\widetilde{\xi} \right)} \right ]^{-1} \left (\mathbf{G}\boldsymbol{\left(\widetilde{\xi} \right)} \right )^T \left(\boldsymbol{\mathrm{I}-\mathrm{V} \left( \widetilde{\phi} \right)} \right) \widetilde{y}\\ &= \mathbf{B}\boldsymbol{\left(\widetilde{\xi},\widetilde{\phi} \right)} \widetilde{y}, \qquad \cdots\cdots\cdots \qquad(11) \end {align*} \] dimana

\(\mathbf{B}\boldsymbol{\left(\widetilde{\xi},\widetilde{\phi} \right)} = \left [ \left (\mathbf{G}\boldsymbol{\left(\widetilde{\xi} \right)} \right )^T \mathbf{G}\boldsymbol{\left(\widetilde{\xi} \right)} \right ]^{-1} \left (\mathbf{G}\boldsymbol{\left(\widetilde{\xi} \right)} \right )^T \left(\boldsymbol{\mathrm{I}-\mathrm{V} \left( \widetilde{\phi} \right)} \right),\)
\(\widehat{\widetilde{\theta}} \left ( \widetilde{\xi},\widetilde{\phi} \right ) = {\left (\widehat{\beta}_0, \widehat{\beta}_1, \widehat{\lambda}_1, \widehat{\lambda}_2, \cdots , \widehat{\lambda}_q \right )}^T.\)

Matriks \( \mathbf{B} \boldsymbol {\left (\widetilde {\xi}, \widetilde {\phi} \right)}\) berukuran \(n \times n\) dan vektor \(\widehat{\widetilde{\theta}} \left ( \widetilde {\xi}, \widetilde {\phi} \right ) \) berukuran \((q+2) \times 1.\) Mengingat persamaan \((11)\) dan sifat invariant dari MLE, maka estimator dari kurva regresi spline linier truncated \((6)\) adalah \[ \begin {align*} \widehat{\widetilde{g}}_{\widetilde{\phi},\widetilde{\xi}}(u,\widetilde{v}) &= \mathbf{G}\boldsymbol{\left(\widetilde{\xi} \right)} \widehat{\widetilde{\theta}} \left ( \widetilde{\xi},\widetilde{\phi} \right )\\ &= \mathbf{S}\boldsymbol{\left(\widetilde{\xi},\widetilde{\phi} \right)} \widetilde{y}, \qquad \cdots\cdots\cdots \qquad(12) \end {align*} \] dimana \[ \mathbf{S}\boldsymbol{\left(\widetilde{\xi},\widetilde{\phi} \right)} = \mathbf{G}\boldsymbol{\left(\widetilde{\xi} \right)} \left [ \left (\mathbf{G}\boldsymbol{\left(\widetilde{\xi} \right)} \right )^T \mathbf{G}\boldsymbol{\left(\widetilde{\xi} \right)} \right ]^{-1} \left (\mathbf{G}\boldsymbol{\left(\widetilde{\xi} \right)} \right )^T \left(\boldsymbol{\mathrm{I}-\mathrm{V} \left( \widetilde{\phi} \right)} \right). \] Matriks \(\mathbf{S}\boldsymbol{\left(\widetilde{\xi},\widetilde{\phi} \right)}\) berukuran \(n \times n.\)

Berdasarkan estimator kurva regresi spline linier truncated \((12)\) dan estimator kurva regresi kernel Nadaraya-Watson \((8),\) maka estimator dari kurva regresi campuran nonparametrik spline dan kernel \((3)\) adalah \[ \begin {align*} \widehat{\widetilde{f}}_{\widetilde{\phi},\widetilde{\xi}}(u,\widetilde{v}) &= \widehat{ \widetilde{g}}_{\widetilde{\phi}, \widetilde{\xi}}(u,\widetilde{v}) + \sum_{j=1}^{m} \widehat{\widetilde{h}}_{j\phi_j}(v_{j}) \\ &= \mathbf{S}\boldsymbol{\left(\widetilde{\xi},\widetilde{\phi} \right)} \widetilde{y} + \mathbf{V}\boldsymbol{\left(\widetilde{\phi} \right)} \widetilde{y} \\ &= \mathbf{Z}\boldsymbol{\left(\widetilde{\xi},\widetilde{\phi} \right)} \widetilde{y}, \end {align*} \] dimana \[ \mathbf{Z}\boldsymbol{\left(\widetilde{\xi},\widetilde{\phi} \right)} = \mathbf{S}\boldsymbol{\left(\widetilde{\xi},\widetilde{\phi} \right)} + \mathbf{V}\boldsymbol{\left(\widetilde{\phi} \right)} \] Matriks \(\mathbf{Z}\boldsymbol{\left(\widetilde{\xi},\widetilde{\phi} \right)}\) berukuran \(n \times n.\)

C. Sifat Estimator Kurva Regresi

Estimator-estimator \(\widehat{\widetilde{\theta}} \left ( \widetilde {\xi}, \widetilde {\phi} \right ), \) \( \widehat{ \widetilde{g}}_{\widetilde{\phi}, \widetilde{\xi}}(u,\widetilde{v}),\) \( \sum_{j=1}^{m} \widehat{\widetilde{h}}_{j\phi_j}(v_{j}) \) dan \( \widehat{\widetilde{f}}_{\widetilde{\phi},\widetilde{\xi}}(u,\widetilde{v}) \) seperti pada umumnya estimator kurva regresi nonparametrik yang lain, bersifat bias.

\( \textrm {E} \left [ \widehat{\widetilde{\theta}} \left ( \widetilde {\xi}, \widetilde {\phi} \right ) \right ] \neq \widetilde{\theta}, \)
\( \textrm {E} \left [ \widehat{ \widetilde{g}}_{\widetilde{\phi}, \widetilde{\xi}}(u,\widetilde{v}) \right ] \neq \widetilde{g} (u), \)
\( \textrm {E} \left [ \sum_{j=1}^{m} \widehat{\widetilde{h}}_{j\phi_j}(v_{j}) \right ] \neq \sum_{j=1}^{m} \widetilde{h}_{j\phi_j}(v_{j}), \)
\( \textrm {E} \left [ \widehat{ \widetilde{f}}_{\widetilde{\phi},\widetilde{\xi}}(u,\widetilde{v}) \right ] \neq \widetilde{f}_{\widetilde{\phi},\widetilde{\xi}}(u,\widetilde{v}). \)

Walaupun demikian estimator-estimator tersebut masih merupakan kelas estimator linier dalam observasi. Hal ini dapat diketahui dari pembahasan sebelumnya yang menghasilkan \[ \begin {matrix} \widehat{\widetilde{\theta}} \left ( \widetilde{\xi},\widetilde{\phi} \right ) = \mathbf{B} \boldsymbol{ \left( \widetilde{\xi}, \widetilde{\phi} \right)} \widetilde{y}, & \widehat {\widetilde{g}}_{\widetilde{\phi},\widetilde{\xi}} (u,\widetilde{v}) = \mathbf{S} \boldsymbol{\left(\widetilde{\xi},\widetilde{\phi} \right)} \widetilde{y}, \\ \sum_{j=1}^{m} \widehat{\widetilde{h}}_{j\phi_j}(v_{j}) = \mathbf{V}\boldsymbol{\left(\widetilde{\phi} \right)} \widetilde{y}, & \widehat{ \widetilde{f}}_{\widetilde{\phi},\widetilde{\xi}} (u,\widetilde{v}) = \mathbf{Z} \boldsymbol{\left(\widetilde{\xi}, \widetilde{\phi} \right)} \widetilde{y}. \end {matrix} \] Terlihat bahwa estimator-estimator \(\widehat{\widetilde{\theta}} \left ( \widetilde {\xi}, \widetilde {\phi} \right ), \) \( \widehat{ \widetilde{g}}_{\widetilde{\phi}, \widetilde{\xi}}(u,\widetilde{v}),\) \( \sum_{j=1}^{m} \widehat{\widetilde{h}}_{j\phi_j}(v_{j}) \) dan \( \widehat{\widetilde{f}}_{\widetilde{\phi},\widetilde{\xi}}(u,\widetilde{v}) \) merupakan kelas estimator linier dalam observasi \( \widetilde{y} \).

D. Pemilihan Titik-titik Knot dan Bandwidth Optimum

Estimator kurva regresi campuran nonparametrik spline dan kernel \( \widehat{\widetilde{f}}_{\widetilde{\phi},\widetilde{\xi}}(u,\widetilde{v}) \) sangat tergantung pada banyak titik knot, lokasi titik-titik knot dan bandwidth optimum. Salah satu metode yang digunakan untuk melakukan pemilihan banyak titik knot, lokasi titik-titik knot dan bandwidth optimum adalah metode Generalized Cross Validation atau GCV [4]. \[ \textrm{GCV} \left ( \widetilde{\xi},\widetilde{\phi} \right ) = \frac {\textrm{MSE} \left ( \widetilde{\xi},\widetilde{\phi} \right )}{{\left ( n^{-1} \textrm{trace} \left ( \boldsymbol {\mathrm{I} - \mathrm{V} \left( \widetilde{\phi} \right)} \right ) \right )}^2}, \] dimana \[ \textrm{MSE} \left ( \widetilde{\xi},\widetilde{\phi} \right ) = n^{-1} \sum_{i=1}^n \left (y_i - \widehat{f}_{\widetilde{\phi},\widetilde{\xi}}(u_i,\widetilde{v}_i) \right )^2. \] Banyaknya titik knot optimum dan lokasi titik-titik knot optimum \(\widetilde{\xi}_{(\text{opt})} = \left (\xi_{1(\text{opt})}, \xi_{2(\text{opt})}, \cdots, \xi_{q(\text{opt})} \right )^T\) serta bandwidth optimum \(\widetilde{\phi}_{(\text{opt})} = \left (\phi_{1(\text{opt})}, \phi_{2(\text{opt})}, \cdots, \phi_{q(\text{opt})} \right )^T\)diperoleh dari optimasi \[ \textrm{GCV} \left ( \widetilde{\xi}_{(\textrm {opt})},\widetilde{\phi}_{(\textrm {opt})} \right ) = \min_{\widetilde{\xi},\widetilde{\phi}} \left \{ \textrm{GCV} \left ( \widetilde{\xi}, \widetilde{\phi} \right ) \right \}. \] E. Aplikasi pada Data Kemiskinan

Gambar 1. merupakan diagram pencar antara variabel respon dengan masing-masing variabel prediktor. Pada diagram tersebut terlihat bahwa secara umum bentuk pola hubungan antara variabel respon dan variabel prediktor tidak diketahui atau tidak mengikuti pola tertentu. Namun jika diperhatikan dengan lebih seksama, pada diagram pencar antara persentase penduduk miskin dengan PDRB perkapita, terlihat bahwa pola perilaku datanya berubah-ubah pada sub-sub interval tertentu. Dengan demikian, bentuk pola hubungan antara persentase penduduk miskin dengan PDRB perkapita tersebut didekati dengan kurva regresi spline, sedangkan bentuk pola hubungan antara persentase penduduk miskin dengan empat variabel lainnya (gini ratio, rata-rata lama sekolah, tingkat pengangguran terbuka dan laju pertumbuhan ekonomi) masing-masing didekati dengan kurva regresi kernel.

Gambar 1. Diagram Pencar Variabel Respon dengan Masing Variabel Prediktor

Selanjutnya, jika bentuk pola hubungan variabel respon dan variabel-variabel prediktor tersebut didekati dengan model regresi campuran nonparametrik spline dan kernel, maka variabel-variabel yang digunakan tersebut dapat dinotasikan menjadi \(y\) = persentase penduduk miskin, \(u\) = PDRB perkapita, \(v_1\) = gini ratio, \(v_2\) = rata-rata lama sekolah, \(v_3\) = tingkat pengangguran terbuka, \(v_4\) = laju pertumbuhan ekonomi. Dengan demikian, berdasarkan pasangan data yang diberikan \((u_i,v_{1i},v_{2i},v_{3i},v_{4i},y_i ),\) \(i=1,2, \cdots,29,\) maka model regresi campuran nonparametrik spline dan kernelnya adalah \[ \begin {align*} y_i &= \beta_0 + \beta_1u_i + \lambda_1 \left (u_i - \xi_1 \right )_+^p + \cdots + \lambda_q \left (u_i - \xi_q \right )_+^p \\ &+ \sum_{i=1}^{29} \frac {\frac {1}{\phi_1} K \left ( \frac {v_1-v_{1i}}{\phi_1} \right )}{\sum_{i=1}^{29} \frac {1}{\phi_1} K \left ( \frac {v_1-v_{1i}}{\phi_1} \right )} y_i + \sum_{i=1}^{29} \frac {\frac {1}{\phi_2} K \left ( \frac {v_2-v_{2i}}{\phi_2} \right )}{\sum_{i=1}^{29} \frac {1}{\phi_2} K \left ( \frac {v_2-v_{2i}}{\phi_2} \right )} y_i\\ &+ \sum_{i=1}^{29} \frac {\frac {1}{\phi_3} K \left ( \frac {v_3-v_{3i}}{\phi_3} \right )}{\sum_{i=1}^{29} \frac {1}{\phi_3} K \left ( \frac {v_3-v_{3i}}{\phi_3} \right )} y_i + \sum_{i=1}^{29} \frac {\frac {1}{\phi_4} K \left ( \frac {v_4-v_{4i}}{\phi_4} \right )}{\sum_{i=1}^{29} \frac {1}{\phi_4} K \left ( \frac {v_4-v_{4i}}{\phi_4} \right )} y_i + \varepsilon_i. \end {align*} \] Dalam model regresi tersebut, terdapat sebanyak \(q\) titik knot \( \left (\xi_1,\xi_2, \cdots,\xi_q \right ) \) dan \(m = 4\) bandwidth \( \left ( \phi_1, \phi_2, \phi_3, \phi_4 \right ) \). Dalam penelitian ini banyaknya titik knot dibatasi hingga \(q = 3\) titik knot \( \left (\xi_1, \xi_2, \xi_3 \right ). \)

Fungsi kernel yang digunakan dalam penelitian ini adalah fungsi kernel gaussian (1), sedangkan pemilihan banyak titik knot, lokasi titik-titik knot dan bandwidth optimum dilakukan dengan menggunakan metode GCV (13). Jika model regresi campuran nonparametrik spline dan kernel memiliki banyaknya titik knot yang dibatasi sampai dengan tiga titik knot, maka terdapat tiga kemungkinan model yang bisa dibentuk, yaitu model dengan satu titik knot, model dengan dua titik knot, dan model dengan tiga titik knot. Berikut hasil pemilihan GCV minimum ketiga bentuk model tersebut.

Tabel 1. Perbandingan nilai GCV Minimum
NoModelGCV
11 Titik Knot 4 Bandwidth\(21\text{,}2932\)
22 Titik Knot 4 Bandwidth\(17\text{,}1844\)
33 Titik Knot 4 Bandwidth\(13\text{,}4836\)

Berdasarkan pemilihan GCV minimum ketiga model tersebut, maka model terbaik diperoleh ketika kurva regresi memiliki tiga titik knot. Lokasi titik knot tersebut adalah \(\xi_1=26\text{,}4956,\) \(\xi_2=29\text{,}3591,\) \(\xi_3=35\text{,}0863\) dan bandwidth \(\phi_1=0\text{,}1411,\) \(\phi_2=0\text{,}0676,\) \(\phi_3=0\text{,}0344,\) \(\phi_4=0\text{,}0207.\)

Hasil estimasi parameter berdasarkan lokasi titik-titik knot dan bandwidth optimum adalah \(\beta_0=3\text{,}6965,\) \(\beta_1=-0\text{,}2832,\) \(\lambda_1=3\text{,}6986,\) \(\lambda_2=-5\text{,}5289\) dan \(\lambda_3=2\text{,}3139.\) Dengan demikian estimasi kurva regresi model menjadi \[ \begin {align*} \widehat{\widetilde{f}}_{\widetilde{\phi},\widetilde{\xi}}(u_i,\widetilde{v}_i) &= 3\text{,}6965 -0\text{,}2832u_i + 3\text{,}6986 \left (u_i - 26\text{,}4956 \right )_+ \\ &-5\text{,}5289 \left (u_i - 29\text{,}3591 \right )_+ + 2\text{,}3139 \left (u_i - 35\text{,}0863 \right )_+ \\ &+ \sum_{i=1}^{29} \frac {\frac {1}{0\text{,}1411} K \left ( \frac {v_1-v_{1i}}{0\text{,}1411} \right )}{\sum_{i=1}^{29} \frac {1}{0\text{,}1411} K \left ( \frac {v_1-v_{1i}}{0\text{,}1411} \right )} y_i + \sum_{i=1}^{29} \frac {\frac {1}{0\text{,}0676} K \left ( \frac {v_2-v_{2i}}{0\text{,}0676} \right )}{\sum_{i=1}^{29} \frac {1}{0\text{,}0676} K \left ( \frac {v_2-v_{2i}}{0\text{,}0676} \right )} y_i\\ &+ \sum_{i=1}^{29} \frac {\frac {1}{0\text{,}0344} K \left ( \frac {v_3-v_{3i}}{0\text{,}0344} \right )}{\sum_{i=1}^{29} \frac {1}{0\text{,}0344} K \left ( \frac {v_3-v_{3i}}{0\text{,}0344} \right )} y_i + \sum_{i=1}^{29} \frac {\frac {1}{0\text{,}0207} K \left ( \frac {v_4-v_{4i}}{0\text{,}0207} \right )}{\sum_{i=1}^{29} \frac {1}{0\text{,}0207} K \left ( \frac {v_4-v_{4i}}{0\text{,}0207} \right )} y_i. \end {align*} \] Dari hasil pengolahan diperoleh nilai \(R^2\) sebesar \(0\text{,}9202.\) Nilai \(R^2\) ini menunjukkan bahwa variabel yang digunakan dapat menjelaskan model sebesar \(92\text{,}02 \%.\)

Selanjutnya adalah melakukan pengujian asumsi kenormalan residual. Dengan menggunakan uji Kolmogorov-Smirnov didapatkan plot pada Gambar 2. Pengujian normalitas pada residual menghasilkan \(p\text{-}value>0\text{,}150,\) lebih besar dari \(\alpha(0,05)\) sehingga disimpulkan bahwa residual model berdistribusi normal.

Gambar 2 Probability Plot Residual

Model regresi campuran nonparametrik spline dan kernel ini dapat digunakan untuk skenario kebijakan. Misalkan suatu kabupaten ingin menetapkan target PDRB perkapita \(9\text{,}39\) juta rupiah, gini ratio sebesar \(0\text{,}37\) rata-rata lama sekolah \(9\text{,}21,\) tingkat penganguuran terbuka \(5\text{,}31\) dan laju pertumbuhan ekonomi \(6\text{,}83,\) maka melalui penghitungan menggunakan model regresi campuran nonparametrik spline dan kernel diperoleh persentase penduduk miskin sebesar \(26\text{,}02\) persen. Jika target-target yang akan ditetapkan tersebut dianggap tidak menekan persentase penduduk miskin secara signifikan, maka bisa dilakukan simulasi perubahan target dan selanjutnya diprediksi kembali persentase penduduk miskinnya.


V. KESIMPULAN

Kurva regresi campuran nonparametrik spline dan kernel merupakan suatu kurva regresi yang mengombinasikan dua jenis kurva regresi, yaitu spline dan kernel. Kurva ini diharapkan dapat mendekati pola data dengan baik karena masing-masing pola data telah didekati oleh kurva yang sesuai.

Kurva regresi spline yang digunakan dalam penelitian ini adalah kurva regresi spline linier truncated, sedangkan kurva regresi kernel yang digunakan adalah kurva regresi kernel Nadaraya-Watson. Untuk saran penelitian selanjutnya, dapat dilakukan kajian mengenai model regresi campuran nonparametrik spline dan kernel dimana kurva regresi spline yang digunakan adalah spline kuadratik atau kubik, sedangkan kurva regresi kernel yang digunakan adalah linier konstan.


UCAPAN TERIMA KASIH

Penulis R mengucapkan terima kasih kepada Badan Pusat Statistik (BPS) Republik Indonesia yang telah memberikan dukungan finansial melalui beasiswa tahun 2014-2016.


DAFTAR PUSTAKA

[1] R. L. Eubank, Nonparametric Regression and Spline Smoothing, New York: Marcel Dekker, Inc, 1999.
[2] C. H. Reinsch, "Smoothing by Spline Functions", Numerische Mathematik, Vol. 10, hal. 77-183, 1967.
[3] B. W. Silverman, "Some Aspects of The Spline Smoothing Approach to Non-parametric Regression Curve Fitting", Journal of the Royal Statistical Society. Series B (Methodological), Vol. 47, No. 1, hal. 1-52, 1985.
[4] G. Wahba, Spline Models for Observational Data, Philadelphia: Society for Industrial and Applied Mathematics, 1990.
[5] H. Liang, "Estimation in Partially Linear Models and Numerical Comparisons", Computational Statistics & Data Analysis, Vol. 50, No .3, hal. 675-687, 2006.
[6] Y. Lin and H. H. Zhang, "Component Selection and Smoothing in Multivariate Nonparametric Regression", The Annals of Statistics, Vol. 34, No. 5, hal. 2272-2297, 2006.
[7] A. Islamiyati and I. N. Budiantara, "Model Spline dengan Titik-titik Knots dalam Regresi Nonparametrik", Jurnal INFERENSI, Vol. 3, hal. 11-21, 2007.
[8] I. N. Budiantara, Spline dalam Regresi Nonparametrik dan Semiparametrik: Sebuah Pemodelan Statistika Masa Kini dan Masa Mendatang, Surabaya: ITS Press, 2009.
[9] E. A. Nadaraya, Nonparametric Estimation of Probability Densities and Regression Curves, Kluwcer Academic Publishers, 1989.
[10] T. Gasser and H.-G. Muller, Kernel Estimation of Regression Functions, Springer Berlin Heidelberg, 1979.
[11] W. Hardle, Applied Nonparametric Regression, Berlin: Humboldt-Universität zu Berlin, 1994.
[12] M. P. Wand and M. C. Jones, Kernel Smoothing, London: Chapman & Hall, 1995.
[13] J. You and G. Chen, "Semiparametric Generalized Least Squares Estimation in Partially Linear Regression Models with Correlated Errors", Journal of Statistical Planning and Inference, Vol. 137, No. 1, hal. 117-132, 2007.
[14] M. Kayri and Zirhhoglu, "Kernel Smoothing Function and Choosing Bandwidth for Nonparametric Regression Methods", Ozean Journal of Applied Sciences, 2(1), 49-54, 2009.
[15] J. Klemela, Multivariate Nonparametric Regression and Visualization: with R and Applications to Finance, New Jersey: John Wiley & Sons, Inc, 2014.
[16] I. N. Budiantara, M. Ratna, I. Zain and W. Wibowo, "Modeling the Percentage of Poor People in Indonesia Using Spline Nonparametric Regression Approach", International Journal of Basic & Applied Sciences IJBAS-IJENS, Vol. 12 No. 06, hal. 119-124, 2012.
[17] W. Hardle, M. Muller, S. Sperlich and A. Werwatz, Nonparametric and Semiparametric Models, Springer-Verlag Berlin Heidelberg, 2004.
[18] S. Ellies, The Dimension of Poverty, Kumarian Press, 1994.
[19] S. Fan, "Public Investment and Poverty Reduction Case Studies from Asia and Implications for Latin America", in Seminario Internacional: Tendencias Y Desafion Del Gato Publiko Para El Desarollo Agricola Y Rural En America Latina Y El Caribe, Santo Domingo, 2003.
[20] J. B. G. Tilak, Post‐Elementary Education, Poverty and Development in India, New Delhi: Working Paper Series - No. 6, Centre of African Studies, University of Edinburgh, 2005.
[21] A. H. Naja, "Pendidikan Berkualitas dan Pembangunan Sumber Daya Manusia: Solusi Utama Masalah Pengangguran dan Kemiskinan di Indonesia", Jurnal Bisnis dan Ekonomi Politik, Vol. 7 No. 1, hal. 67-79, 2006.
[22] P. R. Agenor, Unemployment-Poverty Trade-Offs, Washington DC: The World Bank, 2004.
[23] J. P. Formby, G. A. Hoover and K. Hoseong, Economic Growth and Poverty in the United States: Comparisons of Estimates Based Upon Official Poverty Statistics and Sen's Index of Poverty, Working Paper No. 00-11-01, Univ. of Alabama, Department of Economics, Finance, and Legal Studies, 2000.
[24] G. Iradian, Inequality, Poverty, and Growth: Cross-Country Evidence, IMF Working Paper, 1-39, 2005.
[25] P. Agrawal, "Economic Growth and Poverty Reduction: Evidence from Kazakhstan", Asian Development Review, Vol. 24, No. 2, hal. 90-115, 2008.



Penulis: Rory, I Nyoman Budiantara, Wahyu Wibowo | Institut Teknologi Sepuluh Nopember