UNIVERSITAS INDONESIA REGRESI LINIER TUGAS UTS Diajukan sebagai salah satu syarat mata kuliah Analisis Multivariat Diva Erenst Nataprawira 2106663175 Nur Rahmah Syah Ramdhani 2106663553 Nadhira Riska Maulina 2106781142 PROGRAM MAGISTER TEKNIK INDUSTRI FAKULTAS TEKNIK 2022 DAFTAR ISI Kata Pengantar ....................................................................................................................................................................2 Bab 1 Latar Belakang ........................................................................................................................................................3 Bab 2 Teori Dasar: Regresi Linear Sederhana .......................................................................................................4 2.1 Pengertian Dan Model Dasar .....................................................................................................................4 2.1.1 Ordinary Least Square (OLS) .............................................................................................................4 2.1.2 Uji Asumsi OLS .......................................................................................................................................5 2.2 Inferensi Pada Model Regresi Sederhana .............................................................................................7 2.3 Pendekatan Analysis Of Variance ..............................................................................................................8 2.4 Pendekatan Untuk Data Dengan Pola Nonlinier ................................................................................9 Bab 3 Teori Dasar: Regresi Linear Majemuk ....................................................................................................... 11 3.1 Pengertian Dan Model Dasar .................................................................................................................. 11 3.1.1 Estimasi Koefisien.............................................................................................................................. 11 3.1.2 Model Regresi Linier Menggunakan Matriks .......................................................................... 11 3.1.3 Estimator Least Squares Dan Uji Asumsi .................................................................................. 12 3.2 Langkah-Langkah Dalam Analisis Regresi Linier Majemuk ....................................................... 13 3.3 Inferensi Pada Model Regresi Linear Majemuk .............................................................................. 15 3.4 Analisis Kecocokan Model Regresi ....................................................................................................... 16 3.5 Penggunaan Variabel Kategorikal......................................................................................................... 16 3.6 Pemodelan Interaksi/Moderasi ............................................................................................................. 17 3.7 Identifikasi Observasi Influential .......................................................................................................... 18 Bab 4 Pengolahan Data: Perhitungan Dan Remedy Bagi Pelanggaran Asumsi ..................................... 21 4.1 Pengambilan Data Sekunder ................................................................................................................... 21 4.2 Pengolahan Data Regresi Linier Majemuk ........................................................................................ 21 4.2.1 Model Umum ........................................................................................................................................ 21 4.2.2 Pengujian Asumsi ............................................................................................................................... 22 4.2.3 Analisis Hasil Pengujian Asumsi .................................................................................................. 35 4.2.4 Analisis Residual................................................................................................................................. 36 4.2.5 Validasi Model ..................................................................................................................................... 36 4.2.6 Estimasi Model ................................................................................................................................... 38 Bab 5 Analisis Penggunaan Dan Saran ................................................................................................................... 41 5.1 Bagaimana Perusahaan Menerapkan Regresi ................................................................................. 41 5.2 Apakah Korelasi Menunjukkan Sebab-Akibat? ............................................................................... 42 5.3 Saran Penggunaan ....................................................................................................................................... 43 i Daftar Pustaka .................................................................................................................................................................. 44 Lampiran ............................................................................................................................................................................ 45 Data Hatco ..................................................................................................................................................................... 45 Nilai Bobot WLS Model 3 ........................................................................................................................................ 47 Nilai Bobot WLS Model 4 ........................................................................................................................................ 48 Nilai Mahalanobis....................................................................................................................................................... 48 Nilai Cook’s Distance................................................................................................................................................. 49 ii DAFTAR TABEL Tabel 1 Transformasi Fungsi Eksponensial ............................................................................... 9 Tabel 2 Transformasi Fungsi Power .......................................................................................... 9 Tabel 3 Transformasi Fungsi Resiprokal ................................................................................. 10 Tabel 4 Transformasi Fungsi Hiperbola ................................................................................... 10 Tabel 5 Analisis varian F-test................................................................................................... 13 Tabel 6 Analisis varian bentuk matriks .................................................................................... 13 Tabel 7 Hasil Perhitungan R Square Model 1 .......................................................................... 22 Tabel 8 Hasil ANOVA Model 1 .............................................................................................. 23 Tabel 9 Uji kolmogorov-smirnov ............................................................................................. 24 Tabel 10 Plot Regresi Parsial ................................................................................................... 24 Tabel 11 Korelasi Satisfaction Level dan Variabel Independen .............................................. 25 Tabel 12 Hasil Perhitungan R Square Model 2 ........................................................................ 26 Tabel 13 Hasil ANOVA Model 2 ............................................................................................ 27 Tabel 14 Hasil Perhitungan R Square Model 3 ........................................................................ 29 Tabel 15 Hasil ANOVA Model 3 ............................................................................................ 30 Tabel 16 Variabel Prediktor Model 3 ....................................................................................... 30 Tabel 17 Hasil Uji Multikolinieritas Model 3 .......................................................................... 31 Tabel 18 Hasil Perhitungan R Square Model 4 ........................................................................ 32 Tabel 19 Hasil ANOVA Model 4 ............................................................................................ 33 Tabel 20 Variabel Prediktor Model 4 ....................................................................................... 34 Tabel 21 Hasil Uji Multikolinieritas Model 4 .......................................................................... 34 Tabel 22 Perbandingan Model Regresi Awal dengan Hasil Remedy ...................................... 35 Tabel 23 Perbandingan signifikansi pada sub-sampel ............................................................. 36 Tabel 24 Perbandingan Nilai residual antar sub-sampel ......................................................... 37 Tabel 25 Perbandingan nilai R-square antar sub-sampel ......................................................... 38 iii DAFTAR GAMBAR Gambar 1 Fungsi Eksponensial .................................................................................................. 9 Gambar 2 Fungsi Power ............................................................................................................. 9 Gambar 3 Fungsi Resiprokal .................................................................................................... 10 Gambar 4 Fungsi Hiperbola ..................................................................................................... 10 Gambar 5 Analisis Regresi Tahap 1 dan Tahap 2 .................................................................... 14 Gambar 6 Analisis Regresi Tahap 3 dan Tahap 4 .................................................................... 14 Gambar 7 Analisis Regresi Tahap 5 dan Tahap 6 .................................................................... 15 Gambar 8 Garis regresi variabel kategorikal ............................................................................ 17 Gambar 9 Hubungan antar variabel pada model interaksi ....................................................... 18 Gambar 10 Dampak dari observasi influential ......................................................................... 19 Gambar 11 Plot Residu Gambar 12 Histogram ................................................................. 23 Gambar 13 Plot Residual Variabel Dependen .......................................................................... 27 Gambar 14 Plot Residual Model terhadap Residual Prediktor ................................................ 29 Gambar 15 Plot Residual Model terhadap Residual Prediktor Model 4 .................................. 32 Gambar 16 Contoh Salah Penggunaan dalam Membandingkan Variabel ............................... 42 Gambar 17 Perbaikan Penggunaan dalam Membandingkan Variabel ..................................... 42 Gambar 18 Kapan Bereaksi Terhadap Korelasi dan Kapan Tidak: Tingkat Kepercayaan terhadap Hubungannya ............................................................................................................. 43 iv KATA PENGANTAR Puji dan syukur Kami panjatkan kepada Tuhan Yang Maha Esa, karena atas segala rahmat dan karunia-Nya makalah ini dapat tersusun dengan baik. Makalah ilmiah ini Kami susun dalam rangka memenuhi salah satu syarat tugas UTS mata kuliah Analisa Multivariat. Tidak lupa Kami juga mengucapkan banyak terima kasih atas bantuan dari pihak yang telah berkontribusi dan berperan dalam penyusunan makalah ini. Pada penyusunan makalah ilmiah ini tentunya tidak terlepas dari bantuan dan bimbingan baik secara langsung maupun tidak langsung dari berbagai pihak. Untuk itu, kami menyampaikan banyak terima kasih kepada semua pihak yang telah berkontribusi, beberapa di antaranya adalah Ibu Isti Surjandari sebagai dosen pengampu mata kuliah Analisa Multivariat. Terlepas dari semua hal, Kami menyadari sepenuhnya bahwa masih banyak kekurangan pada makalah ini, baik dari segi penyusunan kalimat, tata bahasanya maupun konten dan materi. Oleh karena itu, Kami sangat berharap untuk menerima segala kritik dan saran dari pembaca agar makalah ilmiah ini dapat terus disempurnakan. Akhir kata, semoga makalah ini dapat memberikan manfaat bagi pengembangan ilmu pengetahuan dan juga penelitian yang dilakukan selanjutnya. Depok, 31 Maret 2022 Penulis 2 Universitas Indonesia BAB 1 LATAR BELAKANG Teknik analisis multivariat sangat popular, karena memungkinkan organisasi untuk mendapatkan informasi dan membantu dalam pengambilan keputusan. Analisis multivariat mengacu pada semua teknik statistik yang secara bersamaan menganalisis beberapa pengukuran pada individu atau objek yang diteliti. Dengan demikian, setiap analisis simultan lebih dari dua variabel dapat dianggap sebagai analisis multivariat. Banyak teknik multivariat merupakan perluasan dari analisis univariat (analisis distribusi variabel tunggal) dan analisis bivariat (klasifikasi silang, korelasi, analisis varians, dan regresi sederhana yang digunakan untuk menganalisis dua variabel). Misalnya, regresi sederhana (dengan satu variabel prediktor) diperluas dalam kasus multivariat untuk memasukkan beberapa variabel prediktor. Simple Regression menyangkut model linier hubungan antara 2 variabel. Model-model seperti ini, baik simple, multiple, atau yang lebih kompleks sering digunakan untuk mencoba melihat hubungan dan pengaruh antar variabel misalnya antara konsumsi dan disposable income, dan lain-lain. Demikian juga, variabel dependen tunggal yang ditemukan dalam ANOVA diperluas untuk memasukkan beberapa variabel dependen dalam analisis varians multivariat. Beberapa teknik multivariat (misalnya, regresi berganda dan analisis varians multivariat) menyediakan sarana untuk melakukan analisis tunggal yang sebelumnya memerlukan beberapa analisis univariat untuk diselesaikan. Regresi Linear berganda merupakan teknik statistik yang digunakan untuk menganalisis hubungan antara sebuah variabel dependen (criterion) dengan beberapa variabel independen (predictor). Sama halnya dengan regresi linear sederhana, tujuan regresi linear berganda adalah menguji hubungan struktural antara variable dependen dan independen untuk kemudian memprediksi nilai variabel dependen. Dalam tulisan ini akan dibahas terkait model regresi sederhana dan model regresi berganda. Selain itu juga akan dijelaskan terkait uji asumsi klasik dan pelanggaran serta cara memperbaikinya. 3 Universitas Indonesia BAB 2 TEORI DASAR: REGRESI LINEAR SEDERHANA 2.1 Pengertian dan Model Dasar Dalam penggunaannya, regresi linear sederhana adalah model yang digunakan untuk menjelaskan hubungan antara dua buah variabel, dimana satu variabel menjadi predictor atas satu variabel lainnya. Sebuah model yang menerangkan hubungan dependensi dari dua variabel, dimana salah satu variabel bersifat dependen atas variabel lainnya. Hubungan ini tidak bersifat deterministik. Model dasar untuk regresi linear sederhana ditunjukkan pada persamaan 1. ๐ = ๐ผ + ๐ฝ๐ฅ + ๐ 1 ๐ผ = ๐๐๐๐๐๐๐ก๐๐ ๐๐๐ก๐๐๐๐๐๐ก ๐ฝ = ๐๐๐๐๐๐๐ก๐๐ ๐ ๐๐๐๐ ๐ = ๐๐๐ ๐๐๐ข๐๐ ๐ฆ๐๐๐ ๐๐๐๐ข๐๐๐๐๐ ๐ฃ๐๐๐๐๐๐๐ ๐๐๐๐ ๐๐๐๐๐๐ ๐ธ(๐) ๐๐๐๐๐โ 0 ๐๐๐ ๐๐๐๐๐๐ ๐ก๐๐๐๐ข๐ ๐ ๐๐๐๐๐๐ 2.1.1 Ordinary Least Square (OLS) Metode ini digunakan untuk mencari parameter a dan b yang merupakan estimator bagi ๐ผ dan ๐ฝ. Metode ini kerap digunakan untuk menentukan persamaan tren data dan sering digunakan untuk meramalkan variabel dependen. Parameter a dan b dicari sehingga akan meminimalkan nilai SSE. Persamaan dengan metode Least Square ditunjukkan pada persamaan 2. ๐ฬ = ๐ผ + ๐ฝ๐ฅ 2 Dengan menyederhanakan persamaan SSE, diperoleh persamaan untuk menentukan a dan b sebagai berikut: ๐= ๐ ∑๐๐=1 ๐ฅ๐ ๐ฆ๐ − (∑๐๐=1 ๐ฅ๐ )(∑๐๐=1 ๐ฆ๐ ) (๐ ∑๐๐=1 ๐ฅ๐2 ) − (∑๐๐=1 ๐ฅ๐ ) ๐= 2 ∑๐๐=1(๐ฅ − ๐ฅฬ )(๐ฆ๐ − ๐ฆฬ ) = ∑๐๐=1(๐ฅ๐ − ๐ฅฬ )2 ∑๐๐=1 ๐ฆ๐ − ๐ ∑๐๐=1 ๐ฅ๐ = ๐ฆฬ − ๐๐ฅฬ ๐ 3 4 4 Universitas Indonesia Baik a maupun b adalah estimator ๐ถ dan ๐ท, pada dasarnya adalah variabel yang tidak independen dari random variable Y yang didapat dari sample, sehingga keduanya juga merupakan random variable yang berdistribusi karena setiap sample akan menghasilkan nilai a dan b yang berbeda. Estimator a dan b yang dihasilkan dari pendekatan OLS dapat diuji sebagai estimator terbaik dengan beberapa kriteria yang disingkat sebagai BLUE (Best Linear Unbiased Estimator). Estimator yang baik harus memenuhi persyaratan atau memiliki karakteristik : Unbiased, Efficient, Consistent. 2.1.2 Uji Asumsi OLS Dalam melakukan pengujian terhadap sebuah model regresi linear OLS, dapat dilakukan uji asumsi klasik. Hal ini dilakukan dengan tujuan memberikan kepastian bahwa persamaan regresi yang didapatkan memiliki ketepatan dalam estimasi, tidak bias, dan konsisten (BLUE – Best Linier Unbiased Estimator). Asumsi yang harus dipenuhi adalah sebagai berikut a. Distribusi Normal Uji normalitas dilakukan untuk dapat menguji apakah data yang digunakan untuk uji hopitesis merupakan variable dependen dan independent yang telah terdistribusi secara normal. Asumsi distribusi normal dari error merupakan implikasi dari asumsi E(ei) = 0 dan distribusi simetris dari error. Karena error terkait dengan variabel dependen, maka pengujian normality dilakukan terhadap variabel Y dengan menggunakan tes χ2 atau Kolmogorov Smirnov. b. Homoscedasticisty (Variance Error Konstan) Uji ini dilakukan untuk dapat menguji apakah model regresi memiliki keragaman error yang sama atau tidak. Asumsi keragaman error yang sama disebut dengan homoskedastisitas, sedangkan heteroskedastisitas terjadi jika keragaman nilai errornya tidak konstan atau berbeda. Untuk dapat memenuhi kriteria BLUE, nilai error pada setiap pengamatan nilainya konstan sehingga memenuhi asumsi homoscedasicity. Dalam hal variance error tidak konstan (pada umumnya bersifat sistematis atau tidak random), misalnya variance error berubah proporsional dengan X, maka solusi yang 5 Universitas Indonesia bisa dilakukan adalah dengan melakukan pembobotan Weighted Least Square (WLS). Untuk uji asumsi Homoscedasticity dapat menggunakan Levene Test. c. Tidak ada Autocorrelation Uji ini dilakukan untuk dapat menguji model regresi yang akan digunakan, apakah terdapat korelasi antar error pada pengamatan satu dengan error pada pengamatan sebelumnya. Autokorelasi berarti ada covariance antar error atau E (uiuj) ≠ 0 (untuk i ≠ j). Asumsi OLS tentang independensi error mengharuskan matriks variance – covariance memiliki elemen non diagonal = 0, tetapi bila ada covariance antar error maka elemen non diagonal tersebut ≠ 0. Apabila terjadi korelasi antar pengamatan dalam runtut waktu, maka dapat dikatakan ada masalah autokorelasi. Sehingga, model regresi dinyatakan memenuhi kriteria BLUE apabila pada data dinyatakan tidak ada autokorelasi. Autokorelasi mengakibatkan hal yang sama seperti heteroscedasticity, yaitu menghasilkan unbiased estimator yang tidak efisien. Pengujian ada tidaknya autokorelasi dapat dilakukan dengan beberapa teknik, seperti Durbin – Watson Test, Von Neuman Test, Theil – Naggar Test, Theil Blues. d. Tidak ada Multikolinieritas Uji multikolinieritas ini bertujuan untuk mengetahui apakah masing-masing variable bebasnya berhubungans ecara liniear atau saling berkorelasi. Model regresi dinyatakan dapat memenuhi kriteria BLUE apabila tidak didapatkan multikolinieritas. Multikolinieritas dapat diketahui melalui beberapa pengujian salah satunya yang digunakan dalam penelitian ini yaitu dengan menghitung nilai VIF dan Tolerance dari masing-masing variabel bebas. Untuk mengetahui apakah pada data penelitian mengandung multikolinieritas atau tidak, dapat didasarkan pada asumsi berikut: (1) Apabila nilai VIF > 10 dan nilai Tolerance < 0.1, maka data dapat dikatakan mengandung multikolinieritas; (2) Apabila nilai VIF < 10 dan nilai Tolerance > 0.1, maka data dapat dikatakan tidak mengandung multikolinieritas 6 Universitas Indonesia 2.2 Inferensi pada Model Regresi Sederhana Parameter a dan b pada model regresi sederhana adalah intersep garis regresi (๐ผ) dan koefisien kemiringan dari garis regresi (๐ฝ). Inferensi pada model regresi sederhana terbagi menjadi dua, yaitu inferensi tentang ๐ผ dan inferensi tentang ๐ฝ. 2.2.1 Inferensi atas parameter ๐ฝ Uji T digunakan untuk mendapatkan inferensi pada parameter ๐ฝ. Selang kepercayaan untuk ๐ฝ pada taraf kepercayaan (1-๐ผ). Dapat dilihat pada persamaan 5. ๐1 − ๐ก(๐ผ;๐−2) ๐ (๐1 ) ≤ ๐ฝ1 ≤ ๐1 + ๐ก(๐ผ;๐−2) ๐ (๐1 ) 2 5 2 Langkah pertama untuk inferensial dalam analisis regresi sederhana, harus diketahui hipotesis statistik terlebih dahulu. H0: ๐ฝ1 = 0 dimana tidak terdapat hubungan linier antara variabel X dengan variabel Y, sedangkan H1: ๐ฝ1 ≠ 0 dimana terdapat hubungan linier antara variabel X dengan variabel Y. Langkah selanjutnya adalah menentukan taraf uji (๐ผ) untuk menerima besarnya toleransi dalam menerima kesalahan hasil hipotesis terhadap nilai parameter populasi. Dalam hal ini taraf uji yang umum adalah 5%. Langkah ketiga adalah menghitung statistik uji dengan T hitung. Rumusnya dapat dilihat pada persamaan 6 dimana T berdistribusi dengan dof n-2. ๐= ๐ต−๐ฝ 6 ๐ /√๐๐ฅ๐ฅ Langkah selanjutnya menentukan critical value dengan menggunakan Tabel T, dan terakhir menentukan keputusan dapat menggunakan uji satu arah. 2.2.2 Inferensi atas parameter ๐ผ Sama dengan yang telah dibahas pada subbab sebelumnya, Uji T dapat dilakukan untuk mendapatkan inferensi atas parameter ๐ผ. Selang kepercayaan untuk ๐ผ pada taraf kepercayaan (1-๐ผ). Dapat dilihat pada persamaan 7. ๐1 − ๐ก(๐ผ;๐−2) ๐ (๐1 ) ≤ ๐ผ ≤ ๐1 + ๐ก(๐ผ;๐−2) ๐ (๐1 ) 2 7 2 7 Universitas Indonesia Selanjutnya untuk menghitung statistik uji dengan T hitung. Rumusnya dapat dilihat pada persamaan 8. dimana T berdistribusi dengan dof n-2. ๐ด−๐ผ ๐= 8 ๐ √∑๐๐=1 ๐ฅ๐2 /(๐๐๐ฅ๐ฅ ) 2.3 Pendekatan Analysis of Variance Dalam menganalisis kualitas dari garis estimasi regresi, dapat menggunakan ANOVA sebagai salah satu pendekatannya. ANOVA digunakan sebagai prosedur dimana variasi total dalam variabel dependen dibagi menjadi komponen-komponen yang memiliki makna sehingga dapat diamati dan diberikan perlakuan tertentu. Persamaan dasar dari analisa regresi pada prinsipnya sama dengan Analysis of Variance (ANOVA) : ๐๐๐ = ๐๐๐ ๐๐๐๐๐ ๐ ๐๐๐ + ๐๐๐ ๐๐ /๐ธ๐๐๐๐ 9 Dimana: ๐๐๐ = ๐๐ข๐ ๐๐ ๐๐๐ข๐๐๐ ๐๐๐ก๐๐ = ๐๐๐๐๐๐๐๐ ๐ = ∑ ๐ฆ๐2 = ∑(๐๐ − ๐ฬ )2 ๐๐๐ ๐๐๐ = ๐๐ข๐ ๐๐ ๐๐๐ข๐๐๐ ๐ ๐๐๐๐๐ ๐ = ๐๐๐๐๐๐๐๐ ๐ฬ = ∑ ๐ฆฬ๐2 = ∑(๐ฬ๐ − ๐)2 = ∑(๐๐ฅ)2 = ∑๐ 2 ๐ฅ 2 = ๐ 2 ∑๐ฅ 2 ∑๐ฅ๐ฆ ∑๐ฅ๐ฆ = ( 2 )( 2 )(∑๐ฅ 2 ) = ๐∑๐ฅ๐ฆ ∑๐ฅ ∑๐ฅ 2 ๐๐๐ ๐๐ = ๐๐ข๐ ๐๐ ๐๐๐ข๐๐๐ ๐ธ๐๐๐๐ = ๐๐๐๐๐๐๐๐ ๐ธ๐๐๐๐ = ∑(๐๐ − ๐ฬ๐ ) Bila semua ruas dibagi n, maka: ๐๐๐๐๐๐๐๐ ๐๐ = ๐๐๐๐ ๐๐๐๐๐ ๐ ๐๐๐ + ๐๐๐๐ ๐๐ /๐ธ๐๐๐๐ 10 Besar kecilnya variance Yi yang dijelaskan oleh Xi menimbulkan pertanyaan apakah proporsi yang dijelaskan tersebut cukup signifikan atau tidak. Untuk menjawab pertanyaan tersebut dilakukan pengujian F test, untuk membandingkan besarnya variance regresi terhadap variance residu. Akan tetapi, karena variance (regresi dan residu) adalah biased estimator dari parameter, maka sum of square dibagi dengan degree of freedom (disebut mean square) bukan dibagi dengan sample size = n. ๐น= ๐๐๐๐๐๐ ⁄๐๐๐ 1 ๐๐๐๐๐ ⁄๐๐๐ 2 11 Dimana: Dof 1 adalah dof yang berkaitan dengan SSregresi = k = banyaknya variabel independen. Dof 2 adalah dof yang berkaitan dengan SSresidu = n – k – 1. 8 Universitas Indonesia 2.4 Pendekatan untuk Data dengan Pola Nonlinier Pada beberapa pola nonlinier, analisis regresi linier masih dapat digunakan melalui transformasi data. Antara lain sebagai berikut 2.4.1 Transformasi Fungsi Eksponensial Gambar 1 Fungsi Eksponensial Tabel 1 Transformasi Fungsi Eksponensial Fungsi Penghubung Y dengan x ๐ = ๐ผ๐ ๐ฝ๐ฅ Transformasi yang sesuai ๐ฬ = ๐๐๐ฆ Bentuk regresi sederhana Regresikan ๐ฬ terhadap x 2.4.2 Transformasi Fungsi Power Gambar 2 Fungsi Power Tabel 2 Transformasi Fungsi Power Fungsi Penghubung Y dengan x ๐ = ๐ผ๐ฅ ๐ฝ Transformasi yang sesuai ๐ฬ = log ๐ฆ ; ๐ฅฬ = log ๐ฅ Bentuk regresi sederhana Regresikan ๐ฬ terhadap ๐ฅฬ 2.4.3 Transformasi Fungsi Resiprokal 9 Universitas Indonesia Gambar 3 Fungsi Resiprokal Tabel 3 Transformasi Fungsi Resiprokal Fungsi Penghubung Y dengan x 1 ๐ฆ = ๐ผ+๐ฝ( ) ๐ฅ Transformasi yang sesuai 1 ๐ฅฬ = ๐ฅ Bentuk regresi sederhana Regresikan y terhadap ๐ฅฬ 2.4.4 Transformasi Fungsi Hiperbola Gambar 4 Fungsi Hiperbola Tabel 4 Transformasi Fungsi Hiperbola Fungsi Penghubung Y dengan x ๐ฅ ๐ฆ= ๐ผ + ๐ฝ๐ฅ Transformasi yang sesuai 1 1 ๐ฆฬ = ; ๐ฅฬ = ๐ฆ ๐ฅ Bentuk regresi sederhana Regresikan ๐ฆฬ terhadap ๐ฅฬ 10 Universitas Indonesia BAB 3 TEORI DASAR: REGRESI LINEAR MAJEMUK 3.1 Pengertian dan Model Dasar Regresi linear majemuk merupakan teknik statistik yang digunakan untuk menganalisis hubungan antara sebuah variabel dependen (criterion) dengan beberapa variabel independen (predictor). Regresi linier majemuk merupakan generalisasi dari regresi linier sederhana yang memiliki model umum seperti ditunjukkan pada persamaan 12. Y ๏ฝ ๏ข o ๏ซ ๏ข1 X 1 ๏ซ ๏ข 2 X 2๏ซ... ๏ซ ๏ข k X k ๏ซ ๏ฅ 12 Dengan Y adalah variabel dependen atau criterion, X adalah variabel independent atau predictor, βo koefisien intercept, β1-βk adalah slope variabel dan ε adalah error atau residual. Model regresi pada persamaan 12 di atas dapat didekati dengan menggunakan data sampel sehingga didapatkan model estimasi seperti ditunjukkan pada persamaan 13: Yˆ ๏ฝ bo ๏ซ b1 X 1 ๏ซ X 2๏ซ... ๏ซ bk X k 13 Dengan Yˆ adalah estimator dari Y dan bo-bk merupakan estimator βo- βk 3.1.1 Estimasi Koefisien Sama seperti regresi sederhana, cara mendapatkan koefisien estimasi adalah dengan cara mendifrensiasikan Sum of Square Error (SSE) terhadap nilai bo, b1, b2 ,…bk sehingga didapat persamaan 14. ๏ฅY ๏ฝ b n ๏ซ b ๏ฅ X ๏ซ b ๏ฅ X ๏ฅX Y ๏ฝb ๏ฅX ๏ซb ๏ฅX ๏ซb ๏ฅX X ๏ฅX Y ๏ฝb ๏ฅX ๏ซb ๏ฅX X ๏ซb ๏ฅX ๏ฅ X Y ๏ฝ b ๏ฅ X ๏ซ b ๏ฅ X X ๏ซ ......... ๏ซ b ๏ฅ X 0 1 1 1 2 1 2 2 1 1 0 2 2 0 2 1 1 2 k 0 k 1 1 k 1 2 14 2 2 2 k 2 k Persamaan 14 diatas dapat dipakai untuk mendapatkan nilai koefisien bo-bk dengan metode penyelesaian persamaan linear atau perangkat lunak statistik secara umum 3.1.2 Model Regresi Linier Menggunakan Matriks Operasi matematika dengan menggunakan matriks juga dapat dipakai untuk membangun persamaan regresi yang mempunyai variabel dependen (observasi) dan independen lebih 11 Universitas Indonesia dari dua atau dengan kata lain untuk mencari nilai koefisien bo-bk. apabila melibatkan lebih dari dua variabel independen dan dependen. Persamaan regresi linear dapat diubah menjadi bentuk matriks, yaitu ๏ฆ Y1 ๏ถ ๏ฆ b0 ๏ถ ๏ฆ1 ๏ง ๏ท ๏ง ๏ท ๏ง ๏ง Y2 ๏ท ๏ง b1 ๏ท ๏ง1 ๏ง ๏ท ๏ง ๏ท Y ๏ฝ Y3 , B ๏ฝ b 2 , X ๏ฝ ๏ง1 ๏ง ๏ท ๏ง ๏ท ๏ง ๏ง ๏ ๏ท ๏ง ๏ ๏ท ๏ง๏ ๏งY ๏ท ๏งb ๏ท ๏ง1 ๏จ n๏ธ ๏จ k๏ธ ๏จ X 11 X 12 X13 ๏ X 1n ๏ X k1 ๏ถ ๏ท ๏ X k2 ๏ท ๏ X k3 ๏ท ๏ท ๏ ๏ ๏ท ๏ X kn ๏ท๏ธ Maka persamaan Yˆ ๏ฝ b0 X 0 ๏ซ b1 X 1 ๏ซ b2 X 2๏ซ... ๏ซ bk X k dalam notasi matriks seperti ditunjukkan pada persamaan 15: ˆ ๏ฝ XB Y ˆ ๏ฝ Y ๏ญ XB E๏ฝ Y๏ญY 15 Dengan : S.S. Residu (error ) ๏ฝ ๏ฅ e 2 ๏ฝ E T E ๏ฝ ๏จY ๏ญ XB ๏ฉ ๏จY ๏ญ XB ๏ฉ T ๏ฝ Y T Y ๏ญ 2B T X T Y ๏ซ B T X T XB Least square solution bisa didapat dengan cara mendiferensiasi persamaan residu – terhadap B untuk meminimalkan nilainya seperti ditunjukkan pada persamaan 16. ๏ฎ atau ๏ถf ๏ฝ0 ๏ฎ ๏ถB ๏จ ๏ถ Y T Y ๏ญ 2B T X T Y ๏ซ B T X T XB ๏ถB ๏ฉ 16 ๏ญ 2X T Y ๏ซ 2X T XB ๏ฝ 0 X T Y ๏ฝ X T XB Dengan memindahkan persamaan di atas, maka matriks koefisien B bisa didapatkan seperti ditunjukkan pada persamaan 17. B ๏ฝ (XT X) ๏ญ1 XT Y 3.1.3 17 Estimator Least Squares dan Uji Asumsi Seperti yang telah dijelaskan pada bagian sebelumnya bahwa bo-bk merupakan estimator dari koefisien βo-βk (koefisien garis regresi populasi) yang tidak bias apabila nilai 12 Universitas Indonesia ekspektasi atau nilai mean dari error ( ๏ฅ ) sama dengan 0 dan mempunyai nilai variance σ2 (Walpole, Myers, Myers, & Ye, 2016). Estimator dari nilai varian sangat penting untuk melakukan uji asumsi. Estimator dari varians error s2 dapat ditentukan dari persamaan 18 berikut: ๐ ๐๐๐ธ ๐ 2 = , ๐−๐−1 ๐ ๐๐๐ธ = ∑ ๐๐2 = ∑(๐ฆ๐ − ๐ฆฬ)2 ๐=1 18 ๐=1 Untuk melakukan uji hipotesis bahwa variabel X memang mempunyai pengaruh terhadap variabel Y dengan kata lain β1-βk ≠ 0, analisis varian dilakukan dengan F-test statistik seperti yang ditunjukkan pada ะัะธะฑะบะฐ! ะััะพัะฝะธะบ ัััะปะบะธ ะฝะต ะฝะฐะนะดะตะฝ.. Tabel 5 Analisis varian F-test Sumber Sum of Squares Derajat Kebebasan Regresi SSR ๐ Error SSE Total SST Mean Squares ๐๐๐ ๐ ๐๐๐ธ ๐๐๐ธ = ๐ − (๐ + 1) F ๐๐๐ = ๐ − (๐ + 1) ๐= ๐๐๐ ๐๐๐ธ n-1 Sumber : (Walpole, Myers, Myers, & Ye, 2016) Uji hipotesis dilakukan dengan Ho : β1-βk = 0, apabila Ho ditolak berarti regresi yang dilakukan tidak bernilai konstan yang berarti variabel X memang berpengaruh terhadap nilai Y. Tabel diatas dapat ditulis ulang dalam bentuk matriks seperti pada Tabel 6. Tabel 6 Analisis varian bentuk matriks Sum of Squares Derajat Kebebasan ∑(๐ฆฬ๐ − ๐ฆฬ )2 = ๐ฆ ′ [ ๐(๐ ′ ๐)−1 ๐ ′ − 1(1′ 1)−1 1]๐ฆ ๐ Sumber ๐ Regresi ๐=1 Error ๐ 2 ∑(๐ฆ๐ − ๐ฆฬ) = ๐ฆ ′ [๐ผ๐ − (๐ ′ ๐)−1 ๐ ′ ]๐ฆ ๐ ๐ − (๐ + 1) ๐=1 ๐ Total ∑(๐ฆ๐ − ๐ฆฬ )2 = ๐ฆ ′ [๐ผ๐ − (1′ 1)−1 1′ ]๐ฆ n-1 ๐=1 Sumber: (Walpole, Myers, Myers, & Ye, 2016) 3.2 Langkah-langkah dalam Analisis Regresi Linier Majemuk Langkah proses dalam analisis regresi linier majemuk terdiri dari enam tahap yang tahapannya dapat dilihat pada Gambar 5 sampai Gambar 7. 13 Universitas Indonesia Gambar 5 Analisis Regresi Tahap 1 dan Tahap 2 Sumber : (Hair, Black, Babin, & Anderson, 2010) Gambar 6 Analisis Regresi Tahap 3 dan Tahap 4 Sumber : (Hair, Black, Babin, & Anderson, 2010) 14 Universitas Indonesia Gambar 7 Analisis Regresi Tahap 5 dan Tahap 6 Sumber : (Hair, Black, Babin, & Anderson, 2010) 3.3 Inferensi pada Model Regresi Linear Majemuk Dari bagian sebelumnya dapat diketahui bahwa koefisien estimator bi mempunyai nilai ekspektasi atau rata-rata yang bernilai sama dengan koefisien persamaan regresi dari suatu populasi yaitu βi. Karena βi mempunyai distribusi normal dengan varian cjjσ2, maka uji hipotesis dapat dilakukan terhadap βi dengan nilai estimator bi menggunakan t-test ๐ก= ๐๐ − ๐ฝ๐๐ ๐ √๐๐๐ 19 Dengan Ho: ๐ฝ๐ = ๐ฝ๐๐ H1: ๐ฝ๐ ≠ ๐ฝ๐๐ Analisis inferensi juga dapat dilakukan untuk mencari interval dari nilai rata-rata populasi variabel Y yang sebenarnya dengan menggunakan nilai estimator dari ๐ฬ pada nilai X tertentu dengan tingkat keyakinan α. Interval dari rata-rata populasi variabel Y dapat dihitung dengan persamaan 20 berikut ๐ฆฬ๐ − ๐ก๐ผ⁄2 ๐ √๐ฅ0๐ (๐ ๐ป ๐)−1 ๐ฅ0 < ๐๐|๐ฅ10,๐ฅ20…๐ฅ๐0 < ๐ฆฬ๐ + ๐ก๐ผ⁄2 ๐ √๐ฅ0๐ (๐ ๐ป ๐)−1 ๐ฅ0 20 15 Universitas Indonesia Interval dari satu nilai variabel Y juga dapat dihitung dengan persamaan berikut 3.4 Analisis kecocokan model regresi Kriteria umum yang sering digunakan untuk melihat seberapa besar kecocokan sebuah model regresi adalah koefisien determinasi atau yang sering disebut R2. Koefisien determinasi sebenarnya adalah pengaruh variabel independen terhadap variabel dependen yang diukur dari besarnya varian variabel dependen yang disebabkan oleh variabel independen atau varian yang dibagi bersama (covariance) antara variabel dependen dan independen. Koefisien determinasi dapat dicari dengan persamaan berikut R2 ๏ฝ SS regresi b ๏ฅ xy ๏ฅ(Yˆ ๏ญ Y ) 2 ๏ฝ ๏ฝ SS total ๏ฅ y2 ๏ฅ(Y ๏ญ Y ) 2 21 Apabila disebutkan bahwa R2 suatu model regresi = 91% maka dapat disimpulkan bahwa 91% varian dari variabel dependen dipengaruhi oleh varian dari variabel independent. Nilai R2 akan turun ketika jumlah variabel X berkurang sehingga tidak bisa dijadikan acuan apabila model regresi yang didapatkan ternyata mengalami overfit atau adanya variabel yang tidak signifikan pengaruhnya dan harus mengurangi jumlah variabel X. Untuk mengatasi hal tersebut persamaan R2 dimodifikasi menjadi persamaan R2adj. SSE (n ๏ญ k ๏ญ 1) 22 SST (n ๏ญ 1) R2adj hanya mengukur R2 dengan variabel bebas yang signifikan saja. Oleh karena itu, nilai Radj ๏ฝ 1 ๏ญ 2 R2adj pasti lebih rendah dari R-Square, kecuali variabel bebasnya cuma ada satu maka nilai R2adj = R2. 3.5 Penggunaan Variabel Kategorikal Dalam beberapa kasus, pembentukan model regresi linear majemuk terdapat variabel independen yang mempunyai skala kategorikal yang diubah menjadi dummy variabel. Contoh persoalan dari skala kategorikal yaitu, suatu regresi linear yang memodelkan hasil dari proses kimia. Model regresi linear tersebut dapat dilihat pada persamaan di bawah: Y ๏ฝ ๏ข o ๏ซ ๏ข1 X 1 ๏ซ ๏ข 2 X 2๏ซ ๏ข 3 Z i ๏ซ ๏ฅ 23 Y adalah hasil dari proses kimia, X1 = temperatur, X2 = waktu reaksi dan Zi = penggunaan katalisator dimana Z = 0 untuk penggunaan katalis 1 dan Z=1 untuk penggunaan katalis 2. 16 Universitas Indonesia Anggap ada dua variabel yang menjadi dummy variabel yaitu Z1 dan Z2 yang mempunyai 3 kategori. ๐1 ๐2 1 0 [0 1 ] 0 0 Apabila hanya ada satu buah variabel X, ketiga kategori diatas apabila dimasukkan kedala persamaan regresi akan membentuk garis regresi seperti pada Gambar 8 Garis regresi variabel kategorikal Sumber : (Walpole, Myers, Myers, & Ye, 2016) 3.6 Pemodelan Interaksi/Moderasi Analisis regresi digunakan untuk menyelidiki hubungan antar variabel. Dalam beberapa kasus sering ditemukan adanya hubungan berbeda dalam sub-kelompok populasi yang berbeda, atau selama keadaan yang berbeda. Contohnya adalah efek menjadi orang tua yang berbeda antara perempuan dan laki-laki Sundell, (2021). Salah satu caranya untuk menganalisis perbedaan diatas adalah dengan menjalankan dua analisis terpisah, satu untuk setiap kelompok yang diamati (dalam hal ini wanita dan pria) dan kemudian mendapatkan efek menjadi orang tua di antara pria, dan di antara wanita. Analisis ini juga bisa dilakukan dalam satu analisis regresi tunggal. Dari analisis ini juga dapat diketahui seberapa besar perbedaan efek antar kelompok, dan juga apakah perbedaan efek tersebut signifikan secara statistik. Analisis ini disebut analisis interaksi atau bisa disebut analisis moderasi. Analisis ini sering secara grafis diwakili oleh diagram dengan panah yang menunjuk ke panah lain seperti yang dapat dilihat pada Gambar 9. 17 Universitas Indonesia Gambar 9 Hubungan antar variabel pada model interaksi Sumber : (Sundell, 2021) Pemodelan interaksi dapat dibentuk dengan persamaan berikut Y ๏ฝ ๏ข o ๏ซ ๏ข1 X 1 ๏ซ ๏ข 2 X 2๏ซ ๏ข3 X 1 X 2 ๏ซ ๏ฅ Dengan X1X2 sebagai variabel interaksi 24 3.7 Identifikasi Observasi Influential Observasi influential adalah sebuah observasi yang apabila terdapat penghapusan akan mempengaruhi hasil perhitungan sebuah regresi. Ada tiga jenis observasi yaitu: ๏ท Pencilan: observasi yang memiliki nilai residual yang besar dan hanya dapat diidentifikasi dengan model regresi yang spesifik. ๏ท Leverage point: observasi yang berbeda dengan observasi yang lain berdasarkan nilai variabel indenpendennya ๏ท Observasi influential: tipe ini adalah yang paling umum yang mencakup semua observasi yang mempunyai efek yang tidak proporsional terhadap keseluruhan regresi. Ada tiga jenis dampak dari observasi influential yaitu, reinforcing, shifting dan conflicting. Dampak dari observasi influential dapat dilihat pada Gambar 10. Reinforcing terjadi apabila sebuah titik influential malah memperkecil kesalahan dari sebuah regresi. Shifting terjadi apabila sebuah titik influential dapat mengubah intersep sebuah garis tanpa mengubah kemiringannya. Conflicting terjadi apabila titik influential dapat mengubah intersep dan kemiringannya. 18 Universitas Indonesia Gambar 10 Dampak dari observasi influential Ada empat langkah dalam mengidentifikasi pencilan, leverage point dan influential. Langkah pertama adalah memeriksa residual dan plot regresi parsial. Ada lima jenis residual yaitu, normal residual, deleted residual, standardized residual, studentized residual dan studentized deleted residual. Plot regresi parsial dibuat dengan cara memplot nilai masingmasing dari variabel independen terhadap variabel dependen. Langkah kedua adalah mengidentifikasi leverage. Ada dua metode untuk mengidentifikasi leverage, yaitu hat matriks dan Mahalanobis distance. Hat matriks mempunyai persamaan Yˆ ๏ฝ HY 25 Nilai hat value dianggap besar jika > 2p/n (p jumlah variabel independen dan n jumlah observasi) untuk sampel besar dan > 3p/n untuk sampel kecil. Observasi Influetial dapat diidentifikasi jika jarak Mahalanobis terbesar dua atau tiga kali dari jarak Mahalanobis terbesar kedua (dan seterusnya). 19 Universitas Indonesia Langkah ketiga adalah memeriksa dampak dari satu nilai observasi terhadap hasil regresi secara keseluruhan. Ada dua metode umum yang dipakai untuk memeriksa dampak observasi yaitu pemeriksaan pengaruh penghapusan nilai observasi pada masing-masing koefisien regresi dengan memakai nilai DFBETA dan SDFBETA. Pedoman untuk mengidentifikasi nilai tinggi SDFBETA adalah: ๏ท ± 1 atau ± 2 untuk ukuran sampel kecil ๏ท ± 2√n untuk ukuran sampel sedang dan besar Metode kedua adalah dengan pemeriksaan dampak keseluruhan penghapusan nilai observasi terhadap regresi dengan memakai nilai Cook’s distance, COVRATIO dan SDFIT. Langkah keempat adalah memilih observasi influential. Dengan menggunakan nilai ambang untuk studentized residual (±1,96) dan leverage, observasi influential dapat ditempatkan di salah satu dari empat kategori: 1. No issue. Ini adalah observasi yang cocok dengan model (residual yang dapat diterima) dan juga tidak menunjukkan adanya nilai ekstrim pada variabel independen (leverage yang dapat diterima). 2. Leverage tinggi, tetapi bukan pencilan. Pengamatan ini memiliki nilai tinggi atau ekstrim pada satu atau lebih independen variabel, tetapi masih diprediksi dalam batas yang dapat diterima oleh model regresi. 3. Pencilan, tetapi leverage dapat diterima. Observasi yang pencilan, tetapi bukan karena beberapa nilai ekstrim pada variabel independent. 4. Pencilan dan leverage yang tinggi. Observasi terakhir ini memiliki nilai yang sangat berbeda pada independent variabel, dan tidak dapat diprediksi dengan baik oleh model. 20 Universitas Indonesia BAB 4 PENGOLAHAN DATA: PERHITUNGAN DAN REMEDY BAGI PELANGGARAN ASUMSI 4.1 Pengambilan Data Sekunder Berdasarkan data dari perusahaan HATCO (pemasok industri besar) terlampir, menunjukkan hasil survei pelanggan HATCO yang dikumpulkan melalui perusahaan riset pemasaran yang mapan. Data terdiri dari 100 hasil observasi sebagai contoh studi segmentasi untuk businessto-business (B2B). Informasi dari hasil survei yang didapat adalah persepsi HATCO pada tujuh atribut yang paling berpengaruh pada pemilihan pemasok yang sudah diidentifikasi pada studi sebelumnya. Responden, manajer pembelian perusahaan yang membeli dari HATCO, menilai HATCO pada setiap atribut. Data yang diberikan harus memberikan HATCO pemahaman yang lebih baik tentang karakteristik pelanggannya dan hubungan antara persepsi mereka tentang HATCO dan tindakan mereka terhadap HATCO (tingkat kepuasan). Dari pengambilan data ini, maka akan masuk kepada pengolahan data regresi linier majemuk dan jika terdapat pelanggaran asumsi, maka akan dilakukan remedy. Pada pengolahan data ini didapatkan model akhir yang telah melalui proses remedy, dengan hasil perbandingan yang ditunjukkan pada Tabel 22. Definisi masing-masing variabel dan penjelasan pengkodeannya diberikan di bagian berikut. 4.2 Pengolahan Data Regresi Linier Majemuk 4.2.1 Model Umum Apabila diukur pada skala peringkat grafis, di mana garis 10 cm digambarkan antara dua titik, diberi label "buruk" dan "sangat baik". Variabel Independen yang digunakan antara lain: 1. X1: Delivery speed: jumlah waktu yang diperlukan untuk mengirimkan produk setelah pesanan dikonfirmasi 2. X2: Price Level: tingkat harga yang dirasakan yang dibebankan oleh pemasok produk 3. X3: Price Flexibility: persepsi kesediaan perwakilan HATCO untuk menegosiasikan harga pada semua jenis pembelian 4. X4: Manufacturer's image: gambaran keseluruhan dari pabrikan/pemasok 21 Universitas Indonesia 5. X5: Service: tingkat keseluruhan layanan yang diperlukan untuk memelihara hubungan yang memuaskan antara pemasok dan pembeli 6. X6: Salesforce’s image: gambaran keseluruhan dari tenaga penjualan pabrikan 7. X7: Product Quality: tingkat kualitas yang dirasakan dari produk tertentu (seperti performa atau hasil) Variabel Dependen (keluaran): X10: Satisfaction Level: seberapa puas pembeli dengan pembelian sebelumnya dari HATCO, diukur pada skala penilaian grafis yang sama dengan persepsi X1 hingga X7 Estimasi Parameter dengan Metode Ordinary Least Square (OLS) Estimasi parameter regresi berganda dengan metode OLS merupakan langkah awal untuk melihat hubungan antara variabel independent dan variabel dependen. Bentuk umum persamaan regresi berganda dengan metode OLS adalah ๐๐ = ๐ฝ๐ + ๐ฝ1 ๐110 + ๐ฝ2 ๐210 + ๐ฝ3 ๐310 + ๐ฝ4 ๐410 + ๐ฝ5 ๐510 + ๐ฝ6 ๐610 + ๐ฝ7 ๐710 + ๐ 26 4.2.2 Pengujian Asumsi Langkah Pertama: Pengujian Model Menentukan H0 dan H1 dengan ๏ก = 0,05 H0 : ๏ข1 = ๏ข2 = ๏ข3 = ๏ข4 = ๏ข5 = ๏ข6 = ๏ข7 = 0 H1 : ๏ข1 ≠ ๏ข2 ≠ ๏ข3 ≠ ๏ข4 ≠ ๏ข5 ≠ ๏ข6 ≠ ๏ข7 ≠ 0 Dari hasil prosedur analisis melalui SPSS, didapatkan hasil model prediksi sebagai berikut: a. R-square Tabel 7 Hasil Perhitungan R Square Model 1 Model R R Square 1 0.895 0.801 Model regresi diatas memiliki R-Square bernilai 0,801 yang menunjukkan 80,1 % variasi pada nilai Y (Satisfaction Level) yang dapat dijelaskan oleh variabel prediktor X (Delivery Speed, Price Level, Price Flexibility, Manufacturer Image, Service, Salesforce Image, Product Quality). 22 Universitas Indonesia b. ANOVA Model regresi memiliki nilai P-value kurang dari 0,05. Nilai P-value yang kurang dari nilai ๏ก berarti H0 ditolak. Sehingga dapat disimpulkan bahwa variabel prediktor memiliki hubungan linear signifikan terhadap variabel dependen Tabel 8 Hasil ANOVA Model 1 c. Pengujian Normalitas dari Residu Berdasarkan pemeriksaan secara visual seperti ditunjukkan pada Gambar 11, plot residu mendekati dari bentuk plot nihil (null plot). Dengan demikian, asumsi bahwa normalitas dari residu mungkin terpenuhi. Namun untuk mendapatkan jawaban lebih meyakinkan lagi, dapat juga dilakukan plot probabilitas normal (normal probability plot) seperti ditunjukkan pada Gambar 11, metode pemeriksaan secara visual ini menunjukkan bahwa distribusi mendekati normal namun sedikit menyimpang. Oleh karena itu, untuk memastikan secara statistik, maka dilakukan uji Kolmogorov-Smirnov seperti ditunjukkan pada Tabel 9 Uji kolmogorov-smirnov. Gambar 11 Plot Residu Gambar 12 Histogram 23 Universitas Indonesia Tabel 9 Uji kolmogorov-smirnov Dari pengujian stastik uji Kolmogorov-Smirnov menunjukkan nilai significance value 0,142 > 0,05 sehingga H0 diterima pada tingkat signifikansi 5% yaitu plot residual berdistribusi normal. d. Pengujian Asumsi Linieritas Plot regresi parsial (partial regression plot) antara variabel dependen (dalam hal ini satisfaction level) dengan tiap variabel independen ditunjukkan dalam Tabel 10. Terlihat bahwa variabel Price Flexibility dan Manufacturer Image memiliki hubungan linier yang lebih kuat dibandingkan dengan yang lain. Tabel 10 Plot Regresi Parsial 24 Universitas Indonesia Seperti ditunjukkan pada Tabel 11, pemeriksaan terhadap korelasi antara variabel dependen (satisfaction level) dengan tiap variabel independen menunjukkan bahwa korelasinya signifikan pada tingkat 5% kecuali untuk korelasi antara satisfaction level dengan Price Level. Dengan demikian, asumsi linieritas antara satisfaction level dan variabel-variabel independen adalah terpenuhi kecuali dengan variabel Price Level. Untuk itu kemudian diperlukan untuk dilakukan perbaikan (remedy) yaitu dengan transformasi data terhadap Price Level ini. Jika dilihat dari partial regression plot maka meyerupai bentuk seperti parabola y = x2, maka diinput variabel baru dalam yaitu Square Price Level (yang merupakan hasil transformasi dari variabel Price Level) dan dilanjutkan ke langkah kedua yaitu membuat model baru dengan transformasi pada Price Level. Tabel 11 Korelasi Satisfaction Level dan Variabel Independen 25 Universitas Indonesia Langkah Kedua: Hasil Remedy Perbaikan Asumsi Linieritas ๐๐ = ๐ฝ๐ + ๐ฝ1 ๐110 + ๐ท๐ ๐ฟ๐๐๐ ๐ + ๐ฝ3 ๐310 + ๐ฝ4 ๐410 + ๐ฝ5 ๐510 + ๐ฝ6 ๐610 + ๐ฝ7 ๐710 + ๐ Menentukan H0 dan H1 dengan ๏ก = 0,05 H0 : ๏ข1 = ๏ข2 = ๏ข3 = ๏ข4 = ๏ข5 = ๏ข6 = ๏ข7 = 0 H1 : ๏ข1 ≠ ๏ข2 ≠ ๏ข3 ≠ ๏ข4 ≠ ๏ข5 ≠ ๏ข6 ≠ ๏ข7 ≠ 0 Dari hasil prosedur analisis melalui SPSS, maka didapatkan hasil model prediksi sebagai berikut: a. R-square Tabel 12 Hasil Perhitungan R Square Model 2 Model pada langkah kedua diatas memiliki R-Square bernilai 0,804 yang menunjukkan 80,4 % variasi pada nilai Y (Satisfaction Level) yang dapat dijelaskan oleh variabel prediktor X (Delivery Speed, Square Price Level, Price Flexibility, Manufacturer Image, Service, Salesforce Image, Product Quality). Dan hasil yang didapat dari model ini lebih baik daripada model pada langkah pertama b. ANOVA Model regresi memiliki nilai P-value kurang dari 0,05. Nilai P-value yang kurang dari nilai ๏ก berarti H0 ditolak. Sehingga dapat disimpulkan bahwa variabel prediktor memiliki hubungan linear signifikan terhadap variabel dependen 26 Universitas Indonesia Tabel 13 Hasil ANOVA Model 2 c. Pengujian Asumsi Model 2 Kemudian untuk uji normalitas residu, dan linearitas antara variabel-variabel independen dengan dependen tidak perlu dilakukan lagi karena transformasi variabel Price Level tidak merubah variabel lain dan uji asumsi yang telah dilakukan. Kemudian dilakukan uji homoskedastisitas (pengujian terhadap kekonstanan variansi dari residu). Hasil plot residu dari model regresi Satisfaction Level diperoleh dalam Gambar 13. Berdasarkan pemeriksaan plot residu, plot nihil (null plot) tidak dapat diidentifikasi, bentuk sudah jelas memiliki pola yaitu linier. Dengan demikian, asumsi bahwa homoskedastisitas (variansi yang konstan dari residu) mungkin terlanggar. Gambar 13 Plot Residual Variabel Dependen Untuk itu kemudian diperlukan untuk dilakukan perbaikan (remedy) yaitu dengan melakukan metode regresi menggunakan Weighted Least square (WLS). 27 Universitas Indonesia Langkah Ketiga: Hasil Remedy Perbaikan Asumsi Homoskedastisitas Salah satu langkah untuk mengatasi heteroskedastisitas adalah dengan pembobotan. Pada kondisi heteroskedastisitas, agar ๐ฃ๐๐(๐๐ ) = ๐ 2 , maka dilakukan pembobotan/transformasi (๐ค๐ ) pada setiap ๐๐ ; ๐ = 1,2, … . ๐ dengan n berjumlah 100 sesuai data terlampir. Oleh karena itu, didapatkan model regresi linear yang diberikan penimbang menjadi model regresi terboboti: ๐−1 ๐๐ = ๐ฝ๐ + ๐−1 ๐ฝ1 ๐110 + ๐ −1 ๐ท๐ ๐ฟ๐๐๐ ๐ + ๐−1 ๐ฝ3 ๐310 + ๐−1 ๐ฝ4 ๐410 + ๐ −1 ๐ฝ5 ๐510 + ๐−1 ๐ฝ6 ๐610 + ๐−1 ๐ฝ7 ๐710 + ๐ −1 ๐ Menentukan H0 dan H1 dengan ๏ก = 0,05 H0 : ๏ข1 = ๏ข2 = ๏ข3 = ๏ข4 = ๏ข5 = ๏ข6 = ๏ข7 = 0 H1 : ๏ข1 ≠ ๏ข2 ≠ ๏ข3 ≠ ๏ข4 ≠ ๏ข5 ≠ ๏ข6 ≠ ๏ข7 ≠ 0 Dengan ๐−1 merupakan matriks pembobot yang berisikan ๐ค๐ . Dalam praktiknya, untuk mendapatkan ๐−1 maka dapat dilakukan regresi biasa OLS terlebih dahulu. Dengan fungsi regresi yang sesuai, residual kuadrat ke-i dari OLS merupakan estimasi ke-i dari residual absolut. Kemudian digunakan varians atau fungsi standar deviasi untuk memperkirakan bobot. Untuk melakukan ini, karena plot residual terhadap prediktor menghasilkan bentuk megaphone seperti ditunjukkan pada Gambar 14, maka nilai absolut dari residual ini diregresikan dengan prediktor. Hasil nilai fitted dari regresi ini untuk mengesetimasi ๐๐ , kemudian ๐ค๐ =1/๐๐ ๐ . Didapatkan hasil nilai pembobotan terlampir. 28 Universitas Indonesia Gambar 14 Plot Residual Model terhadap Residual Prediktor Dari hasil prosedur analisis melalui SPSS, maka didapatkan hasil model prediksi sebagai berikut: a. R-square Tabel 14 Hasil Perhitungan R Square Model 3 Model pada langkah ketiga diatas memiliki R-Square bernilai 0,891 yang menunjukkan 89,1 % variasi pada nilai Y (Satisfaction Level) yang dapat dijelaskan oleh variabel prediktor X (Delivery Speed, Square Price Level, Price Flexibility, Manufacturer Image, Service, Salesforce Image, Product Quality). Dan hasil yang didapat dari model ini lebih baik daripada model pada langkah pertama maupun kedua. b. ANOVA Model regresi memiliki nilai P-value kurang dari 0,05. Nilai P-value yang kurang dari nilai ๏ก berarti H0 ditolak. Sehingga dapat disimpulkan bahwa variabel prediktor memiliki hubungan linear signifikan terhadap variabel dependen 29 Universitas Indonesia Tabel 15 Hasil ANOVA Model 3 c. Pengujian Asumsi Model 3 Kemudian untuk uji normalitas residu dan linearitas antara variabel-variabel independen dengan dependen tidak perlu dilakukan lagi karena remedy ini tidak merubah model linearitas. Untuk menguji asumsi multikolinearitas, terlebih dahulu dilakukan pengecekan variabel prediktor. Tabel 16 Variabel Prediktor Model 3 Dari Tabel 16, dapat dilihat bahwa tidak semua variabel prediktor signifikan terhadap variabel dependant. Variabel yang tidak signifikan dapat dilihat dari nilai P-value yang lebih nilai ๏ก yang kami pilih yakni 0,05. Nilai P-value yang lebih besar dari ๏ก berarti kita menerima Ho sehingga dapat disimpulkan bahwa variabel service dan product quality tidak signifikan menjelaskan satisfaction level. Variabel signifikan dapat dilihat dari nilai P-value yang kurang dari ๏ก sehingga kita menolak Ho. Dapat disimpulkan variabel delivery speed, square price level, price flexibility, manufacturer image, dan salesforce image signifikan menjelaskan satisfaction level. d. Pengujian Asumsi Non-Multikolinearitas 30 Universitas Indonesia Tabel 17 Hasil Uji Multikolinieritas Model 3 Pada Tabel 17 terdapat nilai VIF pada variabel independen yang bernilai lebih besar dari 10. Nilai VIF adalah derajat dimana setiap variabel independen menjelaskan sebuah variabel dependen yang sudah di regresi dengan variabel independen lainnya. Hal ini menunjukkan bahwa variabel independen tersebut memiliki multikolinearitas. Variabel yang memiliki nilai VIF lebih dari 10 menunjukkan bahwa variabel independen tersebut memiliki potensi untuk berkorelasi dengan variabel independen lain. Kemudian dilakukan Perbaikan (Remedy) yaitu dengan mengeluarkan variabel X5 (Service). Hal ini disebabkan karena variabel squarepricelvel (X2) signifikan saat dilakukan regresi untuk nilai Satisfaction Level (x10), namun signifikansi x2 terhadap variabel x10 merupakan efek dari multikolinearitas, sehingga kemungkinan sudah dijelaskan oleh variabel lain (secara definisi mungkin dapat dikaitkan juga dengan price flexibility) Langkah Keempat: Hasil Remedy Perbaikan Asumsi Non Multikolinearitas Setelah variabel price level dibuang maka didapatkan model regresi linear baru yang juga diberikan penimbang menjadi model regresi terboboti: ๐−1 ๐๐ = ๐ฝ๐ + ๐ −1 ๐ฝ1 ๐110 + ๐−1 ๐ฝ3 ๐310 + ๐−1 ๐ฝ4 ๐410 + ๐−1 ๐ฝ5 ๐510 + ๐−1 ๐ฝ6 ๐610 + ๐−1 ๐ฝ7 ๐710 + ๐−1 ๐ Menentukan H0 dan H1 dengan ๏ก = 0,05 H0 : ๏ข1 = ๏ข2 = ๏ข3 = ๏ข4 = ๏ข5 = ๏ข6 = ๏ข7 = 0 31 Universitas Indonesia H1 : ๏ข1 ≠ ๏ข2 ≠ ๏ข3 ≠ ๏ข4 ≠ ๏ข5 ≠ ๏ข6 ≠ ๏ข7 ≠ 0 Dengan ๐−1 merupakan matriks pembobot yang berisikan ๐ค๐ . Digunakan varians atau fungsi standar deviasi untuk memperkirakan bobot. Untuk melakukan ini, karena plot residual terhadap prediktor menghasilkan bentuk megaphone seperti ditunjukkan pada Gambar 14, maka nilai absolut dari residual ini diregresikan dengan prediktor. Hasil nilai fitted dari regresi ini untuk mengesetimasi ๐๐ , kemudian ๐ค๐ =1/๐๐ ๐ . Didapatkan hasil nilai pembobotan terlampir. Gambar 15 Plot Residual Model terhadap Residual Prediktor Model 4 Dari hasil prosedur analisis melalui SPSS, maka didapatkan hasil model prediksi sebagai berikut: a. R-square Tabel 18 Hasil Perhitungan R Square Model 4 32 Universitas Indonesia Model pada langkah keempat diatas memiliki R-Square bernilai 0,874 yang menunjukkan 87,4 % variasi pada nilai Y (Satisfaction Level) yang dapat dijelaskan oleh variabel prediktor X (Delivery Speed, Price Flexibility, Manufacturer Image, Service, Salesforce Image, Product Quality). Dan hasil yang didapat dari model ini masih lebih baik daripada model pada langkah pertama maupun kedua. Walaupun karena terdapat variansi yang disebabkan oleh multikolinearitas dihilangkan, kemudian menurunkan nilai R square dari model 3, hal ini masih tergolong wajar karena perubahan nilai hanya berbeda tipis. b. ANOVA Model regresi memiliki nilai P-value kurang dari 0,05. Nilai P-value yang kurang dari nilai ๏ก berarti H0 ditolak. Sehingga dapat disimpulkan bahwa variabel prediktor memiliki hubungan linear signifikan terhadap variabel dependen Tabel 19 Hasil ANOVA Model 4 c. Pengujian Asumsi Model 4 Kemudian untuk uji normalitas residu dan linearitas antara variabel-variabel independen dengan dependen tidak perlu dilakukan lagi karena remedy ini tidak merubah model linearitas. Untuk menguji asumsi multikolinearitas, terlebih dahulu dilakukan pengecekan variabel prediktor. 33 Universitas Indonesia Tabel 20 Variabel Prediktor Model 4 Dari Tabel 16, dapat dilihat bahwa tidak semua variabel prediktor signifikan terhadap variabel dependant. Tersisa variabel product quality yang tidak signifikan menjelaskan satisfaction level. Dapat disimpulkan variabel delivery speed, price flexibility, manufacturer image, dan salesforce image signifikan menjelaskan satisfaction level. d. Pengujian Asumsi Multikolinearitas Tabel 21 Hasil Uji Multikolinieritas Model 4 Pada Tabel 21 Hasil Uji Multikolinieritas Model 4, tidak terdapat nilai VIF pada variabel independen yang bernilai lebih besar dari 10. Sehingga dapat disimpulkan bahwa asumsi tidak terdapat multikolinearitas terpenuhi. 34 Universitas Indonesia 4.2.3 Analisis Hasil Pengujian Asumsi Setelah melakukan pengujian terhadap model 1, didapatkan bahwa model mengandung pelanggaran asumsi linearitas yang kemudian diperbaiki pada model 2. Dari hasil remedy, didapatkan model baru dengan pembanding dari nilai R-Square, didapatkan RSquare yang meningkat, atau dapat disimpulkan bahwa remedy menghasilkan model yang lebih baik. Namun pada model 2, didapatkan bahwa terdapat pelanggaran asumsi homoskedastisitas, yang kemudian diperbaiki pada model 3. Dari hasil remedy, didapatkan model baru dengan pembanding dari nilai R-Square, didapatkan R-Square yang meningkat, atau dapat disimpulkan bahwa remedy menghasilkan model yang lebih baik. Namun ternyata pada model 3, didapatkan bahwa masih terdapat pelanggaran asumsi non multikolinearitas, yang kemudian diperbaiki pada model 4 dimana kami mendapatkan hasil R-Square yang lebih rendah seperti ditunjukkan pada Tabel 22. Hal ini dapat disebabkan karena terdapat variansi oleh multikolinearitas yang dihilangkan, kemudian menurunkan nilai R square dari model 3, hal ini masih tergolong wajar karena perubahan nilai hanya berbeda tipis. Tabel 22 Perbandingan Model Regresi Awal dengan Hasil Remedy Model R R Square Model Langkah 1 0.895 0.801 Model Langkah 2 (Remedy Asumsi Nonlinearitas) 0.897 0.804 Model Langkah 3 (Remedy Heteroskedastisitas) 0.944 0.891 Model Langkah 4 (Remedy Multikolinearitas) 0.935 0.874 Jika dibandingkan antara nilai R-square dari regresi langkah 1 dan langkah 2, dapat dilihat bahwa nilai R-square yang didapat oleh langkah 4 masih lebih besar daripada langkah 2, walaupun memang menurun dari langkah 3. Hal ini menjelaskan bahwa model langkah 4 merupakan model yang terpilih karena model memenuhi seluruh uji asumsi dengan nilai r square yang cukup baik, di atas 0,5 dan sudah memperbaiki model sebelumnya. 35 Universitas Indonesia 4.2.4 Analisis Residual Menggunakan metode Mahalanobis distance, terlampir, diperoleh 2 nilai mahalanobis terbesar adalah 35.38970 dan 35.19749. Jarak dari kedua nilai tersebut tidak sampai sebesar 2 kali lipat. Sehingga dapat disimpulkan menggunakan metode Mahalanobis distance tidak terdapat pencilan. Menggunakan metode Cook’s distance, terlampir, diasumsikan bahwa jumlah data 100 adalah cukup besar sehingga dapat diasumsikan berdistribusi normal. Nilai Cook’s distance tidak ada yang melebihi 1. Nilai tersebut menunjukkan bahwa tidak terdapat pencilan 4.2.5 Validasi Model a. Perbandingan sub-sampel 1-50 dengan sub-sampel 51-100 untuk signifikansi masing-masing variabel independen terhadap dependen, bisa dilihat pada Tabel 23 Tabel 23 Perbandingan signifikansi pada sub-sampel Sub-sampel 1-50 Sub-sampel 51-100 36 Universitas Indonesia Dari perbandingan ini, terdapat kejanggalan pada variabel delivery speed karena terjadi perubahan nilai yang cukup besar, hal ini dapat mengindikasi bahwa pengambilan data sub sampel 51-100 untuk variabel delivery speed terjadi kesalahan seperti tidak random, atau yang lain. b. Perbandingan sub-sampel 1-50 dengan sub-sampel 51-100 untuk nilai residual dapat dilihat pada Tabel 24. Tabel 24 Perbandingan Nilai residual antar sub-sampel Model 1-50 Model 51-100 Dari kedua tabel diatas, sub-sampel 1-50 memiliki variansi yang tidak jauh berbeda dari variansi pada sub-sampel 51-100. Hal ini menunjukkan bahwa persebaran data valid untuk sub-sampel 1-50 memiliki persebaran data yang konstan dengan sub-sampel 51100. c. Perbandingan nilai R-square Perbandingan nilai R-square dapat dilihat pada Tabel 25. 37 Universitas Indonesia Tabel 25 Perbandingan nilai R-square antar sub-sampel Model 1-100 Model 1-50 Model 51-100 Jika dibandingkan antara model penuh, model sub-sampel 1-50, model sub-sampel 51100 didapatkan R-square berkisaran di angka 80%, hal ini menandakan bahwa model konstan untuk jumlah sampel kecil maupun besar sehingga dapat disimpulkan bahwa model valid. 4.2.6 Estimasi Model Estimasi model regresi final dapat dilihat pada persamaan berikut ๐ −1 ๐๐ = −0,522 + ๐−1 0.89 ๐110 + ๐−1 0,296 ๐310 + ๐−1 0,408๐410 + ๐−1 0,395 ๐510 − ๐−1 0,143๐610 − ๐ −1 0,39 ๐710 + ๐−1 ๐ Dari persamaan regresi linear berganda di atas, didapatkan bahwa variabel yang paling berpengaruh terhadap tingkat kepuasan pelanggan HATCO adalah pertama delivery speed (X1), kedua manufacturer image (X4) dan ketiga service (X5). Hal ini dapat 38 Universitas Indonesia dilihat dari nilai koefisien dan tingkat signifikansi yang ditunjukkan pada Tabel 20. Untuk masing-masing nilai dapat dijelaskan sebagai berikut: 1. Nilai konstanta (a): memiliki nilai negatif sebesar 0,522. Tanda negatif artinya menunjukkan pengaruh yang berbanding terbalik antara variabel independen dan variabel dependen. Hal ini menunjukkan bahwa jika semua variabel independen yang meliputi X1 hingga X7 (kecuali X2 karena sudah dihilangkan) bernilai 0 persen atau tidak mengalami perubahan, maka nilai tingkat kepuasan adalah minus 0,522. 2. Nilai koefisien regresi untuk variabel delivery speed (X1): 0,89. Nilai tersebut menunjukkan pengaruh positif antara variabel delivery speed dan satisfaction level, maka jika variabel delivery speed mengalami kenaikan sebesar 1%, maka variabel satisfaction level akan mengalami kenaikan sebesar 0,89. Dengan asumsi bahwa variabel lainnya tetap konstan. 3. Nilai koefisien regresi untuk variabel Price Flexibility (X3): 0,296. Nilai tersebut menunjukkan pengaruh positif antara variabel price flexibility dan satisfaction level, maka jika variabel price flexibility mengalami kenaikan sebesar 1%, maka variabel satisfaction level akan mengalami kenaikan sebesar 0,296. Dengan asumsi bahwa variabel lainnya tetap konstan. 4. Nilai koefisien regresi untuk variabel manufacturer's image (X4): 0,408. Nilai tersebut menunjukkan pengaruh positif antara variabel manufacturer's image dan satisfaction level, maka jika variabel manufacturer's image mengalami kenaikan sebesar 1%, maka variabel satisfaction level akan mengalami kenaikan sebesar 0,408. Dengan asumsi bahwa variabel lainnya tetap konstan. 5. Nilai koefisien regresi untuk variabel service (X5): 0,395. Nilai tersebut menunjukkan pengaruh positif antara variabel service dan satisfaction level, maka jika variabel service mengalami kenaikan sebesar 1%, maka variabel satisfaction level akan mengalami kenaikan sebesar 0,395. Dengan asumsi bahwa variabel lainnya tetap konstan. 6. Nilai koefisien regresi untuk variabel salesforce image (X6): -0,143. Nilai tersebut menunjukkan pengaruh negatif (berlawanan arah) antara variabel salesforce image dan satisfaction level. Hal ini artinya jika variabel salesforce image mengalami kenaikan sebesar 1%, maka sebaliknya variabel satisfaction level akan mengalami penurunan sebesar 0,143. Dengan asumsi bahwa variabel lainnya tetap konstan. 39 Universitas Indonesia 7. Nilai koefisien regresi untuk variabel product quality (X7): -0,039 dengan tingkat signifikansi 0,159. Nilai tersebut menunjukkan pengaruh negatif (berlawanan arah) tetapi sangat kecil sekali, antara variabel product quality dan satisfaction level. Hal ini artinya jika variabel product quality mengalami kenaikan sebesar 1%, maka kemungkinan sebaliknya variabel satisfaction level akan mengalami penurunan sebesar 0,039. Dengan asumsi bahwa variabel lainnya tetap konstan. 40 Universitas Indonesia BAB 5 ANALISIS PENGGUNAAN DAN SARAN 5.1 Bagaimana Perusahaan Menerapkan Regresi Seperti contoh pengolahan data yang sudah dilakukan pada bab 4, penggunaan regresi dapat memberikan HATCO pemahaman yang lebih baik tentang karakteristik pelanggannya dan hubungan antara persepsi mereka tentang HATCO dan tindakan mereka terhadap HATCO (tingkat kepuasan). Menurut Gallo (2018), analisis regresi merupakan metode analitik yang sering dituju. Perusahaan yang cerdas akan menggunakan metode analitik seperti regresi dalam membuat keputusan pada berbagai isu bisnis. Pertanyaan yang sering muncul sebagai manajer adalah bagaimana atau apa yang bisa kita lakukan untuk mempengaruhi penjualan atau retensi karyawan atau merekrut orang-orang terbaik. Analisis regresi dengan bentuknya yang beragam merupakan alat bantu utama yang digunakan oleh perusahaan untuk melakukan predictive abalytics. Berikut contoh lain pertanyaan lain yang kerap muncul: 1. Untuk menjelaskan sebuah kejadian yang ingin dipahami: Mengapa pelayanan panggilan konsumen turun bulan lalu? 2. Untuk memprediksi beberapa hal di masa yang akan datang: Bagaimana perkiraan penjualan bulan depan? 3. Untuk menentukan apa yang harus dilakukan: Promosi sekarang bisa dilanjutkan atau harus berganti metode? Secara umum, yang dapat dilakukan oleh perusahaan adalah pertama mengumpulkan data pada variabel-variabel yang ada pada pertanyaan. Kemudian di plot. Lalu perhatikan polanya misalkan data dari sumbu y terhadap sumbu x, dan dapat ditentukan pertanyaan spesifik yang kemudian dapat diserahkan kepada peneliti yang ahli pada bidang tersebut. Sebagai seorang manajer tetap harus mengetahui fondasi dasar seperti alat bantu statistika yang dapat digunakan dan asumsi-asumsi penting. Daftar pertanyaan yang dapat diajukan untuk peneliti adalah sebagai berikut (Davenport & Patil, 2018): 1. Apa yang bisa diceritakan dari sumber data yang digunakan dalam analisis? 2. Apakah Anda yakin bahwa data sampel sudah representatif dari populasi? 3. Apakah terdapat pencilan pada distribusi data? Dan bagaimana efeknya terhadap hasil yang didapat? 4. Asumsi-asumsi apa saja yang digunakan? 5. Apakah terdapat kondisi yang menyebabkan asumsi valid? 41 Universitas Indonesia 5.2 Apakah korelasi menunjukkan sebab-akibat? “Correlation is not causation” (Gallo, 2018). Terkadang banyak faktor yang saling berkorelasi, namun jelas tidak terhubung dengan sebab-akibat. Tetapi di dalam dunia bisnis ini belum tentu jelas. Untuk mengetahui lanjut, harus dapat terjun langsung dan mengobservasi kejadian yang ada pada dunia nyata. Salah satu hal yang dapat dilakukan untuk menghindari kesalahan interpretasi korelasi adalah dengan tidak membandingkan variabel yang jelas berbeda, seperti ditunjukkan pada Gambar 16. Gambar 16 Contoh Salah Penggunaan dalam Membandingkan Variabel Sumber: (Ritter, 2018) Gambar 17 Perbaikan Penggunaan dalam Membandingkan Variabel Sumber: (Ritter, 2018) 42 Universitas Indonesia 5.3 Saran Penggunaan “Correlation is enough, Causality is dead” (Ritter, 2018). Pada analitik dan machine learning, dengan bukti statistik yang ada cukup menjelaskan korelasi, dan tidak perlu mengetahui mengapa suatu hal terjadi, karena hanya perlu mengetahui apa saja hal yang terjadi secara bersamaan. Lalu pertanyaan selanjutnya menjadi “Apa yang perusahaan dapat lakukan terhadap korelasi tersebut?”. Gambar 18 menunjukkan keputusan untuk mengambil tindakan berdasarkan seberapa besar kepercayaan terhadap hubungan tersebut dan apakah manfaatnya melebihi dari resikonya. Gambar 18 Kapan Bereaksi Terhadap Korelasi dan Kapan Tidak: Tingkat Kepercayaan terhadap Hubungannya Sumber: (Ritter, 2018) Untuk kasus HATCO pada bab 4, maka tindakan yang terlebih dahulu harus dilakukan adalah meningkatkan pertama delivery speed (X1), kedua manufacturer image (X4) dan ketiga service (X5) untuk dapat meningkatkan kepuasan pelanggan. Kemudian jika terdapat resiko dalam tindakan ini, maka harus dilakukan analisis apakah manfaat yang dihasilkan dari peningkatan variabel-variabel tersebut lebih banyak dibandingkan resiko yang dihasilkan. 43 Universitas Indonesia DAFTAR PUSTAKA Davenport, T. H., & Patil, D. (2018). A Predictive Analytics Primer. Dalam Harvard Business Review Press, HBR Guide to Data Analytics Basics for Managers. Boston: Harvard Business School Publishing Corporation. Gallo, A. (2018). Understanding Regression Analysis. Dalam Harvard Business Review Press, HBR Guide to Data Analytics Basics for Managers. Boston: Harvard Business School Publishing Corporation. Hair, J. F., Black, W. C., Babin, B. J., & Anderson, R. E. (2010). Multivariate Data Analysis, Seventh edition. New York: Prentice Hall International. Ritter, D. (2018). When to Act On a Correlation, and When Not to. Dalam H. B. Press, HBR Guide to Data Analytics Basics for Managers. Boston: Harvard Business School Publishing Corporation. Sundell, A. (2021, August 18). Regression Interactions. Diambil kembali dari the Statistics help: www.stathelp.se Walpole, R. E., Myers, R. H., Myers, S. L., & Ye, K. (2016). Probability & Statistics for Engineers & Scientists. Harlow Essex: Pearson. 44 Universitas Indonesia LAMPIRAN DATA HATCO Sumber: (Hair, Black, Babin, & Anderson, 2010) No Delivery Speed (X1) Price Level (X2) Price flexibility (X3) Manufacture r's Image (X4) Overall Service (X5) Salesforce Image (X6) Product Quality (X7) Satisfaction Level (X10) 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 4.1 1.8 3.4 2.7 6 1.9 4.6 1.3 5.5 4 2.4 3.9 2.8 3.7 4.7 3.4 3.2 4.9 5.3 4.7 3.3 3.4 3 2.4 5.1 4.6 2.4 5.2 3.5 4.1 3 2.8 5.2 3.4 2.4 1.8 3.6 4 0 0.6 3 5.2 1 0.9 3.3 2.4 4.2 1.6 3.5 1.6 2.2 1.4 1.5 1.3 2 4.1 1.8 1.4 1.3 0.9 0.4 4 1.5 1.4 2.1 1.5 1.3 2.8 3.7 3.2 3.8 2 3.7 1 3.3 4 0.9 2.1 6.9 6.3 5.7 7.1 9.6 7.9 9.5 6.2 9.4 6.5 8.8 9.1 8.1 8.6 9.9 9.7 5.7 7.7 9.7 9.9 8.6 8.3 9.1 6.7 8.7 7.9 6.6 9.7 9.9 5.9 6 8.9 9.3 6.4 7.7 7.5 5.8 9.1 6.9 4.7 6.6 6 5.9 7.8 4.8 6.6 5.1 4.7 6 4.8 4.6 3.8 5.7 6.7 4.7 5.1 4.3 6.1 6.7 4 2.5 7.1 4.8 4.8 5.8 4.8 6.1 3.5 5.5 5.3 6.9 5.9 5.7 3.4 4.5 5.8 5.4 5.4 2.4 2.5 4.3 1.8 3.4 2.6 3.5 2.8 3.5 3.7 2 3 2.1 2.7 3 2.7 3.6 3.4 3.3 3 2.1 1.2 3.5 1.9 3.3 3.4 1.9 3.2 3.1 3.9 3.1 3.3 3.7 3.5 1.7 2.5 3.7 2.4 1.1 2.3 4 2.7 2.3 4.6 1.9 4.5 2.2 3 3.2 2.8 2.5 1.4 3.7 2.6 1.7 2.9 1.5 3.9 2.6 1.8 1.7 3.4 2.5 2.6 2.8 2.5 3.9 1.7 3 3 3.2 2.4 3.4 1.1 2.4 2.5 2.6 2.6 5.2 8.4 8.2 7.8 4.5 9.7 7.6 6.9 7.6 8.7 5.8 8.3 6.6 6.7 6.8 4.8 6.2 5.9 6.8 6.8 6.3 5.2 8.4 7.2 3.8 4.7 7.2 6.7 5.4 8.4 8 8.2 4.6 8.4 6.2 7.6 9.3 7.3 8.9 4.2 4.3 5.2 3.9 6.8 4.4 5.8 4.3 5.4 5.4 4.3 5 4.4 5 5.9 4.7 4.4 5.6 5.9 6 4.5 3.3 5.2 3.7 4.9 5.9 3.7 5.8 5.4 5.1 3.3 5 6.1 3.8 4.1 3.6 4.8 5.1 3.9 45 Universitas Indonesia No Delivery Speed (X1) Price Level (X2) Price flexibility (X3) Manufacture r's Image (X4) Overall Service (X5) Salesforce Image (X6) Product Quality (X7) Satisfaction Level (X10) 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 2.4 1.9 5.9 4.9 5 2 5 3.1 3.4 5.8 5.4 3.7 2.6 4.5 2.8 3.8 2.9 4.9 5.4 4.3 2.3 3.1 5.1 4.1 3 1.1 3.7 4.2 1.6 5.3 2.3 3.6 5.6 3.6 5.2 3 4.2 3.8 3.3 1 4.5 5.5 3.4 1.6 2 3.4 0.9 2.3 1.3 2.6 2.5 1.9 3.9 0.2 2.1 0.7 4.8 4.1 2.4 0.8 2.6 4.4 2.5 1.8 4.5 1.9 1.9 1.1 3.8 2 1.4 2.5 4.5 1.7 3.7 5.4 2.2 2.2 1.3 2 2.4 0.8 2.6 1.9 1.6 1.8 4.6 2.8 6.4 7.6 9.6 9.3 8.6 6.5 9.4 10 5.6 8.8 8 8.2 8.2 6.3 6.7 8.7 7.7 7.4 9.6 7.6 8 9.9 9.2 9.3 5.5 7.2 9 9.2 6.4 8.5 8.3 5.9 8.2 9.9 9.1 6.6 9.4 8.3 9.7 7.1 8.7 8.7 5.5 6.1 4.5 4.6 7.8 4.5 4.7 3.7 4.6 4.5 5.6 4.5 3 6 5 5.9 4.9 2.9 7 6.9 5.5 5.4 4.7 4.5 5.8 5.5 4.9 4.7 4.5 6.2 5.3 3.7 5.2 6.2 3.1 4.8 4.5 6.6 4.9 6.1 3.3 4.5 4.6 3.8 8.2 6.4 2.1 2.6 3.4 3.6 3.1 2.4 3.7 2.6 3.6 3 3.8 2.1 3.6 4.3 2.5 1.6 2.8 4.6 4 3.1 3.3 2.6 3.6 2.5 3.4 1.6 2.6 3.3 3 3.5 3 4.5 4 2.9 3.3 2.4 3.2 2.2 2.9 1.5 3.1 3.6 4 2.3 2.2 2.5 4.6 1.3 2.5 1.7 1.4 3.2 2.3 2.4 1.4 2.5 2.5 3.4 2.6 2.1 3.6 4 3 2.5 2.2 3.1 2.3 2.7 2.6 3.2 2.3 3.9 2.5 1.9 2.3 2.9 1.6 1.9 2.7 2.7 2.7 2.6 1.5 3.1 2.1 2.1 4.4 3.8 8.8 7.7 4.5 6.2 3.7 8.5 6.3 3.8 9.1 6.7 5.2 5.2 9 8.8 9.2 5.6 7.7 9.6 7.7 4.4 8.7 3.8 4.5 7.4 6 10 6.8 7.3 7.1 4.8 9.1 8.4 5.3 4.9 7.3 8.2 8.5 5.3 5.2 9.9 6.8 4.9 6.3 8.2 3.3 3.7 6.7 5.9 4.8 3.2 6 4.9 4.7 4.9 3.8 5 5.2 5.5 3.7 3.7 4.2 6.2 6 5.6 5 4.8 6.1 5.3 4.2 3.4 4.9 6 4.5 4.3 4.8 5.4 3.9 4.9 5.1 4.1 5.2 5.1 5.1 3.3 5.1 4.5 5.6 4.1 46 Universitas Indonesia No Delivery Speed (X1) Price Level (X2) Price flexibility (X3) Manufacture r's Image (X4) Overall Service (X5) Salesforce Image (X6) Product Quality (X7) Satisfaction Level (X10) 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 10 0 2.3 2.6 2.5 2.4 2.1 2.9 4.3 3 4.8 3.1 1.9 4 0.6 6.1 2 3.1 2.5 3.7 3 3.1 2.9 3.5 1.2 2.5 2.8 1.7 4.2 2.7 0.5 1.6 0.5 2.8 2.2 1.8 7.6 8.5 7 8.4 7.4 7.3 9.3 7.8 7.6 5.1 5 6.7 6.4 9.2 5.2 6.7 9 5 6 4.2 5.9 4.8 6.1 6.3 7.1 4.2 7.8 4.9 4.5 5 4.8 5 6.8 5 3 2.8 2.8 2.7 2.8 2 3.4 3 3.3 3.6 2.2 2.2 0.7 3.3 2.4 2.6 2.2 2.5 2.8 2.2 2.7 2.3 2.5 4 3.8 1.4 4 2.5 2.1 2.1 2.8 2.7 2.9 3 7.4 6.8 9 6.7 7.2 8 7.4 7.9 5.8 5.9 8.2 5 8.4 7.1 8.4 8.4 6 4.4 5.6 3.7 5.5 4.3 4 6.1 4.4 5.5 5.2 3.6 4 3.4 5.2 3.7 4.3 4.4 Weight 25.23 87.7 11.29 10.62 72.6 8.82 22.28 6.5 6.26 36.91 15.16 4.75 21.2 9.37 19.51 10.45 15.36 30.33 6.68 10.97 78.29 No 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 Weight 11.4 22.57 8.88 20.44 6.8 7.67 27.8 10.87 12.13 9.48 8.53 8.21 10.4 12.28 13.46 8.42 4.49 16.91 9.92 22.59 79.48 NILAI BOBOT WLS MODEL 3 No 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 Weight 14.93 11.75 37.54 13.91 33.89 8.36 17.09 12.88 12.41 9.13 19.25 10.1 9.07 14.85 8.48 7.25 15.11 4.43 21.38 8.48 16.19 No 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 Weight 6 14.02 24.5 9.34 8.02 8.83 13.36 4.72 13.93 11.77 13.82 9.53 21.12 13.07 10.69 14.85 27.77 4.42 11.67 5.88 4.84 No 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 47 Universitas Indonesia No 22 23 24 25 Weight 35.5 16.54 14.22 8.54 No 47 48 49 50 Weight 16.56 7.56 32.74 4.55 No 72 73 74 75 Weight 4.29 7.34 10.22 8.26 No 97 98 99 100 Weight 23.18 8.41 7.34 15.56 NILAI BOBOT WLS MODEL 4 No 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 Weight 14.84 25.1 5.47 13.74 22.17 8.62 26.34 7.79 15.6 9.94 22.59 12.7 10.64 27.94 8.33 7.62 9.42 6.52 22.8 8.33 13.87 46.46 8.34 20.22 11.04 No 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 Weight 9.06 20.25 24.23 8.4 9.04 12.9 8.39 6.47 12.73 11.5 12.69 6.87 15.49 24.21 16 12.64 21.82 5.23 11.72 11 5.22 23.17 6.61 14.77 6.96 No 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 Weight 13.28 7.53 8.93 15.79 45.3 14.11 9.11 9.3 9.36 7.58 21.15 6.49 15.41 8.92 54.16 13.48 19.03 8.28 8.86 8.33 5.44 7.06 7.73 14.34 11.09 No 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 Weight 12.41 13.23 8.45 57.82 9.54 9.46 9.29 25.34 9.48 10 11.46 9.92 9.54 13.65 18.96 14.27 6.54 9.49 15.62 15.14 26.45 15.81 15.77 10.91 22.03 NILAI MAHALANOBIS No 1 2 3 4 5 6 7 Mahalanobis 7.03134 6.69142 7.56707 7.10296 12.87003 6.51655 8.63448 No 26 27 28 29 30 31 32 Mahalanobis 3.46292 3.17119 5.7654 7.60075 5.18847 2.75056 7.02389 No 51 52 53 54 55 56 57 Mahalanobis 6.36151 8.46728 6.91264 3.24414 35.19749 3.08183 10.4877 No 76 77 78 79 80 81 82 Mahalanobis 4.92533 5.84738 7.52213 12.2787 2.2699 4.94287 14.11759 48 Universitas Indonesia No 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 Mahalanobis 6.56264 6.37529 3.62581 4.23657 3.3892 3.76823 5.02969 8.9619 6.39766 7.21202 5.35009 5.89875 8.9619 2.97816 35.3897 8.33294 2.97434 4.90869 No 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 Mahalanobis 5.67843 3.52919 6.53929 2.89961 6.70413 3.02957 10.21306 3.8267 2.89753 12.28186 7.12893 4.81888 6.67041 7.47509 14.094 6.15182 7.56051 9.02872 No 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 Mahalanobis 5.26549 4.34768 7.01228 13.00081 5.7983 3.32218 6.92558 11.68304 2.10852 4.38155 5.92472 4.87756 5.05704 8.29433 10.09504 5.8874 5.36338 6.47139 No 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 Mahalanobis 6.83739 2.36593 3.01642 3.49324 3.35392 2.41748 6.01105 4.85986 3.76264 5.84099 14.3281 5.40678 7.39104 16.70796 8.19524 4.98984 5.58653 4.70449 NILAI COOK’S DISTANCE No Cooks Distance No Cooks Distance No Cooks Distance No Cooks Distance 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 0.00011 0.00064 0.00192 0.01065 0.01401 0.00025 0.00008 0.00323 0.00074 0.00927 0.0001 0.00048 0.0059 0.00136 0.00411 0.01945 0.00003 0.02999 0.00176 0.00106 0.01127 0.00003 0.00084 0.01589 0.01025 0.02516 0.042 0.00009 0.026 0.01796 0.00712 0.00029 0.00056 0.03565 0.00349 0.00719 0.00745 0.00833 0.00531 0.00392 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 0.00025 0.00403 0.01301 0.00263 0.00616 0.0307 0.01325 0.00065 0.01647 0.00626 0.00074 0.00123 0.00119 0.00004 0.00214 0.00125 0.01029 0.00223 0.02066 0 0.00001 0.00021 0.00962 0.00419 0.00046 0.01682 0.00059 0.00072 0.00063 0.00783 0.00212 0.00954 0.00005 0.01479 0.01208 0.02956 0.03287 0.00034 0.00411 0 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 49 Universitas Indonesia No Cooks Distance No Cooks Distance No Cooks Distance No Cooks Distance 21 22 23 24 25 0.00263 0.005 0.05095 0 0.00594 0.00771 0.00007 0.00125 0.00026 0.07926 71 72 73 74 75 0.00198 0.09999 0.01572 0.00017 0.02176 0.01314 0.00042 0.00324 0.0157 0.00084 46 47 48 49 50 96 97 98 99 100 50 Universitas Indonesia