Loading

Uji Asumsi Klasik

Uji asumsi klasik adalah persyaratan statistik yang harus dipenuhi pada analisis regresi linear berganda yang berbasis ordinary least square (OLS). Jadi analisis regresi yang tidak berdasarkan OLS tidak memerlukan persyaratan asumsi klasik, misalnya regresi logistik atau regresi ordinal. Demikian juga tidak semua uji asumsi klasik harus dilakukan pada analisis regresi linear, misalnya uji multikolinearitas tidak dilakukan pada analisis regresi linear sederhana dan uji autokorelasi tidak perlu diterapkan pada data cross sectional.

Uji asumsi klasik juga tidak perlu dilakukan untuk analisis regresi linear yang bertujuan untuk menghitung nilai pada variabel tertentu. Misalnya nilai return saham yang dihitung dengan market model, atau market adjusted model. Perhitungan nilai return yang diharapkan dapat dilakukan dengan persamaan regresi, tetapi tidak perlu diuji asumsi klasik.

Uji asumsi klasik yang sering digunakan yaitu uji multikolinearitas, uji heteroskedastisitas, uji normalitas, uji autokorelasi dan uji linearitas. Tidak ada ketentuan yang pasti tentang urutan uji mana dulu yang harus dipenuhi. Analisis dapat dilakukan tergantung pada data yang ada. Sebagai contoh, dilakukan analisis terhadap semua uji asumsi klasik, lalu dilihat mana yang tidak memenuhi persyaratan. Kemudian dilakukan perbaikan pada uji tersebut, dan setelah memenuhi persyaratan, dilakukan pengujian pada uji yang lain.

1. Uji Normalitas
Uji normalitas adalah untuk melihat apakah nilai residual terdistribusi normal atau tidak. Model regresi yang baik adalah memiliki nilai residual yang terdistribusi normal. Jadi uji normalitas bukan dilakukan pada masing-masing variabel tetapi pada nilai residualnya. Sering terjadi kesalahan yang jamak yaitu bahwa uji normalitas dilakukan pada masing-masing variabel. Hal ini tidak dilarang tetapi model regresi memerlukan normalitas pada nilai residualnya bukan pada masing-masing variabel penelitian.

Pengertian normal secara sederhana dapat dianalogikan dengan sebuah kelas. Dalam kelas siswa yang bodoh sekali dan pandai sekali jumlahnya hanya sedikit dan sebagian besar berada pada kategori sedang atau rata-rata. Jika kelas tersebut bodoh semua maka tidak normal, atau sekolah luar biasa. Dan sebaliknya jika suatu kelas banyak yang pandai maka kelas tersebut tidak normal atau merupakan kelas unggulan. Pengamatan data yang normal akan memberikan nilai ekstrim rendah dan ekstrim tinggi yang sedikit dan kebanyakan mengumpul di tengah. Demikian juga nilai rata-rata, modus dan median relatif dekat.

Uji normalitas dapat dilakukan dengan uji histogram, uji normal P Plot, uji Chi Square, Skewness dan Kurtosis atau uji Kolmogorov Smirnov. Tidak ada metode yang paling baik atau paling tepat. Tipsnya adalah bahwa pengujian dengan metode grafik sering menimbulkan perbedaan persepsi di antara beberapa pengamat, sehingga penggunaan uji normalitas dengan uji statistik bebas dari keragu-raguan, meskipun tidak ada jaminan bahwa pengujian dengan uji statistik lebih baik dari pada pengujian dengan metode grafik.

Jika residual tidak normal tetapi dekat dengan nilai kritis (misalnya signifikansi Kolmogorov Smirnov sebesar 0,049) maka dapat dicoba dengan metode lain yang mungkin memberikan justifikasi normal. Tetapi jika jauh dari nilai normal, maka dapat dilakukan beberapa langkah yaitu: melakukan transformasi data, melakukan trimming data outliers atau menambah data observasi. Transformasi dapat dilakukan ke dalam bentuk Logaritma natural, akar kuadrat, inverse, atau bentuk yang lain tergantung dari bentuk kurva normalnya, apakah condong ke kiri, ke kanan, mengumpul di tengah atau menyebar ke samping kanan dan kiri.

2. Uji Multikolinearitas
Uji multikolinearitas adalah untuk melihat ada atau tidaknya korelasi yang tinggi antara variabel-variabel bebas dalam suatu model regresi linear berganda. Jika ada korelasi yang tinggi di antara variabel-variabel bebasnya, maka hubungan antara variabel bebas terhadap variabel terikatnya menjadi terganggu. Sebagai ilustrasi, adalah model regresi dengan variabel bebasnya motivasi, kepemimpinan dan kepuasan kerja dengan variabel terikatnya adalah kinerja. Logika sederhananya adalah bahwa model tersebut untuk mencari pengaruh antara motivasi, kepemimpinan dan kepuasan kerja terhadap kinerja. Jadi tidak boleh ada korelasi yang tinggi antara motivasi dengan kepemimpinan, motivasi dengan kepuasan kerja atau antara kepemimpinan dengan kepuasan kerja.

Alat statistik yang sering dipergunakan untuk menguji gangguan multikolinearitas adalah dengan variance inflation factor (VIF), korelasi pearson antara variabel-variabel bebas, atau dengan melihat eigenvalues dan condition index (CI).

Beberapa alternatif cara untuk mengatasi masalah multikolinearitas adalah sebagai berikut:
1. Mengganti atau mengeluarkan variabel yang mempunyai korelasi yang tinggi.
2. Menambah jumlah observasi.
3. Mentransformasikan data ke dalam bentuk lain, misalnya logaritma natural, akar kuadrat atau bentuk first difference delta.


3. Uji Heteroskedastisitas
Uji heteroskedastisitas adalah untuk melihat apakah terdapat ketidaksamaan varians dari residual satu ke pengamatan ke pengamatan yang lain. Model regresi yang memenuhi persyaratan adalah di mana terdapat kesamaan varians dari residual satu pengamatan ke pengamatan yang lain tetap atau disebut homoskedastisitas.

Deteksi heteroskedastisitas dapat dilakukan dengan metode scatter plot dengan memplotkan nilai ZPRED (nilai prediksi) dengan SRESID (nilai residualnya). Model yang baik didapatkan jika tidak terdapat pola tertentu pada grafik, seperti mengumpul di tengah, menyempit kemudian melebar atau sebaliknya melebar kemudian menyempit. Uji statistik yang dapat digunakan adalah uji Glejser, uji Park atau uji White.

Beberapa alternatif solusi jika model menyalahi asumsi heteroskedastisitas adalah dengan mentransformasikan ke dalam bentuk logaritma, yang hanya dapat dilakukan jika semua data bernilai positif. Atau dapat juga dilakukan dengan membagi semua variabel dengan variabel yang mengalami gangguan heteroskedastisitas.

4. Uji Autokorelasi
Uji autokorelasi adalah untuk melihat apakah terjadi korelasi antara suatu periode t dengan periode sebelumnya (t -1). Secara sederhana adalah bahwa analisis regresi adalah untuk melihat pengaruh antara variabel bebas terhadap variabel terikat, jadi tidak boleh ada korelasi antara observasi dengan data observasi sebelumnya. Sebagai contoh adalah pengaruh antara tingkat inflasi bulanan terhadap nilai tukar rupiah terhadap dollar. Data tingkat inflasi pada bulan tertentu, katakanlah bulan Februari, akan dipengaruhi oleh tingkat inflasi bulan Januari. Berarti terdapat gangguan autokorelasi pada model tersebut. Contoh lain, pengeluaran rutin dalam suatu rumah tangga. Ketika pada bulan Januari suatu keluarga mengeluarkan belanja bulanan yang relatif tinggi, maka tanpa ada pengaruh dari apapun, pengeluaran pada bulan Februari akan rendah.

Uji autokorelasi hanya dilakukan pada data time series (runtut waktu) dan tidak perlu dilakukan pada data cross section seperti pada kuesioner di mana pengukuran semua variabel dilakukan secara serempak pada saat yang bersamaan. Model regresi pada penelitian di Bursa Efek Indonesia di mana periodenya lebih dari satu tahun biasanya memerlukan uji autokorelasi.

Beberapa uji statistik yang sering dipergunakan adalah uji Durbin-Watson, uji dengan Run Test dan jika data observasi di atas 100 data sebaiknya menggunakan uji Lagrange Multiplier. Beberapa cara untuk menanggulangi masalah autokorelasi adalah dengan mentransformasikan data atau bisa juga dengan mengubah model regresi ke dalam bentuk persamaan beda umum (generalized difference equation). Selain itu juga dapat dilakukan dengan memasukkan variabel lag dari variabel terikatnya menjadi salah satu variabel bebas, sehingga data observasi menjadi berkurang 1.

5. Uji Linearitas
Uji linearitas dipergunakan untuk melihat apakah model yang dibangun mempunyai hubungan linear atau tidak. Uji ini jarang digunakan pada berbagai penelitian, karena biasanya model dibentuk berdasarkan telaah teoretis bahwa hubungan antara variabel bebas dengan variabel terikatnya adalah linear. Hubungan antar variabel yang secara teori bukan merupakan hubungan linear sebenarnya sudah tidak dapat dianalisis dengan regresi linear, misalnya masalah elastisitas.

Jika ada hubungan antara dua variabel yang belum diketahui apakah linear atau tidak, uji linearitas tidak dapat digunakan untuk memberikan adjustment bahwa hubungan tersebut bersifat linear atau tidak. Uji linearitas digunakan untuk mengkonfirmasikan apakah sifat linear antara dua variabel yang diidentifikasikan secara teori sesuai atau tidak dengan hasil observasi yang ada. Uji linearitas dapat menggunakan uji Durbin-Watson, Ramsey Test atau uji Lagrange Multiplier

Populasi dan Sampel

Populasi
Secara ringkas, populasi penelitian adalah keseluruhan objek penelitian, yaitu a set (or collection) of all elements possessing one or more attributes interests. Jadi setiap anggota populasi harus mempunyai karakteristik tertentu yang sama yang akan diteliti. Contoh populasi penelitian adalah seluruh perusahaan yang terdaftar di Bursa Efek Indonesia pada tahun 2007, atau seluruh karyawan tetap pada perusahaan X, seluruh siswa sekolah X tahun ajaran 2007, atau seluruh pengguna sabun X di Kota Y dan sebagainya.

Hasil penelitian diharapkan dapat mewakili keseluruhan populasi penelitian yang telah ditetapkan di awal penelitian. Berbagai asumsi harus dipenuhi agar hasil penelitian dapat digeneralisasikan terhadap keseluruhan populasi penelitian. Beberapa asumsi statistik yang diperlukan misalnya normalitas data atau uji non response bias.

Untuk populasi dengan jumlah anggota populasi yang besar, maka dapat dilakukan penelitian terhadap sebagian dari anggota populasi tersebut, tetapi masih mempunyai ciri atau karakteristik yang mampu mewakili keseluruhan populasi penelitian tersebut. Sebagian anggota populasi tersebut sering disebut sampel yang dipilih atau ditentukan dengan berbagai metode ilmiah yang ada.

Sampel
Sampel adalah sebagian (cuplikan) dari populasi yang masih mempunyai ciri dan karakteristik yang sama dengan populasi dan mampu mewakili keseluruhan populasi penelitian. Sampel dipergunakan ketika jumlah seluruh anggota populasi terlalu banyak sehingga tidak memungkinkan untuk melakukan penelitian terhadap populasi secara keseluruhan, misalnya populasi penelitian adalah masyarakat pada suatu kota tertentu. Sampel juga digunakan ketika jumlah populasi secara keseluruhan tidak dapat ditentukan secara pasti, misalnya populasi pengguna produk tertentu pada suatu kota.

Persyaratan utama adalah bahwa sampel harus mampu mewakili populasi secara keseluruhan. Oleh karena itu, penentuan jumlah sampel dan pengambilan sampel penelitian harus ditentukan secara sistematis agar benar-benar mampu mewakili populasi secara keseluruhan. Secara garis besar, metode penentuan jumlah sampel terdiri dari dua ciri, yaitu metode acak (random sampling) dan tidak acak (non random sampling). Metode acak adalah memberikan kesempatan kepada seluruh populasi penelitian untuk menjadi sampel penelitian tanpa melihat struktur atau karakteristik tertentu. Metode non random sampling dilakukan dengan memberikan kesempatan kepada populasi dengan ciri atau karakteristik tertentu untuk menjadi sampel penelitian, di mana ciri dan karakteristik tersebut harus dikaitkan dengan tujuan penelitian.

Sebagai ilustrasi penelitian dengan tujuan untuk mengetahui pengaruh dari beberapa rasio keuangan terhadap harga saham. Maka beberapa kriteria yang dapat diambil untuk penentuan non random sampling misalnya: Perusahaan tidak mengeluarkan kebijakan selama periode penelitian. Kriteria ini diambil karena kebijakan perusahaan dapat secara langsung merubah harga saham tanpa melihat ada atau tidaknya pengaruh dari rasio keuangan. Kebijakan tersebut misalnya stock split, merger dan akuisisi, right issue atau kebijakan yang lain. Selain itu masih dapat diberikan kriteria-kriteria yang lain yang mendukung pelaksanaan penelitian, misalnya ketersediaan data.

Pengujian Satu Arah dan Dua Arah

Kita sering mendengar istilah pengujian satu arah (one tailed) dan dua arah (two tailed). Dalam pembahasannya sering kali terjadi kesalahpahaman antara satu peneliti dengan peneliti yang lain, atau antara dosen dengan mahasiswa. Dalam berbagai laporan penelitian juga sering didapati, bahwa hipotesisnya satu arah, tetapi pengujiannya dua arah, atau sebaliknya. Hal tersebut sebenarnya kurang tepat secara statistik (rasanya gak enak kalau mau bilang salah) karena pengujian satu arah dan dua arah adalah hal yang tidak identik dan mempunyai nilai batas yang berbeda.

Pengujian dua arah adalah pengujian terhadap suatu hipotesis yang belum diketahui arahnya. Misalnya ada hipotesis, ‘diduga ada pengaruh signifikan antara variabel X terhadap Y’. Hipotesis tersebut harus diuji dengan pengujian dua arah. Sedangkan hipotesis yang berbunyi, ‘diduga ada pengaruh positif yang signifikan antara variabel X terhadap Y’. Nah, hipotesis tersebut harus diuji dengan pengujian satu arah. Bedanya apa? Lihat saja kedua hipotesis tersebut, ada kata positif dan tidak ada kata positif.

Jadi jika kita sudah mengetahui arah dari hubungan antara dua variabel, maka kita harus menggunakan pengujian satu arah. Coba perhatikan hipotesis ini, ‘diduga X berbeda dengan Y’. Nah pengujiannya apa? Ya jelas pengujian hipotesis dua arah. Berbeda dengan ini, ‘diduga X lebih tinggi dari pada Y’, di mana ini adalah pengujian hipotesis satu arah.

Perumusan hipotesis, apakah menggunakan arah atau tidak dilakukan berdasarkan telaah teoretis, atau merujuk kepada penelitian yang telah ada sebelumnya (kalau ada). Misalnya, sudah ada referensi bahwa variabel X berpengaruh secara signifikan terhadap variabel Y, maka jika kita akan melakukan replikasi terhadap penelitian tersebut, ya sebaiknya menggunakan hipotesis satu arah. Artinya kita melangkah lebih lanjut dari pada penelitian sebelumnya yang hanya mengetahui bahwa ada pengaruh saja. Penelitian kita akan memberikan manfaat lebih lanjut, yaitu bahwa pengaruh tersebut adalah positif atau negatif.

Jika kita menggunakan analisis regresi linear, maka untuk pengujian dua arah, dan menggunakan signifikansi sebesar 5%, maka signifikansi akan dilihat dari nilai signifikansi output, di bawah 0,05 (hipotesis diterima) atau di atas 0,05 (hipotesis ditolak). Kita tidak perlu melihat berapa nilai t outputnya, apakah positif atau negatif. Akan tetapi, jika kita menggunakan hipotesis satu arah, pada signifikansi 5%, maka nilai signifikansi output harus dibagi dengan dua terlebih dahulu. Misalnya output signifikansi adalah sebesar 0,96, maka hipotesis diterima, karena 0,96 : 2 = 0,48

Justifikasi Penerimaan Hipotesis

Biasanya pada naskah skripsi atau tesis yang menggunakan analisis linear regresi berganda akan mempunyai hipotesis parsial (diuji dengan uji t) dan hipotesis simultan (diuji dengan uji F). Fenomena tersebut seolah-olah sudah latah dilakukan oleh mahasiswa dan juga disetujui oleh dosen pembimbing, yang sangat mungkin bukan berasal dari ilmu statistik.

Perumusan hipotesis parsial didasari oleh dasar teori yang kuat dan dapat dengan mudah dilakukan oleh mahasiswa dengan bantuan dosen, karena dosen memang sangat menguasai tentang hal itu. Akan tetapi, sebenarnya hipotesis simultan sering kali didasari oleh teori yang seolah-olah dipaksakan. Sebenarnya uji F adalah untuk melihat kelayakan modal saja. Jika uji F tidak signifikan, maka tidak disarankan untuk melakukan uji t atau uji parsial. Jadi hipotesis simultan sebenarnya tidak selalu harus dirumuskan dalam suatu penelitian. Toh dasar teorinya juga sangat lemah.

Penentuan penerimaan hipotesis dengan uji t dapat dilakukan berdasarkan tabel t. Nilai t hitung hasil regresi dibandingkan dengan nilai t pada tabel. Jika t hitung > t tabel maka berarti terdapat pengaruh yang signifikan secara parsial, dan sebaliknya jika t hitung < t tabel maka tidak terdapat pengaruh yang signifikan secara parsial. Hal tersebut juga berlaku untuk F hitung. Cara melihat nilai t tabel dan F tabel sudah banyak dibahas pada berbagai buku statistik. Misalnya untuk jumlah sampel 100 maka nilai t tabel untuk signifikansi 5% adalah dengan melihat nilai t dengan degree of freedom sebesar N – 2 = 100 – 2 = 98 untuk hipotesis dua arah. Nilai t dilihat pada kolom signifikansi : 2 = 5% : 2 = 0,025. Jika pengujian satu arah, maka df adalah 100 – 1 = 99 dan dilihat pada kolom 5%.

Untuk uji F, maka df dihitung dengan N – k – 1 dengan k adalah jumlah variabel bebas. Anda jangan bertanya, bagaimana kalau uji satu arah dan dua arah pada uji F. Uji F tidak mengenal arah, jadi ya pasti satu arah. Logika uji dua arah, adalah terdapat pengaruh antara variabel bebas terhadap variabel terikat, dan uji satu arah adalah terdapat pengaruh negatif/positif antara variabel bebas antara variabel bebas terhadap variabel terikat. Lha kalau uji F kan uji simultan, jadi bagaimana menentukan arah positif atau negatif.

Variabel Penelitian

Secara singkat, variabel adalah gejala yang menjadi fokus peneliti untuk diamati. Tentunya banyak pengertian lain, dan silahkan Anda mencari definisi tentang variabel di sumber lain. Di sini akan diuraikan berbagai jenis variabel yang sering dijumpai dalam suatu penelitian. Penelitian anda, paling hanya memuat satu, dua, atau paling tiga dari jenis variabel di bawah

1. Variabel independen
Variabel independen adalah variabel yang menjadi sebab atau berubahnya suatu variabel lain (variabel dependen). Juga sering disebut dengan variabel bebas, prediktor, stimulus, eksougen atau antecendent.

2. Variabel dependen
Variabel dependen merupakan variabel yang dipengaruhi atau menjadi akibat karena adanya variabel lain (variabel bebas). Juga sering disebut variabel terikat, variabel respons atau endogen. Variabel inilah yang biasanya dikupas dalam-dalam pada latar belakang penelitian. Biasanya diberikan porsi yang lebih dalam membahas variabel terikat dari pada variabel bebasnya karena merupakan implikasi dari hasil penelitian.

3. Variabel Moderating
Variabel moderating adalah variabel yang memperkuat atau memperlemah hubungan antara variabel bebas dengan variabel terikat. Sekali lagi, memperkuat atau memperlemah. Variabel moderating juga sering disebut sebagai variabel bebas kedua dan sering dipergunakan dalam analisis regresi linear, atau pada structural equation modeling. Sebagai contoh, hubungan ayah dan ibu akan semakin mesra dengan adanya anak. Jadi anak merupakan variabel moderating antara ayah dan ibu. Atau, selingkuhan merenggangkan hubungan ayah dan ibu, jadi selingkuhan merupakan variabel moderating antara ayah dan ibu.

4. Variabel intervening
Adalah variabel yang menjadi media pada suatu hubungan antara variabel bebas dengan variabel terikat. Sebagai contoh, cinta ibu terhadap ayah akan semakin kuat setelah berkeluarga. Jadi keluarga merupakan media bagi ibu dalam pengaruhnya terhadap ayah. Banyak contoh tentang regresi linear dengan variabel intervening.

5. Variabel kontrol
Variabel kontrol adalah variabel yang dikendalikan atau dibuat konstan, atau dijadikan acuan bagi variabel yang lain. Misalnya variabel kecepatan menulis murid-murid suatu sekolah, yang diukur dan dibandingkan kecepatan menulis murid sekolah lain. Bisa juga digunakan dalam analisis regresi linear dengan variabel kontrol.

make cash

Hai Teman ...

Disini saya mau sharing pengetahuan tentang Akuntansi dan Perpajakan yang pernah saya pelajari, kalau ada kritikan atau saran jangan lupa isi komentarnya.
Besar harapan semoga tulisan disini dapat bermanfaat dan menambah wawasan.
Bila anda menemukan kesulitan dalam penyusunan Laporan Keuangan dan Laporan Pajak untuk Perusahaan anda.
Jangan Khawatir kami siap membantu, hubungi 081214712733

Sekarang

Ayat-ayat Al Quran

Chat

Katagori

Pengunjung

free counters
Locations of visitors to this page