Sabtu, 02 Oktober 2021

REGRESI LINEAR

    Hai, temen-temen semua. Kali ini pembahasannya tentang regresi linear. Apa sih regresi linear itu, apa perbedaan variabel dependen dan variabel independen, apa aja sih jenis-jenis regresi, ada ga sih rumus dari regresi linear itu. Nah, pertanyaan-pertanyaan itu akan dibahas di blog kali ini.

 

1. REGRESI LINEAR                              

            Regresi Linear adalah teknik yang mencari hubungan antara variabel dependen dengan variabel         independen. Variabel dependen adalah variabel yang dipengaruhi atau variabel yang tergantung            dari variabel independen artinya variabel dependen yaitu variabel yang menjadi akibat karena                didasari dengan variabel bebas didalamnya, sedangkan variabel independen adalah variabel yang            mempengaruhi. Contohnya nilai kuliah menjadi variabel dependen, dan lama belajar menjadi                variabel independen.

2. JENIS-JENIS REGRESI

        Untuk jenis-jenis regresi, adalah sebagai berikut :

         - Regresi Linear sederhana (simple regression)

         - Regresi multilinear (multiple regression)

         - Regresi polynomial (polynomial regression)

         - Support vector regression

         - Decision tree regression

         - Random forest regression

         - GAM (Generalized Additive models)


3. RUMUS REGRESI LINEAR

        Rumus Persamanaan garis regresi linear : Y =  a + bX

        dimana,

        Y :  Variabel dependen

         a : konstanta

         b : koefisien variabel X

         X : variabel independen

         Nilai a dan b dapat ditentukan dengan rumus :

                                         

          n : banyaknya sampel

          : jumlah perkalian X.Y

          : jumlah X

         : jumlah Y

         : jumlah

        : jumlah (X)

         : Y bar atau Y prediksi

         : b dikali X bar (data yang digunakan)


    Regresi Linear Berganda

    Rumus persamaan regresi linear berganda :

    Y = b + b1 X2 + b2 X2 + bn Xn + e

    dengan, i = 1, 2, ...n 

    dimana ;

    Y = variaben terikat

    X = variabel bebas

    b = konstanta

    bi = koefisien penduga

        Untuk menghitung b, b1, b1 ...bk dan seterusnya digunakan metode kuadrat terkecil (Least Square     Methode), yang menghasilkan persamaan model sebagai berikut :       

                           

        Untuk dapat memudahkan dalam menghitung b, b1, b2 dapat digunakan matriks sebagai berikut :

                   

       dimana :

        A = matriks (diketahui)

        H = vektor kolom (diketahui)

        b - vektor kolom (tidak diketahui)

      Variabel b dapat diselesaikan dengan :

        Ab = H

        b = A - 1H

 

    Nah, itu dia pembahasan mengenai regresi linear kali ini. Mohon maaf atas apabila ada kesalahan atau kekeliruan, untuk itu kalian boleh komen dibawah apa untuk memperbaiki kekeliruannya atau mungkin ada masukan juga, silahkan tulis di kolom komentar dibawah. Sekian untuk pembahasan blog kali ini, jangan lupa pantengin terus pembahasan di blog-blog selanjutnya. Terima kasih dan Bye :)


 


Tidak ada komentar:

Posting Komentar

Teknik Evaluasi pada Model Machine Learning

Hai, temen-temen semua. Kali ini pembahasannya tentang Teknik Evaluasi pada Model Machine Learning. Gimana sih Teknik Evaluasi itu? Simak pe...