If you're seeing this message, it means we're having trouble loading external resources on our website.

თუ ვებფილტრს იყენებთ, დარწმუნდით, რომ *.kastatic.org და *.kasandbox.org დომენები არ არის დაბლოკილი.

ძირითადი მასალა

კურსი: სტატისტიკა და ალბათობა > თემა 5

გაკვეთილი 5: შესაბამისობის შეფასება უმცირეს კვადრატთა რეგრესიებში

R-კვადრატის გააზრება

როცა პირველად ვისწავლეთ კორელაციის კოეფიციენტის, r-ის, შესახებ ჩვენ ყურადღება გავამახვილეთ იმაზე, რასაც ნიშნავს და არა მის გამოთვლაზე, რადგან გამოთვლები გრძელია.
იგივეს გავაკეთებთ r2-ზე და ვკონცერტრირდებით იმაზე, თუ როგორ მოვახდინოთ იმის ინტერპრეტირება, თუ რას ნიშნავს.
თავისებურად, r2 ზომავს, რამდენად გამოირიცხება პროგნოზის ცდომილება, როცა უმცირეს კვადრატთა რეგრესიას ვიყენებთ.

პროგნოზირება რეგრესიის გარეშე

ჩვენ ვიყენებთ წრფივ რეგრესიას, რომ გავაკეთოთ y-ის პროგნოზი, როცა მოცემული გვაქვს x-ის რაიმე მნიშვნელობა. მაგრამ დავუშვათ, რომ უნდა გაგვეკეთებინა y მნიშვნელობა შესაბამისი x მნიშვნელობის გარეშე.
x ცვლადზე რეგრესიის გამოყენების გარეშე ყველაზე მიზანშეწონილი შეფასება იქნებოდა, უბრალოდ, გაგვეკეთებინა y მნიშვნელობების საშუალოს პროგნოზი.
აქ არის მაგალითი, სადაც პროგნოზის წრფე არის უბრალოდ y მონაცემების საშუალო:
შენიშნეთ, რომ ეს წრფე მონაცემებს კარგად არ შეესაბამება. წრფის შესაბამისობის გაზომვის ერთი გზაა, გამოვთვალოთ ნაშთების კვადრატების ჯამი—ეს გვაძლევს ჯამურ წარმოდგენას იმის შესახებ, თუ ამ მოდელს რამდენი პროგნოზული ცდომილება აქვს.
ასე რომ, უმცირეს კვადრატთა რეგრესიის გარეშე კვადრატების ჯამია 41,1879
უმცირეს კვადრატთა რეგრესიის გამოყენება შეამცირებდა პროგნოზის ცდომილების ოდენობას? თუ ასეა, რამდენით? მოდით, ვნახოთ!

პროგნოზირება რეგრესიით

აქ არის იგივე მონაცემები შესაბამისი უმცირეს კვადრატთა რეგრესიის წრფით და დაჯამებული სტატისტიკით:
განტოლებაrr2
y^=0,5x+1,50,8160,6659
როგორც ჩანს, ეს წრფე მონაცემებს საკმაოდ კარგად შეესაბამება, მაგრამ იმის გასაზომად, თუ - რამდენად კარგად, შეგვიძლია, ისევ შევხედოთ ნაშთების კვადრატების ჯამს:
უმცირეს კვადრატთა რეგრესიის გამოყენებამ ნაშთების კვადრატების ჯამი შეამცირა 41,1879-დან 13,7627-მდე.
ასე რომ, უმცირეს კვადრატთა რეგრესიის გამოყენებამ გამორიცხა პროგნოზის ცდომილების გარკვეული ოდენობა. მაგრამ რამდენი?

R-კვადრატი ითვლის, რამდენად გამოირიცხება პროგნოზის ცდომილება

რეგრესიის გარეშე ჩვენ მოდელს ჰქონდა კვადრატების 41,1879-ის ტოლი ჯამი. უმცირეს კვადრატთა რეგრესიის გამოყენებამ იგი 13,7627-მდე შეამცირა.
ასე რომ, ჯამური შემცირებაა 41,187913,7627=27,4252.
ეს შემცირება შეგვძლია, წარმოვადგინოთ, როგორც პროგნოზის ცდომილების თავდაპირველი ოდენობის პროცენტი:
41,187913,762741,1879=27,425241,187966,59%
თუ უკან დავათვალიერებთ, ვნახავთ, რომ r2=0,6659.
R-კვადრატი გვეუბნება, y ცვლადში პროგნოზის ცდომილების რამდენი პროცენტი გამოირიცხება, როცა უმცირეს კვადრატთა რეგრესიას ვიყენებთ x ცვლადზე.
ამის შედეგად, r2-ს ასევე ეწოდება დეტერნიმაციის კოეფიციენტი.
ბევრი ფორმალური აღწერა ამბობს, რომ r2 გვეუბნება, y ცვლადის ვარიაციის რამდენი პროცენტი ითვლება x ცვლადის რეგრესიით.
საოცარია, რომ r-ის უბრალოდ კვადრატში აყვანა გვაძლევს ამ ზომას. r-სა და r2-ს შორის ამ დამოკიდებულების დამტკიცება საკმაოდ კომპლექსურია და იგი ცდება სტატისტიკის შესავალის კურსის ფარგლებს.

გსურთ, შეუერთდეთ დისკუსიას?

პოსტები ჯერ არ არის.
გესმით ინგლისური? დააწკაპუნეთ აქ და გაეცანით განხილვას ხანის აკადემიის ინგლისურენოვან გვერდზე.