Uploaded by Jakhongir Usarov

M.O'.K 3

advertisement
O’ZBEKISTON RESPUBLIKASI
RAQAMLI TEXNOLOGIYALA VAZIRLIGI
MUHAMMAD AL-XORAZMIY NOMIDAGI
TOSHKENT AXBOROT TEXNOLOGIYALARI UNIVERSITETI
QARSHI FILIALI
“KOMPYUTER INJINERINGI” FAKULTETI
3-BOSQICH KI-11-21(S) GURUH TALABASI
Boynazarov Abdulloning
“ Mashinali o’qitishga kirish” FANIDAN
Mustaqil ishi
Bajardi:
Boynazarov A.
Qabul qildi:
Shukurova M.
QARSHI – 2024
3-Mustaqil ish
REJA:
(Mustaqil ish mavzulari)
⁃ Mashinali o‘qitishning zamonaviy sinflashtirish algoritmlarini o‘rganish.
⁃ Ochiq manbali o‘quv namunalari uchun yuqori samaradorli klasterlash algoritmi
⁃ Python dasturlash tilida klasterlash masalasi va klasterlashning aniqligini
baholash.
1. Sun’iy intellek nima? Mashinali o‘qitish va suniy intellekt.
Sun’iy intellekt (SI) — bu, kompyuterlarning, mexanik usullar yordamida o‘rganish, fikrlash,
maslahat berish, muammolarni yechish, ko‘mak bermoq va boshqa intellektual vazifalarni bajarish
qobiliyatlari. Bu texnologiyalar, inson intellektual faoliyatini emulyatsiya qilish, ma’lumotlarni
o‘rganib chiqish, mavzularni tahlil qilish va maslahat berish kabi vazifalarni bajarishda ishlatiladi.
Mashinali o‘qitish, yoki ma’lumotlarni tushuntirish (machine learning) SIning asosiy qismini bildiradi. Bu, kompyuterlarga ma’lumotlarni o‘rganish, moslashuvlarni aniqlash va aniqlangan malumotlarga asoslangan sifatli qarorlar qabul qilish uchun algoritmlarni yaratish usullaridan biridir. Bu
texnologiyalar o‘rganilayotgan ma’lumotlar bilan o‘zgaruvchanlikni ko‘rib chiqadi va o‘z-o‘zini
ishlab chiqish, takrorlash va yangi narsalarni o‘rganish orqali o‘zini yaxshilash qobiliyatiga ega
bo‘ladi. Bu xususiyatlar, mashinali o‘qitishni siyosiy sohasiga o‘rnatish uchun qo‘llaniladi va
ko‘pchilik sohalarda qo‘llanilmoqda, masalan, telekomunikatsiya, tibbiyot, transport, va boshqalar.
2. Mashinali o‘qitish algoritmlarini qo‘llanish sohalari.
Mashinali o‘qitish algoritmlari bir nechta sohalarda foydalaniladi. Ularning ba'zilari quyidagilardir:
1. Sifatli Boshqaruv (Supervised Learning): Bu, ma'lumotlar va undagi moslashuvlar
o'rtasidagi munosabatlarni aniqlash uchun foydalaniladi. Misol uchun, klassifikatsiya (classification), regressiya (regression) va boshqa vazifalarni hal qilishda ishlatiladi.
2. Nazoratli Olmagan O‘qitish (Unsupervised Learning): Bu algoritmlar, ma'lumotlar
orasidagi ajralmas moslashuvlarni aniqlash uchun ishlatiladi. Bu yordam bilan ma'lumotlar
tahlil qilinishi mumkin, masalan, klasterlash (clustering) va boshqa usullar orqali.
3. Qismli Boshqaruv (Semi-Supervised Learning): Bu, qismen etiketlangan ma'lumotlar bilan qismen etiketsiz ma'lumotlarni ishlatish orqali amalga oshiriladi.
4. Munozara Tizimi (Reinforcement Learning): Bu usulda, nazoratli muhitda agent (masalan, robot yoki dastur) muomala bajaradi va kelajakda eng yaxshi natijalarni olish uchun
murojaat qiladi.
5. O‘z-o‘zini o‘rganish (Self-Supervised Learning): Bu, ma'lumotlar o'zlarini boshqarib o'zo'zini o'rganish uchun yorliq, o'rganish vaqti darajasini oshirish usullarini o'rganadi.
Bu algoritmlar turli sohalarda qo‘llaniladi, masalan:
• Ma'lumotlar Analizi: Statistik ma'lumotlar, so‘rovlarni aniqlash, klasterlash, tahlil va
ma'lumotlar interpretatsiyasi.
• Raqamli Ruxsatlar va Tasvir Ishlovchilari: Tasvirlarni tushuntirish, tasvirlarni klasifikatsiya qilish, obyektlarni aniqlash va boshqa vazifalar.
• Tabiatiy Tillar va So‘zni Tushuntirish: So‘zlar, gaplar, matnlar va boshqa tillarni
tushuntirish, tarjima qilish, so‘zlarni tartiblash.
• Ishbilarmonlik va Biznes: Ishbilarmonlikda optimallashtirish, mahsulotni takomillashtirish, sotish-strategiyalarini yaratish.
• Robototexnika va Avtomatlashtirish: Robotlar, otomatlashtirilgan mashinalar va texnik
qurilmalar uchun mavzular.
• Tibbiyot va Salomatlik: Bemorlar diagnostikasi, salomatlik monitoringi, dori nazorati va
boshqalar.
Har bir soha, algoritmlar va usullar o‘ziga xosdir, va ular turli vazifalarni hal qilishda yordam beradi.
3. Mashinali o‘qitishning asosiy turlari.
Mashinali o‘qitishning asosiy turlari ma'lumot turi, usul va maqsadlari bo‘yicha farqli bo‘lishi
mumkin. Ammo, umumiy ravishda mashinali o‘qitish turlari quyidagilardir:
1. Sifatli Boshqaruv (Supervised Learning): Bu turda, ma'lumotlar to‘g‘ri javoblari bilan
etiketlangan. Maqsad, kompyuter algoritmlarining ma'lumotlardan o‘qigan narsalar va
undagi munosabatlarni tushuntirib olishi. Klassifikatsiya (classification) va regressiya (regression) bu tur mashinali o‘qitishning o‘zgaruvchan turlaridan ikkalasi.
2. Nazoratli Olmagan O‘qitish (Unsupervised Learning): Bu turda, ma'lumotlarga etiketlar
qo‘yilmagan. Algoritmlar o‘z-o‘zini o‘rganadi va ma'lumotlar orasidagi ajralmas munosabatlarni aniqlashga harakat qiladi. Klasterlash (clustering) va tahlil (association) bu tur mashinali o‘qitishning misollaridan.
3. Qismli Boshqaruv (Semi-Supervised Learning): Bu, qismen etiketlangan ma'lumotlar bilan qismen etiketsiz ma'lumotlarni ishlatish orqali amalga oshiriladi. Bu usulda etiketsiz
ma'lumotlardan foydalanib, ularni qo‘llab-quvvatlash maqsad qilinadi.
4. Munozara Tizimi (Reinforcement Learning): Bu turda, agent (masalan, robot yoki dastur)
nazoratli muhitda harakat qiladi va o‘zini o‘zgartirish uchun murojaat qiladi. Agent kelajakda eng yaxshi natijalarni olishga intiladi va murojaat qilgan harakatlarni o'rganadi.
5. O‘z-o‘zini o‘rganish (Self-Supervised Learning): Bu turda, ma'lumotlar o'z-o'zini
boshqaradi. Bu, ma'lumotlarni o'rganishda o'z-o'zini o'rganish uchun yorliq, o'rganish vaqti
darajasini oshirish va o'z-o'zini tuzatish usullaridan foydalanadi.
Bu turdagi mashinali o‘qitish usullari har birining o‘z turlari va maqsadlari bor. Ularni turli sohalarda va turli vazifalarda qo‘llash mumkin, va ulardan har birining xususiyatlari va afzalliklari
mavjud.
4. An’anaviy dasturlash va mashinali o‘qitish yordamida dasturlash.
An'anaviy dasturlash va mashinali o‘qitish, dasturlashning ikki muhim usuli hisoblanadi. Bu usullar
dasturlashda turli vazifalarni hal etish uchun foydalaniladi, va ularning farqlari va yordamchi taraflari mavjud:
1. An'anaviy Dasturlash:
• Prinsip: Bu usulda dasturchi, har bir qadamni aniqlaydi va o‘zgaruvchan algoritmlarni to‘g‘ri natijaga olib borish uchun kod yozadi.
• Amaliyoti: Dasturchi, maqsadlangan vazifalarni tushuntiradi va mos keluvchi
dasturni yaratish uchun algoritmlar yozadi.
• Maqsad: Belgilangan vazifani bajaruvchi dasturlarni yaratish.
2. Mashinali O‘qitish:
• Prinsip: Bu usulda esa dasturchi, ma'lumotlar asosida algoritmlarni o‘rganish,
o‘zgaruvchan algoritmlarni yaratish va ulardan o‘z-o‘zini ishlab chiqish uchun foydalaniladi.
• Amaliyoti: Algoritmlar ma'lumotlar to‘plami asosida o‘z-o‘zini o‘zgartiradi va
o‘zini takomillashtiradi. Bu usulda ma'lumotlar tahlil qilinib, dasturlash modellari
yaratiladi.
• Maqsad: Ma'lumotlardan o‘qib chiqish, ma'lumotlarni tahlil qilish, klasterlash, klassifikatsiya va regressiya uchun modellar yaratish.
Bu usullar bir-birini qo‘llab-quvvatlaydi va turli vazifalarni hal etishda foydalaniladi. An'anaviy
dasturlashda dasturchi har bir qadamni aniqlab olish, o‘zgaruvchan algoritmlarni yozish va dastur
qilishda mahir bo‘lish kerak. Mashinali o‘qitish esa ma'lumotlar tahlil qilish, algoritmlarni yaratish
va ulardan o‘z-o‘zini ishlab chiqish uchun ma'lumotlardan foydalanadi. Bunday usullar birgalikda
ham ishlatilib, yaxshi natijalar olish uchun integratsiyalanadi.
5. Mashinali o‘qitishda o‘qituvchili (supervised) o‘qitish tushunchasi.
Mashinali o‘qitishda "o‘qituvchili (supervised) o‘qitish" - bu tushuncha, ma'lumotlar to‘plami bilan
bog‘liq natijalarni belgilash uchun foydalaniladigan o‘qitish usuli. Bu usulda, algoritm ma’lumotlar
to‘plami asosida o‘rganishni amalga oshiradi, va bu ma’lumotlar etiketlar yordamida aniqlovchi
belgilar (target values) bilan birgalikda qo‘llaniladi.
Bu tur usulda ma’lumotlar (masalan, turli xususiyatlardan iborat ko‘plab ma'lumotlar) va ularga
mos keladigan maqsad (masalan, narxlarni bashorat qilish yoki turini aniqlash) bo‘yicha
etiketlangan maqsad (target) bilan ta’minlanadi.
O‘qituvchili o‘qitishning keyinchalik algoritmlarda qo‘llanilishida, algoritm bir ma’lumotlar
to‘plamini (training dataset) o‘qiydi va u holda o‘zini o‘rgatadi. Dastlab, bu usulning boshqaruvini
dasturchi bajaradi va algoritmga o‘rganish jarayoni davom etadi.
Maslahat berish maqsadida, algoritm ma’lumotlar to‘plamidagi ma'lum bir obyekt haqida bilish
uchun o‘rgatiladi. Agar masala klassifikatsiya bo‘lsa, algoritm ma’lum bir obyektni turiga qarab
bo‘lish uchun o‘rgatiladi. Yoki regressiya masalasida, algoritm belgilangan qiymatlarni bashorat
qilish uchun o‘rgatiladi.
O‘qituvchili o‘qitish mashhur algoritm turlari, masalan, qo‘llanilgan dasturlar, mavjud ma’lumotlar
to‘plami va ularning mos keladigan maqsadlari bo‘yicha etiketlanishi, klassifikatsiya (classification)
va regressiya (regression) uchun foydalaniladi. Bu usul yordamida algoritmlar ma’lumotlar
to‘plamiga ko‘ra o‘zlarini o‘rgatib, keyinchalik yangi ma’lumotlar bilan ishlashda yaxshi natijalarni
olishadi.
6. Mashinali o‘qitishda o‘qituvchisiz (unsupervised) o‘qitish tushunchasi.
Mashinali o‘qitishda "o‘qituvchisiz (unsupervised) o‘qitish" - bu tushuncha, ma'lumotlar to‘plamining biror turlarini aniqlash uchun foydalaniladigan o‘qitish usuli. Bu usulda, etiketlar yordamida
ma'lumotlarni o‘rganish mumkin emas, va algoritm ma’lumotlar to‘plamidagi ajralmas munosabatlarni, tuzilmalarini aniqlashga harakat qiladi.
O‘qituvchisiz o‘qitishni foydalanilayotgan algoritmlar ma'lumotlar to‘plamini tahlil qilish, klasterlash (clustering), dimensiyalarini kamaytirish (dimensionality reduction), yoki biror boshqa o‘qitish
vazifalari uchun foydalanilishi mumkin.
Keyinchalikda o‘qituvchisiz o‘qitishda foydalaniladigan asosiy usullar quyidagilardir:
1. Klasterlash (Clustering): Ma'lumotlar to‘plamini kelib chiqqan turli guruhlarga (klasterlarga) bo‘lish. Bu usul, o‘xshash xususiyatlarga ega obyektlarni bir qator guruhlarga joylash
uchun foydalaniladi.
2. Birlashtirish (Association): Ma'lumotlar orasidagi munosabatlarni aniqlash va bir-biriga
qanday ta'sir qilishini tushuntirish. Bu usul tijoratda buyurtmalar, yangi yo‘nalishlarni
aniqlash, va boshqa tahlillar uchun foydalaniladi.
3. Tahlil (Dimensionality Reduction): Ma'lumotlarni kamaytirib, ulardagi muhim
tuzilmalarni aniqlash. Bu, ma’lumotlar to‘plamini eng muhim xususiyatlar bilan ifodalash
uchun foydalaniladi va vizualizatsiya qilishni osonlashtiradi.
4. O‘z-o‘zini tuzatish (Self-Organizing Maps): Bu usulda, o‘z-o‘zini tuzatish, ma'lumotlar
orasidagi bog‘lanishlarni aniqlash va obyektlarni o‘rganish uchun foydalaniladi.
O‘qituvchisiz o‘qitishda, algoritmlar o‘z-o‘zini o‘rganish va ma'lumotlarni tahlil qilish orqali
o‘rganish jarayonlarini o‘rganadi. Bu tur usullar, ko‘p masofada, ma’lumotlar tahlil qilinib, umumiy
qonunlar va munosabatlarning aniqlanishiga yo‘naltiriladi.
7. Mashinali o‘qitishda yarim nazoratda(semi- supervised) o‘qitish tushunchasi.
Yarim nazoratda (semi-supervised) o‘qitish, mashinali o‘qitishning yomon-etiketlangan ma'lumotlarni qo‘llash va etiketlangan ma'lumotlarni bir vaqtning o‘zida ishlatish usulidir. Bu usul mashhur, chunki ko‘p hollarda ma'lumotlar to‘plamida etiketlangan ma’lumotlar kam, ammo etiketsiz
ma'lumotlar ko‘p bo‘ladi.
Bu usulda qo‘llaniladigan qisqa ta'rif: Etiketlangan ma'lumotlar to‘plami (turli asosda ozuqlikda
etiketlangan) bilan birlikda etiketsiz ma'lumotlar to‘plami ishlatiladi. Etiketlangan ma'lumotlar
yordamida o‘rganish amalga oshiriladi va o‘z-o‘zini o‘rganish jarayonida etiketsiz ma'lumotlar ham
foydalaniladi.
Yarim nazoratda o‘qitishning asosiy maqsadi, etiketlangan ma'lumotlardan foydalanib, etiketsiz
ma'lumotlarni qo‘llab-quvvatlash orqali ma'lumotlar to‘plamining barcha qismini o‘z-o‘zini o‘rganishga tortishdir. Bu usul ma'lumotlar to‘plamining hajmi katta bo‘lsa yoki etiketlangan ma'lumotlar
qiyinchilik bilan topilgan bo‘lsa, yarim nazoratda o‘qitish foydali bo‘ladi.
Masalan, elektron pochta xabarlari yoki sosial tarmoq ma’lumotlari yoki tibbiy ma’lumotlar
to‘plami etiketlangan bo‘lsa, buning ustida mashinali o‘qitish amalga oshiriladi. Shuningdek, o‘zo‘zini o‘rganish uchun etiketlanmagan ma’lumotlar da qo‘llaniladi va yorliqlar asosida o‘rganish
natijalari yaxshi bo‘ladi. Bu usulda etiketlangan ma’lumotlar kiritilgan bo‘lsa-da, uning miqdori
juda kam bo‘lsa, yarim nazoratda o‘qitish qulayliklar bilan foydalanishga imkoniyat beradi.
8. Chiziqli regressiya tushunchasi. Bir o‘zgaruvchili va ko‘p o‘zgaruvchili chiziqli regressiya.
Chiziqli regressiya statistik analizning bir qismidir va boshqa o'zgaruvchilarni boshqa
o'zgaruvchilarga bog'lash uchun foydalaniladi. Bu regressiya turining asosiy maqsadi, bir yoki bir
nechta o'zgaruvchilarni boshqa bir o'zgaruvchiga bog'lashdan kelib chiqqan bog'liqlikni aniqlash.
1. Bir O‘zgaruvchili Chiziqli Regressiya: Bu regressiya turi, bitta bog‘liq o'zgaruvchining
boshqa o‘zgaruvchiga qanday ta'sir ko'rsatishi aniqlanishiga oid bo‘ladi. Masalan, bir
xususiyat (masalan, tezlik, uzunlik yoki narx) boshqa xususiyatga (masalan, sotishlar miqdori yoki mahsulotning narxi) qanday ta'sir qilishi o‘rganiladi.
2. Ko‘p O‘zgaruvchili Chiziqli Regressiya: Bu regressiya turida, bir nechta o‘zgaruvchilar
bitta o‘zgaruvchiga ta'sir ko‘rsatishi hisoblanadi. Bu, masalarni hal qilish uchun ko'p
xususiyatlarning qanday ta'sir ko'rsatishi uchun ishlatiladi. Misol uchun, avtomobilning
sotish narxi odatda bir nechta xususiyatlarga (masalan, yil, tezlik, motor hajmi, rang va h.k.)
bog‘liq bo‘ladi.
Bu regressiya turlari, statistik analiz va proqnozlashda keng qo‘llaniladi. Ular, o‘zlarini biznesda,
maishiy maqsadlar uchun, sotsiologiyada, iqtisodiyotda va boshqa sohalarida ko'p joyda qo'llabquvvatlanadi. Bu regressiya usullari, ma'lumotlar olish va ma'lumotlardan foydalanib, mos keluvchi
xulosalarni aniqlashda va prognorzlashda ishlatiladi.
9. Logistik regressiya tushunchasi. Logistik regresssiyada qaror chegarasi tushunchasi.
Logistik regressiya, boshqa o'zgaruvchilarni bitta binar yoki ikki holatli o'zgaruvchiga bog'lash
uchun foydalaniladigan statistik regressiya turidir. Ushbu regressiya turida, biror natija yoki hodisa
(masalan, haqiqiy yoki falsqachcha, boshqalar) belgilanishi uchun binar (0 yoki 1) yoki ikki holatli
(masalan, pozitiv yoki negativ, yoki “tug'ilgan” yoki “tugilmagan” deb ifodalangan) o'zgaruvchilar
ishlatiladi.
Logistik regressiya asosan qaror qabul qilishni aniqlashda va taxminiy modellarni yaratishda qo'llaniladi. Ushbu regressiya turining maqsadi, ma'lumotlar to'plami asosida biror narsa yoki vazifani
aniqlash va belgilashdir. Misol uchun, logistik regressiya foydalanilishi mumkin:
• Marketinq va Reklama: Foydalanuvchilarning mahsulotni sotib olish yoki xizmatlardan
foydalanish qarorlarini aniqlash.
• Tibbiyot: Bir kasallikni aniqlash yoki davolashni boshlash uchun asosiy o'zgaruvchilarni
aniqlash.
• Iqtisodiyot va Moliyaviy Analiz: Kreditni bermoqqa qaror qabul qilish, yuqori riskli
tranzaktsiyalarni aniqlash.
Qaror chegarasi (decision boundary) esa logistik regressiyada ma'lumotlar to'plamidagi barcha
nuqtalarni ikki toifa (yoki bir necha) guruhga bo'lish uchun ishlatiladi. Bu ikki guruhning (masalan,
0 va 1 yoki “tug'ilgan” va “tugilmagan”) orasidagi chegarasi logistik regressiya modeli tomonidan
aniqlanadi. Bu chegarani olish orqali, modelning baholashini, aniqlashini va taxminiy xususiyatlarni
boshqarish imkoniyati paydo bo'ladi.
10. Logistik regressiya yordamida ko‘p sinfli sinflashtirish.
Ko'p sinfli sinflashtirish, logistik regressiya yordamida bitta natijani bir nechta sinflarga bo'lish
uchun foydalaniladi. Bu, ma'lumotlarni sinf ko'rinishida ajratishni va ta'riflashni amalga oshirish
uchun muhim bo'lgan usul.
Logistik regressiya asosan ikki sinfli sinflashtirish uchun ishlatilsa-da, ko'p sinfli sinflashtirishda
ko'p sinfli ma'lumotlar jamlanadi va ulardan bir nechta sinflarga ajratiladi. Bu, ma'lumotlar to'plami
odatda bir-biridan farqli bo'lgan qo'llaniladigan sinflarni aniqlashda ishlatiladi.
Ko'p sinfli sinflashtirishni logistik regressiya yordamida o'rganish jarayoni quyidagicha amalga
oshiriladi:
1. Ma'lumotlar To'plamini Tuzish: Ma'lumotlar to'plamini tuzib chiqish va tozalash jarayoni.
Bu qadam ma'lumotlar to'plamidagi o'xshashliklarni va farqlarni tushuntirish uchun muhimdir.
2. Modelni Yaratish: Logistik regressiya modeli yaratiladi. Bu model ma'lumotlar to'plamidagi barcha sinflarni aniqlaydi va ulardan bir nechta sinflarga ajratadi.
3. Ma'lumotlar Bilan O'rgatish: Model ma'lumotlar to'plami orqali o'rgatiladi. Uning o'rgangan natijalari (ko'p sinfli sinflar) ta'kidlanadi va keyinchalik sinflash algoritmi uchun foydalaniladi.
4. Natijalarni Baholash va Sinflash: Model natijalarining to'g'ri yoki noto'g'ri bo'lishini
baholash uchun test ma'lumotlaridan foydalaniladi. Sinflash algoritmi natijalarni sinflarga
bo'lishda ishlatiladi.
Ko'p sinfli sinflashtirish, turli sohalar uchun foydalaniladi, masalan, tibbiyotda kasalliklarni
sinflash, ma'lumotlar analizi, axborotlar sinflash va boshqalar. Bu usul, ma'lumotlarni sinflashda
yaxshi natijalarga erishishda yordam beradi va aniqlash uchun foydali bo'ladi.
11. Mashinali o‘qitishda ma’lumotlarni grafik tarvirlash.
Ma'lumotlarni mashinali o‘qitish jarayonida grafik tarvirlash, ma’lumotlarni vizual ravishda
ko‘rsatish va tahlil qilishda juda muhimdir. Bu, ma’lumotlarni o‘qish, tahlil qilish, muhokama qilish
va eng muhim qarorlarni qabul qilishda foydalaniladi. Quyidagi usullar ma’lumotlarni grafik
tarvirlashda qo‘llanilishi mumkin:
1. Histogrammalar: Ma'lumotlar to‘plamining o‘zgaruvchilari yoki distributsiyasi haqida
tushuncha berish uchun foydalaniladi. Misol uchun, ma'lumotlar jamlanishini va ularning
chegaralarini ko‘rsatishda ishlatiladi.
2. Qutbli Diagrammalar: Ma'lumotlar to‘plamining diskret o‘zgaruvchilarini (masalan, kategorik ma’lumotlar) ko‘rsatishda foydalaniladi. Bu diagrammalar kategoriyalardagi ma'lumotlarning miqdorini ko‘rsatadi.
3. Satorlar (Line Plots): Vaqt oralig‘ida o‘zgarayotgan ma'lumotlarni (masalan, vaqt, kattalik,
tezlik va boshqalar) ko‘rsatishda foydalaniladi.
4. Tizimlar (Scatter Plots): O‘zgaruvchilar o‘rtasidagi ta'sir va bog‘lanishlarni tushuntirish
uchun foydalaniladi. Ular ikki o‘zgaruvchining o‘rtasidagi munosabatlarni ko‘rsatadi.
5. Isobands va Isolines: Ma'lumotlarning qanday joylashganligi yoki o‘zgarishlari bo‘yicha
vizual tushunchalar yaratish uchun ishlatiladi.
6. Box Plots: Ma'lumotlarning distributsiyasi, o‘rtacha qiymatlari, minimum va maksimum
qiymatlari ko‘rsatishda ishlatiladi.
7. Heatmaps: Ma'lumotlar to‘plami o‘rtasida munosabatlar va mosliklar tushunchalarini vizual
ko‘rsatishda foydalaniladi.
8. Pie Charts: Ma'lumotlar to‘plami qisqa to‘plamlar (yog‘, ularning o‘rni, foizdagi ulushi)
ko‘rsatish uchun ishlatiladi.
9. Violin Plots: Ma'lumotlarning distributsiyasi va o‘zgarishlarining ko‘rsatkichlari bo‘yicha
vizual tushunchalar yaratishda foydalaniladi.
Bu usullar mashinali o‘qitishda ma‘lumotlarni vizual ravishda tahlil qilishda foydalaniladi. Ular
ma'lumotlarning o‘qishini, bog‘lanishlarini va muhokama qilishini osonlashtiradi. Vizualizatsiya,
ma‘lumotlar tahlili va tushuntirishda juda kuchli vosita hisoblanadi, chunki u tushunchalarini oshiradi va ma‘lumotlarni ko‘rishni osonlashtiradi.
12. Xatolik (cost) funksiyasi tushunchasi.
Xatolik (cost) funksiyasi, mashinali o‘qitishda va optimallashtirishda sodir bo‘lgan xatolikni (yoki
kamchilikni) aniqlash uchun foydalaniladi. Bu funksiya, asosan belgilangan modelning yoki algoritming qanday yaxshi amalga oshirishini baholash uchun ishlatiladi.
Xatolik funksiyasi, belgilangan bir amalga oshirish (optimizatsiya) masalasi uchun modelning
aniqligini baholashda yoki ma'lumotlarga mos keluvchi modelni tanlashda muhimdir. Bu funksiya
modellarning o‘zgaruvchilarni to‘g‘ri belgilash, natijalarni nazarda tutish, va boshqalar kabi parametrlarni boshqarishda foydalaniladi.
Maslahat berish maqsadida, xatolik funksiyasi modelning "xatolarini" baholash uchun xizmat qiladi. Agar modelimiz ma'lumotlarni qanday yaxshi aniqlashni talab qilsa, xatolik funksiyasi modelning kiritilgan ma'lumotlardagi xatolik darajasini baholash orqali aniqlaydi. Bu baholash esa modelni moslashtirish va uni yaxshilash uchun yo‘naltirishda yordam beradi.
Xatolik funksiyasi har bir masalada o‘ziga xos bo‘ladi, ya'ni masala turlariga va modelning ko‘rsatish xususiyatlariga bog‘liqdir. Misol uchun, regressiya masalasida o‘zgaruvchilar to‘g‘risidagi
kvadratik xatolik funksiyasi yoki klassifikatsiya uchun logaritmik xatolik funksiyasi foydalanilishi
mumkin.
Xatolik funksiyasi modellarning qanday yaxshi ishlashini baholashda muhim ahamiyatga ega
bo‘lib, modelni yaxshilash va aniqlashda kritik parametr hisoblanadi. Bu funksiya modellarni
yaxshilashda qo‘llaniladi va har bir modellarga o‘ziga xos holda ishlaydi.
13. Gradient tushish tushunchasi.
"Gradient tushish" — bu matematik konsepti, funksiyaning eng tez o'sish yo'nalishini (o'zgarishlarini) ifodalovchi vektor. Tushish, funksiyaning har bir nuqtadagi o'zgarish tezligini bildiradi va bu
tezlikning yo'nalishi esa funksiya bo'yicha eng tez o'sish yo'nalishini ko'rsatadi.
Agar funksiya har bir nuqtadagi o'zgarish tezligini aniqlash kerak bo'lsa, gradient tushish usuli
qo'llaniladi. Bu usul matematikaviy jihatdan funksiya ning har bir o'zgaruvchisi bo'yicha funksiyaning o'zgarish tezligini aniqlab chiqadi.
Tezlikning yo'nalishi esa funksiyaning ularning balandlik yoki pastlik yo'nalishlarini ko'rsatadi. Masalan, tezlikning eng baland yo'nalishi funksiyaning eng tez o'sish yo'nalishi bo'ladi va funksiya
tengsizliklarining yuqori nuqtalariga tegishli bo'ladi.
Gradient tushish funksiyasining ko'rinishi esa quyidagi formuladan foydalaniladi:
∇ f(x,y,z)=(∂x∂f,∂y∂f,∂z∂f)
Bu formulada f — bu funksiya, x, y, va z esa u funksiya bo'yicha o'zgaruvchilar. ∂x∂f, ∂y∂f, va ∂z∂f
esa murojaat qilingan o'zgaruvchilar bo'yicha funksiyaning birinchi murakkabliklarini ifodalovchi
yo'nalishlar (partial derivatives).
Gradient tushish, optimizatsiya algoritmalarida, mashinali o'qitishda va boshqa hisob-kitoblarda
ko'p qo'llaniladi. Maslahat berish maqsadida funksiyaning o'zgarish tezligi va yo'nalishini
aniqlashda foydalaniladi. Bu esa funksiyaning eng ko'p o'sadigan yo'nalishini aniqlash va uni optimallashtirishga yordam beradi.
14. O‘qitish jarayonida regulyarizatsiyalash.
O‘qitish jarayonida regulyarizatsiyalash, modelning overfitting (o‘zi bilan tortish) ni kamaytirish
uchun ishlatiladigan usuldir. Overfitting, modelning o‘qitilgan ma’lumotlarga juda yaxshi moslashishi, ammo o‘qitilmagan ma’lumotlarga yaxshi moslashishdan ko‘ra kam bo‘lishidir. Bu esa modelning amaliyotda aynan vaqtinchalik yaxshi ishlashini kamaytiradi.
Regulyarizatsiya, modellarga qo‘shimcha shartlar qo‘shish orqali o‘qitish jarayonida ishlatiladi.
Ular asosan ikki turdadir: L1 regulyarizatsiya va L2 regulyarizatsiya.
1. L1 Regulyarizatsiya (Lasso Regulyarizatsiya): Bu regulyarizatsiya usuli modellarga L1
normani qo‘shib, modellarga qo‘shimcha shartlar kiritadi. Bu shartlar modellarning bir
nechta parametrlarini nollarga yaqinlashtiradi, bu esa modellarga qisqa yechimlar (sparse
solutions) chiqarishda yordam beradi. Shu sababli, bu regulyarizatsiya usuli haqiqiy ma’lumotlarda kam foydalaniladigan parametrlarni tanlash uchun qulaydir.
2. L2 Regulyarizatsiya (Ridge Regulyarizatsiya): Bu usulda modellarga L2 normani
qo‘shish orqali qo‘shimcha shartlar kiritiladi. Ushbu shartlar modellarning parametrlarini
kattalashtiradi, ammo ularni ham nolga yaqinlashtirmaydi. L2 regulyarizatsiya modellarni
o‘qitish va sinovda o‘zgaruvchilarga o‘zlarining qiymatlarini kamaytirishda yordam beradi.
Regulyarizatsiya modellarni yaxshi o‘rgatish va sinovdan so‘ng moslashuvni yaxshilashda foydalaniladi. U, o‘qitish jarayonida modelning o‘zgaruvchilarini kontrol qiladi va shunday qilib,
o‘zgaruvchilar orasidagi eng muhim bo‘lganlarni aniqlash va ularni modelning muhimlik darajasiga
muvofiq qo‘llab-quvvatlashga yordam beradi. Bu esa modelning o‘zini ko‘tarib borish, o‘qitilgan
ma’lumotlar va yangi ma’lumotlar orasidagi ishlab chiqishni yaxshilashda yordam beradi.
15. Model qurishda bo‘ladigan Underfitting muammosi va uni hal qilish usullari
Underfitting, model o‘qitilganda modelning o‘zgaruvchilarni o‘zlashtirishda juda minimalistik
bo‘lishi sababli sodir bo‘ladi. Bu esa modelning o‘qitilgan ma’lumotlarga ham yangi ma’lumotlarga
mos kelmay qolishi aniqroq ko‘rsatki. Underfitting haqiqiy dunyoda ma‘lumotlar bo‘yicha juda
osonroq yechim topishning natijasi bo‘ladi.
Underfitting muammolari quyidagi sabablarga olib keladi:
1. Modelning Osonligi: Model juda oddiy bo‘lishi mumkin, masalan, juda kam parametrlarga
ega bo‘lishi.
2. Ma‘lumotlar Soni: Ma‘lumotlar soni juda kam bo‘lishi, masalan, o‘qitish uchun yetarli
ma‘lumotlar mavjud emas yoki ma‘lumotlar juda simplifikatsiyalangan.
Underfitting ni hal qilish uchun quyidagi usullardan foydalanish mumkin:
1. Modelning Ko‘rsatishi: Modelning murakkabligini oshirish, masalan, ko‘p parametrlarga
ega bo‘lishi yoki murakkab qoidalarni qo‘llash.
2. Ma‘lumotlar Sonini Oshirish: O‘qitish uchun yetarli ma‘lumotlar to‘plamini to‘plash va
qo‘shimcha ma‘lumotlar (masalan, yangi o‘zgaruvchilar) qo‘shish.
3. Regulyarizatsiya Qo‘llash: Modelning Overfitting bo‘lishini kamaytirish uchun regulyarizatsiya usullaridan foydalanish. Bu usullar modelning o‘zgaruvchilarini limitlash va modelning moslashuvini yaxshilash uchun foydalaniladi.
4. Optimizatsiya parametrlari: Modelning amalga oshirishida ishlatilgan parametrlarni
o‘zgartirish, misol uchun gradientni kamaytirish yoki optimum yechimni qidirish algoritmlaridan foydalanish.
Underfitting muammolari kerakli modellarni yaxshilash va ma‘lumotlar o‘qitishini yaxshilash
uchun qulaydir. Bu esa modelning aniqligini yaxshilash va yangi ma‘lumotlarga ham yaxshi moslashishga yordam beradi.
16. Model qurishda bo‘ladigan Overfitting muammosi va uni hal qilish usullari
ChatGPT
Overfitting, modelning o‘qitilgan ma’lumotlarga juda yaxshi moslashishi, ammo o‘qitilmagan
ma’lumotlarga yomon moslashishi holatidir. Bu muammo esa model o‘qitilgan ma’lumotlar ustida
yaxshi natijalar chiqarib, o‘qitilmagan ma’lumotlarga mos kelmaydi.
Overfitting muammolari quyidagi sabablarga olib keladi:
1. Modelning Murakkabligi: Model juda murakkab bo‘lishi, masalan, ko‘p parametrlarga ega
bo‘lishi va juda murakkab qoidalarni qo‘llash.
2. Ma‘lumotlar Soni: Agar ma‘lumotlar soni juda ko‘p bo‘lsa, model o‘qitilgan ma‘lumotlarga yaxshi moslashadi, ammo o‘qitilmagan ma‘lumotlarga yomon moslashadi.
3. Taqiqlovchi Ma‘lumotlar: Agar o‘qitish va sinov (validation) datasi orasidagi farq juda
katta bo‘lsa, bu ham Overfitting muammo ko‘rsatadi.
Overfitting ni hal qilish uchun quyidagi usullardan foydalanish mumkin:
1. Ma‘lumotlar Sonini Oshirish: Ma‘lumotlar sonini oshirish, yani yangi ma‘lumotlar
qo‘shish yoki mavjud ma‘lumotlarni qo‘llash.
2. Cross-Validation: Ma‘lumotlarni o‘qitish va sinov (validation) uchun boshqa to‘plamlarga
bo‘lish. Bu modelning umumiylik darajasini sinab ko‘rish uchun yordam beradi.
3. Regulyarizatsiya Qo‘llash: Modelning murakkabligini kamaytirish uchun regulyarizatsiya
usullaridan foydalanish. Bu usullar modelning o‘zgaruvchilarini cheklashda yordam beradi.
4. Parametrlarni Cheklash: Modelning amalga oshirishida ishlatilgan parametrlarni
ozg‘aruvchilarni tekshirib ko‘rish, misol uchun gradientni kamaytirish yoki optimum
yechimni qidirish algoritmlaridan foydalanish.
Overfitting muammolari modelning o‘zini yaxshilash va yangi ma‘lumotlarga ham yaxshi moslashish uchun qulaydir. Bu esa modelning amaliyotda yaxshi ishlayotganini ta’minlash va o‘qitilgan
ma‘lumotlar bilan sinovdan so‘ng yangi ma‘lumotlarga ham mos kelishini ta’minlash uchun muhimdir.
17. Bias va Variance tushunchasi.
ChatGPT
Bias va variance, modelning o‘zgaruvchilarni o‘zlashtirishda yoki modelning o‘qitilgan ma’lumotlarga va yangi ma’lumotlarga moslashishida aniqlikni tushuntiradigan muhim konseptlardir.
Bias (Sesganlik): Bias modelning o‘qitilgan ma’lumotlarga qanday yaxshi moslashishini ifodalaydi. Agar model juda simplifikatsiyalangan bo‘lsa (bias ko‘p bo‘lsa), bu model o‘qitilgan ma’lumotlarga ham yangi ma’lumotlarga ham yaxshi moslashmaydi. Bias, aslida modelning o‘zining
umumiylik darajasini ifodalaydi.
Variance (Shuningdek, Varyans): Variance esa modelning o‘qitilgan ma’lumotlarga nisbatan
qanday hisobda ziddiyat ko‘rsatishi. Agar model juda yaxshi o‘qitilgan bo‘lsa (voltage kam bo‘lsa),
ammo o‘qitilmagan ma’lumotlarga nisbatan ko‘p o‘zgarishi mumkin. Bu esa modelning moslashuvining ma‘lumotlarni qabul qilish qobiliyatini bildiradi.
Bizning maqsadimiz, modelni bias va variance ning o‘zaro munosabatini yaxshilashdir. Bias va variance o‘rtasida qotib chiqqan nuqta (optimal nuqta) modelning o‘zini yaxshilash uchun qo‘llaniladi.
Model optimallashtirilganda, bias va variance orasidagi to‘g‘ri balansga ega bo‘lishi kerak. Agar
model juda simplifikatsiyalangan bo‘lsa (high bias), bu underfittingga olib kelishi mumkin. Agar
esa model juda murakkab bo‘lsa (high variance), bu overfittingga olib kelishi mumkin.
Optimal model, bias va variance ning o‘zaro qarashlari orasida eng to‘g‘ri balansni topgan modeldir. Bu esa modelning o‘zgaruvchilarini optimal darajada belgilab chiqish, o‘qitilgan va yangi
ma’lumotlarga ham yaxshi moslashishiga imkoniyat beradi.
18. O‘rgatuvchi tanlama(dataset) tushunchasi.
ChatGPT
"O‘rgatuvchi tanlama" yoki "ma’lumot to‘plami" (dataset) bu, modelning o‘rgatilishi (training) va
sinov (testing) jarayonlarida ishlatiladigan ma'lumotlar to'plami. Bu to‘plam o‘qitish jarayonida
modelni o‘rgatish uchun, shuningdek, o‘rgatilgan modelni sinov jarayonida sinovlash uchun foydalaniladi.
Ma’lumot to‘plami o‘rtasida farq ko‘rsatilishi kerak — o‘rgatish (training) va sinov (testing)
to‘plamlari. O‘rgatish to‘plami modelni o‘rgatish uchun foydalaniladi va uni optimal darajada parametrlash uchun ishlatiladi. Sinov to‘plami esa o‘rgatilgan modelning amaliyotda qanday yaxshi ishlashini tekshirish uchun foydalaniladi.
O‘rgatuvchi tanlama (dataset) quyidagi turdagi ma’lumotlarni o‘z ichiga oladi:
1. O‘zgaruvchilar (Features): Ma’lumot to‘plami o‘zgaruvchilarni (feature) o‘z ichiga oladi.
Bu o‘zgaruvchilar modelning o‘zini aniqlashda yordam beradigan ma’lumotlar bo‘lib, masalan, tezlik, o‘lcham, kategoriyalar, va boshqalar kabi.
2. Manbalar (Labels): Manbalar modelning o‘zgaruvchilar bo‘yicha qanday javob berishini
aniqlaydi. Bu, misol uchun, klassifikatsiya uchun to‘g‘ri javoblar yoki regressiya uchun
ma’lumotlar bo‘lishi mumkin.
3. O‘qitish va Sinov (Train and Test Sets): Ma’lumot to‘plami o‘qitish (train) va sinov (test)
jarayonlari uchun bo‘linadi. O‘qitish to‘plami modelni o‘rgatish uchun ishlatiladi, sinov
to‘plami esa o‘rgatilgan modelning sinovlash va aniqlash uchun foydalaniladi.
4. Validatsiya Uchun Poddiyalarni (Validation Splits): O‘qitish va sinov to‘plamlari o‘zlarining o‘zaro farqini aniqlash uchun va modelni optimallashtirish uchun validatsiya poddiyalari sifatida yana bo‘linadi.
Ma’lumot to‘plami (dataset) modelni o‘rgatishda va sinovlashda kritik ahamiyatga ega. Bu ma’lumotlar modelning aniqligini aniqlashda va amaliyotda qanday yaxshi ishlashini ko‘rsatishda yordam
beradi. Shuningdek, to‘g‘ri o‘rgatilgan va sinovlanadigan ma’lumotlarga ega bo‘lish modelning
aniqlik darajasini oshiradi.
19. Mashinali o‘qitishda xususiyatlarni ajratib olish tushunchasi.
ChatGPT
Mashinali o‘qitish jarayonida xususiyatlarni ajratib olish (feature selection) — bu o‘zgaruvchilardan
tashkil topgan xususiyat to‘plamini tanlash va ushbu tanlangan xususiyatlar asosida modelni o‘rgatish (training) uchun foydalanish jarayoni. Bu jarayon modelni yaxshilash va bu xususiyatlarning
ma‘lumotlar ustida ta’sirini kamaytirishga yordam beradi.
Xususiyatlarni ajratib olishni amalga oshirishda quyidagi usullar qo‘llaniladi:
1. Statistik tahlil: Xususiyatlar o‘rtasidagi taalluqli statistik ko‘rsatkichlar (masalan, o‘rta
qiymat, dispersiya, korrelyatsiya) yordamida o‘zgaruvchilar o‘rtasidagi ta‘sir-nexatlar
aniqlanadi. Bular yordamida eng muhim va ta’sirchan xususiyatlar aniqlanib chiqadi.
2. Xususiyat tahlili (Feature Importance): Modelni o‘rgatishdan so‘ng, qanday o‘zgaruvchilar (xususiyatlar) modelning natijalariga ko‘rsatilgan ta’sirini aniqlash uchun xususiyat
tahlili usullaridan foydalaniladi. Misol uchun, shuningdek, desicion trees yoki random forests modellarida xususiyatlarining miqdori yoki ta’siri aniqlanadi.
3. Korrelatsiya tahlili: Xususiyatlar o‘rtasidagi moslik va aloqalar (korrelatsiyalar) tekshiriladi. Agar bir nechta o‘zgaruvchilar o‘rtasida kuchli moslik bo‘lsa, ularning biri-turi
boshqasini o‘rnatish uchun ma’noli emas.
4. Regularizatsiya modellarini qo‘llash: L1 va L2 regulyarizatsiyalarni qo‘llash orqali
modellarni o‘zgaruvchilarni limitlab qo‘yish va faqat kerakli bo‘lgan xususiyatlar bilan ishlashga majbur qilish mumkin.
5. RFE (Recursive Feature Elimination): Ushbu usulda modellar o‘zgaruvchilarni darajalariga qarab, eng kam ta’sir qiladigan o‘zgaruvchilarni tanlaydi va ularni o‘chiradi.
Xususiyatlarni ajratib olish modelni optimallashtirishda yordam beradi, chunki juda ko‘p yoki
noaniqlikka olib kelgan xususiyatlar modellarni o‘zini yengillatish uchun yo‘qotish yoki ko‘tarish
mumkin. Bu esa modelning aniqligini oshirib, ma’lumotlarni saqlashda va o‘qitishda qulaylik yaratadi.
20. Ma’lumotlarga dastlabki ishlov berish. O‘rgatuvchi tanlamada normallashtirish tushunchasi. Datasetni normallashtirish (min-max normalization).
ChatGPT
Ma'lumotlarga dastlabki ishlov berish maqsadiyetsiz va to'liq ma'lumotlar ustida operatsiyalar bajarishdir. Bunday ma'lumotlarga asosiy statistik ko'rsatkichlar (o'rtacha, dispersiya, korelyatsiya)
qo‘llanib, ma'lumotlar ustida birinchi tahlil va tanishish jarayonlarini amalga oshirishga yordam beradi.
Normallashtirish (normalization) esa ma'lumotlarni o‘zgaruvchilar bo‘yicha bir qator norma
hisobidagi mos miqdorda bo‘ladi. Bu normallashtirish jarayoni esa ma'lumotlar ustida bir xil miqdorda o'zgaruvchilar mavjud bo‘lishini ta'minlash uchun foydalaniladi.
Min-max normallashtirish bir normallashtirish usuli hisoblanadi, bu usulda ma'lumotlar mazmuna
mos qilib, 0 dan 1 gacha bo'lgan qatorda normallashtiriladi.
Min-max normallashtirish formulasi quyidagicha ifodalaydi:
Xnorm=Xmax−XminX−Xmin
Bu formulada:
•
•
•
•
X - normallashtirilayotgan o‘zgaruvchi qiymati.
Xmin - o‘zgaruvchining minimal qiymati.
Xmax - o‘zgaruvchining maksimal qiymati.
Xnorm - normallashtirilgan o‘zgaruvchi qiymati.
Ushbu normallashtirish modelning o‘zgaruvchilarni bir xil miqdorda, ya'ni 0 va 1 orasida bo‘lgan
qatorda qabul qilishiga yordam beradi.
Bu formulani ma'lumotlarga dastlabki ishlov berish jarayonida qo‘llash uchun quyidagi amallar bajariladi:
1. Har bir o‘zgaruvchi (ustun) bo‘yicha minimal va maksimal qiymatlar aniqlanadi.
2. Formuladan foydalanib, har bir o‘zgaruvchi uchun normallashtirilgan qiymatlar hisoblanadi.
3. Natijaviy ma'lumotlar seti yangi normallashtirilgan qiymatlar bilan ajratiladi.
Bu usul ma'lumotlarni mos miqdorda bo‘lishda yordam beradi, shuningdek, algoritmalar o‘rtasidagi
ta’sir-nexatni kamaytirish uchun ham foydalaniladi. Normallashtirish, modelning o‘qitishida va sinovlashida ma‘lumotlarni to‘g‘ri ishlashini ta’minlash uchun muhimdir.
21. Aktivlashtirish funksiyalari. Qo‘llashdan maqsad. Sigmoid faollashtirish funksiyasi.
ChatGPT
Aktivlashuv funksiyalari, neyron tarmoqlarida kirish ma’lumotlarini o‘zlarining o‘zgaruvchilari
bo‘yicha aloqasini belgilash uchun foydalaniladi. Bu funksiyalar modellarning har bir neyronida
kirish ma'lumotlarini qabul qilish va ularni moslashtirish uchun ishlatiladi.
Aktivlashuv funksiyalari modellarning non-linearity (qatorsizlik) ni ta’minlashda va muammolarni
yechishda yordam beradi. Ular o‘qitish va sinovlash jarayonlarida neyronlarning kirishlaridan chiqishlariga qadar o‘zgarishlarni yaratish uchun qo‘llaniladi.
Sigmoid funksiyasi (logistic funksiyasi) shaklida ifodalangan funksiya hisoblanadi. Bu funksiya
quyidagi formuladan iborat:
σ(x)=1+e−x1
Bu formulada e — bu eksponenta, x esa funksiya uchun kirish qiymati.
Sigmoid funksiyasining x va y o‘qlarida bo‘lgan qiymatlari 0 dan 1 gacha bo‘lgani sababli, uni
o‘zgaruvchilarni normalizatsiya qilishda va klassifikatsiya masalalarida ishlatishda ommalashtiriladi.
Sigmoid funksiyasining maqsadi o‘qitish jarayonlarida aktivlashuv funksiyasi sifatida ishlatilishi va
non-linearity (qatorsizlik) ni keltirib chiqarishdir. U, qatori funksiyalarni linearniylarga aylantirib,
muammolarni yechish va neyron tarmoqlari orasidagi aloqani osonlik bilan ifodalash uchun yordam
beradi. Bu esa modelning o‘zgaruvchilarni yaxshi o‘rganishda yordam beradi.
Bunday aktivlashuv funksiyalari, masalan, sigmoid, ReLU (Rectified Linear Unit), tanh va
boshqalar mashinali o‘qitish algoritmlarida foydalaniladi. Har bir funksiya o‘zining afzalliklari va
mahsulot ishlab chiqarishda foydalash uchun yaxshi va moslashtirilgan bo‘lishi kerak.
22. Klasterlash tushunchasi. Klasterlash usullari (kamida 2 ta usulni keltiring)
ChatGPT
Klasterlash, ma'lumotlar to'plamini o'zida o'xshashlik yoki taqqoslash bo'yicha guruhga ajratish jarayonidir. Bu guruhlar yuqori o'xshashlik bo'lgan obyektlarni bir-biriga yaqinlashtiradi, lekin farq
olishgan guruhlarni ajratib turadi.
Klasterlash usullari quyidagi ikkita ko'rinishda bo'lishi mumkin:
1. K-means klasterlash: Bu usulda ma'lumotlar o'zining bo'lgan guruhlarga bo'liq bo'lgan
guruhlariga ajratiladi. Ushbu usulda biror sonli ma'lumotlarni guruhga ajratish uchun biror
nuqta orqali boshlanadi va o'zaro bo'lgan masofalarini hisoblab boriladi. Har bir obyekt esa
eng yaqin guruhga qo'shiladi va guruhlar o'zgaruvchilar o'rtasidagi minimum variansiyaga
ega bo'lishga intiladi.
2. Gerchik klasterlash (Hierarchical clustering): Bu usulda ma'lumotlar hiyerarxik
strukturada guruhlarga bo'linadi. Ushbu usulda har bir ma'lumot bitta guruh bilan boshlanadi
va keyin uni kichik guruhlarga bo'lib o'qitadi. Natijada esa guruhlar taxminan ayni bo'lgan
obyektlar bo'lishi mumkin va guruhlar taxminan bir-biriga yaqinlik ko'rsatadi.
Bu klasterlash usullari ma'lumotlarni guruhlarga ajratishda va ularga o'xshashlikni aniqlashda foydalaniladi. K-means algoritmi sodda va samarali bo'lib, masshtablanuvchanligi va qulaylik bilan
ajratish imkonini beradi. Gerchik klasterlash esa taxminan har bir obyektni taxminan bir-biriga yaqin guruhlar orqali ajratadi, shuningdek, taxminiy guruhlar sonini tanlash imkoniyatini beradi. Har
bir usul o'zining afzalliklari va chegaralari bo'lishi mumkin, va qo'llaniladigan maqsadlarga bog'liq
ravishda tanlanadi.
23. Sinflashtirish va klasterlash masalalarining farqi.
ChatGPT
Sinflashtirish (classification) va klasterlash (clustering) masalalari ma'lumotlarni to'plamlarini
aniqlash uchun foydalaniladigan iki ayrim metodlardir, lekin ulardagi mablag‘lar va foydalanish
yo'llari juda farq qiladi.
1. Sinflashtirish (Classification):
• Sinflashtirish masalalari ma'lumotlar to'plamini belgilangan ko'rinishda turli
guruhlarga yoki sinflarga ajratish uchun foydalaniladi.
• Maqsad ma'lumotlarni biror belgilangan sinf yoki klassga joylash.
• Sinflashtirish modellari o'rganilgan ma'lumotlar asosida (o'qitish to'plami) sinflarni
aniqlovchi model o'rgatishda ishlatiladi va keyin sinov to'plami orqali aniqlangan
model sinfni aniqlovchi vaqtinchalik yoki amaliyotda sinfni aniqlash uchun foydalaniladi.
2. Klasterlash (Clustering):
• Klasterlash masalalari ma'lumotlar to'plamini o'zida o'xshashlik yoki taqqoslash
bo'yicha guruhga ajratish uchun foydalaniladi.
• Maqsad ma'lumotlarni o'xshashlik yoki taqqoslash bo'yicha guruhlarga bo'lish.
• Klasterlashda ma'lumotlar o'zining o'xshashlik yoki taqqoslashning o'ziga xos bo'lgan guruhlarga joylashtiriladi.
Asosiy farq, sinflashtirishda ma'lumotlarga oldindan belgilangan sinflarga joylashish uchun model
o'rgatiladi, klasterlash esa ma'lumotlarni o'zlarining o'xshashlik yoki taqqoslash bo'yicha guruhlarga
joylash uchun foydalaniladi. Klasterlashda sinflar yoki guruhlar belgilanmaydi, ular o'zlarining
o'xshashliklariga asoslangan holda tuziladi.
Boshqa bir so'z bilan, sinflashtirish ma'lumotlarni ma’lum sinflarga ajratish uchun foydalaniladi
(misol uchun "Bu rasm katta miqdordagi itni ko'rsatadi" yoki "Bu elektr uzatma ko'p miqdordagi
quvvatlanadi"), klasterlash esa ma'lumotlarni o'zlarining o'xshashliklari yoki taqqoslash bo'yicha
guruhlarga ajratish uchun foydalaniladi (masalan, ma'lumotlarning xususiyatlari bilan ajratilishi, lekin bu sinflarga ajratilmagan).
24. Axborot xavfsizligi sohasida mashinali o‘qitish masalalari (misollar asosida tushunturing)
ChatGPT
Axborot xavfsizligi, mashinali o‘qitishda juda muhim bir mavzu. Bu soha maslahatlar, sirli ma‘lumotlar, shaxsiy axborot, va korxonalar ma’lumotlari kabi hisoblanadigan hassas ma‘lumotlarning
himoyalanganligini ta’minlashni o‘z ichiga oladi.
Quyidagi misollar mashinali o‘qitishda axborot xavfsizligi muammolarini ko‘rsatadi:
1. Foydalanuvchi tanishuvini himoyalash: Sotsial tarmoqlar va onlayn platformalar foydalanuvchilarning ma’lumotlarini o‘rganib chiqarishda mashinali o‘qitishni qo‘llaydi. Ushbu
ma’lumotlar shaxsiy axborotlarga, murojaatlarga yoki foydalanuvchining xavfsizlik
so‘rovlari va xususiyatlari haqida ma’lumotlarga ega bo‘lishi mumkin. Bu esa foydalanuvchilarning xavfsizligini hisobga olish uchun katta ehtiyoj.
2. Kiber-hujumlar va xavfsizlik boshqaruvini optimallashtirish: Kiber-hujumlar mashinali
o‘qitishni o‘z ichiga olgan xavfsizlik muammolaridan biri hisoblanadi. Modellar, xavfsizlikki so‘rovlarini aniqlash, potentsial hujumlarni oldini olish uchun xavfsizlik bevosita
xususiyatlari ustida o‘qitilishi kerak.
3. Ma’lumotlarni himoyalash: Mashinali o‘qitishning yordamida o‘rgatilgan modellar
shaxsiy ma‘lumotlarga kirish uchun ishlatilishi mumkin bo‘lgan algoritmlarni aniqlash va
o‘rganishda yordam berishi mumkin. Bu esa ma’lumotlarni himoyalash va sirli ma‘lumotlarni nazorat qilishga yordam berishi mumkin.
4. Shaxsiy axborotning himoyalanganligini ta’minlash: Banklar, shaxsiy ma’lumotlarni
qabul qiladigan tashkilotlar, shaxsiy axborotni himoyalash uchun mashinali o‘qitishdan foydalanishadi. Modellar shaxsiy axborotlarni maxfiylikka rioya qilishda va hujumlarni oldini
olishda yordam berishi kerak.
Axborot xavfsizligi masalalari, mashinali o‘qitishda muhim bir joy tutadi, chunki modellar va algoritmlar shaxsiy ma‘lumotlarni, korxonalar ma‘lumotlarini va boshqalarini himoyalashda yordam
berishi kerak. Bu esa modellar xavfsizlikning yuqori darajada ta’minlanishini ta’minlash uchun muhimdir.
25. O‘qituvchisiz o‘qitish algoritmlari. Kmeans algoritmi qadamlari. K-means algoritmida centroid
markazlarini tanlash tamoili
ChatGPT
O‘qituvchisiz o‘qitish (Unsupervised Learning) usullari ma’lumotlarni turli guruhlarga yoki
o‘xshashliklar bo‘yicha ajratishda qo‘llaniladi. K-means algoritmi uncha ko‘p qo‘llaniladigan
o‘qituvchisiz o‘qitish algoritmlaridan biridir va ma’lumotlarni belgilangan guruhlarga ajratish
uchun ishlatiladi. Ushbu algoritm centroidlar yordamida guruhlarga ajratishni bajaradi.
K-means algoritmi qadamlari quyidagicha:
1. Boshlang‘ich markazlarni tanlash: Ma’lumotlar to‘plami ichidagi guruhlarni ajratish
uchun boshlang‘ich markazlarni tanlash uchun guruhlar sonini tanlash kerak. Bunda boshlang‘ich markazlar tasodifiy ravishda tanlanadi.
2. Ma'lumotlarni yaqinliklar bo‘yicha guruhlarga bo‘lish: Boshlang‘ich markazlar belgilanib, har bir ma'lumot o‘ziga eng yaqin bo‘lgan markazga qarab guruhlarga bo‘linadi.
Masofalar (oddiylik, Euclidean yoki boshqa masofalar orqali) hisoblanadi va har bir ma'lumot eng yaqin markazga ajratiladi.
3. Yangi centroidlar (markazlar) aniqlash: Har bir guruh uchun yangi markazlar hisoblanadi. Yangi markazlar guruhda o‘zgaruvchilar (xususiyatlar) o‘rtasidagi o‘rta qiymatlardan
hisoblanadi.
4. Qadamni takrorlash: Yangi markazlar aniqlanganidan so‘ng, ma'lumotlar yangi
markazlarga qarab qayta ajratiladi. Har bir ma'lumot eng yaqin markazga ajratiladi va yangi
markazlar hisoblanadi.
5. Takrorlash va tugatish: Yangi markazlar hisoblangandan so‘ng, qadamni takrorlash,
ma'lumotlarni yangi markazlarga qarab ajratish va yangi markazlar hisoblash jarayoni
davom etadi. Bu jarayon guruhlar o‘rtasidagi masofani kamaytiradi va markazlarni
aniqlashda yordam beradi. Jarayon kriteriyalarga erishgach, algoritm tugaydi.
Bunda markazlar yangilanib turib, guruhlar o‘rtasidagi masofalar minimumga yetib qolganligini
aniqlab turadi. Natijada ma'lumotlar o‘zlarining o‘xshashliklari bo‘yicha guruhlarga bo‘linadi va
guruhlar o‘rtasidagi masofalar minimum bo‘lgan holatda.
26. KNN: K ta eng yaqin qo‘shni algoritmi. KNN algoritmi qadamlari.
ChatGPT
KNN (K-Nearest Neighbors) algoritmi, ma'lumotlarni klassifikatsiya qilish uchun foydalaniladigan
o'qituvchisiz o'qitish (unsupervised learning) algoritmi. Bu algoritm ma'lumotlarni o'xshashlik
bo'yicha guruhlarga ajratishda ishlatiladi. KNN algoritmi har bir ma'lumotni uning K ta eng yaqin
(eng o'xshash) ma'lumotlarga qarab guruhlarga ajratadi.
KNN algoritmi qadamlari quyidagicha:
1. Ma'lumotlar va to'plam: Boshlan'g'ich ma'lumotlar to'plami, undan keyingi guruhlash
uchun ishlatiladi.
2. K belgilanishi: KNN algoritmi uchun K belgilanadi, bu K ma'lumotlarni aniqlashda qancha
yaqin ma'lumotlarni olish kerakligini anglatadi.
3. Ma'lumotlar ustida masofa hisoblash: Ma'lumotlar o'rtasidagi masofalar (oddiylik, Euclidean masofasi kabi) hisoblanadi. Ushbu masofalar orqali har bir ma'lumot K ta eng yaqin
ma'lumotlarni aniqlab oladi.
4. K ta eng yaqin ma'lumotlarni tanlash: Har bir ma'lumot K ta eng yaqin ma'lumotlarni
topib oladi.
5. Ko'plikni aniqlash: K ta eng yaqin ma'lumotlar ichidagi ko'plikni aniqlash uchun sinflar
yoki klasslar bo'yicha ko'pliklar hisoblanadi.
6. Natijani aniqlash: Ko'pliklar hisoblangandan so'ng, yangi ma'lumot uning eng ko'p kelgan
sinfi yoki klassini oladi. Agar ko'pliklar o'xshash bo'lsa, uning ko'rsatilishi bo'yicha
guruhlash juda qiyin bo'lishi mumkin.
KNN algoritmi juda sodda va oson tushunarli bo'lib, oddiy ko'pliklar va oddiy masofalar orqali
ma'lumotlarni klassifikatsiya qilishda foydalaniladi. Bu algoritm sinchik va to'g'ri natijalarni olishda
yordam beradi, ammo uning "K" qiymati va masofa o'lchovlarining aniqlanishi uchun kriteriyalar
muhimdir.
27. KNN orqali sinflashtirish va regressiya masalasini yechish.
ChatGPT
KNN (K-Nearest Neighbors) va regressiya ikkala metod ma'lumotlarni ustunlar orqali taqsimlashda
foydalaniladigan algoritmlardir, lekin ularning foydalangan usullari farq qiladi.
KNN sinflashtirish uchun ishlatiladi. Bu algoritmda, yangi ma'lumotlarni sinflandirish uchun, ularning qarashli bo'lgan k ko'p eng yaqin qo'shni belgilangan ma'lumotlarga (ko'p o'zgaruvchili) qarashli
sinflar. Yangi ma'lumotlar taqdim etilganda, ularning k ko'p eng yaqin qo'shni belgilangan ma'lumotlarga qarashli bo'lsa, ular shu qo'shni belgilangan ma'lumotlar sinfiga qo'shiladi.
Regressiya esa, qiymatlarni (ko'p o'zgaruvchili) kiritilgan ma'lumotlar asosida qisqa muddatli
qiymatlarni aniqlashda foydalaniladi. Bu metod ma'lumotlar ustida o'zgaruvchili muniq (continuous) qiymatlar olish uchun ishlatiladi. Misol uchun, bir narsani yuqoriga ko'tarish, narxlarni bashorat qilish yoki boshqa o'zgaruvchilarni aniqlash uchun regressiya ishlatiladi.
Bularning ikkalasi ham ma'lumotlarni qarashli ko'rsatuvlar bo'yicha ushlab turishga asoslangan, lekin ulardagi asosiy farq, KNN sinflashtirishda qarashli sinf belgilanadi, regressiyada esa qiymatlar
olinadi.
Sizning maqsadingiz va ma'lumotlar turlari bo'yicha, KNN yoki regressiya qaysi yo'l bilan ma'lumotlarni amalga oshirishga qodir bo'lishi mumkinligini o'rganishingiz kerak. Agar ma'lumotlar
sinflangan bo'lsa, KNN foydalanish mumkin, ammo ma'lumotlar ko'p o'zgaruvchili qiymatlar bo'lsa,
regressiya usuli ko'rsatilishi mumkin. Bu algoritmlarni sifatli natijalar olish uchun ma'lumotlaringizning xususiyatlari va talablarini tushunish juda muhimdir.
28. Sinflashtirishning SVM algoritmi. SVM algoritmida suppor vectors tushunchasi. yadro(kernal)
funksiyalarining vazifasi.
ChatGPT
SVM (Support Vector Machine) algoritmi sinflashtirish uchun juda mashhur bo'lgan metod. Bu algoritmda, ma'lumotlar orasidagi farqni ko'rsatuvchi eng yaxshi ayrim chizig'i yoki sinf ko'rsatkichini aniqlash uchun ishlatiladi. SVM orqali, ma'lumotlar o'zaro bo'ylab chiziladigan o'ng va
chapa chiziq orqali ayrimlangan joylarga joylashtiriladi.
Support Vector Machine (SVM) algoritmi "support vectors" (qo'llab quvvatlash vektorlari)
tushunchasiga asoslangan. Bu vektorlar, ayrim chizig'ining aniqlangan joyida joylashgan ma'lumotlar to'plami. SVM ma'lumotlarni sinflandirish uchun o'ng va chapa chiziq orqali ayrim chizig'i
chizishda, qo'llab quvvatlash vektorlari bu chiziqqa yaqin joylashgan ma'lumotlardir.
Yadro (kernel) funksiyalari SVM algoritmining ma'lumotlarni ikki sinfga bo'lib ajratish uchun foydalaniladigan funksiyalar. Kernel funksiyalari aslida ma'lumotlar orasidagi tartibni o'zgartirmasdan,
ularga ko'proq bo'sh joy keltirish orqali ma'lumotlarni ko'rsatuvlar orqali ayrimlash imkoniyatini
yaratadi.
Ko'p kamida uchta turdagi mashhur kernel funksiyalari mavjud:
1. Linear Kernel: Ma'lumotlar o'zaro linearni ayrimlash uchun ishlatiladi.
2. Polynomial Kernel: Ma'lumotlarni polinomial (darajali) shaklga olib chiqish uchun foydalaniladi.
3. Gaussian (RBF) Kernel: Radial Basis Function (RBF) yoki Gaussian kernel, ma'lumotlar
orasidagi masofani o'lchaydigan non-linearni ayrimlash uchun ishlatiladi.
Bu kernel funksiyalari, ma'lumotlarning kompleks strukturasi va to'plamlarining o'zaro munosabatlari uchun ayrimlashda yordam beradi. Masofa, tartib va qo'shimcha parametrlar yadro funksiyasiga bog'liq bo'lib, ularni aniqlovchi ma'lumotlarning xususiyatlari va ayrimlash talablari bo'yicha
tanlash zarur.
SVM algoritmi, kernel funksiyalari orqali ma'lumotlarni xil ayrimlash uchun moslashtirilgan,
shuningdek, qo'llab quvvatlash vektorlarini aniqlab chiqadi va bu vektorlar orqali sinflandirish amalini amalga oshiradi. Bu esa, non-linearni ayrimlash uchun kerakli bo'lgan masofa va kompleksliklarni qondiradi.
29. Mashinali o‘qitishda foydalaniladigan ochiqlangan datasetlar. IRIS va MNIST datasetlariga
ta’rif bering.
ChatGPT
Iris va MNIST datasetlari mashhur ma'lumotlar to'plamlaridir, ulardan biri o'tkir ma'lumotlar
to'plami, ikkinchisi esa tasvir (image) ma'lumotlari to'plami.
1. IRIS dataseti: Bu dataset botanika sohasidagi o'rganish uchun mashhur bo'lib, uch xil iris
turlarini (setosa, versicolor va virginica) ma'lumotlarini o'z ichiga oladi. Ma'lumotlar o'rtacha o'lchamli to'rt o'zgaruvchilarni (sepal length, sepal width, petal length, petal width) o'z
ichiga oladi. Ushbu dataset ma'lumotlarni sinflandirish algoritmlarini o'rganish uchun ommalashtirilgan.
2. MNIST dataseti: Bu dataset rasmli tan o'rganish uchun keng qo'llaniladigan ma'lumotlar
to'plami. MNIST, qiziqishni olish, tasvirni aniqlovchi va aniqlovchi algoritmlarni o'rganishda ommalashtirilgan. Bu datasetda 28x28 piksellik o'lchamdagi qora-oq rangdagi raqam
tasvirlari mavjud. Har bir tasvir bir raqamni ifodalaydi (nol dan 9 gacha). MNIST, raqamlarni aniqlovchi mashinali o'qitish algoritmlarini (masalan, CNN yoki KNN) o'rganish uchun
keng qo'llaniladi.
Ular ikkala mashhur datasetlar bo'lib, biri botanika sohasidagi ma'lumotlarni sinflandirish uchun,
ikkinchisi esa tasvirlarni aniqlovchi algoritmlarni o'rganishda ishlatiladi. Bu datasetlar, ma'lumotlarni ushlab turish, sinflandirish va aniqlovchi algoritmlarni o'rganish uchun keng qo'llaniladi va
ilmiy sohalar bo'yicha o'rganish uchun juda ma'quldir.
30. Mashinali o‘qitishda chiziqli algebraning o‘rni.
ChatGPT
Mashinali o'qitishda chiziqli algebrani o'rni juda muhimdir, chunki ko'p mashhur algoritm va model
turlari, ma'lumotlarni ushlab turish, ularga parametrlarni moslash va natijalarni taxminlashda
chiziqli algebrani ishlatadi.
Chiziqli algebrasi, ma'lumotlar orasidagi bog'lovchi va uzoq o'zgaruvchilarning o'rtasidagi munosabatlarni o'rganadi. Bu munosabatlar ma'lumotlar to'plami va ularga mos parametrlarni topishda
yordam beradi.
Ko'p mashhur chiziqli algoritm va modellari:
1. Regresiya modellari: Chiziqli algebrasi regressiya modellari (masalan, linearni regressiya)
uchun asosiy qo'llaniladigan algoritmalar bilan bog'liqdir. Ularda, o'zgaruvchilar va ma'lumotlar orasidagi o'zaro munosabatlarni ifodalovchi mosliklarni topish uchun chiziqli algebrasi ishlatiladi.
2. Ko'rsatkichli sinflandirish (Support Vector Machines): SVM sinflandirish algoritmi,
chiziqli algebrani sinflandirish maqsadida ishlatadi. Uning asosiy konsepti ma'lumotlarni ayrimlashda chiziqli algebrasining xususiyatlari va SVMning qo'llash usullari bilan bog'liq.
3. PCA (Principal Component Analysis): Bu, ma'lumotlar tahlilini oshirish va kamaytirish
uchun ishlatiladigan bir chiziqli algoritmadir. Ushbu metod ma'lumotlar o'zgaruvchilarining
orasidagi bog'lovchilarni aniqlovchi o'zgaruvchilarga o'tkazib beradi.
4. Logistika regressiya: Sinflandirishda ishlatiladigan, biron bir sinfga tegishli yoki
tegishsizligi aniqlash uchun chiziqli algebrani qo'llaydigan modellardan biri.
Chiziqli algebrasi ma'lumotlarni analiz qilish, ularga mos modelni topish va natijalarni taxminlashda keng qo'llaniladi. Ushbu algoritmalar ma'lumotlarni tahlil qilish, sinflandirish va regressiya
jarayonlarida foydalanish uchun chiziqli algebrani asos qiladi.
You
31. Neyron tarmoqni tashkil etuvchi qatlamlar.
ChatGPT
Neyron tarmoqi, umumiy, qo'llab quvvatlash tarmoqlari (neural networks) yoki deep learning
modellarining asosiy qismini tashkil etadi. Bu tarmoqlar qatlamlar (layers) bo'yicha tuzilganlar va
har bir qatlamda bir nechta neyronlar (unitlar) joylashgan. Neyronlar esa ma'lumotlarni olish, uning
ustiga ishlash va natijalarni chiqarishda ishtirok etadi.
Neyron tarmoqlari quyidagi qatlamlardan iborat bo'lishi mumkin:
1. Kirish (Input) qatlami: Bu qatlam, boshlang'ich ma'lumotlarni qabul qiladi. Bu odatda
ma'lumotlar o'zgaruvchilarni ifodalaydi va dastlabki qatlamlar bo'ylab keladigan ko'rsatkichlar sifatida xizmat qiladi.
2. Yashirin (Hidden) qatlam(lar)i: Bu qatlamlar kiritilgan ma'lumotlarni olish va uning ustida hisob-kitob ishlarini amalga oshirish uchun ishlatiladi. Bu qatlamlar odatda ko'p sonli
neyronlardan tashkil topgan. Ularning soni va qatlamlar soni tarmoqning kompleksligi va
o'rganish vaqti boyicha o'zgaradi.
3. Chiqish (Output) qatlami: Ushbu qatlam, tarmoqning natijasini (result) qaytaradi.
Sinflandirish vazifasida, bu qatlam odatda ayrim chiziqlar, sinflar yoki qiymatlarni
chiqaradi.
Har bir neyron tarmoqi kiritilgan ma'lumotlarni o'rganib, o'zgaruvchilarni moslashtirib, optimallashtirilgan model natijasini chiqaradi. Tarmoqlar orasidagi aloqalar (weights) va boshqa parametrlar ma'lumotlar o'rganish jarayonida o'zgaradi va ma'lumotlar ustida yaxshilash uchun yangilanadi.
Neyron tarmoqlari tarmoqning murakkabligiga qarab ko'proq qatlamlar va neyronlar bilan ko'proq
o'rganish va aniqlovchi quvvat qo'shish imkonini beradi. Bu esa masofaviy va non-linearni
xususiyatlarni aniqlashda yordam beradi va murakkab ma'lumotlar ustida yuqori darajada ta'sir ko'rsatadi.
32. Sun’iy neyron tarmoq. Sun’iy neyronning tashkil etuvchilari. Perceptron tushunchasi.
ChatGPT
Sun'iy neyron tarmoqi, sun'iy neyronlardan (artificial neurons) iborat tarmoqdir, bu esa shuningdek
"Perceptron" ataladi. Bu, klassik va asosiy sun'iy o'qitish tarmoqining boshlang'ich shakli hisoblanadi.
Sun'iy neyron, biologik neyronlarga asoslangan modelni ifodalaydi, ammo elektronik va algoritmik
shaklda. Perceptron, bir nechta kirish (input) o'zgaruvchilarini qabul qiladi, ularni moslashtirish va
natijani chiqarish uchun aktivatsiya funksiyasidan o'tkazadi.
Sun'iy neyronning tashkil etuvchilari:
1. Kirishlar (Inputs): Bu, sun'iy neyronning ma'lumotlarni qabul qilish uchun qo'llab quvvatlovchi elementlari. Ular odatda sonlar yoki boshqa kirish o'zgaruvchilari bo'ladi.
2. Boshqa o'zgaruvchilar (Weights): Har bir kirishga tegishli boshqa o'zgaruvchi (weight)
mavjud. Ular ma'lumotlarni qanday ta'sir etishini aniqlashda ishlatiladi.
3. Umumiy kirish (Bias): Bu, neyronning o'ziga xos boshqa o'zgaruvchi bo'lib, neyronning
boshlang'ich hollatini o'zgartirish uchun ishlatiladi.
4. Summator funksiya: Bu funksiya kirishlarni o'zgaruvchilar bilan ko'paytirib, umumiy
kirishni qo'shadi.
5. Aktivatsiya funksiya: Ushbu funksiya umumiy kirishning net savosini hisoblaydi va belgilangan chegaralarni (threshold) asosida neyronning chiquvchini aniqlaydi. Bunday aktivatsiya funksiyalari, masalan, sigmoid, ReLU, tanh, step funksiyalari kabi bo'lishi mumkin.
Perceptron, sun'iy neyronning eng oson shakli hisoblanadi. U yoki bitta kirish qatorda, ulardan kelib
chiqadigan o'zgaruvchilar, bir umumiy kirish va aktivatsiya funksiyasidan iborat. U sinflandirish va
algoritmlarni o'rganishda asosiy asosiy turar joy olishi mumkin. Raqam va tur sinflandirish,
aniqlovchi yoki o'rganish masalalari Perceptron orqali yechilishi mumkin.
33. Bialogik va sun’iy neyron tarmoqlari. Solishtirish mezonlari Bialogik neyronning tashkil etuvchilari.
ChatGPT
Bialogik va sun'iy neyron tarmoqlari, sinapslar (aloqa bo'lgan qism) orqali munosabatlarning
o'zgaruvchili va o'zgarmas elementlarini o'z ichiga oladigan, biologik neyronlarga o'xshash modelni
ifodalaydi.
Bialogik neyronning tashkil etuvchilari:
1. Dendritlar: Bu neyronning qabul qilish bo'limlari. Ular bilan sinapslar orqali ma'lumotlar
qabul qilinadi.
2. Soma (kuchuk): Bu ma'lumotlarni jamlashgan va qayta ishlov beradigan bo'limdir. U
ma'lumotlarni o'zlashtiradi va uning o'zi qayta ishlov beradi.
3. Aksion potensiali: Agar qabul qilingan ma'lumotlar boshqa neyronlarga yetib bormasdan
yuqori darajada bo'lsa, soma aksion potensialini yaratib chiqaradi. Bu, elektr ikignalning
biror qismi bo'ladi.
4. Aksonlar: Soma yaratilgan aksion potensial sinapslar orqali aksonlar orqali yuboriladi. Ular
boshqa neyronlarga ma'lumotlarni o'tkazadi.
Sun'iy neyron tarmoqlari esa, sun'iy neyronlarning bialogik jihatlarini, ya'ni sinapslarni va aloqa tizimlarini ko'rib chiqish uchun model asosida yaratilgan. Ularning o'zgaruvchilari va sinapslari bilan
bialogik neyronlarga o'xshash bo'lishi kutiladi.
Bialogik neyron tarmoqlari biologik neyronlarga o'xshash qilib yaratilganligi sababli, ularning o'rganish va ta'lim jarayonlarida bialogik modellar bilan boshqa biologik modellardan ko'ra sezilarli
natijalarga erishish imkoniyati bor. Sun'iy neyron tarmoqlari esa, masofavi va murakkab modellarni
yaratishda yordam beradi va umumiy ma'lumotlarni qabul qilish, o'rganish va o'zgaruvchili model
yaratish uchun qo'llaniladi.
34. Sun’iy neyron tarmoqlarida foydalaniladigan faollashtirish funksiyalari.
ChatGPT
Sun'iy neyron tarmoqlarida foydalaniladigan faollashtirish (activation) funksiyalari, neyronning
kirish o'zgaruvchilarini umumiy kirishga o'tkazish uchun ishlatiladi. Ular ma'lumotlarni qabul qilishdan keyin, umumiy kirishni hisoblashda va natijani chiqarishda ishlatiladi. Quyidagi faollashtirish funksiyalari keng qo'llaniladi:
1. Sigmoid funksiya: Ushbu funksiya odatda chetli yoki g'ayri chetli miqdorlarni qabul qiladi
va ularni 0 va 1 orasiga tartiblaydi. U sigmoid funksiyasi umumiy kirishni 0 va 1 oralig'ida
tartiblashda yordam beradi.
f(x)=1+e−x1
2. ReLU (Rectified Linear Unit) funksiya: Bu funksiya odatda sun'iy neyron tarmoqlarida
ishlatiladi. Agar x qiymati manfiy bo'lsa, ReLU funksiyasi qiymatni 0 qaytaradi, aks holda,
x ni qaytaradi. Bu funksiya sinflandirish va regressiya modellarida keng qo'llaniladi.
f(x)=max(0,x)
3. TanH funksiya: Ushbu funksiya odatda sigmoidga o'xshash, ammo ular orasidagi farq bu
funksiya -1 va 1 oralig'ida miqdorlarni qabul qilishi.
f(x)=ex+e−xex−e−x
4. Softmax funksiya: Bu funksiya qatorli sun'iy neyron tarmoqlarida ko'p sinflardagi
sinflandirish uchun ishlatiladi. Ushbu funksiya ma'lumotlarni sinfning ehtiyojchilari bo'yicha nisbatan miqdorini hisoblashda yordam beradi.
f(xi)=∑j=1Kexjexi
Bu faollashtirish funksiyalari sun'iy neyron tarmoqlarida ma'lumotlarni o'zlashtirish va umumiy
kirishlarni natijalarga aylantirishda ishlatiladi. Ular modellarning o'zgaruvchilarini yangilashda,
non-linearni xususiyatlarni oshirishda va sinflandirish jarayonlarida juda o'ziga xos xususiyatlarga
ega. Har bir funksiya o'ziga xos xususiyatlarga ega bo'lib, ular modellarni belgilangan maqsadlarga
moslashtirish uchun tanlanishi kerak.
35. Sun’iy neyron tarmoqlarida tugun va vazn tushunchasi.
ChatGPT
Sun'iy neyron tarmoqlarida "tugun" (bias) va "vazn" (weight) tushunchalari ma'lumotlarni o'z ichiga
oladigan asosiy elementlar hisoblanadi.
1. Tugun (Bias): Tugun, sun'iy neyronning aktivatsiya funksiyasining nollashgan holatiga olib
kelish uchun qo'llaniladi. Tugun, neyron tarmoqining umumiy kirishiga o'ziga xos qo'shimcha miqdorni qo'shadi yoki aniqlovchi moslashgan natijani yuqoriga olib keladi. Bu
maqsadda tugun odatda o'zgaruvchilik sifatida qo'llaniladi va bir nechta neyronlarda bir hil
boshqaruvchi parametr sifatida ishlaydi.
2. Vazn (Weight): Vaznlar, kirishlardan kelib chiqadigan ma'lumotlarni neyronning aktivatsiya funksiyasiga o'zlashtirishda ishlatiladi. Har bir kirishga bog'liq vazn, ma'lumotning
qo'llaniluvchanligini, uning o'rnini va umumiy kirishning qisqarilish yoki ko'tarilishida
o'zgaruvchiliklar tug'ilishini aniqlaydi. Vaznlarning o'zgarishi tarmoqning o'rganish jarayonida muhim ro'lini o'ynaydi va ular modellarni natijalarga moslashtirishda juda muhimdir.
Tugunlar va vaznlar bir neyronning umumiy kirishini (summasini) hisoblashda ishlatiladi. Umumiy
kirish esa tugunlar va vaznlarning tarkibi bo'lib, aktivatsiya funksiyasiga kirish o'zgaruvchilari bilan
ko'payadi. Sun'iy neyron tarmoqlarida kirishlar va aktivatsiya funksiyasi orqali hisoblashdan keyin,
tugunlar va vaznlarni o'zgaruvchilik sifatida yangilash orqali o'rganish jarayonida sinf ni natijaga
olib kelish uchun foydalaniladi.
36. Numpy kutubxonasidan foydalanib bir o‘zgaruvchili regressiya masalarini yechish
ChatGPT
NumPy kutubxonasini foydalanib, bir o'zgaruvchili regressiya masalasini yechish uchun mos ravishda ma'lumotlarni tahlil qilish va o'zgaruvchili regressiya modelini yaratish mumkin. Bu jarayonlar quyidagicha bo'ladi:
1. Ma'lumotlar va maqsadlar:
• Ma'lumotlar to'plamini tayyorlang. Masalan, x va y o'zgaruvchilarni o'z ichiga olgan
ma'lumotlar.
• X o'zgaruvchilarining qiymatlari va y maqsadlari (natijalari) birlikda bo'lishi kerak.
2. NumPy kutubxonasini import qilish:
pythonCopy code
import numpy as np
3. Ma'lumotlar to'plamini tayyorlash:
• X o'zgaruvchilarini moslashgan ma'lumotlar (1D yoki 2D array shaklida).
• Y maqsadlarini moslashgan ma'lumotlar (1D array shaklida).
4. Regressiya modelini yaratish:
• X ma'lumotlarini moslashgan ma'lumotlar ustida regresiya modelini tuzish.
• Biost, moslashgan modelni o'rganish uchun ma'lumotlar to'plamiga moslashgan regressiya funksiyasini qo'llash.
5. O'rganish va natijalarni hisoblash:
• Modelni o'rganish: Ma'lumotlar to'plami ustida o'zgaruvchili regressiya modelini o'rganish.
• Natijalarni hisoblash: Ma'lumotlar to'plami ustida regressiya funksiyasi orqali natijalar chiqariladi.
Mana bir numunaviy kod:
pythonCopy code
import numpy as np
# Ma'lumotlar tayyorlash
X = np.array([1, 2, 3, 4, 5]) # X o'zgaruvchilari
Y = np.array([2, 3, 4, 5, 6]) # Y maqsadlari
# Regressiya modelini yaratish
def linear_regression(x):
return 2 * x + 1 # O'zgaruvchili regressiya modeli (masalan, 2x + 1)
# O'rganish va natijalarni hisoblash
Y_pred = linear_regression(X)
# Natijalarni chiqarish
print("Maqsadlar: ", Y)
print("Bashoratlar: ", Y_pred)
Ko'p o'zgaruvchili regressiya masalalarini yechish uchun mos funksiyalarni yaratish, o'rganish
qo'llash va natijalarni baholash zarur bo'ladi. NumPy kutubxonasida matematik funksiyalar va
ma'lumotlarni ishlash uchun qulay usullar mavjudligi tufayli, regressiya masalalarini o'rganish ham
juda oddiyroq.
37. Python dasturlash tilining mashinali o‘qitish masalalarini yechishga xizmat qiladigan kutubxonalari.
ChatGPT
Python dasturlash tilida mashinali o'qitish masalalarini yechish uchun bir nechta kuchli kutubxonalardan foydalaniladi. Bu kutubxonalarning ba'zilari:
1. NumPy: Ma'lumotlarni massivlar va matematik amallarni bajarish uchun juda foydalaniladigan kutubxona. Ma'lumotlar ustida amallar (hisob-kitob, massivlar ustida operatsiyalar) bajarishda qulaylik yaratadi.
2. Pandas: Ma'lumotlarni analiz qilish va tahlil qilish uchun foydalaniladigan kutubxona.
Ma'lumotlar ustida filtratsiya, tartiblash, ma'lumotlar jadvaliga o'girish-qaytarish imkoniyatlarini beradi.
3. Scikit-learn: Bu kutubxona mashinali o'qitish uchun keng qo'llaniladi. Uning ichida ko'p xil
algoritmlar (sinflandirish, regressiya, qatorli tahlil, o'zga vaqtincha tizim) mavjud. Ma'lumotlarni tahlil qilish va tizim o'rganish jarayonlarida juda yaxshi yordam beradi.
4. TensorFlow va PyTorch: Bu kutubxonalarni o'z ichiga olganlar ayrimlar tizimini (neural
network) o'rnatish, tuzish va tizimni o'rganish uchun ishlatiladi. Ular sinflandirish, regressiya va boshqa mashinali o'qitish modellarini yaratishda yordam beradi.
5. Keras: Bu kutubxona TensorFlow va PyTorch bilan birgalikda ishlatiladi va tizimni yaratish, o'rganish va o'zgaruvchili regressiya yoki sinflandirish modellarini yaratishda juda
qulaylik yaratadi.
6. Matplotlib va Seaborn: Ma'lumotlarni vizualizatsiya qilish uchun ishlatiladi. Ular grafiklar,
grafiklar, taqdimotlar va boshqa vizual tahlil usullarini yaratishda foydalaniladi.
7. XGBoost va LightGBM: Bu kutubxonalarda gradient darajasini oshirish asosida yaratilgan
algoritmlar mavjud. Ular sinflandirish va regressiya masalalarini yechishda ishlatiladi.
Bu kutubxonalardan foydalanib, ma'lumotlarni o'rganish, o'zgaruvchili regressiya, sinflandirish, algoritmlarni yaratish va natijalarni baholash imkoniyatlarini ko'proq usulda rivojlantirish mumkin.
Har bir kutubxona o'ziga xos imkoniyatlarga ega va bir qancha masalalar uchun juda foydali bo'ladi.
38. Mantiqiy klassifikator (oddiy Bayes klassifikatori). Bayes teoremasi. Bayes klassifikatori bosqichlari
ChatGPT
Mantiqiy klassifikator yoki oddiy Bayes klassifikatori, ma'lumotlarni sinflandirish uchun qo'llaniladigan oddiy va oson klassifikatsiya algoritmidir. U bu algoritmni asosan har bir sinfning ayrim
chiziqlarini o'rganishga asoslanadi. U sinflandirish jarayonida har bir sinfning ayrim chiziqlarini
hisoblashda muvaffaqiyatli bo'lishi mumkin.
Oddiy Bayes klassifikatori, Bayes teoremasiga asoslanadi. Bayes teoremasi statistikda, bir hodisa
bo'lganligi xossalar bilan bog'liqlikni baholash uchun qo'llaniladi. U hodisalar qo'llanilganligi
haqida ma'lumotlarni, boshqa umumiy xossalar bilan bog'liqligini hisoblashda yordam beradi.
Bayes teoremasi:
P(A∣ B)=P(B)P(B∣ A)⋅ P(A)
Bu yerda:
•
•
•
•
P(A∣ B) – B bo'lagan holatda A hodisasi bo'lishining ehtimoli.
P(B∣ A) – A hodisasi bo'lganlik holatida B hodisasi bo'lishining ehtimoli.
P(A) – Bepul hodisalar ehtimoli (prior probability).
P(B) – Bepul hodisalar ehtimoli (evidence).
Oddiy Bayes klassifikatori Bosqichlari:
1. Bepul hodisalar ehtimoli (Prior Probability): Hodisalar bo'lganligi haqida ilgari ma'lumotlar. Misol uchun, sinflarni ma'lumotlar to'plamida ko'rsatilgan hodisalarni hisoblash.
2. Hodisalar ehtimolining baholash (Likelihood): Ma'lumotlar to'plamida ko'rsatilgan
hodisalarni hisoblash. Ma'lumotlar bo'yicha har bir sinfning ayrim chiziqlarini aniqlash.
3. Bepul hodisalar ehtimoli (Evidence): Ma'lumotlardan yuzaga kelgan umumiy bepul
hodisalar.
4. Posterior Probability (Posterior ehtimol): Bepul hodisalar ehtimoli va hodisalar ehtimolining baholashidan hisoblangan hodisa bo'lishining ehtimoli.
Oddiy Bayes klassifikatori statistik ma'lumotlarni sinflandirishda, alohida ma'lumotlar bo'yicha
sinflarni aniqlashda foydalaniladi. Bu klassifikator bir hodisa bo'lish ehtimoli bilan qarashni o'rganadi va sinflandirish jarayonida o'z xususiyatlarini qo'llaydi.
39. Chuqur o‘qitilish tushunchasi. Mashinali o‘qitish va chuqur o‘qitishning farqi
Mashinali o'qitish va chuqur o'qitish (deep learning) sinflandirishda va ma'lumotlarni analiz qilishda
ishlatiladigan iki turdagi o'qitish usullaridir.
1. Mashinali O'qitish (Machine Learning): Bu, algoritm va modellar orqali ma'lumotlardan
o'rgangan xususiyatlarni asoslash usuli. U odatda mufassal ma'lumotlar to'plami orqali boshlang'ich ma'lumotlarni qabul qiladi, ularga mos model yaratadi va natijalarni boshqa ma'lumotlar ustida sinovdan o'tkazadi. Mashinali o'qitish algoritmlari o'zgaruvchili regressiya,
naqshlarni aniqlash, sinflandirish (masalan, SVM, Random Forest) va boshqa usullar orqali
foydalanadi.
2. Chuqur O'qitish (Deep Learning): Bu, mantiqiy qurilmalar yordamida o'rganishning
chuqur (kompleks) shakli. Ushbu usulda neural tarmoqlar va yagona quvvatlash tarmoqlari
(CNN, RNN, LSTM, va boshqa keng qo'llaniladigan modellar) yaratiladi. Chuqur o'qitish
sinflandirish va ma'lumotlarni tahlil qilishda o'z mavqesini egallagan. U jiddiy miqdordagi
ma'lumotlarni to'plash, o'zlashtirish va tahlil qilishda keng qo'llaniladi.
Farqlar:
• Ma'lumot soni: Mashinali o'qitishda odatda qisqa ma'lumotlar to'plami ishlatiladi, ammo
chuqur o'qitishda ko'p sonli ma'lumotlar, masalan, tasvir, matn, audio kabi kompleks ma'lumotlar ishlatiladi.
• Model xususiyatlari: Mashinali o'qitish modellari odatda bir nechta yonlab turar va uni parametrlarini moslash uchun o'zgaruvchilarni o'rganadi. Lekin chuqur o'qitishda modellar murakkablik darajasi, sinflar soni va parametrlar juda ko'p bo'lishi mumkin.
• Algoritmlar: Mashinali o'qitishda qisqa va ko'p o'zgaruvchili modellar ishlatiladi, ammo
chuqur o'qitishda neural tarmoqlar va qattiq qo'llaniladigan modellar foydalaniladi.
Chuqur o'qitish mashhur bo'lib, juda murakkab ma'lumotlar ustida yaxshi natijalarni chiqarishda
yordam beradi, ammo u yuqori kuch va ma'lumotlar soni talab qiladi. Mashinali o'qitish esa, odatiy
va o'zgaruvchili ma'lumotlar ustida yaxshi natijalarni chiqarishda yaxshi ishlaydi va ko'p turlarda
keng qo'llaniladi.
40. Softmax faollashtirish funksiyasi, qo‘llanishdan maqsad.
Softmax faollashtirish funksiyasi, masofaviy sinflandirish modellarining ayrim chiziqlarini
hisoblashda va sinflarni aniqlovchilik jarayonida ishlatiladi. Uchuvchi ma'lumotlarni sinflarga
bo'lish va har bir sinfning ehtimolini (e'tirozini) hisoblashda qo'llaniladi.
Softmax funksiyasi kategorik ma'lumotlarni sinflandirishda ishlatiladi va quyidagi formula orqali
amalga oshiriladi:
P(yi∣ x)=∑j=1Kexjexi
Bu yerda:
•
•
•
•
P(yi∣ x) – x ma'lumotlari berilgan holda yi sinfning ehtimoli.
xi – i-chi sinfning beringan ma'lumotlar.
K – sinflar soni.
e – eksponenta.
Softmax funksiyasi odatda ko'p sinflardagi sinflandirish modellari (masalan, Logistik regressiya va
kategorik ma'lumotlarni sinflandirishning nuqtaviy neural tarmoqlari) uchun boshqaruvchi faollashtirish funksiyasi sifatida ishlatiladi. Ushbu funksiya berilgan ma'lumotlarni sinflarga bo'lish va
har bir sinfning ehtimolini hisoblashda yordam beradi.
Softmax funksiyasining maqsadi, beringan ma'lumotlarni sinflarga bo'lish orqali har bir sinfning
ehtimolini aniqlash va sinflandirish jarayonida eng yaxshi sinfni tanlashda yordam berishdir. Bu
funksiya esa, ehtimolni hisoblashda va modelning chiziqlarini boshqarishda juda foydali bo'ladi.
41. ReLU faollashtirish funksiyasi. Uning boshqa varinatlari (Leaky ReLU, parametrik ReLU)
ReLU (Rectified Linear Unit) – bu faollashtirish funksiyasi, chuqur o'rganuvchili tarmoqlarda va
sinflandirish modellarida juda keng qo'llaniladi. Bu funksiya aktivatsiya funksiyasi sifatida ishlaydi
va odatda chuqur o'qitishda (deep learning) foydalaniladi. ReLU funksiya o'z xususiyatlariga ega:
f(x)=max(0,x)
Bu yerda x ma'lumot, f(x) esa aktivatsiya natijasi bo'ladi. x musbat bo'lsa, f(x) o'sadi, lekin manfiy
bo'lsa, f(x) nolga teng bo'ladi. Bu funksiya odatda ishonchli va tez ishlaydi, shuningdek, murakkab
modellar uchun ham yaxshi natijalarni chiqaradi.
Boshqa ReLU funksiyalarining turli variantlari ham mavjud:
1. Leaky ReLU: Bu funksiya ReLUning o'zgartirilgan varianti bo'lib, manfiy qiymatlarda ham
nol bo'lmaydi. Leaky ReLU manfiy qiymatlarni qo'llash orqali funksiyani o'zgartiradi:
f(x)={x,ax,agar x>0boshqa holatda
Bu yerda a – o'zgaruvchilik bo'lib, odatda u juda kichik qiymat, masalan, 0.01 bo'ladi.
2. Parametrik ReLU (PReLU): Bu ham Leaky ReLU ga o'xshash, lekin a ni o'zgaruvchilik
sifatida qabul qiladi va o'rganiladi. PReLU modelning o'rganish va yaxshi natijalar olish imkoniyatlarini oshiradi.
ReLU funksiyalari o'zgaruvchili tarmoqlar va chuqur o'qitish modellarida ishlatiladi va oddiy sigmoid yoki tanh funksiyalariga nisbatan tez ishlaydi. Ular sinflandirish va chuqur tarmoqlarda juda
o'ziga xos xususiyatlarga ega bo'lib, aktivatsiya funksiyalari sifatida yuqori amalni ko'rsatadi.
42. Sinflashtirish masalasi uchun Loss funksiyalari (Binary Cross Entrapy, Cross Entrapy)
Sinflashtirish (classification) masalalari uchun "Loss" funksiyalari modelning chetlangan natijalarini (outputlarni) haqiqiy natijalar bilan solishtirish uchun ishlatiladi. Bu funksiyalar modelning o'rgangan natijalarining chetlangan natijalardan qanday farqda chiqqanligini o'lchaydi va modelning
o'zgarishi va yangilanishiga o'xshaydi.
1. Binary Cross Entropy Loss (BCELoss): Bu funksiya ikkita sinfli sinflandirish uchun ishlatiladi. Agar model bitta sinf (masalan, 0 yoki 1) ni aniqlayotgan bo'lsa, u odatda ishlatiladi.
BCELoss funksiyasi bitta sinfli sinflandirish uchun ishlatiladi va uning formulasi
quyidagicha:
BCELoss=−N1∑i=1N(yi⋅ log(y^i)+(1−yi)⋅ log(1−y^i))
Bu yerda:
• N – ma'lumotlar soni.
• yi – haqiqiy natija.
• y^i – modelning beringan natijasi.
2. Cross Entropy Loss: Bu esa ko'p sinfli sinflandirish uchun ishlatiladi, ya'ni sinflar soni 2
dan ko'p bo'lsa. Misol uchun, 3 yoki undan ko'p sinflar uchun foydalaniladi. U quyidagi formulada ifodalangan:
CrossEntropyLoss=−N1∑i=1N∑j=1Cyi,j⋅ log(y^i,j)
Bu yerda:
•
•
•
•
N – ma'lumotlar soni.
C – sinflar soni.
yi,j – haqiqiy natija (one-hot encoding formatda).
y^i,j – modelning beringan natijasi.
Bu funksiyalar modelning sinflarni aniqlash natijalarini haqiqiy natijalar bilan solishtiradi va
uchuvchi qanday darajada noto'g'ri ishlaganligini o'lchaydi. Bu esa modelni o'rganish va
o'zgaruvchilarini yangilashda yordam beradi.
43. Regressiya masalasi uchun Loss funksiyalari (MSE, MAE)
Regressiya masalalari uchun "Loss" yoki "Cost" funksiyalari, modelning beringan natijalari (outputlarni) ma'lumotlardagi haqiqiy qiymatlar bilan solishtirish uchun ishlatiladi. Modelning o'rganish
jarayonida, bu funksiyalar natijalarning neqotanoni aniqlab, beringan natijalar bilan qanday farqda
chiqqanligini o'lchaydi. Ular natijalarning o'zgarishi va yangilanishi uchun ham foydalaniladi.
1. Mean Squared Error (MSE): Bu funksiya modelning beringan natijalari bilan haqiqiy
qiymatlarni solishtirish uchun ishlatiladi. Quyidagi formulada ifodalangan:
MSE=N1∑i=1N(yi−y^i)2
Bu yerda:
• N – ma'lumotlar soni.
• yi – haqiqiy qiymat.
• y^i – modelning beringan qiymati.
2. Mean Absolute Error (MAE): Bu funksiya ham beringan natijalar bilan haqiqiy
qiymatlarni solishtirish uchun ishlatiladi, lekin darajasiz (mutlaq qiymat) ko'rsatkichga ega
bo'lgani uchun kechiktir. Formulasi quyidagicha:
MAE=N1∑i=1N∣ yi−y^i∣
Bu yerda:
• N – ma'lumotlar soni.
• yi – haqiqiy qiymat.
• y^i – modelning beringan qiymati.
MSE va MAE funksiyalari regressiya modellarini o'rganishda va natijalarni baholashda foydalaniladi. MSE sodir bo'lgan noto'g'ri natijalarni katta ko'rsatkichga ko'tarib, o'sishni kengaytiradi.
MAE esa to'g'ri natijalarning bilan ishlashda qulay bo'lgan, lekin uning gradienti o'sishini engelleydi. Har bir funksiya o'ziga xos xususiyatlarga ega va maqsadlarga moslashtirish uchun tanlanishi kerak.
44. Neyron tarmoqlarda Feedforward va Backpropagation amallari
Neyron tarmoqlarining (neural networks) "Feedforward" va "Backpropagation" amallari tizimning
o'rganish va yangilash jarayonlarida ahamiyatga ega bo'lgan jarayonlardir.
1. Feedforward (Oldinga yo‘llash): Bu amal tarmoqning ma'lumotni kirishdan chiqishga yo'l
bo'yicha o'tkazishidir. Ma'lumotlar har bir qatlama (layer) o'tib, har bir neyronning aktivatsiya funksiyasi orqali kelib chiqadi. Bu jarayon tarmoqdagi har bir qatlamaning har bir
neyronida kiritilgan ma'lumotlarni boshqarish uchun ishlatiladi. Tarmoqning o'ng tarafida
ko'rsatkich qiymatlar paydo bo'ladi (masalan, sinflar uchun ifodalangan natijalar).
2. Backpropagation (Orqaga tarqalganlik): Bu amal tarmoqda yuzaga yo'l topgan xatolarni
(noto'g'ri natijalarni) ortib chiqishda o'zgaruvchilarni yangilashdir. Tarmoqning beringan
chetlangan natijalari va haqiqiy natijalari o'rtasidagi farqni hisoblashda qo'llaniladi. Ushbu
xatolarni sinflashda funksiyaning gradyentini (neural tarmoqning qanday o'zgarishi kerakligini aniqlaydigan ko'rsatkich) hisoblashda yordam beradi. Buning natijasida, tarmoqdagi
o'zgaruvchilar (vaznlar va tugunlar) yangilanadi, bu esa tarmoqning o'rganishi va natijalarni
aniqlash jarayonida muhimdir.
Backpropagation algoritmi qo'llanilgan xatolarni ortib chiqish uchun juda muhimdir va tarmoqdagi
har bir neyronning o'zgaruvchilarini yangilash orqali tarmoqning o'rganish jarayonini yaxshilashda
qo'llaniladi. U bu jarayonlarda ma'lumotlarni tarmoqda yo'lga solib, xatolarni aniqlab chiqish va
o'zgaruvchilarni yangilashda foydalaniladi.
45. Neyron tarmoq orqali sinflashtirish va regressiya masalasini yechish
Neyron tarmoqlari sinflandirish va regressiya masalalarini yechishda juda mashhur va o'zgaruvchili
usullardan biridir. Bu masalalarni yechishda tarmoqning ko'p qatlamli strukturasidan foydalaniladi.
1. Sinflandirish masalasi:
• Maqsad: Ma'lumotlarni bir nechta sinflarga bo'lish.
• Javob: Tarmoqning chetlangan natijalari sinflar bo'ylab ishlatiladi.
• O'rganish jarayoni: Ma'lumotlar kirish qatlami orqali tarmoqga olib kelinishi, har
bir qatlama o'z aktivatsiya funksiyasini (masalan, ReLU yoki Sigmoid) va
o'zgaruvchilarni (vaznlar va tugunlar) o'z ichiga oladi, so'ngra bular orqali har bir
neyronning chetlangan natijasini hisoblash uchun foydalaniladi. Keyinchalik, yangilash jarayoni (Backpropagation) orqali xatolar ortib chiqariladi va tarmoqdagi
o'zgaruvchilar (vaznlar va tugunlar) yangilanadi.
2. Regressiya masalasi:
• Maqsad: Ma'lumotlarni bir qiymatga (masalan, qiymatlar o'lchamini bashorat qilish)
moslash.
• Javob: Tarmoqning chetlangan natijalari qiymatlarga mos keladi.
• O'rganish jarayoni: O'rganish jarayoni sinflandirishdan farq qilmaydi, lekin natijalar regressiya uchun moslashadi. Ma'lumotlar tarmoqga kiritiladi va chetlangan
natijalar haqiqiy qiymatlar bilan solishtiriladi. Yangilash jarayoni (Backpropagation)
o'rganishni chuqurroq aniqlash uchun foydalaniladi.
Bu masalalarni yechishda ma'lumotlar ustida amallar bajarish, o'zgaruvchili tarmoqlar yaratish, aktivatsiya funksiyalari orqali o'rganish jarayonlarini boshlash va yangilash jarayonlaridan foydalanish juda keng tarqalgan usullardir.
46. Neyron tarmoqni o‘qitish deganda nimani tushunasiz?
Neyron tarmoqni o'qitish – bu ma'lumotlarni o'rganish jarayoni tarmoqning o'zgaruvchilarini (vaznlar va biaslar) yangilash orqali ma'lumotlarni sinflarga bo'lish yoki aniqlash uchun moslashdir. Bu
jarayon modelni ma'lumotlarni o'rganish va maqsadga moslash uchun parametrlarini yangilash va
natijalarni aniqlashda yordam beradi.
Tarmoqning o'qitish jarayonida keng ko'lamli ma'lumotlardan foydalaniladi. Ma'lumotlar tarmoqga
kiritiladi va tarmoqning chetlangan natijalari (outputlar) aniqlanadi. Keyinchalik, tarmoq beringan
natijalardan kelib chiqqan xatolarni (noto'g'ri natijalar) o'rganadi va buning asosida o'zgaruvchilarini (vaznlar va biaslar) yangilab boradi. Bu yangilash jarayonida tarmoq natijalarni haqiqiy natijalar bilan solishtirib, xatolarni (nogironlikni) ortib chiqarib, yangi o'zgaruvchilar orqali yangi natijalarni olishga harakat qiladi.
O'qitish jarayonida quyidagi asosiy qadamlar mavjud:
1. Ma'lumotlar kiritilishi: Ma'lumotlar tarmoqga kiritiladi (masalan, o'qitish va sinov ma'lumotlari).
2. Chetlangan natijalar hisoblanishi: Tarmoq ma'lumotlarni kiritsa, chetlangan natijalar (outputlar) hisoblanadi.
3. Xatolar va gradyentlar hisoblanishi: Chetlangan natijalar va haqiqiy natijalar o'rtasidagi
farq hisoblanadi va tarmoqning har bir qatlamasidagi gradyentlar (yangilanish kerakligi)
hisoblanadi.
4. O'zgaruvchilarning yangilash (Backpropagation): Bu jarayonda gradyentlar orqali tarmoqning o'zgaruvchilari (vaznlar va biaslar) yangilanadi.
5. Natijalarning yangilanishi: O'zgaruvchilar yangilanganidan so'ng, yangi ma'lumotlar tarmoqdan o'tib, natijalar yangilanadi.
Bu jarayonda asosiy maqsad tarmoqning chetlangan natijalari va haqiqiy natijalar o'rtasidagi farqni
kamaytirib, sinflarni aniqlash va regressiya uchun yaxshi natijalarni olish uchun modelni o'rganish
va o'zgarishlarini aniqlashdir.
Download