ผลต่างระหว่างรุ่นของ "Foundations of data science"

จาก Theory Wiki
ไปยังการนำทาง ไปยังการค้นหา
แถว 84: แถว 84:
 
[https://gitlab.com/jittat/foundations-ds-64-notes/-/blob/main/lect-05-2-perceptrons.pdf notes-05-2]<br>
 
[https://gitlab.com/jittat/foundations-ds-64-notes/-/blob/main/lect-05-2-perceptrons.pdf notes-05-2]<br>
 
[https://gitlab.com/jittat/foundations-ds-64-notes/-/blob/main/lect-05-3-kernels.pdf notes-05-3]
 
[https://gitlab.com/jittat/foundations-ds-64-notes/-/blob/main/lect-05-3-kernels.pdf notes-05-3]
 +
|-
 +
| 6 || ตัวอย่าง Perceptron และ kernelized Perceptron, Uniform convergence (finite hypothesis classes)
 +
|| 5
 +
||
 +
คลิป:
 +
* [https://www.youtube.com/watch?v=6kkOaws_ijA&list=PLii-CvAgf-8hqc3qpihz3SZmMTAOLWIGk&index=27 06-1: ตัวอย่าง perceptron และการใช้ kernel]
 +
* [https://www.youtube.com/watch?v=6tUd2hSPCxI&list=PLii-CvAgf-8hqc3qpihz3SZmMTAOLWIGk&index=28 06-2: นิยามโมเดลในการวิเคราะห์ generalization]
 +
* [https://www.youtube.com/watch?v=3s1Dg9v9lZM&list=PLii-CvAgf-8hqc3qpihz3SZmMTAOLWIGk&index=29 06-3: Generalization กรณี finite hypothesis class และ consistent hypothesis, แนะนำ uniform convergence]
 +
* [https://www.youtube.com/watch?v=TARKpbOyVa8&list=PLii-CvAgf-8hqc3qpihz3SZmMTAOLWIGk&index=30 06-4: พิสูจน์ uniform convergence กรณี finite hypothesis class ด้วย Hoeffding bounds]
 +
* [https://www.youtube.com/watch?v=r0Z2esT5bzA&list=PLii-CvAgf-8hqc3qpihz3SZmMTAOLWIGk&index=31 06-5: Occam's Razor และ Regularization]
 +
* [https://www.youtube.com/watch?v=AJzcepaTlzw&list=PLii-CvAgf-8hqc3qpihz3SZmMTAOLWIGk&index=32 06-6: แนะนำ VC dimension]
 +
||
 +
[notes-06-1 https://gitlab.com/jittat/foundations-ds-64-notes/-/blob/main/lect-06-1-generalization.pdf notes-06-1]
 
|}
 
|}
  
 
== ลิงก์ ==
 
== ลิงก์ ==

รุ่นแก้ไขเมื่อ 19:49, 20 กันยายน 2564

หน้านี้สำหรับเก็บเอกสารและการบ้านรายวิชา 01204515 Foundations of Data Science ปีการศึกษา 2564 ภาคต้น

รายวิชานี้จะใช้หนังสือ Foundations of Data Science (Blum, A., Hopcroft, J., & Kannan, R. (2020). Foundations of Data Science. Cambridge: Cambridge University Press. doi:10.1017/9781108755528) เป็นหนังสือหลัก (ดาวน์โหลดจากโฮมเพจของ Hopcroft)

การบ้าน

อ้างอิงจากหนังสือ ฉบับวันที่ 2 March 2019

  • Homework 1 (due 2 Sep.): 12.6, 12.15, 2.1(1), 2.5, 2.9, 2.27 (Programming), 2.32 (Programming), 2.14 (optional), 2.23 (optional)
    • Hint: 2.9 พิจารณา 1 มิติก่อน (d=1) นิยามของ variance คืออะไร, จากนั้นค่อยพิจารณา d มิติ
  • Homework 2 (due 4 Oct): 3.1, 3.6, 3.14, 3.15 (คำนวณค่า), 3.24, 3.23 (optional)
    • Hint: 3.6 จากการที่แถวเป็น orthonormal ให้แสดงว่า (1) หรือ (2) (ข้อใดข้อหนึ่ง หรือจะแสดงทั้งคู่ก็ได้) จากนั้นให้ใช้คุณสมบัติดังกล่าวประกอบกับการตีความ
  • Homework 3 (due 11 Oct): 5.3, 5.4, 5.7, 5.10, 5.12
    • Hint: 5.3 ให้ลอง fix disjunction ก่อน จากนั้นพิจารณาว่า w ควรเป็นอะไร (ลองพิจารณาจากกรณีที่ใช้ perceptron ในการหาเวกเตอร์ก็ได้)
    • Hint: 5.4 พิสูจน์ by contradiction ให้สร้างเงื่อนไขที่ตอบถูกบางกรณีก่อน จากนั้นนำมารวมกันเพื่อสร้างข้อขัดแย้ง

เนื้อหา

Week Topics Book chapter Clips Notes
1 Review of probability theory. Law of large numbers. Markov's Inequality. Chebyshev's Inequality 2

notes-01-1
notes-01-2

2 More review of probability theory: binomial, Poisson, and Gaussian random variables. High dimensional unit balls. 2

notes-02-1
notes-02-2

3 Gaussians in high dimensions. Random projection and the Johnson-Lindenstrauss Lemma.
Separating Gaussians. Introduction to SVD and review of linear algebra.
2, 3

Series แนะนำ: Essence of linear algebra จาก 3Blue1Brown

notes-03-1
notes-03-2

4 Singular Value Decomposition 3

notes-04-1

5 Applications of SVD. Machine learning (intro). Perceptrons. Kernel functions. 3, 5

คลิป:

notes-05-1
notes-05-2
notes-05-3

6 ตัวอย่าง Perceptron และ kernelized Perceptron, Uniform convergence (finite hypothesis classes) 5

คลิป:

[notes-06-1 https://gitlab.com/jittat/foundations-ds-64-notes/-/blob/main/lect-06-1-generalization.pdf notes-06-1]

ลิงก์