ผลต่างระหว่างรุ่นของ "Foundations of data science"

จาก Theory Wiki
ไปยังการนำทาง ไปยังการค้นหา
 
(ไม่แสดง 14 รุ่นระหว่างกลางโดยผู้ใช้คนเดียวกัน)
แถว 9: แถว 9:
 
** Hint: 2.9 พิจารณา 1 มิติก่อน (d=1) นิยามของ variance คืออะไร, จากนั้นค่อยพิจารณา d มิติ
 
** Hint: 2.9 พิจารณา 1 มิติก่อน (d=1) นิยามของ variance คืออะไร, จากนั้นค่อยพิจารณา d มิติ
  
* Homework 2 (due 4 Oct): 3.1, 3.6, 3.14, 3.15 (คำนวณค่า), 3.24
+
* Homework 2 (due 4 Oct): 3.1, 3.6, 3.14, 3.15 (คำนวณค่า), 3.24, 3.23 (optional)
 +
** Hint: [[found ds 3.1|3.1 least squares vertical error]]
 
** Hint: 3.6 จากการที่แถวเป็น orthonormal ให้แสดงว่า (1) <math>AA^T = I</math> หรือ (2) <math>A^{-1}=A^T</math> (ข้อใดข้อหนึ่ง หรือจะแสดงทั้งคู่ก็ได้) จากนั้นให้ใช้คุณสมบัติดังกล่าวประกอบกับการตีความ <math>A^TA</math>
 
** Hint: 3.6 จากการที่แถวเป็น orthonormal ให้แสดงว่า (1) <math>AA^T = I</math> หรือ (2) <math>A^{-1}=A^T</math> (ข้อใดข้อหนึ่ง หรือจะแสดงทั้งคู่ก็ได้) จากนั้นให้ใช้คุณสมบัติดังกล่าวประกอบกับการตีความ <math>A^TA</math>
  
แถว 15: แถว 16:
 
** Hint: 5.3 ให้ลอง fix disjunction ก่อน จากนั้นพิจารณาว่า w ควรเป็นอะไร (ลองพิจารณาจากกรณีที่ใช้ perceptron ในการหาเวกเตอร์ก็ได้)
 
** Hint: 5.3 ให้ลอง fix disjunction ก่อน จากนั้นพิจารณาว่า w ควรเป็นอะไร (ลองพิจารณาจากกรณีที่ใช้ perceptron ในการหาเวกเตอร์ก็ได้)
 
** Hint: 5.4 พิสูจน์ by contradiction ให้สร้างเงื่อนไขที่ตอบถูกบางกรณีก่อน จากนั้นนำมารวมกันเพื่อสร้างข้อขัดแย้ง
 
** Hint: 5.4 พิสูจน์ by contradiction ให้สร้างเงื่อนไขที่ตอบถูกบางกรณีก่อน จากนั้นนำมารวมกันเพื่อสร้างข้อขัดแย้ง
 +
 +
* Homework 4 (due 8 nov)
 +
** บังคับทำ 5.26 (boosting)
 +
** ให้เลือก 2 ข้อจากด้านล่าง
 +
*** 5.21 (programming), 5.22 (programming)
 +
*** 5.19 (linear cnn), 5.23 (perceptron & sgd)
 +
*** 5.24 (online perceptron)
 +
** โบนัส 5.20 (programming)
  
 
== เนื้อหา ==
 
== เนื้อหา ==
แถว 84: แถว 93:
 
[https://gitlab.com/jittat/foundations-ds-64-notes/-/blob/main/lect-05-2-perceptrons.pdf notes-05-2]<br>
 
[https://gitlab.com/jittat/foundations-ds-64-notes/-/blob/main/lect-05-2-perceptrons.pdf notes-05-2]<br>
 
[https://gitlab.com/jittat/foundations-ds-64-notes/-/blob/main/lect-05-3-kernels.pdf notes-05-3]
 
[https://gitlab.com/jittat/foundations-ds-64-notes/-/blob/main/lect-05-3-kernels.pdf notes-05-3]
 +
|-
 +
| 6 || ตัวอย่าง Perceptron และ kernelized Perceptron, Uniform convergence (finite hypothesis classes)
 +
|| 5
 +
||
 +
คลิป:
 +
* [https://www.youtube.com/watch?v=6kkOaws_ijA&list=PLii-CvAgf-8hqc3qpihz3SZmMTAOLWIGk&index=27 06-1: ตัวอย่าง perceptron และการใช้ kernel]
 +
* [https://www.youtube.com/watch?v=6tUd2hSPCxI&list=PLii-CvAgf-8hqc3qpihz3SZmMTAOLWIGk&index=28 06-2: นิยามโมเดลในการวิเคราะห์ generalization]
 +
* [https://www.youtube.com/watch?v=3s1Dg9v9lZM&list=PLii-CvAgf-8hqc3qpihz3SZmMTAOLWIGk&index=29 06-3: Generalization กรณี finite hypothesis class และ consistent hypothesis, แนะนำ uniform convergence]
 +
* [https://www.youtube.com/watch?v=TARKpbOyVa8&list=PLii-CvAgf-8hqc3qpihz3SZmMTAOLWIGk&index=30 06-4: พิสูจน์ uniform convergence กรณี finite hypothesis class ด้วย Hoeffding bounds]
 +
* [https://www.youtube.com/watch?v=r0Z2esT5bzA&list=PLii-CvAgf-8hqc3qpihz3SZmMTAOLWIGk&index=31 06-5: Occam's Razor และ Regularization]
 +
* [https://www.youtube.com/watch?v=AJzcepaTlzw&list=PLii-CvAgf-8hqc3qpihz3SZmMTAOLWIGk&index=32 06-6: แนะนำ VC dimension]
 +
||
 +
[https://gitlab.com/jittat/foundations-ds-64-notes/-/blob/main/lect-06-1-generalization.pdf notes-06-1]
 +
|-
 +
| 7 || VC dimension
 +
|| 5
 +
||
 +
คลิป:
 +
* [https://www.youtube.com/watch?v=PkDT8HhJh3U&list=PLii-CvAgf-8hqc3qpihz3SZmMTAOLWIGk&index=33 07-1: ทบทวนแนวคิดเกี่ยวกับ uniform convergence]
 +
* [https://www.youtube.com/watch?v=8tmVxRQNLwg&list=PLii-CvAgf-8hqc3qpihz3SZmMTAOLWIGk&index=34 07-2: นิยาม VC dimension]
 +
* [https://www.youtube.com/watch?v=4LVpVeGMLOg&list=PLii-CvAgf-8hqc3qpihz3SZmMTAOLWIGk&index=35 07-3: Shatter function]
 +
* [https://www.youtube.com/watch?v=GQ4AnXLbZWs&list=PLii-CvAgf-8hqc3qpihz3SZmMTAOLWIGk&index=36 07-4: ทฤษฎีบทจาก VC dimension และแนวคิดในการพิสูจน์]
 +
||
 +
[https://gitlab.com/jittat/foundations-ds-64-notes/-/blob/main/lect-07-vc-dim-results.pdf notes-07-1]
 +
|-
 +
| 8 || Deep learning
 +
|| 5
 +
||
 +
คลิป:
 +
* [https://www.youtube.com/watch?v=m0qta5SzEek&list=PLii-CvAgf-8hqc3qpihz3SZmMTAOLWIGk&index=37 08-1: Optimization กับ machine learning]
 +
* [https://www.youtube.com/watch?v=GyH1JJzJi9w&list=PLii-CvAgf-8hqc3qpihz3SZmMTAOLWIGk&index=38 08-2: Logistic regression]
 +
* [https://www.youtube.com/watch?v=VuyWKQWrWtg&list=PLii-CvAgf-8hqc3qpihz3SZmMTAOLWIGk&index=39 08-3: แนะนำ deep neural network]
 +
* [https://www.youtube.com/watch?v=6bKTCZFhN5o&list=PLii-CvAgf-8hqc3qpihz3SZmMTAOLWIGk&index=40 08-4: หัวข้อเกี่ยวข้องกับ DL: Adversarial attack และ Generative Adversarial Network]
 +
* [https://www.youtube.com/watch?v=jvAXADYUFVg&list=PLii-CvAgf-8hqc3qpihz3SZmMTAOLWIGk&index=41 08-5: Gradient descent]
 +
||
 +
[https://gitlab.com/jittat/foundations-ds-64-notes/-/blob/main/lect-08-1-deep-learning.pdf notes-08-1]
 +
|-
 +
| 9 || Online learning, learning from expert advice, boosting
 +
|| 5
 +
||
 +
คลิป:
 +
* [https://www.youtube.com/watch?v=tgsmEs4e0wk&list=PLii-CvAgf-8hqc3qpihz3SZmMTAOLWIGk&index=42 09-1: แนะนำ online learning, learning disjunctions, และ halving algorithm]
 +
* [https://www.youtube.com/watch?v=-XXG4LjFEfQ&list=PLii-CvAgf-8hqc3qpihz3SZmMTAOLWIGk&index=43 09-2: Perceptron algorithm แบบออนไลน์ และการวิเคราะห์กรณี inseparable data ด้วย hinge loss]
 +
* [https://www.youtube.com/watch?v=fxuy7qkyrq0&list=PLii-CvAgf-8hqc3qpihz3SZmMTAOLWIGk&index=44 09-3: การแปลง online learning algorithm ไปใช้กับ batch learning]
 +
* [https://www.youtube.com/watch?v=Z57GFUHtfxo&list=PLii-CvAgf-8hqc3qpihz3SZmMTAOLWIGk&index=45 09-4: การทำนายโดยใช้ Expert advice]
 +
* [https://www.youtube.com/watch?v=k_prbqBsGnM&list=PLii-CvAgf-8hqc3qpihz3SZmMTAOLWIGk&index=46 09-5: Boosting]
 +
||
 +
[https://gitlab.com/jittat/foundations-ds-64-notes/-/blob/main/lect-09-1-online.pdf notes-09-1]<br>
 +
[https://gitlab.com/jittat/foundations-ds-64-notes/-/blob/main/lect-09-2-expert.pdf notes-09-2]<br>
 +
[https://gitlab.com/jittat/foundations-ds-64-notes/-/blob/main/lect-09-3-boosting.pdf notes-09-3]
 +
|-
 +
| 10 || Streaming algorithms (1)
 +
|| 6
 +
||
 +
คลิป:
 +
* [https://www.youtube.com/watch?v=jssP46y1N3c&list=PLii-CvAgf-8hqc3qpihz3SZmMTAOLWIGk&index=47 10-1: แนะนำ streaming model, ปัญหาการสุ่มข้อมูล]
 +
* [https://www.youtube.com/watch?v=-FPiasAKWEk&list=PLii-CvAgf-8hqc3qpihz3SZmMTAOLWIGk&index=48 10-2: Approximate counter, นิยาม frequency moments]
 +
* [https://www.youtube.com/watch?v=cMXYtdQWlt4&list=PLii-CvAgf-8hqc3qpihz3SZmMTAOLWIGk&index=49 10-3: จำนวนข้อมูลที่แตกต่างกัน (part 1)]
 +
* [https://www.youtube.com/watch?v=IDRLahcX7Wg&list=PLii-CvAgf-8hqc3qpihz3SZmMTAOLWIGk&index=50 10-4: จำนวนข้อมูลที่แตกต่างกัน (part 2): 2-universal hashing]
 +
||
 +
[https://gitlab.com/jittat/foundations-ds-64-notes/-/blob/main/lect-10-1-streaming.pdf notes-10-1]
 +
|-
 +
| 11 || Streaming algorithms (2) - majority และ second frequency moment
 +
|| 6
 +
||
 +
คลิป:
 +
* [https://www.youtube.com/watch?v=gWO4XfH8AzY&list=PLii-CvAgf-8hqc3qpihz3SZmMTAOLWIGk&index=51 11-1: Majority และ frequent elements]
 +
* [https://www.youtube.com/watch?v=oJ_62xNjxVE&list=PLii-CvAgf-8hqc3qpihz3SZmMTAOLWIGk&index=52 11-2: การประมาณ Second Frequency Moment (Part 1) - อัลกอริทึม]
 +
* [https://www.youtube.com/watch?v=jxNLqn1lX8k&list=PLii-CvAgf-8hqc3qpihz3SZmMTAOLWIGk&index=53 11-3: การประมาณ Second Frequency Moment (Part 2) - 4-way independent random vectors]
 +
* [https://www.youtube.com/watch?v=sNG8q1eu69Q&list=PLii-CvAgf-8hqc3qpihz3SZmMTAOLWIGk&index=54 11-4: Demo - second moment]
 +
||
 +
[https://gitlab.com/jittat/foundations-ds-64-notes/-/blob/main/lect-11-1-majority.pdf notes-11-1]<br>
 +
[https://gitlab.com/jittat/foundations-ds-64-notes/-/blob/main/lect-11-2-secondmonent.pdf notes-11-2]
 +
|-
 +
| 12 || Streaming algorithms (3) - approximate matrix multiplication & matrix sketches
 +
|| 6
 +
||
 +
คลิป:
 +
* [https://www.youtube.com/watch?v=86qeQOeBe08&list=PLii-CvAgf-8hqc3qpihz3SZmMTAOLWIGk&index=55 12-1: การประมาณการคูณเมตริกซ์ (Part 1) - sampling]
 +
* [https://www.youtube.com/watch?v=HBIDiv5DIuc&list=PLii-CvAgf-8hqc3qpihz3SZmMTAOLWIGk&index=56 12-2: การประมาณการคูณเมตริกซ์ (Part 2) - พิสูจน์ขอบเขตความผิดพลาด]
 +
* [https://www.youtube.com/watch?v=PyPBNp8tPRA&list=PLii-CvAgf-8hqc3qpihz3SZmMTAOLWIGk&index=57 12-3: การประมาณการคูณเมตริกซ์ (Part 3) - เปรียบเทียบ]
 +
* [https://www.youtube.com/watch?v=n5yZhJ-KnOs&list=PLii-CvAgf-8hqc3qpihz3SZmMTAOLWIGk&index=58 12-4: Matrix Sketches (Part 1) - ภาพรวม]
 +
* [https://www.youtube.com/watch?v=dkq-UqLtDZ4&list=PLii-CvAgf-8hqc3qpihz3SZmMTAOLWIGk&index=59 12-5: Matrix Sketches (Part 2) - บทพิสูจน์]
 +
||
 +
[https://gitlab.com/jittat/foundations-ds-64-notes/-/blob/main/lect-12-1-matmult.pdf notes-12-1]<br>
 +
[https://gitlab.com/jittat/foundations-ds-64-notes/-/blob/main/lect-12-2-mat-sketch.pdf notes-12-2]
 
|}
 
|}
  
 
== ลิงก์ ==
 
== ลิงก์ ==

รุ่นแก้ไขปัจจุบันเมื่อ 05:41, 3 ธันวาคม 2564

หน้านี้สำหรับเก็บเอกสารและการบ้านรายวิชา 01204515 Foundations of Data Science ปีการศึกษา 2564 ภาคต้น

รายวิชานี้จะใช้หนังสือ Foundations of Data Science (Blum, A., Hopcroft, J., & Kannan, R. (2020). Foundations of Data Science. Cambridge: Cambridge University Press. doi:10.1017/9781108755528) เป็นหนังสือหลัก (ดาวน์โหลดจากโฮมเพจของ Hopcroft)

การบ้าน

อ้างอิงจากหนังสือ ฉบับวันที่ 2 March 2019

  • Homework 1 (due 2 Sep.): 12.6, 12.15, 2.1(1), 2.5, 2.9, 2.27 (Programming), 2.32 (Programming), 2.14 (optional), 2.23 (optional)
    • Hint: 2.9 พิจารณา 1 มิติก่อน (d=1) นิยามของ variance คืออะไร, จากนั้นค่อยพิจารณา d มิติ
  • Homework 2 (due 4 Oct): 3.1, 3.6, 3.14, 3.15 (คำนวณค่า), 3.24, 3.23 (optional)
    • Hint: 3.1 least squares vertical error
    • Hint: 3.6 จากการที่แถวเป็น orthonormal ให้แสดงว่า (1) หรือ (2) (ข้อใดข้อหนึ่ง หรือจะแสดงทั้งคู่ก็ได้) จากนั้นให้ใช้คุณสมบัติดังกล่าวประกอบกับการตีความ
  • Homework 3 (due 11 Oct): 5.3, 5.4, 5.7, 5.10, 5.12
    • Hint: 5.3 ให้ลอง fix disjunction ก่อน จากนั้นพิจารณาว่า w ควรเป็นอะไร (ลองพิจารณาจากกรณีที่ใช้ perceptron ในการหาเวกเตอร์ก็ได้)
    • Hint: 5.4 พิสูจน์ by contradiction ให้สร้างเงื่อนไขที่ตอบถูกบางกรณีก่อน จากนั้นนำมารวมกันเพื่อสร้างข้อขัดแย้ง
  • Homework 4 (due 8 nov)
    • บังคับทำ 5.26 (boosting)
    • ให้เลือก 2 ข้อจากด้านล่าง
      • 5.21 (programming), 5.22 (programming)
      • 5.19 (linear cnn), 5.23 (perceptron & sgd)
      • 5.24 (online perceptron)
    • โบนัส 5.20 (programming)

เนื้อหา

Week Topics Book chapter Clips Notes
1 Review of probability theory. Law of large numbers. Markov's Inequality. Chebyshev's Inequality 2

notes-01-1
notes-01-2

2 More review of probability theory: binomial, Poisson, and Gaussian random variables. High dimensional unit balls. 2

notes-02-1
notes-02-2

3 Gaussians in high dimensions. Random projection and the Johnson-Lindenstrauss Lemma.
Separating Gaussians. Introduction to SVD and review of linear algebra.
2, 3

Series แนะนำ: Essence of linear algebra จาก 3Blue1Brown

notes-03-1
notes-03-2

4 Singular Value Decomposition 3

notes-04-1

5 Applications of SVD. Machine learning (intro). Perceptrons. Kernel functions. 3, 5

คลิป:

notes-05-1
notes-05-2
notes-05-3

6 ตัวอย่าง Perceptron และ kernelized Perceptron, Uniform convergence (finite hypothesis classes) 5

คลิป:

notes-06-1

7 VC dimension 5

คลิป:

notes-07-1

8 Deep learning 5

คลิป:

notes-08-1

9 Online learning, learning from expert advice, boosting 5

คลิป:

notes-09-1
notes-09-2
notes-09-3

10 Streaming algorithms (1) 6

คลิป:

notes-10-1

11 Streaming algorithms (2) - majority และ second frequency moment 6

คลิป:

notes-11-1
notes-11-2

12 Streaming algorithms (3) - approximate matrix multiplication & matrix sketches 6

คลิป:

notes-12-1
notes-12-2

ลิงก์