ถ้าขึ้น MRT ที่สีลม นั่งไปสักครู่หนึ่งพบว่าสถานีต่อไปคือลุมพินี สถานีสุดท้ายของรถไฟขบวนนี้คือสถานีอะไร
เตาปูน
Bigram model
data structure หลักในการเก็บข้อมูลในการ search
Inverted index
จำนวน document ที่ถูกคลิก หารด้วย จำนวน document ที่แสดงทั้งหมดนับถึงลำดับที่ k
Precision@k
ใครได้รับการ vote เป็นอันดับที่ 17 ในงาน BNK48 Senbatsu General Election
ซัตจัง
วิธีการจัดการกับ bigram หรือ trigram ที่ไม่พบในคลังข้อมูล
Smoothing
Cross-entropy loss function
Loglikelihood function
Query understanding จำเป็นต้องใช้สิ่งนี้ในการทำความเข้าใจ query
ทำไมต้อง run offline evaluation ก่อนการทำ A/B testing
เพราะ A/B testing ช้าและแพง
sentiment analysis ดังขึ้นมาจากเปเปอร์ที่ตีพิมพ์โดยอาจารย์ Lilian Lee ในปีอะไร (ทายผิดไม่เกินสองปีถือว่าถูก)
2008
ถ้า trigram count = 0 ให้ถอยไปใช้ bigram model วิธีนี้เรียกว่าอะไร
dropout ช่วยในการ train neural network ยังไง
ช่วยให้ train ได้เร็วขึ้น objective function ลดเร็ว
Query expansion ช่วยทำให้มาตรวัดความสามารถของ search engine นี้สูงขึ้น
recall@k
วิธีการให้เครื่องช่วยจัดลำดับความสำคัญของ feature ในการ search
Ludwig Wittgenstein
P_continuation ของ Kneser-Ney คำนวณอย่างไร
# bigram type ทั้งหมด
ทำไมถึงใช้ F1 score จึงเหมาะกว่าการใช้ accuracy
F1 score ประเมินผลแต่ละ class แยกกัน
ltc.lnn แปลว่าอะไร
document = 1 + log tf * N / dft / norm
query = 1 + logtf
เพราะเหตุใดเราต้อง run A/B testing เป็นเวลานานๆ