πŸ€– κΈ°κ³„ν•™μŠ΅

주어진 데이터λ₯Ό μ΄μš©ν•˜μ—¬ 문제λ₯Ό ν•΄κ²°ν•˜κΈ° μœ„ν•΄ 졜적의 λͺ¨λΈμ„ μ°ΎλŠ” ν•™λ¬Έ.

μ’…λ₯˜

  • μ§€λ„ν•™μŠ΅(supervised learning) β€” 정닡이 μ£Όμ–΄μ§€λŠ” ν•™μŠ΅
    • λΆ„λ₯˜(classification)
    • νšŒκ·€(regression)
  • λΉ„μ§€λ„ν•™μŠ΅(unsupervised learning) β€” 정닡이 주어지지 μ•ŠλŠ” ν•™μŠ΅
    • ν΄λŸ¬μŠ€ν„°λ§(clustering)
  • μžκΈ°μ§€λ„ν•™μŠ΅(SSL; Self-Supervised Learning) β€” 정닡이 없을 경우 직접 λ‹¬λ©΄μ„œ ν•™μŠ΅
    • 단어 μž„λ² λ”© λ“±
  • κ°•ν™”ν•™μŠ΅(reinforcement learning) β€” 행동을 톡해 보상을 μ–»μœΌλ©° ν•™μŠ΅

μ§€λ„ν•™μŠ΅

데이터에 μ •λ‹΅ yyκ°€ μ£Όμ–΄μ§€λŠ” 경우 μ§€λ„ν•™μŠ΅ μ•Œκ³ λ¦¬μ¦˜μ„ μ“Έ 수 μžˆλ‹€.

  • λΆ„λ₯˜ β€” μ˜ˆμΈ‘ν•˜κ³ μžν•˜λŠ” λ ˆμ΄λΈ”μ΄ 이산적일 경우 λΆ„λ₯˜ λ¬Έμ œμ΄λ‹€.
    • μŠ€νŒΈμ΄κ±°λ‚˜ μ•„λ‹ˆκ±°λ‚˜. κΈ€μ˜ μΉ΄ν…Œκ³ λ¦¬κ°€ 무엇인지 λ“±.
    • KNN, SVM, μ˜μ‚¬ κ²°μ • 트리 등을 μ΄μš©ν•˜μ—¬ ν•΄κ²°ν•œλ‹€.
  • νšŒκ·€ β€” μ˜ˆμΈ‘ν•˜κ³ μžν•˜λŠ” 값이 연속적일 경우 νšŒκ·€ λ¬Έμ œμ΄λ‹€.

κ³Όμ •

  1. 데이터λ₯Ό μˆ˜μ§‘ν•œλ‹€.
  2. 데이터λ₯Ό λΆ„μ„ν•˜μ—¬ νŒŒμ•…ν•˜κ³  ν•™μŠ΅μ— 맞게 μ „μ²˜λ¦¬ν•œλ‹€.
  3. μ μ ˆν•œ λͺ¨λΈμ„ μ„Έμ›Œμ„œ ν•™μŠ΅ν•œλ‹€.
  4. ν•™μŠ΅ 결과에 λŒ€ν•΄ ν‰κ°€ν•œλ‹€.
  5. 반볡

평가

ν˜Όλ™ν–‰λ ¬

μ•Œκ³ λ¦¬μ¦˜μ˜ 정확성을 ν‰κ°€ν•˜κΈ° μœ„ν•œ 도ꡬ.

κ΅¬λΆ„μ˜ˆμΈ‘ μ°Έ (P)예츑 거짓 (N)
μ‹€μ œ μ°ΈTPFN
μ‹€μ œ 거짓FPTN
  • TPTP; True Positive β€” μ°Έμ–‘μ„± ν˜Ήμ€ 참긍정
  • FPFP; False Positive β€” μœ„μ–‘μ„± ν˜Ήμ€ 거짓긍정
  • FNFN; False Negative β€” μœ„μŒμ„± ν˜Ήμ€ 거짓뢀정
  • TNTN; True Negative β€” μ°ΈμŒμ„± ν˜Ήμ€ μ°ΈλΆ€μ •

μœ„ 값을 μ΄μš©ν•˜μ—¬ 정밀도, μž¬ν˜„μœ¨, 정확도λ₯Ό κ΅¬ν•˜μ—¬ μ•Œκ³ λ¦¬μ¦˜μ„ ν‰κ°€ν•œλ‹€:

  • 정밀도(precision) β€” 참으둜 μ˜ˆμΈ‘ν•œ 것이 μ–Όλ§ˆλ‚˜ λ§žλŠ”κ°€ P=TPTP+FPP=\frac{TP}{TP+FP}
  • μž¬ν˜„μœ¨(recall) β€” μ‹€μ œλ‘œ 참인 것을 μ–Όλ§ˆλ‚˜ λ§žμΆ”λŠ”κ°€ R=TPTP+FNR = \frac{TP}{TP+FN}
  • 정확도(accuracy) β€” 정닡을 μ–Όλ§ˆλ‚˜ λ§žμΆ”λŠ”κ°€ ACC=TP+TNTP+TN+FP+FN\text{ACC}=\frac{TP+TN}{TP+TN+FP+FN}
  • F1F_1 κ°’ β€” F1=2PRP+RF_1 = \frac{2PR}{P+R}

과적합과 κ³Όμ†Œμ ν•©

λͺ¨λΈμ΄ 데이터λ₯Ό κ³Όν•˜κ²Œ ν•™μŠ΅ν•œ 경우 과적합(overfitting)이라고 ν•œλ‹€.

  • ν•™μŠ΅ λ°μ΄ν„°μ—μ„œλŠ” 높은 μ„±λŠ₯을 λ°œνœ˜ν•˜μ§€λ§Œ 평가 λ°μ΄ν„°μ—μ„œλŠ” μ„±λŠ₯이 떨어진닀.
  • dropout, early stopping을 ν™œμš©ν•œλ‹€.

λͺ¨λΈμ΄ μΆ©λΆ„νžˆ 데이터λ₯Ό ν•™μŠ΅ν•˜μ§€ λͺ»ν•œ 경우 κ³Όμ†Œμ ν•©(underfitting)이라고 ν•œλ‹€.

  • ν•™μŠ΅ λ°μ΄ν„°μ—μ„œλ„ 높은 μ„±λŠ₯을 λ°œνœ˜ν•˜μ§€ λͺ»ν•œλ‹€.

μ°Έκ³