Skip to Content
חלק א׳ — יסודותTokens — האטומים של AI

Tokens — האטומים של AI

Token הוא יחידת הטקסט הקטנה ביותר שמודל שפה מכיר. זה לא מילה ולא תו בודד — זה נתח טקסט שהמודל למד לזהות כיחידה אחת.

כלל האצבע: 1 token ≈ 4 תווים באנגלית ≈ 0.75 מילים.

דוגמאות ל-Tokenization

tokenizer
"hello" → 1 token
"unbelievable" → 3 tokens
(un + believ + able)
"const x = 42;" → 5 tokens
(const + " " + x + " = " + 42 + ;)

למה קוד עולה יותר Tokens?

כל סוגריים, נקודה-פסיק, ריווח הזחה — token נפרד. קובץ TypeScript של 100 שורות שווה בין 800 ל-1,200 tokens.

סוג תוכןעלות משוערת
טקסט אנגלי רגיל~1 token לכל 4 תווים
קוד (JavaScript / TypeScript)פי 1.5–2 מטקסט רגיל
עברית / ערבית / סיניתפי 3–4 מאנגלית לאותו תוכן

Output עולה פי 5 מ-Input

כל token שהמודל מייצר בתשובה עולה פחות ממה שעולה לשלוח אותו כ-Input. בפועל, מחיר Output גבוה פי 5 ממחיר Input. לכן: פרומפט ארוך + תשובה קצרה הרבה יותר זול מפרומפט קצר + תשובה ארוכה.

💡

Tokens הם כמו חשבון חשמל של ה-AI שלכם. ככל שאתם שולחים יותר — משלמים יותר, ומחכים יותר.

סרטון מומלץ

💬

טיפ לפרומפטים — היו ספציפיים כדי לחסוך Tokens:

❌ “תקן את הbug באוטנטיקציה”

✅ “קרא את auth.ts ותקן את הבדיקת null בשורה 42”

הגרסה הספציפית חוסכת Tokens כי המודל לא צריך לחפש, ומייצרת תשובה ממוקדת יותר.