כל מי שמשתמש ב ChatGPT בוודאי נתקל במקרים של קבלת תשובות לא מדוייקות או אפילו לא נכונות. התופעה הזו מוכרת וידועה ונקראת הזיות – hallucinations.
הצאט ״מחרטט בביטחון״, דבר שכמובן יכול להיות בעייתי מאד. בואו ננסה להבין למה זה קורה.
במחקר של חברת OpenAI נמצא כי כ-40% מהתגובות שמתקבלות ב LLM (מודלי שפה גדולים) עלולות להיות הזיות. המודלים מאומנים על כמויות עצומות של טקסט, מה שמאפשר להם ליצור תגובות שמדמות תגובות שנשמעות משכנעות ותקניות, אך הן אינן תמיד מדוייקות או רלוונטיות
המודלים שאנו מתייחסים אליהם משתמשים בפרמטר שנקרא ״טמפרטורה״ שנע באופן רשמי בין 0 ל-1 ונועד לאזן בין יצירתיות לקוהרנטיות. הוא מכתיב את רמת החופש היצירתי של המודל ביצירת תגובות. הערכים שלו משפיעים על רמת היצירתיות והדיוק של התוצאות.
ערכי טמפרטורה נמוכים וקרובים ל 0% גורמים לתוצאות להיות מוגבלות יותר, וערכי טמפרטורה גבוהים המתקרבים ל 100% מאפשרים יצירתיות רבה יותר ושימוש במילים חריגות ונדירות יותר. למרות זאת, בשל הארכיטקטורה של מודלים אלו, יכולות לפעמים להיווצר תגובות בלתי צפויות או מידע שאינו מדוייק.
הזיה היא בעיה מאתגרת עבור LLMs, מכיוון שקשה להבטיח שכל פלט מדויק לחלוטין. הטמפרטורה המועדפת במודל ChatGPT (GPT-3.5) היא 0.7, המשפיעה על היצירתיות. המשתמש לא יכול לבחור את הטמפרטורה ב-ChatGPT.
על מנת להתמודד עם תופעת ההזיות, נדרש חידוד נתונים לאימון, כוונון של המודלים ופיתוח טכניקות להפחתת סיכוני הזיה. כמשתמשים ומפתחים, חשוב להיות מודעים להזיה ולבדוק עובדות, לחשוב ביקורתית ולאמת מידע ממקורות אמינים כאשר משתמשים בתוכן שנוצר על ידי המודלים.