SciTechDaily

ניקולס

פריצת דרך פרוגרמטית: הקפיצה של AI משפה להיגיון כדי לפתור בעיות מורכבות

תוכנות משובצות בשפה טבעית (NLEPs) הוצגו כדי לשפר את הפונקציונליות של מודלים של שפות גדולות. על ידי יצירת קוד Python כדי לתת מענה לשאילתות, ה-NLEPs מגדילים את הדיוק, היעילות והשקיפות. גישה זו מאפשרת למודלים להתמודד עם משימות מגוונות בצורה יעילה יותר ויכולה גם להועיל לפרטיות הנתונים ולמודלים קטנים יותר. קרדיט: twoday.co.il.com

חוקרים פיתחו טכניקה הנקראת תוכניות מוטמעות בשפה טבעית (NLEPs) המשפרת את הביצועים של מודלים של שפה גדולה על ידי יצירת תוכניות Python לפתרון משימות מורכבות.

שיטה זו לא רק משפרת דיוק ויעילות אך גם מגבירה את השקיפות, מכיוון שמשתמשים יכולים לראות ולשנות ישירות את הקוד שנוצר. רכיבי NLEP מאפשרים לדגמים גדולים כמו GPT-4 לפתור מגוון רחב יותר של משימות בדיוק גבוה יותר ויכולים לשפר את פרטיות הנתונים ואת הביצועים של דגמים קטנים יותר ללא הכשרה מקיפה.

שיפור יכולות ההיגיון של מודלים של שפה גדולה

מודלים של שפות גדולות כמו אלה שמניעים את ChatGPT הראו ביצועים מרשימים במשימות כמו ניסוח תקצירים משפטיים, ניתוח הרגשות של ביקורות לקוחות או תרגום מסמכים לשפות שונות.

מודלים אלה של למידת מכונה משתמשים בדרך כלל רק בשפה טבעית לעיבוד מידע ולענות על שאילתות, מה שעלול להקשות עליהם לבצע משימות הדורשות חשיבה מספרית או סמלית.

לדוגמה, מודל שפה גדול עשוי להיות מסוגל לשנן ולדקלם רשימה של נשיאי ארה"ב האחרונים וימי הולדתם, אך אותו מודל עלול להיכשל אם ישאלו את השאלה "אילו נשיאי ארה"ב שנבחרו לאחר 1950 נולדו ביום רביעי?" (התשובה היא ג'ימי קרטר.)

טכניקה משפרת את יכולות ההיגיון של מודלים גדולים של שפה

טכניקה חדשה מאפשרת למודלים של שפות גדולות כמו GPT-4 לפתור בצורה מדויקת יותר משימות חשיבה מספרית או סמלית על ידי כתיבת תוכנית Python בקוד שמייצרת את התשובה הנכונה לשאילתת המשתמש. קרדיט: כריסטין דנילוף, MIT; iStock

שיפור יכולות המודל באמצעות NLEPs

חוקרים מ MIT ובמקומות אחרים הציעו טכניקה חדשה המאפשרת למודלים של שפות גדולים לפתור שפה טבעית, מתמטיקה ונתונים, ומשימות חשיבה סמלית על ידי יצירת תוכניות.

הגישה שלהם, הנקראת תוכניות משובצות בשפה טבעית (NLEPs), כוללת הנחיה של מודל שפה ליצור ולהפעיל תוכנית Python כדי לפתור שאילתה של משתמש, ולאחר מכן פלט את הפתרון כשפה טבעית.

דיוק ושקיפות משופרים

הם גילו ש-NLEPs אפשרו למודלים של שפות גדולים להשיג דיוק גבוה יותר במגוון רחב של משימות חשיבה. הגישה ניתנת להכללה, מה שאומר שניתן לעשות שימוש חוזר בהנחיית NLEP אחת עבור משימות מרובות.

NLEPs גם משפרים את השקיפות, מכיוון שמשתמש יכול לבדוק את התוכנית כדי לראות בדיוק איך המודל נימק את השאילתה ולתקן את התוכנית אם המודל נתן תשובה שגויה.

"אנחנו רוצים שבינה מלאכותית תבצע חשיבה מורכבת באופן שקוף ומהימן. הדרך עוד ארוכה, אבל הראינו ששילוב היכולות של תכנות ושפה טבעית במודלים של שפות גדולות הוא צעד ראשון פוטנציאלי טוב מאוד לעבר עתיד שבו אנשים יכולים להבין ולסמוך על מה שקורה בתוך ה-AI שלהם. מודל", אומר Hongyin Luo PhD '22, פוסט דוקטורט ב-MIT ומחבר מוביל של מאמר בנושא NLEPs.

ללואו מצטרפים במאמר המחברים המובילים Tianhua Zhang, סטודנטית לתואר שני באוניברסיטה הסינית של הונג קונג; ו-Jiaxin Ge, בוגר תואר ראשון באוניברסיטת פקין; יון קים, עוזר פרופסור במחלקה להנדסת חשמל ומדעי המחשב של MIT וחבר במעבדת מדעי המחשב והבינה המלאכותית (CSAIL); הסופר הבכיר ג'יימס גלאס, מדען מחקר בכיר וראש קבוצת מערכות השפה המדוברת ב-CSAIL; ואחרים. המחקר יוצג בכנס השנתי של פרק צפון אמריקה של האגודה לבלשנות חישובית.

עיצוב NLEP ומנגנון תפעולי

מודלים פופולריים רבים של שפה גדולה פועלים על ידי חיזוי המילה הבאה, או האסימון, בהינתן קלט שפה טבעי. בעוד שמודלים כמו GPT-4 יכולים לשמש לכתיבת תוכניות, הם מטמיעים את התוכנות הללו בתוך שפה טבעית, מה שעלול להוביל לשגיאות בהנמקת התוכנית או בתוצאות.

עם NLEPs, חוקרי MIT נקטו בגישה הפוכה. הם מבקשים מהמודל ליצור תוכנית שלב אחר שלב כולה בקוד Python, ולאחר מכן להטמיע את השפה הטבעית הדרושה בתוך התכנית.

NLEP היא תבנית לפתרון בעיות עם ארבעה שלבים. ראשית, המודל קורא לחבילות הדרושות, או לפונקציות, הוא יצטרך לפתור את המשימה. שלב שני כולל ייבוא ​​ייצוגי שפה טבעית של הידע שהמשימה דורשת (כמו רשימה של ימי הולדת של נשיאי ארה"ב). עבור שלב שלישי, המודל מיישם פונקציה שמחשבת את התשובה. ולשלב הסופי, המודל מוציא את התוצאה כשורה של שפה טבעית עם הדמיית נתונים אוטומטית, במידת הצורך.

"זה כמו מחשבון דיגיטלי שתמיד נותן לך את תוצאת החישוב הנכונה כל עוד התוכנית נכונה", אומר לואו.

המשתמש יכול בקלות לחקור את התוכנית ולתקן כל שגיאה בקוד ישירות במקום להפעיל מחדש את כל המודל כדי לפתור בעיות.

הגישה מציעה גם יעילות רבה יותר מכמה שיטות אחרות. אם למשתמש יש שאלות דומות רבות, הוא יכול ליצור תוכנית ליבה אחת ולאחר מכן להחליף משתנים מסוימים ללא צורך להפעיל את המודל שוב ושוב.

כדי להנחות את המודל ליצור NLEP, החוקרים נותנים לו הוראה כוללת לכתוב תוכנית Python, מספקים שתי דוגמאות של NLEP (אחת עם מתמטיקה ואחת עם שפה טבעית), ושאלת מבחן אחת.

"בדרך כלל, כשאנשים מבצעים הנחיות מסוג זה של כמה יריות, הם עדיין צריכים לעצב הנחיות לכל משימה. מצאנו שיכולה להיות לנו הנחיה אחת למשימות רבות מכיוון שזו לא הנחיה שמלמדת את ה-LLM לפתור בעיה אחת, אלא הנחיה שמלמדת את ה-LLMs לפתור בעיות רבות על ידי כתיבת תוכנית", אומר לואו.

"התבססות על מודלים של שפה עם קוד פותחת הזדמנויות רבות לשימוש בכלים, אימות פלט, הבנה מובנית יותר לגבי יכולות וצורת החשיבה של המודל ועוד", אומר ליאוניד קרלינסקי, מדען ראשי במעבדת MIT-IBM Watson AI.

"אין כאן קסם"

ה-NLEPs השיגו דיוק של יותר מ-90 אחוז כאשר הנחיה ל-GPT-4 לפתור מגוון משימות חשיבה סמליות, כמו מעקב אחר אובייקטים ערבובים או משחק של 24, כמו גם משימות מעקב אחר הוראות וסיווג טקסט. החוקרים מצאו ש-NLEPs אפילו הפגינו דיוק גבוה יותר ב-30% משיטות הנחיה ספציפיות למשימה. השיטה הראתה גם שיפורים בהשוואה ל-LLMs בקוד פתוח.

יחד עם הגברת הדיוק של מודלים של שפות גדולות, NLEPs יכולים גם לשפר את פרטיות הנתונים. מכיוון שתוכניות NLEP מופעלות באופן מקומי, אין צורך לשלוח נתוני משתמשים רגישים לחברה כמו OpenAI או Google כדי שיעובדו על ידי מודל.

בנוסף, רכיבי NLEP יכולים לאפשר למודלים של שפות קטנות לבצע ביצועים טובים יותר ללא צורך להכשיר מחדש מודל למשימה מסוימת, דבר שעלול להיות תהליך יקר.

"אין כאן קסם. אין לנו מודל שפה יקר או מפואר יותר. כל מה שאנחנו עושים זה להשתמש ביצירת תוכניות במקום ביצירת שפה טבעית, ואנחנו יכולים לגרום לה לביצועים טובים יותר באופן משמעותי", אומר לואו.

עם זאת, NLEP מסתמך על יכולת יצירת התוכנית של המודל, כך שהטכניקה אינה פועלת באותה מידה עבור מודלים קטנים יותר שהוכשרו על מערכי נתונים מוגבלים. בעתיד, החוקרים מתכננים ללמוד שיטות שיכולות לגרום למודלים קטנים יותר של שפה ליצור NLEPs יעיל יותר. בנוסף, הם רוצים לחקור את ההשפעה של וריאציות מיידיות על NLEPs כדי לשפר את החוסן של תהליכי החשיבה של המודל.

מחקר זה נתמך, בין השאר, על ידי המרכז לאינטליגנציה תפיסתית ואינטראקטיבית של הונג קונג.

ניקולס