לאחר הפרטים שכבר נמסרו מראש מצד מיקרוסופט (Microsoft), הכריזה OpenAI על GPT-4, דור חדש למודל הבינה המלאכותית של החברה. בחברה מצהירים כי בהשוואה לגרסה הקודמת, GPT-3.5, מפגין המודל העדכני יצירתיות רבה יותר, מסוגל להבין הוראות מסובכות יותר, ולראשונה גם לפרש צילומים ולספק מידע על מה שהוא ״רואה״ בהם.
היכולת לפרש ולהבין הוראות מורכבות מאפשרת ל-GPT-4 לענות גם על שאלות שבעבר היה השירות פוסל על סמך כללי צנזורה מכלילים יותר. בסך הכל, מסבירים ב-OpenAI כי הסיכוי ש-GPT-4 יסרב לענות על שאלה כלשהי נמוך ב-82 אחוזים בהשוואה לגרסה הקודמת.
המנויים לשירות הפרימיום ChatGPT Plus מוזמנים כעת להשתמש במודל החדש, אולם מסתבר כי בפועל מיליוני משתמשים כבר התנסו ב-GPT-4 מבלי שידעו על כך. ב-OpenAI מסבירים כי מודל הבינה המלאכותית של מנוע החיפוש בינג (Bing) התבסס על GPT-4 מיומו הראשון. גם חברות נוספות, בהן אפליקציית לימוד השפות דואולינגו (Duolingo) וחברת הפיננסים מורגן סטנלי (Morgan Stanley) זכו לגישה מוקדמת לטכנולוגיה, וכבר הספיקו לפתח שירותים שונים המבוססים עליה. יכולת זיהוי התמונות, יש לציין, עדיין לא פתוחה למשתמשים.
ב-OpenAI מדגישים בשקיפות מפתיעה, כבר במסגרת ההכרזה החגיגית על GPT-4, כי המודל עדיין רחוק מלהיות מושלם. ממש כקודמו, גם GPT-4 נוטה ל״הזיות״, המינוח שנבחר למצב שבו מודל הבינה המלאכותית ממציא עובדות ומתייחס אליהן ככאלה, למרות שהן שגויות לחלוטין. בגרסה של OpenAI (ולא בבינג הפועל על בסיס מסד נתונים שונה), GPT-4 אינו מודע לאירועים שהתרחשו לאחר חודש ספטמבר 2021, וכאשר הוא כותב קוד עשוי GPT-4 לבחור בפתרונות המייצרים פרצות אבטחה משמעותיות.
יש לנו עדיין עבודה רבה לעשות, ואנו מצפים לשיפור המודל דרך העבודה המשותפת של הקהילה״, כך לפי OpenAI.
אני באמת לא מבין למה לא התמקדו בבעיות האמיתיות של הדור הקודם. אני לא מבין מה הקושי להוסיף לתוכנה יכולת לוודא שהתשובה שלה נכונה או לפחת להגיד באחוזים כמה הוא בטוח בתשובה. הרי זאת בסוף הבעיה האמיתית
בלי לפגוע, אתה באמת לא מבין. כלום