21 בספטמבר 2025

חוק הבינה המלאכותית של האיחוד האירופי - חובות החלות על מערכות AI לשימוש כללי (General Purpose AI) והשלכות על חברות ישראליות

בחודש יולי 2025 פרסמה נציבות האיחוד האירופי (ה-European Commission) "מארז" מסמכים הנוגע לחובות החלות על מערכות AI לשימוש כללי (General Purpose AI – GPAI) אשר כולל הבהרות, הנחיות והמלצות משלימות לפרק החל על מערכות אלו בחוק הבינה המלאכותית של האיחוד האירופי:

  • קוד התנהגות (Code of Practice) שיחול על GPAI (10 ביולי 2025);1
  • הנחיות לגבי היקף החובות של GPAI (18 ביולי 2025);2
  • טמפלייט לפרסום המידע שעליו אומנו מודלי ה-GPAI (24 ביולי 2025).3

החובות ייכנסו לתוקף החל מיום 2 באוגוסט 2025:

  • מודלים חדשים של GPAI שייכנסו לשוק האירופי לאחר מועד זה – יהיו כפופים באופן מיידי לחובות החלות על GPAI. 
  • מודלי GPAI שכבר קיימים בשוק האירופי – יהיו כפופים לחובות החלות על GPAI החל מיום 2 באוגוסט 2027.
  • סמכויות האכיפה של הנציבות ייכנסו לתוקף ביום 2 באוגוסט 2026.

הגדרת GPAI

  • מודלי GPAI מוגדרים בחוק הבינה המלאכותית כמודלים אשר מאופיינים ביכולות כלליות משמעותיות ("significant generality") אשר יכולים לבצע מגוון רחב של משימות שונות (ולא מוגבלים ליישום ספציפי), כגון יצירת שפה, טקסט-לתמונה, טקסט-לאודיו או טקסט-לווידאו.
  • מודלים שאומנו בהיקף של ‎10²³ FLOPs ומעלה (פעולות נקודה צפה לשנייה – יחידת מידה לכימות עוצמתם של מחשבים העוסקים בעיבודים עתירי חישוב, ובהקשר מודלי GPAI השימוש במונח זה מתייחס למאמץ המחשובי שנדרש כדי לאמן את מודלי הבינה המלאכותית) ייחשבו באופן עקרוני כ-GPAI, כתלות בבחינת שיקולים נוספים (כגון כלליות ויכולות המודל).
  • מודלים שאומנו בהיקף של ‎10² FLOPs ומעלה ייחשבו כבעלי "high-impact capabilities" ומשכך ככאלה היוצרים סיכון מערכתי ((Systemic Risk, חזקה אשר תוביל להטלת חובות מוגברות על מודלים אלו. למען שלמות התמונה, יצוין כי הנציבות האירופית אישרה כי סף זה נמצא בבחינה מחודשת.

חובות ספקי GPAI

החל מיום 2 באוגוסט 2025 (ובכפוף ללוחות הזמנים שצוינו לעיל), כל ספקי ה-GPAI (GPAI Providers) נדרשים לעמוד בדרישות הבאות:

  • תיעוד מידע טכני (באמצעות טופס תיעוד) – הנציבות האירופית פרסמה טופס המפרט את המידע הטכני אשר נדרש לתעד ביחס למודלי ה-GPAI, ואשר כולל גילויים תמציתיים של מאפייני המודל, שיטות רישוי והפצה, שימושים מיועדים ומותרים, תהליך אימון המערכת, מקורות המידע עליהם אומנו המערכות, וכן צריכת מחשוב ואנרגיה.
  • יישום מדיניות ציות זכויות יוצרים – לרבות שימוש בטכנולוגיות מתקדמות לצורך הגנה על זכויות יוצרים. קוד ההתנהגות כולל התחייבויות להימנע מעקיפת חומות תשלום או שימוש באתרים פיראטיים, לציית להנחיות טכניות כגון robots.txt המורות על הגבלות או איסורים על איסוף נתונים, לפעול להפחתת הסיכון ליצירת פלטים (outputs) המפרים זכויות יוצרים, ולמנות גורם אשר יהיה אמון על הטיפול בפניות בנושא זכויות יוצרים.
  • פרסום סיכום פומבי של המידע שעליו אומן מודל ה-GPAI – בנוסף לטופס התיעוד של מידע טכני על אודות המודל, על ספקי ה-GPAI לפרסם סיכום פומבי של המידע שעליו אומן מודל ה-GPAI, לרבות אפיון של המידע, זיהוי מקורות המידע (מקורות ציבוריים ומקורות פרטיים), וכן צעדים שננקטו לסינון תוכן בלתי חוקי ולשמירה על זכויות יוצרים.

השלכות על חברות ישראליות
חרף העובדה שהחובות שצוינו לעיל חלות באופן ישיר רק על ספקי ה-GPAI, הן עשויות להשפיע באופן מעשי גם על חברות ישראליות המשתמשות או משלבות מודלי GPAI במסגרת פעילותן:

  • שינוי תנאי שימוש – ספקי GPAI צפויים לעדכן את תנאי השימוש שלהם כדי לשקף את החובות החדשות שיוטלו עליהם. ייתכן שתנאי השימוש יכללו זכויות audit או דיווח נוספות, מגבלות על שימושים בהקשרים רגישים, ודרישות לאשר תנאים חדשים. אנו ממליצים לעקוב אחר עדכונים על שינויים בתנאי השימוש ולוודא עמידה בהם.
  • שקיפות רבה יותר מצד ספקי GPAI – החל מחודש אוגוסט 2025 (ובכפוף ללוחות הזמנים שצוינו לעיל), ספקי GPAI יחויבו לפרסם נתונים על מודלי ה-GPAI והמידע שעליו אומנו המודלים. חברות יוכלו להסתמך על נתונים אלו כדי להעריך את מידת ההתאמה של מודלי ה-GPAI לצרכיהן או כדי לאסוף תובנות נוספות על עיצוב המודלים ומגבלותיהם. שקיפות זו עשויה לספק גם מידע נוסף עבור החברות שיאפשר להן לבצע הערכת סיכונים טובה יותר בדבר התאמת המודלים לצרכיהן. חברות שיעקבו אחר פרסום מידע חדש בדבר מודלי ה-GPAI יוכלו לקבל החלטות טובות יותר בנוגע לשימוש במודלים האלו ובסיכונים הנובעים מהשימוש בהם. 
  • ניהול אחראי של בינה מלאכותית – ההתפתחויות האחרונות באיחוד האירופי מעלות את רף הציפייה בנוגע לאימוץ ממשל אחראי של בינה מלאכותית בחברות ושקיפות השימוש בבינה מלאכותית. הגם שמרבית החברות לא תהיינה כפופות ישירות להוראות החלות על מודלי GPAI, הציפייה הגוברת על חברות היא לפעול לתיעוד מהימן של המידע שנעשה בו שימוש לאימון מודלי בינה מלאכותית (לרבות מקורות המידע – מידע שהושג באמצעות רישיון, מידע שהושג באמצעות סקרייפינג, מידע סינטתי, ומידע של לקוחות או משתמשים), לבצע תהליכי טסטינג והפחתת הטיות (bias), ולאמץ מדיניות אחראית לממשל בינה מלאכותית. צעדים אלה מהווים דרישה גוברת מצד משקיעים ושותפים עסקיים כסטנדרט לניהול אחראי של השימוש במערכות בינה מלאכותית.
  • תשומת לב בעת ביצוע מודיפיקציות – הנחיות הנציבות מבהירות כי ביצוע התאמות (fine-tuning) או שינויים מהותיים במודלי ה-GPAI עשוי להפוך את החברה שמבצעת את השינויים לספקית GPAI באופן ישיר, ככל שהמודיפיקציות יובילו לשינוי משמעותי בכלליות, ביכולות או בסיכון המערכתי של מודל ה-GPAI. חברות צריכות להעריך אם השינויים שהן מבצעות עלולים להחיל עליהן חובות ישירות כספקיות GPAI לפי חוק הבינה המלאכותית האירופי. 

חברות ישראליות המשתמשות או משלבות מודלים נדרשות לגלות ערנות אחר השינויים האפשריים שצוינו לעיל, לעקוב אחר מידע שיפורסם על-ידי ספקי מודלי ה-GPAI והתפתחויות רגולטוריות, וכן לאמץ פרקטיקות של ניהול אחראי של בינה מלאכותית, בהתאם לציפיות השוק המתפתחות.

נשמח לעמוד לרשותכם בכל שאלה.

 


1קוד ההתנהגות הוא כלי וולונטרי, שאושר על ידי הנציבות כאמצעי שיאפשר לספקי GPAI להוכיח עמידה בדרישות החוק. ספקים שיבחרו שלא לאמץ את הקוד, יצטרכו להוכיח עמידה בדרישות החוק באמצעים אחרים ועלולים לעמוד תחת פיקוח מוגבר של משרד הבינה המלאכותית האירופאי. 
2ההנחיות מבהירות אילו מודלים נחשבים GPAI ובאילו נסיבות חברות שמבצעות מודיפיקציות במודלים אלו עשויות להיות מסווגות בעצמן כספקי GPAI על פי החוק.
3הטמפלייט שפורסם מהווה פורמט מחייב שכל ספקי ה-GPAI נדרשים להשתמש בו לשם פרסום פומבי ומפורט דיו של המידע שעליו אומנו כלי ה-GPAI, בהתאם לסעיף 53(1)(d) לחוק הבינה המלאכותית.

חדשות ופרסומים קשורים

הקש Enter כדי לחפש או ESC כדי לסגור