הבינה המלאכותית שחדרה לחיינו בסערה בשנה האחרונה, הינה בעלת חשיבות מרחיקת לכת על עתיד האנושות, והיא תוארה כ”מהפכה התעשייתית הרביעית”. תחום הבינה המלאכותית חוצה מגזרים והוא ממשיך להתפתח בקצב מהיר במיוחד. ואולם, למרות היתרונות המובנים בטכנולוגיה מתפתחת זו, התפתחויות אלה יצרו לא מעט חששות מחוסר הרגולציה בתחום ומהסכנות הטמונות בבינה מלאכותית, והולידו את הצורך בבקרה על הפיתוח ועל השימוש בה, במטרה למנוע סיכונים העלולים להיווצר כתוצאה מהשימוש בה – החל מנושא הפרטיות, דרך זכויות יוצרים, אובדן מקומות עבודה, ועד לפגיעה בזכויות אדם וחירויות יסוד.

החוק החדש והתקדימי של האיחוד האירופי בנושא בינה מלאכותית (EU AI ACT), שהינו החוק העולמי הראשון שמבקש לפקח על בינה מלאכותית, ואשר נכנס לתוקף בראשית החודש (1.8.2024) מבקש להתמודד עם סוגיות אלה ולמצב את האיחוד האירופי כנושא דגל האסדרה בתחום.

ה – EU AI ACT – יוזמת דגל לאסדרת טכנולוגיות AI

האיחוד האירופי הינו גורם מוביל ביצירת אסדרה של בינה מלאכותית וחשף את הצעת החוק עוד במהלך שנת 2021. במובן זה, אירופה מיצבה את עצמה כחלוצה וכסמן רגולטורי, תוך הבנת חשיבות תפקידה כקובעת סטנדרטים גלובליים.

ה- EU AI ACT הינה יוזמת דגל להסדרת טכנולוגיות .AI היא פועלת לפי גישה מבוססת סיכונים, כאשר הרעיון המרכזי הוא להתייחס לבינה המלאכותית בהתבסס על יכולתה לגרום נזק לחברה – ככל שהסיכון גבוה יותר, כך הכללים מחמירים יותר. לפיכך, הוגדרו מספר רמות של מערכות בינה מלאכותית: סיכון אשר אינו מקובל – ואשר ייאסר לשימוש; מערכות בסיכון גבוה; מערכות בסיכון מוגבל; שאר המערכות (שאינן אסורות, שאינן בסיכון גבוה, שאינן כפופות לדרישות שקיפות).

לאחר שהפרלמנט האירופי אישר את טיוטת החוק בחודש יוני 2023, ולאחר הליכים פרוצדורליים נוספים, החוק פורסם ברשומות במהלך חודש יולי האחרון, ונכנס לתוקף ביום 1.8.2024.

יצירת מדרג של רמות סיכון בחוק הבינה המלאכותית של האיחוד האירופי

הדרישות של חוק הבינה המלאכותית של האיחוד האירופי שונות בהתאם לרמת הסיכון שמציבה מערכת הבינה המלאכותית. כאמור, הרעיון הבסיסי הינו אסדרת הבינה המלאכותית בהתאם ליכולתה לגרום נזק לחברה: ככל שהסיכון גבוה יותר, כך הכללים מחמירים יותר.

נקבע מדרג של רמות סיכון שונות:

1. מערכות אסורות לשימוש

שימוש בבינה מלאכותית המדגימה “רמות סיכון בלתי מקובלות" (unacceptable risk) יאסר.
מערכות אסורות לשימוש כוללות, בין היתר, את המערכות או השימושים הבאים:

הפעלת מניפולציות או טכניקות תת-הכרתיות או מטעות – מערכות בינה מלאכותית אשר מתפעלות מניפולציות של התנהגות אנושית על מנת לפגוע בצורה ניכרת ביכולתו של האדם לקבל החלטה מושכלת;

ניצול פגיעויות של אנשים – שימוש בבינה מלאכותית לניצול חולשות אנושיות ופגיעות של אנשים (למשל, בשל גילם, מוגבלותם, מצבם החברתי או הכלכלי);

קטגוריזציה ביומטרית – שימוש במערכות סיווג ביומטריות העושות שימוש במאפיינים רגישים (דוגמת אמונות פוליטיות, דתיות, פילוסופיות, נטייה מינית, גזע);

ניקוד חברתי – הערכה או סיווג המבוסס על התנהגות חברתית או מאפיינים אישיים, כאשר הציון מוביל ליחס מזיק או שלילי שאינו מוצדק;

מאגרי זיהוי פנים – מערכות AI המייצרות או מרחיבות מאגרי זיהוי פנים באמצעות סריקה אקראית של תמונות פנים מהאינטרנט או צילומי CCTV.

הערכת סיכון פלילי – מערכות AI המשמשות להערכת או חיזוי הסיכון של אדם לבצע עבירה פלילית, בהתבסס אך ורק על פרופיל או הערכת תכונות אישיות.

הסקת רגשות – מערכות AI המשמשות להסקת רגשות במקומות עבודה ובמוסדות חינוך.

מערכות AI המשמשות לפרקטיקות AI אסורות חייבות להיגרע מהשוק בתוך שישה חודשים מרגע כניסת החוק לתוקף. ארגונים וחברות יצטרכו להיות ערניים ביחס לעדכוני הנציבות לרשימת הפרקטיקות האסורות תחת החוק.

2. סיכון גבוה

מערכות בינה מלאכותית מסווגות כ“סיכון גבוה (high-risk), “בשל הפגיעה הפוטנציאלית שלהן בבריאות, בטיחות, זכויות יסוד, סביבה, דמוקרטיה ושלטון החוק.

סיווג המערכות ה- AI בסיכון גבוה, כוללות את השימושים הבאים:
• מערכות זיהוי וביומטריה מסוימת.
• בינה מלאכותית בשימוש במערכות רגישות, כגון תשתית קריטית (דוגמת אספקת מים, גז, חשמל)
• מערכות בינה מלאכותית לשימוש ברווחה, תעסוקה, חינוך, תחבורה, תהיינה מאושרות, אך כפופות לדרישות וחובות מחמירות יותר, כגון הצורך לבצע הערכת השפעה על זכויות יסוד.
• מערכות בינה מלאכותית לשימוש בתחום המשפט וההגירה.
• מערכות בינה מלאכותית לשימוש בהליכים דמוקרטיים.
• מערכות בינה מלאכותית שהן מוצרים, או רכיבי בטיחות של מוצרים, המכוסים על ידי חוקים קיימים באיחוד האירופי (כולל מכשירים רפואיים מסוימים, צעצועים, מכונות וכו').
ביחס למערכות אלה, לאזרחים תהיה זכות לקבל הסברים לגבי החלטות המבוססות על שימוש במערכות בינה מלאכותית בסיכון גבוה המשפיעות על זכויותיהם, ותוטל חבות מוגברת של שקיפות לצד חובות רישום.

ספקי מערכות AI בעלות סיכון גבוה כפופים לדרישות מחמירות. דרישות עבור מערכות אלה כוללות הערכת תאימות לפני הכניסה לשוק, יישום תוכנית מקיפה לניהול סיכונים לאורך מחזור החיים של מערכת הבינה המלאכותית, ניהול נתונים, אספקת מסמכים טכניים, שמירת רישומים, שקיפות ופיקוח אנושי. מערכות AI בסיכון גבוה המופעלות על ידי רשויות ציבוריות או גופים קשורים חייבות להירשם במאגר ציבורי של האיחוד האירופי.

3. סיכון מוגבל

מערכות בינה מלאכותית המציגות “סיכון מוגבל“ (limited-risk) “לדוגמה צ’אט בוט יישומים המאפשרים יצירתdeepfakes של תמונות, שמע ווידאו, וכן AI מחולל המייצר "טקסט […] שפורסם במטרה ליידע את הציבור בנושאים בעלי עניין ציבורי" (כגון חדשות או הודעות לעיתונות), תהיינה כפופות לחובות שקיפות, כגון ליידע את המשתמשים כי התוכן שהם עוסקים בו נוצר באמצעות בינה מלאכותית, על מנת שהמשתמשים יוכלו לקבל החלטות מושכלות באשר לשימוש בתוכן.

הוראות אלו הורחבו כדי להוסיף דרישות חדשות, במיוחד עבור בינה מלאכותית יוצרת (Generative AI) ,כדי להבטיח שהמידע הרלוונטי מזוהה או ניתן להבחנה כתוצר שהופק תוך מניפולציה מלאכותית. ספקי מערכות ,AI כולל מערכות ,GPAI המייצרות תוכן סינתטי של אודיו, תמונה, וידאו או טקסט, יהיו חייבים לוודא שהפלטים של מערכת ה AI – מסומנים בפורמט שניתן לקריאה על ידי מכונה וניתנים לזיהוי כתוצר מלאכותי.

חריגים והוראות ספציפיות עשויים לחול, לדוגמה, חריגים בתחום אכיפת החוק או, בנוגע ל-deep ,fakes בקשר ליצירות אמנותיות או סאטיריות.

4 .כל שאר מערכות ה – AI (שאינן אסורות, שאינן בעלות סיכון גבוה, שאינן כפופות לדרישות שקיפות).

מערכות אלו אינן כפופות לרגולציה על פי חוק ה-AI . הנציבות מציינת כי "רוב המערכות" יפלו בקטגוריה זו. עם זאת, הגעה לבהירות רגולטורית, עשויה לדרוש הבהרות מהנציבות, וזאת בשים לב לקצב המהיר של ההתפתחויות הטכנולוגיות.

התמודדות עם סיכונים מערכתיים- מערכות ומודלים של AI כללי (GPAI):

בחוק נוספו הוראות חדשות המתייחסות למצבים שבהם ניתן להשתמש במערכות בינה מלאכותית למטרות רבות ושונות (בינה מלאכותית למטרות כלליות), ושבהן טכנולוגיית AI למטרות כלליות משולבת לאחר מכן במערכת אחרת בעלת סיכון גבוה.

התפתחויות משמעותיות אלה הצריכו שכתוב מחדש של החוק, פעם אחר פעם, בשל הופעתם של כלי AI חדשים. כך, נקבעו כללים ספציפיים גם ביחס ל”מודלים בסיסיים” (Foundation Models) – מודל של בינה מלאכותית שהוכשר על נתונים בקנה מידה רחב כך שניתן להתאים אותו למגוון רחב של משימות. החוק קובע שמודלים כאלה חייבים לעמוד בהתחייבויות ספציפיות לשקיפות טרם יציאתם לשוק. משטר מחמיר יותר יוחל ביחס למודלים בסיסיים בעלי “השפעה גבוהה”. המדובר על מודלים אשר הוכשרו על בסיס כמות עתק של נתונים ובעלי מורכבות יכולת וביצועים מתקדמים, העלולים להיות בעלי סיכונים מערכתיים. החברות המפתחות מודלים שכאלה יצטרכו לערוך תיעוד טכני, להקפיד על זכויות יוצרים ולפרט את התוכן המשמש לצורך אימון המודל.

קיימות שתי קטגוריות סיכון: מודלים של GPAI עם סיכון מערכתי וכל שאר המודלים של GPAI. ספקים של מודלים עם סיכון מערכתי נדרשים לעמוד בדרישות תאימות נוספות.

מודלים של GPAI:

ספקים חייבים לשמור תיעוד טכני ולשתף מידע עם משתמשים פוטנציאליים על היכולות והמגבלות של המודל. עליהם גם להכין ולהפיץ באופן פומבי תקציר מפורט דיו על התוכן ששימש לאימון המודל. משרד ה- AI יכין קוד אתי בנושא.

מודלים של GPAI עם סיכונים מערכתיים:

מודלים אלה נחשבים בעלי סיכון מערכתי אם יש להם יכולות השפעה גבוהות או אם הם מסומנים ככאלה על ידי הנציבות האירופית. לספקים של מודלים אלו יש חובות נוספות כמו הערכות מודלים, צמצום סיכונים מערכתיים, דיווח על תקריות והבטחת הגנת סייבר. קוד אתי מומלץ גם כן.

חובות רישום, מינוי נציג, שמירת תיעוד ועוד

החוק קובע שורה של דרישות ביורוקרטיות, אשר יש לעמוד בהן, לרבות מינוי נציג מורשה באיחוד האירופי, אשר לו תפקיד מרכזי בהבטחת תאימות המערכת לרגולציה; ביצוע רישום נתונים במסד הנתונים של האיחוד האירופי, טרם השקת המערכת; שמירת תיעוד ומסמכים רלבנטיים לתקופה של עשר שנים לאחר יציאת מערכת הבינה המלאכותית לשוק או הפעלתה.

ההשלכות של אי ציות להוראות החוק – קנסות כבדים:

בגין אי ציות להוראות החוק יוטלו קנסות כבדים ומשמעותיים. הקנסות בגין הפרות של חוק הבינה המלאכותית נקבעו כאחוז מהמחזור השנתי העולמי של החברה המפרה בשנת הכספים הקודמת, או סכום שנקבע מראש, לפי הגבוה מבניהם. סכום הקנסות הינו:

– 35 מיליון אירו או 7% עבור הפרות של יישומי הבינה המלאכותית האסורים, הגבוה מביניהם;
– 15 מיליון אירו או 3% עבור הפרות של חובות חוק הבינה המלאכותית, AI בסיכון גבוה וחובות שקיפות ספציפיות, הגבוה מביניהם;
– 7.5 מיליון אירו או 1% עבור אספקת מידע שגוי.

קיים סעיף מיוחד לעסקים קטנים ובינוניי, (SMEs) כולל סטארטאפים, שבו הקנס יהיה עד האחוז הרלוונטי או הסכום, הנמוך מביניהם.

כניסה לתוקף ולוחות זמנים:

חוק ה-AI נכנס לתוקף ב-1 באוגוסט 2024. רוב התקנות יחולו 24 חודשים מאוחר יותר, בראשית אוגוסט 2026. מועדי תחולה קצרים יותר חלים על:
פברואר 2025 – איסור על פרקטיקות אסורות;
מאי 2025 – יהיו קיימים קודי התנהגות;
אוגוסט 2025 – תקנות רבות הקשורות ל .AI- בכלל זה מערכות AI כלליות (GPAI) חייבות לעמוד בתקנות. תחולת הגופים האחראים – מועצת הבינה המלאכותית האירופית, רשויות הפיקוח הלאומיות על השוק וכו'.
אוגוסט 2026 – כל כללי חוק ה AI – יהפכו לחלים, כולל חובות למערכות בסיכון גבוה המוגדרות בנספח III (רשימת מקרי שימוש בסיכון גבוה). המדינות החברות יבטיחו כי רשויותיהן המוסמכות הקימו לפחות סנדבוקס רגולטורי אחד לבינה מלאכותית ברמה הלאומית.
אוגוסט 2027 – חובות למערכות בסיכון גבוה המוגדרות בנספח I (רשימת חקיקה על התאמה של האיחוד האירופי) יחולו.

ה- AI Act ייאכף באמצעות מסגרת פיקוח ואכיפה חזקה, הן ברמה הלאומית והן ברמה האירופית. הגופים המרכזיים והסמכויות כוללים את הרשויות הלאומיות המוסמכות, את משרד הבינה המלאכותית שהוקם בתוך הנציבות האירופית, את מועצת הבינה המלאכותית, הפאנל המדעי של מומחים בלתי תלויים והפורום הייעוצי.

סיכום:

חוק הבינה המלאכותית של האיחוד האירופי הינו חוק חלוצי בעולם, המבקש להסדיר את מהפכת הבינה המלאכותית. החוק מבקש לאסדר טכנולוגיה מהפכנית ומשבשת זו, שלה יכולות מהפכניות והשלכות מרחיקות לכת.

לאור כניסתו של החוק לתוקף, יש להיערך לכך. נראה כי תידרש תאימות מול הדין האירופי. על אף שחוק ה- AI חל רק על מערכות שנועדו לשימוש באיחוד האירופי., הרי שארגונים מחוץ לאיחוד האירופי יהיו כפופים לחוק במידה והם מספקים את מוצריהם לאיחוד האירופי, ככל שהתוצרים המופקים על ידי מערכות ה- AI שלהם יהיו בשימוש באיחוד האירופי.

ככל שהחוק עשוי לחול ביחס לפעילותכם, מוצע תחילה לסווג את מערכת ה- AI שלכם. ספקי AI, מפעילים, יבואנים ומפיצים צריכים לזהות את מערכות ה -AI וה-GPAI שלהם ואת מקרי השימוש בהם, ולהעריך ביחס למערכות ה- AI האם הללו צריכות להיות מסווגות כסיכון מוגבל, גבוה, או בלתי מקובל, או בעלת סיכון מערכתי במקרה של מערכות GPAI, ובהתאמה, להיערך ליישום הוראות החוק.