פסיקה
רער"צ (ירושלים) 46608-07-24 עדנאן חמדאן נ' המוסד לביטוח לאומי – "הזיות" של בינה מלאכותית
בפסק הדין דן בית המשפט בבקשת רשות ערעור שהגיש עדנאן חמדאן על החלטת רשם ההוצאה לפועל, שדחתה את בקשתו לסגור תיק הוצאה לפועל שנפתח נגדו על ידי המוסד לביטוח לאומי לצורך גביית חוב בגין דמי מזונות. לענייננו, התברר כי עורך דינו של חמדאן צירף לבקשתו פסקי דין שלא קיימים במציאות. לטענת עורך דינו הוא הסתמך על מאגר משפטי מקוון שמהווה מקור מידע מקובל ונפוץ בקרב עורכי דין, ולא הייתה לו כוונה להטעות את בית המשפט. המעשה גרר ביקורת מצד בית המשפט והטלת הוצאות על המבקש בסך 1,000 ש"ח לטובת המדינה.
האמור מחדד את תופעה המוכרת כהזיות של בינה מלאכותית (Hallucinations)– תופעת ה-Hallucination מתארת מצב בו מערכות בינה מלאכותית מייצרות תוכן שגוי, מומצא או לא רלוונטי להקשר, בין אם מדובר בטקסט, תמונות או תוכן אחר. התופעה, המתבטאת בהמצאת עובדות לא קיימות או יצירת קשרים שגויים בין פיסות מידע, פוגעת במהימנות המערכות ובאמון המשתמשים בהן, ומהווה אתגר משמעותי במיוחד כאשר מדובר ביישומים קריטיים כמו לדוגמא בתחום המשפט או בתחום הפיננסי, הבנויים על אמון, שם טעויות עלולות להוביל להשלכות כבדות משקל. צמצום תופעה זו והגברת אמינות התוצרים מהווים אתגר מרכזי בפיתוח מערכות בינה מלאכותית גנרטיבית מהימנות.
תא (חי') 41416-12-23 ל' ח' ס' נ' כלל חברה לביטוח בע"מ – ניתוח תיעוד רפואי שנוצר באמצעות בינה מלאכותית
החלטה זו נוגעת לבקשה שהגישה התובעת, ל' ח' ס', בתביעה נגד חברות ביטוח בגין נזקי גוף בעקבות תאונות דרכים. התובעת דרשה שבית המשפט יורה למומחה האורתופדי הממונה להתעלם ממסמך רפואי שנשלח אליו, שהוכן באמצעות תוכנת בינה מלאכותית (AI) . המסמך, שנקרא "סיכום תביעת נזקי גוף", כלל ניתוח תיעוד רפואי של התובעת, אך התובעת טענה כי נעשו בו מניפולציות במידע הרפואי כדי להתאימו לדרישות הנתבעת. היא ציינה את הסיכון שהבינה המלאכותית הטתה את הנתונים בצורה שיכולה להשפיע על האובייקטיביות של המומחה .הנתבעת טענה כי המטרה של המסמך הייתה לסייע למומחה ולא להטעות אותו, אך בית המשפט קבע כי יש חשש אמיתי שהמסמך שצורף, שנערך בעזרת AI יפגע בשיקול דעת המומחה.
מדובר לפיכך במסמך שנוצר על ידי בינה מלאכותית, סוגיה אליה, טרם נדרשו בתי המשפט בהקשר של המצאת מסמכים למומחים מטעם בית המשפט על פי תקנות המומחים.
ביהמ"ש התייחס לקשיים בשימוש בבינה מלאכותית:
“אין ספק כי בטכנולוגיה זו טמונים יתרונות עצומים, אך גם סיכונים רבים, לרבות בתחום האתי.
אכן, שימוש ב – AI לצורך עריכת כתבי-טענות המוגשים לבית המשפט (באמצעות פלטפורמת ChatGPT, למשל) עלול להתגלות כבעייתי ביותר, במיוחד כאשר נעשה ללא בדיקה מכלי ראשון של הנתונים והציטוטים המובאים במסמך: כך, למשל, במקרה מחודש יוני 2023 של עורך דין במדינת ניו יורק, שהשתמש בפלטפורמה האמורה בכתב טענות שהגיש לבית המשפט, מבלי שאימת את נכונות המידע המפורט בו; פסקי הדין אליהם הפנה התגלו כמומצאים על ידי הפלטפורמה; או במקרה דומה מחודש נובמבר 2023, בו הושעה עורך דין במדינת קולורדו לשנה, לאחר שהשתמש ב – ChatGPT על מנת לנסח כתבי טענות, וכלל בהם ציטוטי פסיקה מהליכים משפטיים שלא היו ולא נבראו, מבלי שטרח לוודא ולאמת את המידע".
נפסק, כי מסמך מבוסס AI, מעלה חשש להטיות מוכוונות ויש בהן כדי לפגום, ולו באופן בלתי מודע, בעצמאות שיקול דעתו של המומחה ובאובייקטיביות שלו.
לפיכך, על המומחה להתעלם מהמסמך זה ולרבות מהמסמכים הרפואיים גולמיים שבהם סומנו והודגשו מילות מפתח בצבע, הללו צריכים להימסר לו ללא שום תוספות או עריכות.