בינה מלאכותית במגזר הפיננסי – אתגרים והמלצות בקשר לאסדרה

עדכון לקוחות

על רקע השיח המתקיים בעת האחרונה בארץ ובעולם לעניין הרגולציה שתחול על שימושי AI, לאחרונה פורסם להערות הציבור דוח ביניים לבחינת שימושי בינה מלאכותית במגזר הפיננסי (להלן: "הדוח"). הדוח גובש על ידי צוות בין-משרדי ממשלתי, אשר הוקם לצורך בחינת השימוש בבינה מלאכותית בסקטור הפיננסי, ואשר כלל נציגים ממשרדי המשפטים והאוצר, הפיקוח על הבנקים, רשות שוק ההון, ביטוח וחיסכון, רשות ניירות ערך ורשות התחרות.

לפי הודעת משרד המשפטים, הדוח כולל המלצות ראשוניות מסוגן ביחס לרגולציה על שימוש בטכנולוגיית AI אשר יעצבו את עקרונות האסדרה בנושא זה במגזר הפיננסי.

בהתאם לדוח, המערכת הפיננסית בישראל עומדת בפני תמורות משמעותיות עם התפתחות טכנולוגיות בינה מלאכותית מתקדמות והטמעתן בשירותים פיננסיים. התפתחויות אלו, המתרחשות במקביל למגמות עולמיות, מציבות הן הזדמנויות משמעותיות והן אתגרים מורכבים בפני המערכת הפיננסית המקומית. לכן נדרש מאמץ מערכתי מיוחד להבנת התופעה והיערכות אליה.

בשים לב להשפעה המקיפה הצפויה של טכנולוגיות בינה מלאכותית על המגזר הפיננסי, בין היתר, הדוח מזכיר את היתרונות המשמעותיים הצפויים באיכות השירותים הפיננסיים והנגשתם לכלל האוכלוסייה, כמו גם הגברת התחרות. בד בבד, הדוח מנתח את האתגרים הצפויים בהקשר זה ומציע פתרונות והתאמות.

בהתאם לדוח, הגישה הכללית שהנחתה את גיבושו, כפי שבאה לידי ביטוי במדיניות ממשלתית קודמת, דוגלת בעידוד פעילות בינה מלאכותית בסקטור הפיננסי לצד קביעת רגולציה מותאמת מקום בו הדבר נדרש, וכי בשלב זה רצוי לנקוט בכלי אסדרה "רכים" וגמישים ביחס לבינה מלאכותית על מנת לאפשר התמודדות עם השינויים המהירים וההתפתחויות השונות.

 

הדוח כולל את הנושאים הבאים:

– סקירה רגולטורית הנוגעות לבינה מלאכותית בארץ ובעולם, בסקטור הפיננסי ובכלל.

– הגישה והעקרונות המנחים לגישת הצוות הבין-משרדי, לשם התמודדות עם אתגרי הבינה המלאכותית ודרך פעולתה (כגון: אסדרה מבוססת סיכונים, ניטרליות טכנולוגית, שאיפה לאחידות אסדרתית וכיו"ב).

– סוגיות רוחב המתעוררות באופן ייחודי משימוש ביישומי בינה מלאכותית והמלצות לטיפול בסוגיות מורכבות כגון: אתגר ה"קופסה השחורה" וההסברתיות; סוגיית המעורבות האנושית והמקרים בהם היא עשויה להידרש; דרישות גילוי ויידוע ביחס לשימוש במערכות בינה מלאכותית; הזכות לפרטיות וההגנה על מידע אישי; סיכון האפליה וההטיות; האחריות בשימוש במערכות בינה מלאכותית.
כן נדונות סוגיות הנוגעות לתחרות; יציבות פיננסית; סיכוני הונאה, סייבר ודיסאינפורציה ועוד;

– דיון במקרי בוחן באופן ספציפי במגזר הפיננסי: (א) ייעוץ השקעות וניהול תיקים; (ב) אשראי; (ג) חיתום ביטוח.

– המלצות כלליות לטיפול בבינה מלאכותית במסגרת רגולציה פיננסית אשר מתייחסות לפעולות תשתית רגולטוריות על מנת לקדם את התחום, ובין היתר: שימוש בארגזי חול רגולטוריים ומוקדי חדשנות; בחינת פתרונות לבעיית נגישות למידע – בפרט בגופים קטנים ו/או חדשים; קידום כלים להגברת ודאות רגולטורית והתאמות בדין; קידום פעילות פיקוחית מבוססת טכנולוגיית בינה מלאכותית.

בין העניינים בהם ניתנו ההמלצות המרכזיות בדוח

בתמצית, כפי שמצוין באתר הרשות לניירות ערך, הצוות דן וקובע המלצות בעניינים הבאים:

הצורך באימוץ גישה מבוססת סיכונים, לפיה היקף הרגולציה יותאם למהותיות השירות הפיננסי והשפעתו על הלקוח, בהתאם לאופי השימוש ורמת הסיכון במערכת הבינה המלאכותית הרלוונטית. גישה זו תאפשר לגופים הפיננסיים למקד משאבים בניהול סיכונים בשירותים המהותיים יותר.

הסברתיות: בעיית "הקופסה השחורה" לעניין תוצריהן של מערכות AI, היא אחד האתגרים המורכבים ביחס לטכנולוגיה זו. הדוח מבחין בין הסברתיות כללית, בנוגע לאופן פעולת המערכת, ובין הסברתיות פרטנית, בנוגע להחלטות ספציפיות, וכולל המלצות לעניין היקף תחולת כל אחת מאלה.

מעורבות אנושית: הדוח דן במתח שבין הצורך להתמודד עם האתגרים הגלומים בפעילות של בינה מלאכותית באמצעות מעורבות ופיקוח אנושי, לבין הביקורת על דרישה זו, שעלולה לצמצם את התועלת בשימוש בטכנולוגיה. בין היתר מתייחס הדוח לסוגים שונים של מעורבות אנושית – מעורבות בזמן אמת מול מעורבות בדיעבד; מעורבות בהחלטה פרטנית למול מעורבות על פעילות המערכת בכללותה. הצוות ממליץ על מודל מדורג של מעורבות אנושית, שיכלול חובת בקרה אנושית כללית, ומעורבות ישירה בהחלטות בשימושים שיסווגו בסיכון בינוני או גבוה (כגון החלטות מהותיות).

חובות גילוי ויידוע: הדוח מתייחס לעניין יידוע הציבור על שימוש במערכות AI, לצד חובות גילוי בדבר מאפייני הבינה המלאכותית והשלכותיה.

הונאות ודיסאינפורמציה: הדוח מתייחס לסיכוני הונאה ודיסאינפורמציה במערכת הפיננסית, החל מהתחזות ללקוחות ועד להשלכות מערכתיות רחבות, וכולל המלצות לרגולטורים בקשר עם סיכונים אלה.

פרטיות והגנה על מידע אישי: הדוח דן באתגרים העומדים ביחס לזכות לפרטיות הנובעים ממאפייני מערכות AI ורגישות המידע הפיננסי, וכולל הצעות להתמודדות עם אתגרים אלה, לרבות בהיבטי הערכת סיכונים ביחס לזיהוי חוזר של מידע אישי, וביחס לאימוץ כלים ארגוניים לניהול וצמצום הסיכונים לפרטיות הכרוכים בפיתוח מערכות בינה מלאכותית.

הדוח אף כולל המלצות ביחס לכללי ממשל תאגידי שיאפשרו ניהול סיכונים ביחס לשימושי AI במוסד הפיננסי; כללי אחריות ביחס למערכות AI המבהירים על מי מוטלת האחריות בנוגע לתפקוד המערכות ועוד.

חשוב לציין, כי דוח זה מהווה נקודת פתיחה בלבד בהתמודדות עם האתגרים וההזדמנויות שמציבה הטמעת טכנולוגיית הבינה המלאכותית במגזר הפיננסי. בנוסף, ניתוח ההצעות המובאות בו עשוי לסייע גם בהתמודדות עם האתגרים המשפטיים ביחס למערכות בינה מלאכותית במגזרים נוספים, מעבר למגזר הפיננסי.

הדוח פתוח להתייחסויות הציבור במהלך חודש דצמבר 2024.

נשמח כתמיד לעמוד לרשותכם/ן, הן בכל הנוגע לגיבוש התייחסויות לדוח, והן בליווי משפטי בנושא שימושי הבינה המלאכותית, בהתאם לצרכיו הספציפיים של כל ארגון.

*העדכון נכתב ע"י עו"ד ורד זליכה, שותפה וראשת תחום סייבר ו AI, בסיועi של דור יוחאי, מתמחה במחלקת טכנולוגיה, מיזוגים ורכישות.

*האמור כאן אינו מהווה חוות דעת או תחליף לייעוץ נקודתי, ואנו ממליצים לפנות לקבלת ייעוץ משפטי ממוקד בנושאים הכלולים בפרסום זה. אנו עומדים לרשותכם לכל שאלה ו/או הבהרה.