AI בפתחה של 2026: הדוח הישראלי החדש לשימושי AI במגזר הפיננסי הקרב על רגולציה בארה"ב ובאירופה ואילו השלכות תהיינה למהלכים החדשים?

עדכון לקוחות

ישראל מציבה את הבינה המלאכותית (AI) במגזר הפיננסי במרכז, עם דוח חדש מטעם צוות בין-משרדי שגובש על ידי הרגולטורים הפיננסיים ומשרד המשפטים, אשר משרטט קווים ברורים לאחריות, לשקיפות, לבקרה ולהגנת לקוחות ומשקיעים. במקביל, באיחוד האירופי ישנה כוונה לערוך התאמות מסוימות ל – AI Act האירופאי, בעוד שבארה״ב, הצו הנשיאותי האחרון של טראמפ, מנסה לרסן את גל החקיקה המדינתי ולהכתיב סטנדרט פדרלי אחיד.  נביא להלן את עיקרי הדברים ודגשים נבחרים.

בינה מלאכותית בסקטור הפיננסי – דוח חדש בישראל

ביום 24.12.25 פורסם דוח מקיף ("הדוח") בנושא שימוש בבינה מלאכותית במערכת הפיננסית בישראל. הדוח נכתב על ידי צוות בין-משרדי שכלל את נציגי רשות שוק ההון, הפיקוח על הבנקים, רשות ניירות ערך, רשות התחרות, משרד המשפטים ומשרד האוצר. הדוח מתפרסם כעת בנוסח סופי, לאחר תהליך של הערות הציבור לטיוטת הדוח בשנה האחרונה.

הדוח נועד להתמודד, בין היתר, עם האתגרים והסיכונים הכרוכים בשימוש בטכנולוגיות AI במערכת הפיננסית בישראל. הדוח מציג את תמונת המצב הרגולטורית בעולם ובישראל בנוגע לבינה מלאכותית, ניתוח הזדמנויות וסיכונים, וניתוח נושאים הכרוכים בהגנת ציבור הלקוחות והמשקיעים. הוא מציב מסגרת עקרונית לשימוש אחראי, תוך שמירה על יציבות השוק, והבטחת שקיפות והוגנות. הדוח כולל המלצות שנועדו לקדם רגולציה פיננסית מתקדמת ומותאמת לסטנדרטים המתפתחים בעולם ולהזדמנויות הטמונות בבינה המלאכותית. בהתאם לגישה הממשלתית הכוללת, גם בהקשר זה, העמדה היא כי בשלב זה רצוי לנקוט בכלי אסדרה רכים וגמישים ביחס לבינה מלאכותית.

בין ההמלצות המרכזיות המופיעות בדו"ח, בשים לב להודעה שפרסם הצוות הבין-משרדי:

– אימוץ גישה מבוססת סיכונים לאסדרה של בינה מלאכותית, תוך מיקוד במערכות בעלות סיכון גבוה. לפי הדוח, סיווג הסיכון בגופים פיננסיים צריך להיעשות על בסיס כפול: ראשית, רמת הסיכון ללקוחות, למשקיעים או לציבור, ושנית – רמת הסיכון לגוף הפיננסי עצמו. הדוח מפרט את אופן הערכת הסיכונים ביחס למערכות בינה מלאכותית במגזר הפיננסי, וההמלצות מתייחסות למערכות בהתאם לרמת הסיכון הנשקפת מהן (לדוגמא: מערכות הכרוכות בהחלטות מהותיות לפרט אשר הסיכון בהן גבוה, או מערכות המקבלות החלטות באופן עצמאי ואוטונומי).

– הסברתיות והתמודדות עם אתגר "הקופסה השחורה" (כלומר, היעדר היכולת להסביר באופן מלא את תוצריהן של מערכות AI) – הדוח מבחין בין הסברתיות כללית, בנוגע לאופן פעולת המערכת, ובין הסברתיות פרטנית, בנוגע להחלטות ספציפיות. הדוח ממליץ לדרוש מגופים פיננסיים הסברתיות כללית (כלומר, להסביר את אופן פעולת המערכת) אך לא לחייבם בהכרח בחובת הסברתיות פרטנית בכל מקרה ומקרה שבו מעורבת מערכת בינה מלאכותית. ביחס למערכות בסיכון גבוה, הדבר יידרש בהתאם לנסיבות ובהעדר חלופות "מפצות" הולמות (כגון בקרה הדוקה של תוצאות המערכת או חלופות שירות ללקוח).

– יידוע וגילוי – בהתאם לדוח, מוצע לדרוש יידוע לציבור בדבר עצם השימוש במערכות בינה מלאכותית בפרט בשלב ראשוני של כניסת הטכנולוגיה, אלא אם כן הדבר ברור. בנוסף יש לקבוע חובות גילוי שישתלבו בדרישות הקיימות בתחום הפיננסיים לגבי השירות או המוצר המוצעים ללקוח, וזאת כאשר מערכת הבינה המלאכותית היא בעלת השפעה מהותית עליו. הגילוי צריך לעסוק במאפיינים הייחודיים הנובעים מטכנולוגיית בינה מלאכותית ולהינתן בשפה פשוטה ונייטרלית.

– הזכות לפרטיות והגנה על מידע אישי – הדוח עוסק בין היתר, בצורך בבחינת שיטות מתקדמות להתממת מידע אישי ככלי להפחתת סיכון לזיהוי מחדש של אדם, וכן באמצעים לחיזוק ההסכמה מדעת לעיבוד מידע במערכות בינה מלאכותית במקרים של שימוש במידע אישי במערכות בינה מלאכותית, בהתאם לרמות הסיכון ולמטרות השימוש.

– הטיה ואפליה – הדוח מדגיש כי דיני איסור אפליה הקיימים מוסיפים לחול גם ביחס לשימוש במערכות בינה מלאכותית, ללא קשר לטכנולוגיה. מומלץ לערוך בקרה לכל אורך חיי המערכת לרבות על המאגרים ששימשו לאימון המערכת, וכן בקרה תוצאתית לצורך בחינת טענות לאפליה.

– אחריות הגופים הפיננסיים למערכת ה – AI –  בנושא האחריות לפעילות מערכות בינה מלאכותית, בהתאם לדוח, אין מקום לסטות מהעיקרון המקובל ברגולציה הפיננסית, לפיו האחריות על פי דין מוטלת על הגוף המפוקח, ועל כן ממליץ הדוח כי זו תוטל על הגוף הפיננסי המפעיל את המערכת. הדוח עוסק באחריותו של הגוף המפוקח (הגוף הפיננסי) בהתקשרות עם צד שלישי (כגון מפתח מערכת בינה מלאכותית), וכן קובע כי ככלל יש לאסור הגבלת אחריות כלפי הלקוח בגין פעולת המערכת.

– הונאות ודיסאינפורמציה – הדוח מרחיב בעניין סיכוני דיסאינפורמציה למערכת הפיננסית, וקורא לקדם כלים להתמודדות עם אירועי דיסאינפורמציה, שהן כר פורה להונאות.

– יציבות ותחרות במערכת הפיננסית – הדו"ח מונה מספר חששות תחרותיים בקשר להטמעת מודלים של בינה מלאכותית במגזר הפיננסי בישראל. הדוח קובע כי דיני התחרות חלים גם ביחס לפעילות בינה מלאכותית ומציע בין היתר לבחון דרכים למניעת התפתחות כח שוק עודף.

– ממשל בינה מלאכותית בארגון (AI Governance) – הדוח מציע 'ארגז כלים' לאופן קבלת ההחלטות בנושא בינה מלאכותית, לניהול הסיכונים הנובעים ממערכות אלה, ולאופן הבקרה והפיקוח על הפעלת מערכות בינה מלאכותית. ארגז הכלים כולל בין היתר, נהלים, מסמכי מדיניות, תהליכים ופרקטיקות, לכל אורך מחזור החיים של מערכות בינה מלאכותית והשימוש בהן, וכן אמצעי ניטור, פיקוח ותיקוף. הגופים הפיננסיים יוכלו ליישם את האמצעים בהתאם לשיקולים ונסיבות משתנים, כגון אופי השירות הניתן באמצעות מערכת הבינה המלאכותית, מהותיותו, פוטנציאל הפגיעה בפרט וכדומה.

 האומניבוס באיחוד האירופאי – הצעות להתאמות ב ‑Act  AI

ב – 19.11.25 פרסמה הנציבות האירופית את חבילת ה – Digital Omnibus  הכוללת תיקונים ממוקדים לחוק הבינה המלאכותית האירופאי. המהלך נועד להפחית את העומס הרגולטורי כדי לעודד חדשנות וליצור וודאות משפטית, תוך שימור הגנה גבוהה לזכויות יסוד.

בין התיקונים המוצעים –

– מערכות בינה מלאכותית בסיכון גבוה – ההצעות צפויות לשנות את מנגנון היישום של מערכות ב"סיכון גבוה" לפי החוק. התיקונים המוצעים מתייחסים בין היתר לדחיית מועדים. יישום הדרישות למערכות AI בסיכון גבוה יידחה עד דצמבר 2027 (ובמקרים מסוימים עד אוגוסט 2028), כדי לאפשר גיבוש סטנדרטים וכלים, והיערכות מצד התעשיה; כמו כן ישנה הצעה להרחיב במידה מסוימת את היקף הפטור למערכות הקיימות בשוק (באמצעות הרחבת טווח המועדים בהם ניתן פטור לפי החוק ביחס למערכות בסיכון גבוה המצויות כבר בשוק).

– תיקונים נוספים – בהתאם לתיקון המוצע, יורחב  השימוש ב – Sandboxes   ("ארגזי חול") רגולטוריים.  כמו כן יורחבו ההקלות לעסקים קטנים ובינוניים.

– שקיפות במודלים גנרטיביים – חובת סימון תוכן מלאכותי תיכנס לתוקף עם תקופת הסתגלות ("גרייס") של חצי שנה למערכות הנמצאות בשוק לפני אוגוסט 2026 ולא עברו שינוי משמעותי.

תשומת הלב כי גם אם ההצעות תאושרנה כולן או חלקן, ככלל, עדיין ייוותרו חובות מחמירות יחסית לפי החוק, בפרט לגבי מערכות בסיכון גבוה ולמודלים גנרטיביים. ההצעות לתיקוני חקיקה ייבחנו במסגרת מסלול החקיקה המקובל באיחוד האירופי.

הצו הנשיאותי בארה״ב בקשר לרגולציית AI

ב – 11.12.25  חתם נשיא ארה״ב טראמפ על צו נשיאותי שמטרתו ליצור מסגרת רגולציה פדרלית אחידה ולצמצם את כוחן של מדינות בארה״ב להסדיר את תחום ה – AI. המהלך נועד בין היתר, לשמר את יתרונה התחרותי של ארה"ב בעולם ה – AI בכלל ולמול סין בפרט, ולאפשר התפתחות מואצת של תשתיות AI בארה"ב. במסגרת הצו, יוקם כוח משימה במשרד המשפטים בארה"ב, שייאתר חוקים מדינתיים "מכבידים". הממשל הפדרלי ישקול להפחית מענקים פדרליים למדינות שיחוקקו רגולציה מחמירה. הצו מכוון לקידום סטנדרט "מינימלי" בקשר ל – AI, תחת "טלאי החקיקה" הקיים בין מדינות.

ההתפתחויות והשלכותיהן לתאגידים, לגופים מוסדיים, למשקיעים ולחברות טכנולוגיה

התקופה הנוכחית מגלמת התפתחויות משמעותיות בארץ ובעולם הנוגעות לגישה לרגולציית AI ולאופן ההסדרה של סיכוניה, לצד ההזדמנויות הגלומות בה. חשוב להכיר את כיווני הרגולציה ואת הסטנדרטים ההולכים ומתהווים, על השלכותיהם  – כל גוף ותאגיד בהתאם לאופי עיסוקיו ופריסת פעילויותיו בארץ ובחו"ל.

הדברים מחדדים במיוחד את הצורך בהתוויית מנגנוני מימשל תאגידי מתאימים בארגון – למיפוי השימושים הקיימים ב – AI בארגון ולניהול סיכוני הבינה המלאכותית, להקמת צוות בין-תחומי לגיבוש תוכנית עבודה, להתוויית תוכנית אכיפה לפיקוח ולבקרה על אימוץ המערכות לכל אורך מחזור חייהן, להתקשרויות עם ספקים, ולהתווית מדיניות ונהלים מתאימים בארגון.

האמור לעיל אינו מהווה ייעוץ משפטי. אנו עומדים לרשותכם לצורך מתן הבהרות ומענה על שאלות נקודתיות.

העדכון נכתב על ידי עורכת דין ורד זליכה, שותפה וראשת תחום סייבר ו – AI במשרדנו.