H2: איך להפוך את השימוש הנסתר ב-GenAI מסיכון אבטחתי למנוע צמיחה מנוהל (Original Research)

עדכון אחרון: אוקטובר 2025

למי זה מתאים: מנכ"לים (CEO), מנהלי אבטחת מידע (CISO), סמנכ"לי טכנולוגיות (CTO).

החזר השקעה (ROI) צפוי: מניעת דליפת קניין רוחני (IP), צמצום חשיפה לתביעות רגולטוריות, וחיסכון של כ-20% בעלויות רישוי כפולות.

השורה התחתונה (The Bottom Line):

העובדים שלך כבר משתמשים ב-AI, בין אם אישרת ובין אם לא. הנתונים מ-2025 מראים כי בעוד שרק 28% מהחברות בישראל אימצו AI באופן רשמי, כ-95% מעובדי ההייטק משתמשים בכלים אלו באופן קבוע. הפער הזה נקרא Shadow AI, והוא חושף את הארגון שלך לסיכונים קריטיים של דליפת מידע והפרת פרטיות. הפתרון אינו חסימה, אלא משילות (Governance).

Key Takeaways:

  • •     הסכנה: הדבקת קוד קנייני, נתוני לקוחות או פרוטוקולים סודיים לתוך מודלים ציבוריים ש"לומדים" מהמידע.
  • •     הרגולציה: טיוטת הנחיות הרשות להגנת הפרטיות (אוגוסט 2025) מטילה אחריות אישית על מנהלים לוודא שה-AI עומד בתקני אבטחת מידע [1].
  • •     הפתרון: מעבר מגישת "אסור" (Blocking) לגישת "מותר בטוח" (Safe Sandboxing) ורכישת רישיונות Enterprise.

הבעיה השקטה: למה זה דחוף עכשיו?

התרחיש הבא קורה בארגון שלך ברגעים אלו ממש: מנהל שיווק מעלה קובץ אקסל עם נתוני לקוחות ל-ChatGPT החינמי כדי לקבל ניתוח סגמנטים, או מתכנת מדביק בלוק של קוד ליבה לתוך Claude כדי למצוא באג. פעולות אלו, הנעשות מתוך רצון לייעל את העבודה, עוקפות את מערכי האבטחה המסורתיים.התופעה הזו, המכונה Shadow AI (או BYOAI - Bring Your Own AI), יוצרת "דלת אחורית" שדרכה המידע הרגיש ביותר של הארגון זולג החוצה. ב-2025, כשהכלים הופכים נגישים ועוצמתיים יותר, החסימה הטכנית כמעט בלתי אפשרית.

זווית מומחה: תובנה מאת ד"ר יניב שנהב

"אי אפשר לעצור צונאמי עם כפית. מנכ"לים שמנסים לחסום את הגישה ל-AI בארגון לא מונעים את הסיכון, הם רק מסתירים אותו מעיניהם. המנהיגות החדשה דורשת מאיתנו להכשיר את העובדים ולהגדיר גבולות גזרה ברורים. Shadow AI הוא לא בעיה טכנולוגית, הוא בעיה של תרבות ארגונית ומנהיגות."

ד"ר יניב שנהב, מנכ"ל IIAI, מומחה למנהיגות ופיתוח ארגוני.

ניתוח עומק: הדילמה של ה-Shadow AI

האתגר המרכזי ב-Shadow AI הוא המתח שבין חדשנות לבין בקרת סיכונים. מצד אחד, ארגונים רוצים לעודד את העובדים להיות פרודוקטיביים יותר. מצד שני, השימוש בכלים חינמיים (Consumer-grade) חושף את הארגון לשלושה סיכונים מרכזיים:

  1. 1.     זליגת דאטה (Data Leakage): מידע שהוזן הופך לחלק ממאגר האימון של המודל הציבורי.
  2. 2.     הזיות (Hallucinations): קבלת החלטות עסקיות על בסיס מידע שגוי שהמודל המציא.
  3. 3.     חשיפה משפטית: הפרה של תקנות הגנת הפרטיות וזכויות יוצרים.

Exploring the Data: A 360° View

כדי להבין את גודל האירוע, נבחן את הנתונים משלוש זוויות:

  • •     הזווית הפיננסית: ארגונים ללא מדיניות AI ברורה מוציאים עד 30% יותר על כלי AI עקב רכישות כפולות ולא מנוהלות של רישיונות פרטיים על ידי עובדים ומחלקות, ללא יתרון לגודל (Enterprise Discounts).
  • •     הזווית האסטרטגית: לפי דוח McKinsey 2025, ארגונים המטמיעים AI בצורה מוסדרת (עם אסטרטגיה ברורה) מדווחים על החזר השקעה (ROI) גבוה פי 3 לעומת ארגונים המשתמשים ב-AI בצורה אקראית ("Ad-hoc") [2].
  • •     הזווית הישראלית (The Israeli Angle): סקר מעסיקים מ-2025 מראה כי בעוד 95% מעובדי ההייטק בישראל משתמשים בכלי AI, רק 11% מהמעסיקים מספקים הכשרה מסודרת בנושא. הפער העצום הזה (84%) הוא כר פורה לטעויות אנוש וסיכוני אבטחה [3]. בנוסף, טיוטת הנחיות הרשות להגנת הפרטיות הישראלית (אוגוסט 2025) מחייבת לראשונה ביצוע תסקיר השפעה על הפרטיות (DPIA) לכל מערכת AI המעבדת מידע אישי [4].

The Practical Playbook: מניעת דליפה ב-4 שלבים

כדי להשתלט על ה-Shadow AI, יש לפעול לפי המתודולוגיה הבאה:

  1. 1.     שלב 1: מיפוי וגילוי (Discovery) (אחריות: CISO/CIO)

בצעו סריקה של תעבורת הרשת הארגונית כדי לזהות לאילו כלי AI העובדים גולשים. אל תחסמו מיד – המטרה היא להבין את הצרכים. האם הם צריכים כתיבה שיווקית? כתיבת קוד? סיכום מסמכים?

  1. 2.     שלב 2: סיווג סיכונים ומדיניות (אחריות: היועץ המשפטי + מנכ"ל)

הגדירו "רמזור מידע":

    • o     🔴 אדום: מידע סודי ביותר (קוד מקור, דוחות כספיים, PII). אסור להעלאה לשום כלי ציבורי.
    • o     🟡 צהוב: מידע פנימי לא רגיש. מותר להעלאה רק לכלים מאושרים (Enterprise).
    • o     🟢 ירוק: מידע פומבי. מותר לשימוש חופשי.
    • 3.     שלב 3: רכש מרוכז וארגז חול (Sandbox) (אחריות: CTO)

במקום שכל עובד ישלם 20$ ל-OpenAI, רכשו רישיונות ChatGPT Enterprise או Copilot המבטיחים שהמידע שלכם לא משמש לאימון המודלים. הטמיעו סביבה סגורה פנים-ארגונית (Private GPT) לשימושים רגישים.

    • 4.     שלב 4: הכשרה והסמכה (אחריות: HR + הנהלה)

זהו השלב הקריטי ביותר. הדרכת העובדים על סכנות ה-Prompt Injection והשימוש הבטוח. כפי שד"ר שנהב מדגיש בסדנאות המכון: "הטכנולוגיה קלה, האנשים הם האתגר". שלבו הדרכת AI Awareness כחלק מה-Onboarding [5].

שאלות נפוצות (FAQ)

שאלה: האם הפתרון הכי טוב הוא פשוט לחסום את הגישה ל-ChatGPT בארגון?תשובה: לא. חסימה תוביל את העובדים להשתמש במכשירים הפרטיים שלהם (הטלפון הנייד), שם אין לכם שום בקרה. עדיף לנהל את השימוש בתוך הרשת הארגונית בכלים המאובטחים.

שאלה: איך אני יודע אם העובדים שלי משתמשים ב-Shadow AI?תשובה: הסתכל על הדוחות הכספיים (החזרי הוצאות על מנויי תוכנה לא מוכרים) ועל תעבורת הרשת. סימן נוסף הוא שיפור פתאומי ובלתי מוסבר בתפוקה של עובדים מסוימים ללא שינוי בתהליכים.

שאלה: האם מודלים בקוד פתוח (Open Source) בטוחים יותר?תשובה: פוטנציאלית כן, אם הם מותקנים מקומית (On-Premise) על שרתי הארגון. עם זאת, הם דורשים תחזוקה טכנית וניהול אבטחה עצמאי.

סיכום (Conclusion)

תופעת ה-Shadow AI היא סימפטום לרצון של העובדים להתייעל. ארגון שיידע לתעל את האנרגיה הזו למסלולים בטוחים, ירוויח פעמיים: גם הגנה על הנכסים וגם זינוק בפרודוקטיביות. ההתעלמות, ב-2025, היא כבר לא אופציה ניהולית לגיטימית.

הצעד הבא שלך

רוצה למפות את סיכוני ה-AI בארגון ולבנות מדיניות שימוש בטוחה? צוות המומחים של IIAI זמין עבורך.חייגו אלינו: 072-2500344בקרו באתר: www.iiai.co.il

מקורות (Bibliography)

    • [1] Privacy Protection Authority (2025). Draft Guidance on the Application of Privacy Law to AI. Israel Ministry of Justice.
    • [2] McKinsey & Company (2025). The state of AI in 2025: Agents, innovation, and transformation.
    • [3] CWS Israel Ltd (2025). AI adoption Israel workplace 2025 - Employer's Guide.
    • [4] EBN Law (2025). Legal Update: Privacy in Artificial Intelligence Systems.
    • [5] IIAI (2025). Syllabus: AI Security and Safe Usage Workshop.




הערות
* כתובת הדואר האלקטרוני לא תוצג באתר.