מחובת הזהירות ועד אסטרטגיית הצמיחה: המדריך לחברי דירקטוריון שרוצים להוביל פיקוח אפקטיבי ולא רק לחתום על פרוטוקולים (Original Research)

עדכון אחרון: דצמבר 2025

למי זה מתאים: חברי דירקטוריון (Directors), יו"רים (Chairpersons), ומזכירי חברה.
החזר השקעה (ROI) צפוי: צמצום החשיפה המשפטית והאישית של הדירקטורים (D&O Liability), מניעת השקעות כושלות, והבטחת קיימות עסקית ארוכת טווח.
השורה התחתונה (The Bottom Line):עד לאחרונה, בינה מלאכותית נחשבה לנושא טכני שנדון בוועדת הטכנולוגיה או מול ה-CTO. בשנת 2025, ה-AI הוא נושא ליבה אסטרטגי שמשפיע על המודל העסקי, על סיכוני החברה ועל המוניטין שלה. דירקטוריון שלא דן ב-AI הוא דירקטוריון שמועל בתפקידו. השאלה אינה "האם יש לנו AI?", אלא "האם ה-AI מנוהל בצורה אחראית והאם הוא מקדם את היעדים האסטרטגיים שלנו?".

תובנות מרכזיות (Key Takeaways):

  • חובת האוריינות: דירקטורים לא צריכים לדעת לכתוב קוד, אבל הם חייבים להבין את המושגים, הסיכונים וההזדמנויות של ה-GenAI כדי לפקח על ההנהלה.
  • ניהול סיכונים חדש: מפת הסיכונים השתנתה. לצד סיכוני סייבר, נוספו סיכוני "הזיות" (Hallucinations), הפרת זכויות יוצרים, והטיות אלגוריתמיות שעלולות לגרור תביעות ייצוגיות.
  • הזדמנות מול איום: הדירקטוריון חייב לאתגר את המנכ"ל בשאלה: "איך ה-AI יכול לשבש (Disrupt) את הענף שלנו, ומה אנחנו עושים כדי לא להפוך ל'קודאק' של 2026?".

משילות בעידן אי-הוודאות: למה זה דחוף עכשיו? (The Governance Gap)

הקצב המסחרר של התפתחות הטכנולוגיה יצר פער מסוכן בין הידע של הנהלת החברה לבין יכולת הפיקוח של הדירקטוריון. בעוד ההנהלה רצה קדימה ומטמיעה כלים, הדירקטוריון לעיתים נשאר מאחור, חושש לשאול שאלות "טיפשיות".
השתיקה הזו מסוכנת. רגולציות חדשות (כמו ה-EU AI Act ותקנות רשות ניירות ערך) מטילות אחריות אישית על הדירקטורים לוודא שהחברה מצייתת לחוקי ה-AI. אי-ידיעה אינה פוטרת מאחריות.

זווית מומחה: תובנה מאת ד"ר יניב שנהב
"תפקיד הדירקטוריון הוא להיות 'המבוגר האחראי', אבל גם המנוע שדוחף לחדשנות. אני פוגש דירקטוריונים שנחלקים לשניים: אלו שבולמים כל יוזמת AI מפחד, ואלו שמאשרים הכל בהתלהבות עיוורת. שתי הגישות שגויות. הדרך הנכונה היא 'Trust but Verify' (סמוך אך ודא). תדרשו מההנהלה להציג לא רק את הפוטנציאל אלא גם את מנגנוני הבקרה (Guardrails) שהם בנו."
ד"ר יניב שנהב, מנכ"ל IIAI, מומחה למנהיגות ופיתוח ארגוני.

ניתוח עומק: מסגרת הפיקוח (The Oversight Framework)

כדי לנהל דיון אפקטיבי, הדירקטוריון צריך לאמץ מסגרת עבודה הכוללת ארבעה צירים:

  1. אסטרטגיה (Strategy): האם ה-AI הוא חלק מהליבה העסקית או רק כלי עזר?
  2. סיכונים (Risk): אילו סיכונים חדשים נוצרו? (למשל: דליפת קניין רוחני למודלים ציבוריים).
  3. הון אנושי (Talent & Culture): האם יש לחברה את הכישרונות המתאימים? איך מטפלים בחששות העובדים מהחלפה?
  4. אתיקה וציות (Ethics & Compliance): האם השימוש ב-AI תואם את ערכי החברה והחוק?

מבט על הנתונים (Exploring the Data: A 360° View)

  • הזווית הפיננסית (Financial Impact): מחקר של McKinsey מראה שחברות עם דירקטוריונים "אורייני טכנולוגיה" מציגות ביצועים עודפים של 5% ברווחיות לאורך זמן, כיוון שהן נמנעות מהשקעות סרק ומזהות הזדמנויות מוקדם יותר.
  • הזווית האסטרטגית (Strategic Insight): סקר NACD (National Association of Corporate Directors) ל-2025 מגלה כי רק 15% מהדירקטורים מרגישים "מוכנים מאוד" לפקח על נושאי AI. הפער הזה נסגר באמצעות הקמת ועדות משנה ייעודיות לטכנולוגיה וחדשנות.
  • הזווית הישראלית (The Israeli Angle): בישראל, רשות החברות הממשלתיות והממונה על שוק ההון החלו לדרוש דיווחים על שימוש ב-AI. דירקטוריונים בחברות ציבוריות נדרשים כעת להצהיר בדוח השנתי (פרק 1א' - תיאור עסקי התאגיד) על השפעת ה-AI על פעילות החברה [1].

המדריך המעשי: 4 שאלות לדיון הבא (The Boardroom Playbook)

מה לשאול את המנכ"ל בישיבה הקרובה?

  1. שאלה 1: "מי הבעלים של ה-AI בארגון?"
    ודאו שיש כתובת אחת ברורה (CAIO, CTO, או ועדה) שאחראית על הנושא. פיזור אחריות הוא מתכון לאסון.
  2. שאלה 2: "מהי מדיניות ה-GenAI שלנו?"
    בקשו לראות את המסמך שמגדיר לעובדים מה מותר ומה אסור (למשל: "אסור להעלות קוד מקור ל-ChatGPT"). אם אין מסמך כזה, דרשו שיכתב עד הישיבה הבאה.
  3. שאלה 3: "איך אנחנו מודדים הצלחה?"
    אל תסתפקו ב"אנחנו חדשניים". דרשו מדדי ביצוע (KPIs) ברורים: חיסכון בשעות עבודה, גידול בהכנסות, או שיפור שביעות רצון לקוחות.
  4. שאלה 4: "מה תוכנית המגירה לכשל?"
    מה קורה אם הבוט שלנו נותן עצה פיננסית שגויה ללקוח? או פולט אמירה גזענית? ודאו שיש תוכנית ניהול משברים וביטוח מתאים.



שאלות נפוצות (Common Questions)

  • האם הדירקטוריון צריך מומחה AI בתוכו?
    זה מומלץ, אבל לא חובה. אפשר להביא יועץ חיצוני לוועדה. החשוב הוא שיהיה מישהו שיודע לשאול את השאלות הטכנולוגיות ולאתגר את ההנהלה.
  • האם האחריות המשפטית נופלת על הדירקטורים?
    כן. במסגרת "חובת הפיקוח" (Caremark duties בארה"ב, וחובות דומות בישראל), דירקטור שלא וידא קיום מערכת ציות ל-AI עלול להיתבע אישית במקרה של כשל מהותי.
  • באיזו תדירות צריך לדון בנושא?
    לפחות פעם ברבעון. התחום משתנה מהר מדי מכדי לדון בו רק באסטרטגיה השנתית.

סיכום (Conclusion)

הדירקטוריון של 2026 לא יכול להיות חותמת גומי. בעידן ה-AI, הדירקטוריון הוא המצפן המוסרי והעסקי של הארגון. היכולת לאזן בין הרצון לרוץ מהר לבין החובה לשמור על החברה, היא המבחן האמיתי של הממשל התאגידי החדש.

הצעד הבא שלך (Your Next Step)

מרגישים שהדירקטוריון שלכם זקוק ליישור קו בנושא הבינה המלאכותית? המכון הישראלי לבינה מלאכותית מקיים מפגשי העשרה והדרכה ייעודיים לדירקטוריונים והנהלות בכירות (Board Education), הכוללים סקירת סיכונים, מגמות רגולטוריות וכלים לפיקוח אפקטיבי.

מקורות (Bibliography)

  • [1] NACD (2025). Blue Ribbon Commission Report on Technology Leadership.
  • [2] Deloitte Center for Board Effectiveness (2025). The Board's Role in Generative AI.
  • [3] McKinsey & Company (2025). Four Essential Questions for Boards on Generative AI.
  • [4] Israeli Corporations Authority (2025). Guidelines for Directors on Technology Risks.


שולחן ישיבות דירקטוריון יוקרתי, שבמרכזו הולוגרמה המציגה נתונים עסקיים וסיכוני AI, מול חברי דירקטוריון קשובים


הערות
* כתובת הדואר האלקטרוני לא תוצג באתר.