top image

שימוש במערכות AI: סיכונים, אחריות והמלצות להגנת פרטיות

מסך מחשב המציג שיחה עם בינה מלאכותית, כולל בקשה לקבלת מידע אישי כגון פרטים מזהים, מספר תעודת זהות ומידע רפואי

שימוש אישי במערכות בינה מלאכותית יוצרת, דוגמת ChatGPT, Gemini, Claude, הפכו בשנה-שנתיים האחרונות לכלים שימושיים ונפוצים בתחומים אישיים ועסקיים. מערכות אלו מעבדות תכנים שנמסרים להן על ידי המשתמשים ויוצרות תוצרים מותאמים אישית בזמן קצר, ובכך מייעלות תהליכים רבים. עם זאת, השימוש בהן כרוך באתגרים ניכרים בתחום הגנת הפרטיות, לאור אופיין המבוסס על קליטת מידע פרטי, עיבודו, שמירתו ולעיתים אף שימוש חוזר בו במסגרת שירותים הניתנים למשתמשים אחרים. בחודש יוני 2025, פרסמה הרשות להגנת הפרטיות המלצות בנושא.

 

סיכוני הבינה המלאכותית היוצרת  

1. אפקט הזיכרון האלגוריתמי וחשיפה מובנית

בניגוד למנוע חיפוש מסורתי השומר נתונים בבסיס נתונים סטטי, מערכות AI הן “מערכות לומדות” המטמיעות כל שאילתה לתוך הדינמיקה של המודל. כל נתון רגיש (דוגמת שמות לקוחות, אסטרטגיות ליטיגציה, תשלומים וסליקה, נתונים פיננסיים חסויים),  הופך לחלק מהמודל AI, בתהליך של אימון חוזר. המשמעות היא שפרטים שהוזנו עלולים “לצוף” כפלט עבור משתמשים אחרים ברחבי העולם. זוהי חשיפה מובנית בארכיטקטורה של הטכנולוגיה, המובילה לעיתים לפגיעה בפרטיות שהיא בלתי הפיכה. שכן, כמעט בלתי אפשרי “להשכיח” נתון ספציפי ממודל לאחר שאומן.

2. זליגה לצדדים שלישיים

המידע שאתם מזינים אינו נשאר בשרתי חברת האם בלבד; הוא זורם דרך אקו-סיסטם של ספקי ענן, מעבדי נתונים ושותפים טכנולוגיים בשרשרת האספקה. זליגה זו מאפשרת לתוקפים לייצר פישינג מותאם אישית, ברמת אמינות חסרת תקדים, תוך שימוש במידע אמיתי על פרויקטים פנימיים. יתרה מכך, דפוסי הכתיבה והניסוחים הייחודיים לכם מאפשרים ביצוע התחזות (Deepfake) מדויקת המשמשת להונאות. שילוב המידע עם נתונים מרשתות חברתיות מאפשר בניית פרופילים פסיכולוגיים לצורך לוחמה במידע, הטיה פוליטית או מניפולציה צרכנית אגרסיבית המנצלת את נקודות התורפה של המשתמש.

3. אובדן זכויות יוצרים והגנה על קניין רוחני

נכון להיום, תוצר שנוצר בבלעדיות על ידי AI ללא מעורבות אנושית מהותית אינו זכאי לרוב להגנת זכויות יוצרים. המשמעות היא שקוד תוכנה, חוזים מורכבים או תוכן שיווקי אסטרטגי שנוצרו באמצעות מערכת AI עלולים להפוך לנחלת הכלל ברגע פרסומם. ללא “מגע יד אדם”, מתועד כנדרש, ייתכן שיקשה בהגנה על זכויות היוצרים וביתרון התחרותי של הארגון.

4. הזרקת נתונים ויצירת הטיה מכוונת

זהו סיכון אסטרטגי שבו תוקפים מזריקים מידע משובש או מגמתי למאגרי הלימוד הציבוריים של ה-AI במטרה להטות את תוצאותיו בעתיד. הסתמכות ארגונית על AI לצורך הערכות שווי חברות, ניתוח סיכוני שוק או קבלת החלטות מדיניות, חושפת לסיכון של “הרעלת נתונים”. במצב זה, ההחלטה העסקית אינה מבוססת על מציאות אובייקטיבית אלא על מניפולציה זדונית של צד ג’ שביקש להטות את האלגוריתם.

5. הפרת רישיונות וסיכוני ציות (Licensing Compliance)

כלי AI שואבים לעיתים קטעי קוד, נוסחים משפטיים או עיצובים גרפיים ממקורות המוגנים ברישיונות “קוד פתוח”. שימוש בתוצרי המערכת, ללא בדיקת מקורות מעמיקה עלול להפוך את המוצר הסופי של הארגון ל”נגוע” בהפרת קניין רוחני של צדדים שלישיים. הדבר עלול להוביל לא רק לתביעות כספיות, אלא לדרישות משפטיות לחשוף את קוד המקור של הארגון או להסיר מוצרים מהמדפים לאלתר.

6. חוסר סבירות משפטית

במקרה של תביעת רשלנות, חבות מוצר או אפליה, הנטל להוכיח את סבירות ההחלטה מוטל על הארגון. היעדר היכולת להסביר את הלוגיקה הפנימית של המכונה (בעיית ה”קופסה השחורה”) יוצר מלכוד משפטי. טענת “כך קבע האלגוריתם” אינה מהווה הגנה בבית המשפט ואינה עומדת בסטנדרט של שיקול דעת מנהלי או עסקי. חוסר יכולת להסביר דחיית מועמד לעבודה, קביעת פרמיית ביטוח או דירוג אשראי, חושף את הארגון להפסד אוטומטי בהליכים משפטיים ולסנקציות מצד רגולטורים הדורשים שקיפות אלגוריתמית מלאה.

7. זליגת מטא-דאטה וחשיפת תשתיות

מעבר לתוכן הגלוי של השיחה, המערכות אוספות “שאריות דיגיטליות”: מטא-דאטה הכולל כתובות IP פנימיות, גרסאות דפדפן, מיקומי GPS מדויקים, ודפוסי התנהגות של עובדים.

 

“הזיות AI”: מרשלנות ועד ביזיון בית המשפט

המונח “הזיות AI” (AI Hallucinations) מתייחס לתופעה שבה מודל שפה גדול (LLM) מייצר פלט שנראה משכנע, רהוט ועקבי מבחינה דקדוקית, אך הוא שגוי מיסודית, לא קיים במציאות או חסר ביסוס בנתוני המקור. שכן, מודלים של בינה מלאכותית אינם “יודעים” עובדות. הם פועלים על בסיס הסקה וחיזוי של המילה הבאה במשפט, או של ההקשר. כאשר המודל נתקל ב”חור” בידע שלו או בשאלה מורכבת מדי, הוא עלול “להשלים” את המידע בצורה יצירתית כדי לספק תשובה שנראית שלמה, גם אם היא מומצאת. סוגי הזיות נפוצים יכולים להיות המצאת עובדות (המצאת תאריכים, אירועים היסטוריים או נתונים סטטיסטיים); הזיות משפטיות (המצאת פסקי דין, ציטוט סעיפי חוק שאינם קיימים או ייחוס פרשנות שגויה לרגולציה); הפניות כוזבות (יצירת קישורים (URLs) לא קיימים או הפניה למקורות ביבליוגרפיים דמיוניים), ועוד.

קבלת החלטות על בסיס מערכת AI, ללא יכולת לדעת האם הפלט מבוסס על עובדות או על הזיות, מעמידה נושאי משרה בסכנה של תביעות רשלנות. בעוד שחברות אבטחה מציעות כלים לניטור דאטה, הפתרון הבסיסי הוא יצירת מדיניות שימוש פנים-ארגונית. מדיניות זו מגדירה את הגבול שבין שימוש יעיל בכלי, לבין חשיפת הארגון לסנקציות מנהליות של הרשות להגנת הפרטיות. בסופו של יום, ההגנה הטובה ביותר אינה רק קוד תוכנה, אלא הבנה עמוקה של השלכות המידע המעובד, שילוב של “התממה” קפדנית ובקרה אנושית בלתי מתפשרת על כל פלט שיוצא מהמכונה.

הפסיקה בישראל החלה להיתקל בשנת 2025 ב”הזיות AI” – פסקי דין מומצאים, ציטוטים שלא קיימים וכו’. בבית המשפט העליון (בג”ץ 38379-12-24 פלונית נ’ בית הדין השרעי), נחשף מקרה קיצוני בו הוגשה עתירה המבוססת כולה על פסקי דין, ציטוטים ואסמכתאות בדויות, פרי יצירתה של מערכת AI עליה הסתמכה עורכת הדין, מבלי לוודא את נכונות הדברים. במקרה זה, המערכת הפיקה תוכן כוזב שנחזה להיות ענייני והגיוני, אך בפועל “לא היה ולא נברא”. בית המשפט העליון הדגיש כי הגשת כתב בית דין הכולל מידע בדוי מהווה מעילה בחובות עורך הדין כלפי לקוחו, כלפי בית המשפט וכלפי המקצוע כולו.

משרד וולר ושות’ מדגיש כי האחריות המקצועית נותרת תמיד על כתפי האדם. פסק הדין מבהיר כי בעתיד, בתי המשפט לא יהססו להפעיל את סמכויותיהם: החל מסילוק הליכים על הסף בשל “שימוש לרעה בהליכי משפט”, דרך הטלת הוצאות אישיות כבדות על עורך הדין, ועד להעמדה לדין משמעתי לפי חוק לשכת עורכי הדין.

 

שימוש מושכל בבינה מלאכותית: סיכונים ופתרונות משפטיים

היבט השימוש הסיכון המשפטי המלצת וולר ושות’
יצירת תוכן (טקסט/תמונה) הפרת זכויות יוצרים של צד ג’.
הזנת נתונים למערכת חשיפת מידע סודי או פגיעה בפרטיות.
קבלת החלטות מבוססת AI הסתמכות על מידע שגוי (“הזיות AI”).

 

המלצות אופרטיביות למשתמשים

בהתאם לממצאים ולרקע הרגולטורי, מומלץ למשתמשים פרטיים לנקוט אמצעי זהירות יזומים בעת שימוש במערכות בינה מלאכותית יוצרת:

  1. מומלץ לצמצם, ככל האפשר, הזנה של מידע אישי שאינו נדרש לשימוש במערכות בינה מלאכותית יוצרת. כתיבה כללית מצד אחד, וממוקדת בשאלה עצמה מצד שני, מפחיתה את הסיכון לחשיפת מידע אישי, ועדיין מאפשרת השגת תוצאות רלוונטיות מהמערכת.
  2. מומלץ להימנע, ככל האפשר , מאזכור פרטים מזהים, כגון שם, גיל, מיקום, מצב משפחתי או מקצוע אם הם אינם נחוצים והכרחיים לשאלה. השתדלו במיוחד שלא לשתף מידע פיננסי (כמו מספרי חשבון בנק או מספרי כרטיסי אשראי), מידע רפואי, כולל פרטי ביטוח רפואי וכל מידע אישי רגיש אחר. מומלץ בהחלט שלא לחשוף גם מידע אישי רגיש על אחרים, כגון על ילדיכם.
  3. מומלץ לנסח שאלות כלליות: במקום “אני מחפשת”, השתמשו ב”מהם”, “אילו”, או “איך”. התמקדו במידע הנדרש: השמיטו פרטים מיותרים שאינם קריטיים לתשובה.
  4. מומלץ להשתמש בהתממה (אנונימיזציה) באופן שמטשטש פרטים אישיים מזהים, אך עדיין מאפשר לקבל תוצר מותאם, מדויק ורלוונטי. התממה יכולה להתבצע באמצעות הכללה (כגון הורדת רמת דיוק של נתון או קבוצת נתונים), או שינוי ערכים אקראי, על מנת למנוע זיהוי של המשתמש.
  5. לבקש מהמערכת למחוק את כלל המידע האישי או פרטים מסוימים, מפעם לפעם (במידה ואפשרות זו קיימת). במרבית כלי הבינה המלאכותית היוצרת קיימת אפשרות לקבל את המידע האישי הקיים בכלי אודות המשתמש, או לצייר/לתאר את המשתמש לפי הידוע למערכת. מומלץ להשתמש באפשרות זו כדי לדעת את היקף וסוג המידע האישי הנשמר במערכת על אודות המשתמש.
  6. אנחנו ממליצים לשקול לבטל את האפשרות של אימון מערכת הבינה המלאכותית היוצרת על מידע המוזן אליה, אם אפשרות כזו קיימת, כדי לצמצם את הסיכון לפרטיות מהמידע הנשמר במערכת. בדקו האם נאספים נתוני מיקום כחלק מהשימוש במערכת, ושקלו לבטל את האיסוף, אם אפשרות כזו קיימת. בדקו האם ישנה סקירה אנושית של חלק מהשיחות כחלק מתהליכי אבטחת האיכות או הפיתוח של המערכת ושקלו לבטל סקירה זו, אם אפשרות כזו קיימת. באופן כללי, תנאי השימוש ומדיניות הפרטיות של מערכות בינה מלאכותית יוצרת משתנים מעת לעת, ומומלץ לעקוב אחר השינויים, בפרט במערכות העיקריות שבהן אתם משתמשים, כדי להכיר את אופן העיבוד של המידע האישי שלכם, ולערוך שינויים מתאימים בהגדרות הפרטיות כדי להגן על פרטיותכם ברשת.

המלצות להתנהלות הציבור בשימוש אישי במערכות בינה מלאכותית יוצרת (וכאן קישור ישיר)

 

סיכום – שימוש אישי במערכות בינה מלאכותית

משרד עו”ד וולר ושות’ נמנה עם המשרדים המובילים בישראל, ומציע מומחיות בתחומי המשפט הציבורי, המנהלי והמסחרי. המשרד מתמחה בדיני הגנת הפרטיות ואבטחת מידע, דיני מכרזים, ליטיגציה מנהלית ומסחרית, דיני מקרקעין ודיני הרשויות המקומיות. צוות המשרד מלווה גופים ציבוריים ופרטיים תוך שילוב ידע משפטי מעמיק, ניסיון עשיר וראייה אסטרטגית כוללת, במטרה להעניק פתרונות מדויקים, מותאמים ואיכותיים לכל לקוח.

שאלות ותשובות: שימוש ב-AI

מהן המלצות הרשות להגנת הפרטיות לשימוש ב-AI?

הרשות ממליצה על צמצום הזנת מידע אישי, שימוש בניסוחים כלליים, ביצוע אנונימיזציה לנתונים, וביטול אפשרות ה”אימון” (Training) בהגדרות המערכת.

האם הזנת מידע עסקי ל-ChatGPT נחשבת להפרת פרטיות?

כן, אם המידע כולל נתוני לקוחות, עובדים או סודות מסחריים ללא התממה, הדבר עלול להוות הפרה של חוק הגנת הפרטיות ותקנות אבטחת מידע.

האם מותר להזין שמות לקוחות ל-ChatGPT לצורך סיכום פגישה?

לא. הזנת שמות לקוחות או פרטים מזהים ללא הסכמה מפורשת מהווה הפרה של חוק הגנת הפרטיות ותקנות אבטחת מידע, שכן המידע עשוי לשמש לאימון המודל ולהיחשף לצדדים שלישיים.

מהי "התממה" (Anonymization) בהקשר של בינה מלאכותית?

תהליך של הסרת פרטים מזהים (שמות, ת”ז, מיקום מדויק) מהטקסט לפני הזנתו ל-AI, באופן שלא מאפשר שיוך המידע לאדם ספציפי, ובכך מצמצם את הסיכון המשפטי.

כיצד ניתן לבטל את אימון המודל על המידע שלי?

ברוב המערכות (כגון OpenAI או Claude) קיימת הגדרה תחת “Privacy Settings” המאפשרת לכבות את ה-Chat History & Training. משרד וולר ושות’ ממליץ לוודא הגדרה זו בכל חשבון עסקי.

מהי האחריות המשפטית של מעסיק על שימוש עובדים ב-AI?

המעסיק נושא באחריות שילוחית ואחריות מכוח תקנות אבטחת מידע. עליו לגבש מדיניות שימוש ברורה (AI Policy) ולהדריך את העובדים בנושאי סודיות והגנת הפרטיות.

שתפו עם חברים
צרו איתנו קשר

מאמרים נוספים

לייעוץ ומידע מלאו פרטים ונחזור אליכם

"*" אינדוקטור שדות חובה

הקפידו על פרטים ברורים ככל הניתן