- עמוד הבית
-
אודותינו
-
שפות
-
שירותים
-
תרגום משפטי
- לקוחות
-
יצירת קשר
IL: +972 72 2200700
- כניסה לאתר
צור אתנו קשר
הכנס את הפרטים שלך ונחזור אליך בעוד מספר דקות
החקיקה האירופית בנוגע לתרגום מכונה
זמן קריאה : 8 דק'
כניסת האינטליגנציה המלאכותית לחיינו היא תהליך ארוך ומורכב שמציג לא רק אתגרי הסתגלות מצד חברות התרגום ומצד לקוחותיהם אלא גם מענה לשאלות אתיות כבדות משקל. כאן נכנס החוק לפעולה. במרחב האפור שבין חופש הביטוי לבין הפצת פייק ניוז. במקום בו לשימוש בשפה הנכונה יכולות להיות השלכות בטיחותיות והשלכות כלכליות כבדות. האיחוד האירופי החל לדון בחקיקה עתידית שתסדיר את השימוש בטכנולוגיות בינה מלאכותית כולל בתעשיית השפות.
אילו טכנולוגיות מתקדמות האיחוד האירופי אסר לשימוש?
תחילה נקבע את גבולות הגזרה. רבות מהטכנולוגיות שאציין כאן אינן קשורות לתעשיית השפות. מדוע בכל זאת להתייחס אליהן? כי חשיפת הגבולות האתיים של חקיקת האיחוד האירופי יכולה לשפוך אור על היחס שלו לטכנולוגיות מתקדמות. כך אפשר להבין בצורה מיטבית את היחס שלו לאמצעי תרגום מכונה. ניתן להבין כך אילו זכויות אדם עומדות בסיכון משימוש לא אחראי בטכנולוגיות שפה וכיצד ניתן להבטיח את שימור הזכויות הללו.
אז אלו טכנולוגיות נאסרו לחלוטין באיחוד האירופי?
מערכות דירוג אשראי על בסיס פעילות חברתית. מערכות אלו נהוגות בסין הקומוניסטית שמנטרת אחרי הפעילות של אזרחיה ברשתות החברתיות, במקומות העבודה ובמקומות הצרכנות שלהם. לפי התוצרים של מעקבים אלו וקבוצות השייכות של האזרחים נותנת סין דירוג אשראי לאזרחיה.
האיחוד האירופי אסר זאת. מכאן אנו לומדים שחשוב לאיחוד האירופי להגן על זכות הפרטיות של האזרחים. חשוב לו למנוע שיפוט לא הוגן שלהם על סמך עמדתם והאנשים שהם מכניסים למעגל החברתי שלהם. איסור זה נותן רמז עבה לחברות תרגום ולוקליזציה: שימרו על הפרטיות של הלקוחות שלכם. הימנעו מלשמור או המידע ולעשות בו שימוש לרעה.
נאסרו גם שיטות פרסום באמצעים טכנולוגיים שעובדים על התת מודע ועלולים לשנות את התנהגותו של אדם מבלי שהוא מודע לכך. סביר להניח שלא יהיה שינוי משום כך באופן בו חברות תרגום ולוקליזציה מפרסמות לציבור הרחב את המוצרים והשירותים שלהן. עדיין הן יצטרכו להפגין אחריות ולנהוג בשקיפות.
על חשיבותה של שקיפות מבחינת האיחוד האירופי, בהקשר לתעשיית השפות נלמד בהמשך המאמר.
טכנולוגיה נוספת שנאסרה היא ביצוע מעקבים ביומטריים מרחוק גם על ידי המשטרה שלא באישור שופט במקרים מוגבלים. לאיסור הזה קשה למצוא טכנולוגיה מקבילה בתעשיית השפות או אפילו בתעשיה קרובה אליה.
מצד שני אפשר להסיק ממנו שוב על חשיבות שמירת פרטיותם של אזרחים. האמת אם בודקים סעיפים אחרים בחוק האירופי רואים למשל שאסור לחברת תרגום להציף את תיבת הדואר האלקטרוני של אדם בהודעות פרסומיות ללא אישורו והסכמתו המפורשים.
מאד יתכן שגם גוגל שכרגע מספק שירותי SEO מקומיים ופרסום ממוקד ברשת יצטרך לשמור באופן נוקשה הרבה יותר על הפרטיות של משתמשיו. כמובן שפרסום ממוקד מותאם גיאוגרפית, לשונית ותרבותית שמתבסס על מה שידוע לנו על לקוחותינו הפוטנציאליים עדיין יתאפשר, אך מדובר באיזור אפור. יש להתחשב בכל הסיכונים שנובעים ממנו.
מערכות AI בסיכון גבוה לעומת מערכות בסיכון נמוך – מהו הסיכון בתעשיית השפות?
לאחר שבדקנו את הקווים האדומים של החקיקה האירופית בכל מה שקשור לטכנולוגיות אינטליגנציה מלאכותית מתקדמות עלינו להיכנס לתחום האפור והמבולבל יותר. לתחום המסוכן שבו הקדמה הטכנולוגית מועילה ומעשירה מצד אחד, אך מצד שני ללא פיקוח עלולה לשמש לרעה.
מעניין לציין כאן שתעשיית השפות אפילו לא הוזכרה באופן ישר בשמה בהצעת החקיקה של האיחוד האירופי בנושא אינטליגנציה מלאכותית. לכן, אנו לומדים על היחס לתעשיית השפות מקריאה מושכלת בין השורות, הנוגעת בצמתים מסויימים בהם האינטליגנציה מלאכותית פוגשת את תעשיית השפות.
אמצעים טכנולוגיים בתעשיית התרגום לא הוגדרו "כמערכות בסיכון גבוה". כמו למשל, מערכות האחראיות על פעולה של מכונות כבדות, רכבים אוטומטיים בהנעה מרחוק, או מערכות המשפיעות על חייהם של בני אדם באופן ישיר. מערכות כמו למשל אמצעי דירוג אשראי.
אך גם ב"סיכון נמוך" יכולה להיות דרישה לפיקוח נוקשה על המערכות הללו. למשל שימוש במערכות שימנעו "דעה משוחדת של המערכות האוטומטיות". הפעלת "פיקוח אנושי מחייב " על חלק גדול משלבי תהליכים טכנולוגיים. תיעוד ומעקב אחרי פעילות המערכות השונות, לצד חקיקה שתבטיח אבטחת מידע יעילה שתמנע דליפה של מידע פרטי ושימוש לרעה בו.
חלק מההתמודדות החוקית עם מערכות אינטליגנציה מלאכותית בתעשיית השפות דורש מחברות להבהיר לציבור מול מה הוא מתנהל.
אינטליגנציה מלאכותית ותעשיית השפות - הדרישה לשקיפות
הדרישה לשקיפות מחייבת דווקא ככל שהטכנולוגיה משפרת את האינטליגנציה המלאכותית והופכת אותה לקשה לזיהוי על ידי בני אדם. האדם צריך לדעת שכאשר הוא מקבל שירות מסוים או נחשף לתוכן שנכתב במטרה להשפיע על פעולותיו להבין למה הוא נחשף. כלומר, מתי הוא עומד אל מול אדם ששווה לו ומתי הוא עומד מול אינטליגנציה מלאכותית, המאתגרת אותו באופנים שלא חלם עליהם.
למשל רובוטי צ'אט שנותנים לנכנס אליהם שירות בין אם בפייסבוק במייל או באתר החברה. הם נחשבים "סיכון נמוך". בכל זאת, טעויות בהם עלולות לגרום לאי הבנות קשות, לפגיעה בשירות ואף לכישלונן של עיסקאות. לכן אחת הדרישות בחקיקה האירופית היא דרישה לשקיפות.
חובה על ארגונים המשתמשים ברובוטים לניהול צ'אט, או מייצרים תכנים באמצעות כלי יצירת תוכן מונחי אינטליגנציה מלאכותית, לחשוף ברבים שהתכנים אכן נכתבו על ידי מכונה.
רק כאשר אדם יודע מול מה הוא עומד, הוא יכול לבצע החלטה עסקית מושכלת ולשפוט את המידע שהוא נחשף אליו בצורה מאוזנת. לכן החקיקה האירופית דוגלת בשקיפות ומחייבת בכך את יצרני התוכן שנעזרים באינטליגנציה מלאכותית, ואת נותני השירות בתעשיית השפות שגם נעזרים בה כדי ליצור נוכחות עסקית פעילה 24/7 זמינה לכל דרישה.
תוכנות שהופכות נקודות לפסקאות למשל כמו האפליקציה של othersideai יצטרכו להבהיר שהן תוכן שנכתב בידי מכונה. רק בשקיפות זו יאפשר לצרכנים להחליט החלטות מוסמכות על בסיס המידע שברשותם.
לא ברור למשל עם ההצעה תחול גם על תמלילים המופקים מתוכנות תמלול אוטומטיות. אך כיום רוב החברות כבר מציינות דיסקליימר שחושף שתכנים מסויימים תומללו על ידי מכונות. בדיסקליימר זה שיש להתעלם מטעויות שונות שאולי ימצאו בהם ולקרוא אותם באופן ביקורתי.
טכנולוגיות דיפ פייק לא אסורות אלא רק תחת פיקוח מחמיר
ישנו סיכון רב כאשר משתמשים בתוכנות אודיו ויזואליות, כדי ללמד דובר מסוים "לדבר בשפה אחרת". הסיכון העיקרי הוא הפצת חדשות כזב "פייק ניוז" ובכך הכנסת שקרים אפקטיביים לשיח הציבורי. תוכנות שנויות במחלוקת אלו נקראות תוכנות דיבוב סינתטי.
גם בתחום הזה אין איסור על התוכנות הללו אך ישנה דרישה חוקית לשקיפות כאשר משתמשים בהן. זאת כדי למנוע הפצת מידע כוזב. ככל הנראה ישנם הבדלים מהותיים בין דיבוב סינטטי כלומר דיפ פייק קולי לבין דיפ פייק ויזואלי שנחשב למתקדם יותר ולפחות ניתן לזיהוי בשל קידמתו הטכנולוגית.
ישנם אתגרים משמעותיים לגבי השאלה כיצד לאכוף את דרישת השקיפות בשימוש בטכנולוגיות הללו, אך זה כבר לפיתחה של המועצה האירופית.
אם השקיפות היא הדרישה המרכזית מתעשיית התרגום כשמדובר בתוכנות תרגום מכונה על שלל הסוגים והגוונים שלהן זה מעלה דילמות לא פשוטות.
למשל מה יהיה היחס לעבודות שעברו תרגום מכונה ולאחר מכן עברו עריכה אנושית? האם החומר שנוצר מהן הוא "כתב מכונה" או תוצרת אנושית? כיצד יקבעו הסטנדרטים של עריכת תוצרי מכונה? כיצד תישמר ותיאכף הדרישה לשקיפות? איך יעמדו מול הצורך לעמוד במועדי הגשה של לקוחות רבים, אם יגבירו את הליכי הבקרה והפיקוח על תרגום מכונה לרמות שאולי יפגעו בתפוקה?
אין ממש תשובות לשאלות הללו, מפני שלא הייתה להן עדיין התייחסות רצינית וישירה בחקיקה האירופית בנוגע לאינטליגנציה מלאכותית. לכן נחתום את המאמר הזה בקריאה לרשויות המוסמכות להסדיר באופן ישיר וברור את המעמד החוקי של כלי אינטליגנציה מלאכותית בתעשיית השפות.
גילי קימור
מאמרים נוספים שעשויים לעניין אותך
תגובות