top of page
DALL·E 2024-05-23 17.26.27 - A dynamic and engaging cover picture for a YouTube video titl

חדשות הבינה המלאכותית

כתבות ונושאים חמים מהתחום

חיפוש

עמיתים Open AI מזהירים: מרוץ הבינה המלאכותית עשוי להוביל להכחדת האנושות - אילון מאסק תוקף את הגישה של אפל לבינה מלאכותית

  • Barak Bar hen
  • 13 ביוני 2024
  • זמן קריאה 3 דקות

מחשב הממחיש את הסכנות הפוטנציאליות של מרוץ לפיתוח הבינה המלאכותית, עם אילון מאסק ומכשירי אפל ברקע
התראה על הסכנות הפוטנציאליות של מרוץ לפיתוח הבינה המלאכותית - אילון מאסק תוקף את הגישה של אפל ל-AI.

בצעד נועז ומדאיג, קבוצת עובדים נוכחיים ולשעבר של OpenAI יצאה באזהרה חדה על הסכנות הפוטנציאליות של מרוץ בלתי מוסדר לפיתוח הבינה המלאכותית (בינה מלאכותית - AI). הקבוצה, הכוללת חמישה עובדים לשעבר ב-OpenAI, עובד נוכחי ועובד לשעבר ב-Google DeepMind, ארבעה עובדים נוכחיים ב-OpenAI ושני עובדים לשעבר ב-OpenAI שלא נחשפו, הביעה דאגות במכתב פתוח שפורסם באתרrighttowarn.ai.

המכתב מפרט סדרת סיכונים חמורים הקשורים לפיתוח המואץ של טכנולוגיות AI. סיכונים אלו כוללים העמקת אי-השוויון הקיים, הפצת מניפולציה ודיסאינפורמציה, והאפשרות לאבד שליטה על מערכות AI אוטונומיות, מה שעלול להוביל בסופו של דבר להכחדת האנושות.

הדאגות המרכזיות:

הדאגה העיקרית של הקבוצה היא היעדר פיקוח ורגולציה אפקטיבית בתחום הבינה המלאכותית. הם טוענים שחברות הבינה המלאכותית, המונעות על ידי תמריצים כספיים, לעיתים קרובות מעדיפות פיתוח מהיר והטמעה על פני אמצעי בטיחות מקיפים. המכתב מציין, "חברות הבינה המלאכותית עצמן הכירו בסיכונים אלו, כמו גם ממשלות ברחבי העולם ומומחים אחרים בתחום. אנו מקווים שסיכונים אלו יוכלו להיות מנוהלים באופן הולם עם הנחייה מספקת מהקהילה המדעית, מקובעי המדיניות ומהציבור."

אחד מהחותמים, דניאל קוקוטיילו, חוקר לשעבר במחלקת הממשל של OpenAI, הביע את דאגותיו בצורה מפורשת יותר בראיון עם הניו יורק טיימס. קוקוטיילו ציין ש-OpenAI נחושה להיות הראשונה לפתח בינה כללית (AGI), סוג של AI שיכול לבצע כל משימה אינטלקטואלית שאדם יכול לעשות. עם זאת, הוא מתח ביקורת על החברה בטענה שהיא "רצה ללא אבטחה הולמת" לעבר מטרה זו.

תחזיות וסיכויים:

קוקוטיילו חזה בתחילה ש-AGI תושג עד שנת 2050, אך הוא מאמין כעת שיש סיכוי של 50% שזה יקרה עד 2027. הוא גם העריך שיש סיכוי של 70% ש-AI מתקדמת תגרום לנזק קטסטרופלי לאנושות. שינוי זה בזמנים מדגיש את הקצב המהיר של התקדמות ה-AI ואת הדחיפות הגוברת לצורך ברגולציה אפקטיבית.

קריאה לפיקוח ממשלתי:

המכתב מדגיש שחברות AI לא יכולות להיות אמינות על פיקוח עצמי בגלל האינטרסים שלהן. במקום זאת, המחברים קוראים לפיקוח ממשלתי מחמיר כדי להבטיח שהפיתוח של טכנולוגיות AI לא יעלה על יישום פרוטוקולי הבטיחות הנדרשים.

OpenAI השיבה לדאגות אלו באישור המחויבות שלה לבטיחות ורגולציה. דובר מ-OpenAI ציין, "אנו גאים בתקליט שלנו של סיפוק המערכות הבינה המלאכותית הכי מתקדמות ובטוחות ביותר ומאמינים בגישתנו המדעית לטיפול בסיכונים. אנו מסכימים שדיון מעמיק הוא קריטי לאור חשיבות הטכנולוגיה הזו ונמשיך לעסוק עם ממשלות, החברה האזרחית וקהילות אחרות ברחבי העולם."

חשיבות הגנות חושפי שחיתויות:

הקבוצה גם הדגישה את הליקויים בהגנות חושפי השחיתויות הנוכחיות. הסכמי סודיות לעיתים קרובות מונעים מעובדים לדבר, והגנות חושפי שחיתויות מסורתיות לא חלות על התחום הבלתי מוסדר של AI. הפער הזה משאיר את העובדים שרוצים להעלות דאגות במצב פגיע.

הדרך קדימה:

לאור אזהרות אלו, ברור שהמרוץ לפיתוח AI צריך להיות מתון עם התחשבות זהירה בסיכונים הפוטנציאליים. מקובעי המדיניות, הקהילה המדעית והציבור צריכים לשתף פעולה כדי ליצור מסגרות רגולטוריות חזקות שיכולות להתאים לקצב ההתקדמות הטכנולוגית. בלי אמצעים כאלה, הפיתוח הבלתי מבוקר של AI יכול להוביל לתוצאות חמורות הרבה יותר מכל התועלות שהוא עשוי להביא.

מסקנה:

האזהרה מעובדי OpenAI משמשת כתזכורת קריטית על הסיכון הגבוה הכרוך בפיתוח הבינה המלאכותית. כאשר אנו מתקדמים, איזון בין חדשנות לאחריות יהיה המפתח להבטחת עתיד בטוח ומועיל לכלל האנושות.

Doctor AI, חברה שמחויבת לשימוש בבינה מלאכותית כדי לשפר את החיים, מהדהדת את הקריאה לרגולציה מקיפה של AI כדי למנוע את הסכנות הפוטנציאליות שהודגשו על ידי עובדי OpenAI. על ידי שילוב ה-AI באופן אחראי במגזרים שונים, Doctor AI שואפת להציע פתרונות חדשניים תוך שמירה על דגש על בטיחות ואתיקה.

אילון מאסק תוקף את הגישה של אפל לבינה מלאכותית:

ביום שני, אילון מאסק איים לאסור את השימוש במכשירי אפל בחברות שלו אם ענקית הטכנולוגיה תשולב את OpenAI ברמת מערכת ההפעלה.

בכתיבה על X, מנכ"ל טסלה כינה את הפרספקטיבה "הפרה אבטחה בלתי מתקבלת על הדעת". מאסק ציין שאם יישם את האיסור, המבקרים יצטרכו לבדוק את מכשירי האפל שלהם "בכניסה, שם הם יישמרו בכלוב פאראדיי".

ההערות הגיעו לאחר שאפל הודיעה על סדרת תכונות AI באפליקציות ומערכות ההפעלה שלה, ושיתוף פעולה עם OpenAI להביא את טכנולוגייתChatGPT למכשיריה.

אפל ציינה שהיא פיתחה AI עם פרטיות "בליבה" והיא תשתמש בשילוב של עיבוד במכשיר ומחשוב ענן כדי להפעיל תכונות אלו.

מאסק אמר שזה "אבסורד מוחלט שאפל אינה חכמה מספיק ליצור את הבינה המלאכותית שלה, אך היא איכשהו מסוגלת להבטיח ש-OpenAI תגן על האבטחה והפרטיות שלך!"


תחת הציוץ צויין שאפל יצרה את הבינה המלאכותית שלה הנקראת "Apple Intelligence" ו-ChatGPT הוא "תכונה נוספת בתוךApple Intelligence, מוגבלת לסירי וכלי כתיבה ותדרוש אישור מהמשתמש לכל שימוש".

מאסק תבע את OpenAI, אותה ייסד בשנת 2015, ואת מנכ"ל החברה סם אלטמן בתחילת מרץ, בטענה שנטשו את המשימה המקורית של הסטארט-אפ לפתח AI לטובת האנושות ולא לרווח.

הוא גם ייסד סטארט-אפ משלו, xAI, בניסיון לאתגר את OpenAI ולבנות אלטרנטיבה לצ'אטבוט הוויראלי ChatGPT.

xAI הוערכה ב-24 מיליארד דולר בסבב המימון האחרון שלה, בו גייסה 6 מיליארד דולר במימון סדרה B.

 

 
 

הבהרה:

המידע באתר זה הוא למטרות מידע כללי בלבד. כל המידע באתר מועבר בתום לב, אך אנו לא נותנים כל ייצוג או אחריות, מפורשת או משתמעת, בנוגע לדיוק, המספיקות, התוקף, האמינות, הזמינות או השלמות של כל מידע באתר. בכל מקרה לא תהיה לנו כל אחריות כלפיכם על כל אובדן או נזק מכל סוג שיכול להיגרם כתוצאה משימוש באתר או הסתמכות על כל מידע המופיע בו. שימושכם באתר והסתמכותכם על כל מידע באתר היא על אחריותכם בלבד.

דוקטור AI

המדריך האישי שלכם לשילוב קל וטבעי של בינה מלאכותית בחיי היום יום שלכם. אנו מבינים שהבינה המלאכותית עשויה להיראות מורכבת או מבלבלת, ומשימתנו היא לחזק אתכם באמצעות כלים ומשאבי AI קלים לשימוש שיעשירו את חייכם האישיים והמקצועיים.

קרא עוד

דוקטור אי איי Doctor AI

© כל הזכויות שמורות ל-DoctorAi, אין לעשות כל שימוש ביצירות ללא קבלת רשות | עיצוב ובניית אתר: קריאטיבו

bottom of page