צוות אוניברסיטת קיימברידג 'להעריך את הסיכון הנשקף לאנושות על ידי בינה מלאכותית

Anonim

צוות אוניברסיטת קיימברידג 'להעריך את הסיכון הנשקף לאנושות על ידי בינה מלאכותית

מדע

כריס ווד

28 בנובמבר 2012

צוות קמברידג 'יעבוד על מנת להעריך את הסיכונים הטכנולוגיים הנישאים לאנושות (תמונה: Shutterstock)

צוות של מדענים, פילוסופים ומהנדסים יקים את המרכז החדש לחקר הסיכון הקיומי (CSER) באוניברסיטת קיימברידג 'שבממלכה המאוחדת. הצוות יחקור את ההתפתחויות העיקריות בטכנולוגיה, תוך הערכה של "איומים ברמת ההכחדה" על האנושות. המפתח ביניהם הוא האפשרות של יצירת אינטליגנציה כללית מלאכותית, אירוע שיש לו את הפוטנציאל התיאורטי להשאיר את האנושות מאחור לנצח.

מכונה העולה על האינטליגנציה האנושית, עם היכולת ליצור תוכניות מחשב וטכנולוגיות משלה, נקראת מודיעין כללי מלאכותי (AGI). זה רעיון שהיה במקור esposed בשנת 1965 על ידי מתמטיקאי, קריפטוגרף ומדען המחשב אירווינג ג 'ון "ג' ק " טוב, ואחד כי יש לעתים קרובות למצוא בית מדע בדיוני. מתואר על ידי Hew מחיר כמו הרגע שבו "המודיעין בורח את אילוצי הביולוגיה, " הופעתו של AGI היה לסמן את הנקודה שבה האנושות חדלה להיות הישות הכי אינטליגנטי על פני כדור הארץ, ולכן, יהיה (פוטנציאל) כבר לא להיות הכוח העיקרי "המגדיר את העתיד".

ג 'אן טאלין, מייסד שותף של התקשורת אבן הפינה סקייפ, דן בחשיבות של זה, וקבע כי באמצעות הבנה של מניפולציה של הטכנולוגיה, האנושות "תפס את המושכות מ 4 מיליארד שנים של אבולוציה טבעית ... [ו] על ידי ו גדולה, החליפה את האבולוציה ככוח הדומיננטי, המעצב את העתיד ". צריך רק להסתכל על ההשפעה שלנו על הפלנטה כדי לקבל מושג על מה שעלול לקרות אם לא היינו עוד הכוח העולמי הדומיננטי.

יתר על כן, האיום של AGI אינו תנאי מקדים על קיומו של עוינות. המחיר נותן את הדוגמה של האוכלוסייה יורדת גורילה. איום ההכחדה אינו נישא בעוינות האנושית, אלא קיים באמצעות המניפולציה שלנו על הסביבה בדרכים שמתאימות לנו בצורה הטובה ביותר. זה פעיל, אם כי לא בכוונה, פועל על חשבון ההישרדות שלהם. בהיותה כוח אינטליגנטי יותר, AGI יש פוטנציאל ליצור פרדיגמה דומה בין עצמה לבין האנושות.

למרות שזה סביר כי אנחנו עדיין במרחק של מהמצאת מחשב זה סופר אינטליגנטי, המחקר האחרון יש לשפוך קצת אור על כמה שזה אפשרי. בשנה שעברה, MIT ביצע ניסוי כדי לאמוד מחשבים 'היכולת ללמוד שפות. במבחן, שני מחשבים התבקשו לבצע שתי משימות לא מוכרות בעזרת העזרה בלבד. חמושים רק עם קבוצה של פעולות אפשריות ולא הבנה מוקדמת של שפת ההוראות או את המשימות עצמן, אחד המכונות היה מסוגל להשלים את המשימה של התקנת פיסת תוכנה עם רמת דיוק של 80 אחוזים. השני היה מסוגל ללמוד לשחק את המשחק אסטרטגיה, סיד Meier 's ציביליזציה השנייה, זוכה מרשים 79 אחוזים של משחקים זה שיחק.

זוהי רק דוגמה אחת של מחקרים רבים על בינה מלאכותית, עם אוניברסיטאות כגון סטנפורד ביצוע תוכניות מחקר בנושא. בעולם שבו כוחו של שבבי המחשוב מכפיל כל שנתיים וכמעט הכל נשלט על ידי הטכנולוגיה, זה סביר שנראה תוכניות מחקר כגון אלה להאיץ באופן משמעותי.

אפילו עם ראיות אלה, הרעיון של AGI עדיין עשוי להיראות קצת יותר מדי מדע בדיוני, שיש לקחת ברצינות. הצוות ב CSER סבור כי זהו חלק מהנקודה, וקבע כי "עד כה - כיום מבינים היטב - כי ישנם סיכונים משמעותיים, זה סכנה נוספת אם הם נשארים מסיבות סוציולוגיות אלה מחוץ לתחום של רצינית ".

החוקרים לא יתמקדו אך ורק במניעת אסון של סקיינט, אלא יסתכלו גם על מספר מקרים אחרים שמציבים איומים על האנושות, כולל התפתחויות בביו-ננוטכנולוגיה והשפעות שינויי אקלים קיצוניים.

הם אולי לא להיות נוקמים, אבל אולי בעתיד ירגיש קצת יותר בטוח עכשיו כי CSER יש את הגב שלנו.

מקור: אוניברסיטת קיימברידג '

צוות קמברידג 'יעבוד על מנת להעריך את הסיכונים הטכנולוגיים הנישאים לאנושות (תמונה: Shutterstock)