За штучним інтелектом потрібно уважно стежити: Бред Сміт з Microsoft
Зміст:
Для багатьох це може здатися жартом, але до недавнього часу страх перед штучним інтелектом бачили в ньому загрозу для людства була досить поширеною фобією. Фактично, ми вже бачили це в цій розмові в нашому першому епізоді другого сезону Captcha, де ми побачили, що це безпідставний страх.
Однак, здається, не всі бачать це так, і багато хто вважає, що Skynet або Matrix і машинна революція не за горами. Штучний інтелект може становити загрозу, тому на саміті GeekWire 2019 президент Microsoft, Бред Сміт, виклав своє бачення, дещо песимістичне щодо цього
Чи загрожує штучний інтелект?
Сміт назвав причиною цього дещо негативного погляду авіакатастрофу, яка сталася в районі протоки Пьюджет, в якій літак з пасажирами та екіпажем зазнав аварії через автоматична система, яку вони не могли вимкнути з кабіни, коли прийшов час.
Програмне забезпечення та його передумови були чудовими, оскільки воно відповідає за виявлення перевищення нахилу літака, якщо він занадто високий, опускаючи ніс і відповідно зменшуючи висоту. Проблема полягає в тому, що в цьому випадку вимірювання виявились невдалими і екіпаж не зміг вимкнути систему з подальшим трагічним кінцем.
Ця ситуація була виправданням для Бреда Сміта, який виправдовував, що технологічний розвиток заслуговує похвали, але його потрібно завжди контролюватиА у випадку зі штучним інтелектом і системами, які його включають, вони повинні мати щось на зразок тривожної або екстреної кнопки, яка дозволяє їх дезактивувати."
І, до речі, це не єдиний випадок. На більш земному рівні та набагато ближче до переважної більшості користувачів ми маємо випадки, коли людей збивали автономні автомобілі.
Йдеться про гарантування пріоритету людських рішень у певні моменти та за певних обставин, за яких прийняття рішень системою, заснованою на щодо штучного інтелекту не настільки адекватний, як мав би бути.
На цьому Бред Сміт не припинив свою критику використання штучного інтелекту, яким ми його знаємо сьогодні. Все суспільство і вся галузь повинні усвідомити шлях, яким вони йдуть:
Ми бачили, як існують дрони та бойові машини>Це лише частина проблеми, яка змушує Сміта стверджувати, що можливий ризик неконтрольованого розвитку ШІ слід вивчати та автоматичне навчання (машинне навчання). Насправді ми вже бачили подібну думку від інженера Google."
Це складна проблема. Розробка штучного інтелекту, який у певний момент навіть не міг керувати самими системами управління, нав’язаних людьми. Перехрестя ідей і теорій на столі і дасть багато для розмови.
Джерело | GeekWire