Норми щодо штучного інтелекту все ще обмежені. У 2019 році їх було менше 100 і більше половини були документами приватних компаній. Європейський Союз продовжує працювати над Законом про штучний інтелект (AI). Перша версія вийшла рік тому, але розчарувала надто консервативним підходом до безпеки даних.
Однак багато компаній активно розробляють технології на основі ШІ. Це, у свою чергу, вимагає від них створення правил поведінки при створенні алгоритмів. Щойно компанія Microsoft випустила другу версію внутрішнього документа, який регулює ці питання.
Microsoft оголосила, що, створюючи нову структуру для відповідального програмування штучного інтелекту, вона шукала знання вчених і спеціалістів за межами компанії, які займаються цією темою. Тому було вирішено вдатися до серйозних кроків, – пише “The Guardian”. Компанія каже, що застосує відповідні рішення, розглядаючи баланс прибутків і збитків, які може принести використання такої потужної технології.
Більше інформації зі світу на домашній сторінці Gazeta.pl
Перш за все, Microsoft обмежить використання інструменту Azure Face. Його використовували, серед інших Uber для підтвердження користувача. Тепер доступ до інструменту буде обмежено. Щоб використовувати його, вам знадобиться згода компанії, видана на підставі заявки, в якій ви повинні довести, що використання буде відповідати етичним стандартам використання ШІ Microsoft.
Більш того, американська компанія також має відмовитися від елементів алгоритму Azure Face, які відповідають за розпізнавання емоцій і таких характеристик, як стать або вік. Після кількох досліджень і консультацій Microsoft дійшла висновку, що на неї сильно впливають контекстуальні та культурні чинники, а вчені навіть не дійшли згоди щодо визначення емоцій. Однак ця технологія все одно буде використовуватися, наприклад, в інструменті Seeing AI, який буде використовуватися для словесного опису світу людьми з проблемами зору.
В тому числі з цієї причини доступ до інструментів розпізнавання мовлення буде обмежено. Дослідження 2020 року показало, що у випадку з темношкірими людьми та людьми африканського походження помилки траплялися вдвічі частіше, ніж у випадку з білими. Це змусило Microsoft зрозуміти, що їй потрібно активізувати зусилля та змінити спосіб створення баз даних для включення всіх соціальних груп. Компанія також хоче розробити метод отримання даних, який буде поважати та залучати до цього процесу представників небілих груп.
Крім того, буде обмежено використання Custom Neural Voice, який використовується для перетворення тексту в мову. Інструмент також дозволяє створювати штучне мовлення, яке звучить як будь-який обраний вами голос. AT&T використав цю технологію, щоб створити голос Багза Банні для інтерактивної гри. У цьому випадку Microsoft хоче запобігти шахрайству, яке може бути вчинене за допомогою цієї технології.
Алгоритми СІ мають дуже великі можливості. Проте до загального штучного інтелекту, тобто такого, що досяг обізнаності, нам ще далеко. Однак тут також варто згадати, що нещодавно один з інженерів Google Блейк Лемуан заявив в Інтернеті, що створена в компанії система LaMDA відома.
Співробітника попросили запитати чат-бота про його почуття, і чат-бот заявив, що він іноді був сумним або щасливим. Припущення, що це ознака самосвідомості, заперечують інші співробітники компанії. Google призупинив Lemoin через цю ситуацію.