Microsoft предупреди за сериозни рискове, свързани с използването на изкуствен интелект (AI). Това се посочва в ново проучване на компанията.
В проучването Microsoft анализира повече от 100 генеративни AI инструмента и идентифицира присъщите рискове за сигурността, свързани с тяхното използване. Компанията казва, че AI „никога няма да бъде напълно безопасен", подчертавайки необходимостта от строг контрол върху това как се обучават езиковите модели (LLM) и проактивни усилия за предотвратяване на грешки.
Microsoft, самата разработчик и интегратор на много AI продукти, включително Bing Chat, GitHub Copilot, Power BI и Azure AI, признава високото ниво на отговорност, свързано с разработването на тази технология. Ето защо компанията активно инвестира ресурси в изследвания на безопасността на AI.
Големите езикови модели (LLM) според изследователите не само увеличават съществуващите рискове, но и създават нови. Обучението на LLM за неправилни или чувствителни данни кара моделите да разпространяват тази информация сред потребителите. Освен това потенциалната вреда от ИИ се оценява като трудна за прогнозиране.
За да подобри сигурността, Microsoft препоръчва строг надзор на всеки етап от обучението по LLM. Те подчертават критичната роля на човешкия фактор, както и необходимостта от привличане на специалисти с дълбоки познания в областта, висока културна компетентност и развита емоционална интелигентност за работа с изкуствен интелект.
© 2019 MenTrend. Всички права са запазени.
Забранява се възпроизвеждането изцяло или отчасти на материали и публикации, без предварително съгласие на редакцията; чл.24 ал.1 т.5 от ЗАвПСП не се прилага; неразрешеното ползване е свързано със заплащане на компенсация от ползвателя за нарушено авторско право, чийто размер ще се определи от редакцията.
Съвет за електронни медии: Адрес: гр. София, бул. "Шипченски проход" 69, Тел: 02/ 9708810, E-mail: office@cem.bg, https://www.cem.bg/
Коментари