Алгоритъмът посочи датата на смъртта ми, приписа ми постижения и роднини, които нямам, разказва д-р Винт Сърф – главен интернет евангелист на "Гугъл"
„Реших да тествам един чатбот и го помолих да ми напише некролог. Знам, че звучи ужасно, но си помислих: форматът за писане на некролог вече е усвоен от големите езикови модели, които генеративният изкуствен интелект (AI) използва, има много некролози в интернет, хора умират всеки ден, други пишат за това. Може би има и някаква информация за мен – най-малкото в Уикипедия. Значи за чатбота няма да е кой знае какъв проблем да напише разумен некролог. И той наистина го написа. Както бихте очаквали, там имаше нещо такова: „Съжаляваме да съобщим, че доктор Сърф почина." Имаше и дата. Макар че беше в бъдещето, това ме разстрои, разбира се. После обобщаваше кариерата ми, след това добавяше списък с членове на семейството ми. Забелязах обаче, че се пообърка. Пишеше, че съм направил неща, които бяха заслуга на други, а сред членовете на семейството ми имаше имена на роднини, каквито нямам."
Д-р Винт Сърф – един от бащите на интернет, искрено се забавлява, когато разказва своите приключения с изкуствения интелект на няколко журналисти на Форума на лауреатите в Хайделберг през 2023 г.
Разказът му звучи къде иронично, къде сериозно, но идеята е ясна – изкуственият интелект, който ударно завладява света и не слиза от медийните страници в последните години, е нещо по-сложно, непредвидимо и многопластово, отколкото мнозина предполагат.
„Многопластово" може да не е първата, но поне една от думите, които хрумват на човек, който има любопитството да се гмурне в дебрите на AI. По-вероятно първата дума да е друга – „полезно". Изкуственият интелект вече ни отменя в създаването и превеждането на текстове, в превръщането им в реч и обратно, в почистването и затоплянето на домовете ни, скоро може да ни отмени и в карането на коли. Тази мощна технология може да прави (почти) всичко – от текст и изображение до аудио и видео.
Но както винаги, и тук освен добра има и лоша новина – това мило и полезно нещо, което е готово да генерира всичко, което му поръчаш, или да помогне тутакси,
когато му възложиш задача, се оказва
нещо средно между добре възпитано дете и скрит хулиган –
разрушителна мина и дремещ вулкан от клопки, рискове и последици едновременно, за които малцина се замислят. Ако реши, генеративният AI може да ви „снима" на места, на които не сте били никога, и да вкара в устата ви думи, които не сте изричали. И това е най-малкото, което може да ви се случи...
Когато едно пораснало дете се държи зле със света, върши безобразия и най-общо казано излага родителите си пред хората, обикновено казваме, че му липсват първите 7 години.
Много често на изкуствения интелект му липсват доста по-малко от 7 години. Така нареченото машинно обучение, което преминава всеки изкуствен интелект, рядко се радва на лукса да продължава 7 г. То става все по-бързо и по-бързо главно заради огромните бази данни, с които разполагат разработчиците от потока на информация, която ни залива.
Д-р Винт Сърф признава, че не е експерт в тази област,
но предполага, че
„обучението" на един чатбот става по начин, подобен на училищното
Там винаги има обратна връзка от страна на човек – учителя – а механизмът е прост – създават се връзки между отделните елементи, а учителят подсилва това, което изглежда по-необходимо.
В случая с чатбота материалът, необходим за обучението му, се натрупва под формата на фрази и думи. После, в зависимост от това колко често те взаимодействат помежду си в реалния живот, се изгражда гигантска сложна мрежа, която отразява взаимоотношения между тях.
„Това не е многопо-различно от онази част в обучението, когато на децата се дават думи или фрази, в които да попълнят празната буква или дума. После учителят оценява колко добре детето е попълнило празното място. Докато оценява как се справя детето отново и отново, се получават връзки и параметри, които определят как трябва да изглежда крайният резултат", обяснава бащата на интернет.
„Техниката е малко като обучение на куче – прави друга аналогия Андрей Михай от онлайн магазина за наука ZME Science – давате на алгоритъма „лакомства", когато се справя добре, но когато прави нещо, което не искате да прави, му ги отказвате". Така хората помагат на алгоритъма и оформят поведението му.
Дотук – добре. Бедата идва, когато моделите за машинно обучение на генеративния изкуствен интелект, какъвто са чатботовете, губят контекст. „Те не знаят откъде идват всички фрази, които чатботът използва, за да създаде текст. Те не знаят, че една фраза идва от едно място, а друга – от различно. Много често единственото нещо, което ги свързва, е, че са били на една и съща уебстраница, нищо повече. Но чатботът не знае това и ги смесва. Той не знае, че е имало контекст, за да ги раздели", казва д-р Сърф. Затова според него трябва да работим големите модели за обучение да знаят повече за контекста на данните, които използват.
Малцина всъщност са наясно, че ChatGPT, който набра невероятна скорост от 30 ноември 2022 г., когато бе обявен, е обучаван с данни до 2021 г. Затова по-добре не го питайте за събития, които са се случили след това – той просто има много ограничени познания за тях.
Вече сте разбрали – изкуственият интелект не е нищо друго освен
алгоритъм, разработен, като са използвани огромни бази данни
колкото повече, толкова по-добре. Малцина обаче си задават въпроса как работи този алгоритъм, кой го е обучил, какви данни са използвани при това обучение?
Колкото по-голям набор от данни се използва за машинното обучение, колкото тези данни са по-разнообразни и представителни, толкова по-вероятно е да се създадат алгоритми, които са безпристрастни и етични, не поддържат вредни стереотипи или не дискриминират определени групи, а шансът за грешки на изкуствения интелект намалява, обяснява Михай.
И обратно – ако наборът от данни е ограничен, ако е свързан – съзнателно или не – с определени групи, алгоритъмът може да бъде тенденциозен, дори по-лошо – дискриминиращ. Ако един алгоритъм е обучен с набори от данни, съставени предимно от бели мъже, той може неволно да дискриминира жените и цветнокожите, дава пример Михай. Затова той нарича AI „Кутията на Пандора".
.
Накратко всеки алгоритъм зависи от данните, върху които е обучен. „Това е малко като правенето на вино. Без значение колко добър е процесът, който прилагате, ако гроздето е лошо, виното също ще бъде лошо. Можете да подобрите или промените качеството на гроздето, но никога не можете наистина да го премахнете", прави аналогия Михай. И допълва: „AI е инструмент – огледало, което отразява обратно към нас. Ако му предоставим ясен и безпристрастен образ, това ще засили най-добрите ни качества. Но ако го захранваме с нашите недостатъци и пристрастия, то ще ги увеличи."
Вероятно се питате: ако всичко е толкова ясно, просто и логично, какъв е проблемът да се приложи на практика? Отговорът е прост –
зад изкуствения интелект винаги стоят хора със своите пристрастия,
политическа и социална ориентация, цели, намерения и каквото още може да ви хрумне. И колкото повече започваме да разчитаме на алгоритми, толкова по-висок е шансът да станем заложници на пристрастията, заложени в данните, с които са обучавани, дори без да осъзнаваме това.
Експертите всъщност все още не могат да постигнат консенсус кой всъщност трябва да е отговорен за това, което сътворява в своя по-нататъшен живот изкуственият интелект. Компанията, която го е поръчала? Разработчиците, които са го създали? Хората, предоставили данни, за да бъде обучен? Тези, които са подбрали кои от тези данни да бъдат използвани при обучението? Регулаторите, които ще контролират крайния продукт и употребата му?
Отговорът е: всички по малко.
Фирмите, които поръчват, а по-късно ще използват алгоритмите, които командват изкуствения интелект, трябва да са прозрачни за целите, които преследват, и резултатите, които получават.
Учените по данни (Data Scientists – бел. авт. ) са отговорни да гарантират, че данните, които предоставят за т.нар. machine learning – машинното обучение, са достатъчно акуратни и представителни.
Разработчиците на алгоритми трябва във всеки момент да могат да обяснят какви данни са употребили при машинното обучение. Когато има прозрачни и обясними алгоритми, хората ще могат да разберат как изкуственият интелект взема своите решения.
Не по-малка е отговорността на регулаторите, които трябва да гарантират, че тези алгоритми не се използват по начини, които нарушават правата на хората или дискриминират определени групи.
Е, вече разбирате, че има огромен шанс нещо да се пропука по тази дълга, дълга верига.
Ако всичко написано дотук звучи тревожно, поемете спокойно дъх. Оказва се, че дори пионерите на изкуствения интелект не са единни по ключови въпроси дали трябва да се тревожим за съдържанието и знанието, генерирано от машините, умножават ли се рисковете, или учените ще намерят начин да ги овладеят и т.н.
Какво мислят някои от хората, вдъхновили еволюцията и революцията на изкуствения интелект – виж на следващата страница.
AI – бляскаво бъдеще, или "Ферари" в ръцете на 16-годишен?
Забавно, даже поучително е да се чуе колко различно мислят т. нар. пионери на AI по въпроса дали системите за изкуствен интелект не причиняват повече проблеми, отколкото решават, и дали AI не се развива по-бързо, отколкото може да бъде регулиран.
Едно от местата, където се случват тези оживени разговори, е Форумът на лауреатите в Хайделберг, който се провежда всяка година от 2013 г. насам – тоест много преди AI да преживее истински бум.
През септември 2023 г. AI бе една от основните му теми.
„Системите за изкуствен интелект не са надеждни. Те никога няма да бъдат надеждни. Но и
човешките същества не са
надеждни. Защо тогава искате AI да бъде
надежден?", казва в Хайделберг без капка тревога един от пионерите в AI д-р Радж Реди, професор в американския университет „Кернеги Мелън". Той е носител на наградата Turing за проектирането и изграждането на широкомащабни системи с изкуствен интелект. За да смекчи объркването в публиката, Реди простичко заключава: „Някои хора са по-надеждни от други. Мисля, че трябва да приемете същото и за машините."
Той е оптимист, че когато автономните превозни средства бъдат подобрени и започнат да се използват по-широко, смъртните случаи при катастрофи ще намалеят драстично. „AI ще служи като катализатор за персонализирано обучение. Това ще ускори достъпа до образование за по-големи групи от населението.
AI ще позволи на хората да правят 10 пъти повече неща, отколкото могат да направят днес, което означава създаване на 10 пъти повече богатство", оптимист е Реди.
Оптимист е и неговят колега Алексей Ефрос, професор по компютърни науки в университета „Бъркли" в Калифорния.
„Путин и войната в Украйна са много по-страшни от изкуствения интелект
Това е заплаха за цялата демокрация. Или ние ще победим Путин, или Путин ще победи света. Биотероризмът и изменението на климата също са много по-страшни от заплахата от изкуствения интелект", смята Ефрос – носител на наградата на Асоциацията за изчислителна техника за своя новаторски принос в компютърната визуализация. Ефрос е роден и израснал в СССР, но емигрира с родителите си в САЩ, когато е на 13 г.
На коренно противоположното мнение за потенциалните заплахи от изкуствения интелект е Мартин Хелман – друг лауреат на престижната компютърна награда Turing за приноса му към създаването на криптографията – технология, която поддържа сигурната обмяна на информация онлайн. Според Хелман
AI e „заплахата на деня"
заедно с други потенциялни заплахи като ядрените оръжия, генното инженерство и изменението на климата. „Човечеството е като 16-годишно дете с чисто нова шофьорска книжка, което се е сдобило с „Ферари" с 500 конски сили – казва Хелман – Или ще трябва да пораснем бързо, или ще се самоубием".
Хелман не е единственият носител на наградата Turing, който изразява дълбока загриженост за посоката и скоростта, с която се развива AI.
.
Опимист само допреди няколко години, днес в групата на загрижените преминава и един от тримата, смятани за създатели на изкуствения интелект – Йошуа Бенджио от Университета в Монреал. Когато през 2019 г. той получи наградата Turing за създаването на изкуствения интелект заедно с Джефри Хинтън от Университета в Торонто и Ян Лекун от Университета в Ню Йорк, Бенджио каза, че потенциалните екзистенциални рискове на AI са достатъчно далеч в бъдещето, за да не се притеснява.
Четири години по-късно обаче – през юли 2023 г.,
той застана пред Сената на САЩ с тревожно послание: „Революцията на системите за изкуствен интелект дава възможност за огромен напредък и иновации, но също включва широк спектър от рискове...
Трябва да действаме неотложно срещу заплахите,
които някои от проявите на изкуствения интелект носят за демокрацията, обществото и националната сигурност." Според Бенджио „нито една от настоящите усъвършенствани AI системи не е доказуемо безопасна срещу риска от загуба на контрол от неправилно настроен изкуствен интелект".
Йошуа Бенджио си е поставил за цел да работи за преодоляването на пропастта между човешкия и изкуствения интелект. „Всеки месец предлагам нова идея, която може да е ключът към тази бариера. Засега това не се получава, но продължавам да се надявам. Може би не моята група, но друга ще го направи. Може да стане скоро, но може да отнеме 10 години. Когато човек прави проучване, му се струва, че е много близо до решение, но после излиза някакво препятствие, което не сме взели под внимание", обяснява трудната битка Бенджио пред американската журналистка д-р Сюзън д'Агустино.
Някои от лауреатите на престижни награди за математика и компютърни технологии, които идват в Хайделберг, откровено признават, че не са могли да предвидят напълно всички рискове от иновациите, които са създали. Сред тях е д-р Винт Сърф, един от бащите на интернет.
Хенри Кисиднжър ми каза: Мразя интернет!
Бащата на интернет д-р Винт Сърф идва всяка година на Форума на лауреатите в Хайделберг, воден от искрено любопитство да чуе какво мислят не само колегите и приятелите му – носители на най-престижните награди по математика и компютърни технологии, но и 200 прецизно селектирани млади изследователи от цял свят.
„Ние в Google се възползваме пряко от форума в Хайделберг, защото наехме някои от студентите, които идват тук. Те се оказаха първокласни инженери и математици", казва д-р Сърф.
Самият той също е носител на най-престижната награда за компютърни технолигии -Turing – еквивалента на „Нобела" в тази област. „Ако сте се чудили
защо няма „Нобел" за математика
и компютърни науки,
ще ви разкажа една история – може и да не е вярна, но е много добра. Алфред Нобел имал приятелка, която избягала с един математик. Нобел решил, че не иска парите му да отиват при човек, който избягал с приятелката му, ако той получи наградата". Истории като тази го правят всеобщ любимец на всички участници на форума в Хайделберг.
Ето малка част от това, което сподели през септември 2023 г.
Когато създавахте интернет преди повече от
50 г., мислехте ли за потенциалните проблеми, които могат да възникнат?
Никога не можеш да предвидиш начина, по който хората могат да злоупотребят с това, което си изобретил. Със сигурност не съм очаквал част от нещата, на които ставаме свидетели сега, и се опитваме да мислим как да се справим с тях. В началото на 70-те години, когато с моя колега Боб Кан вече работехме по арпанет (предшественика на интернет – бел. авт.), в офиса имахме няколко групи, в които обменяхме информация, включително за най-добрите ресторанти в Пало Алто. Тези групи бяха нещо като предшественик на т.нар. социални мрежи и всъщност бяха много полезни. Това, което не можахме да предвидим обаче, бе възможната негативна страна на подобни групи. Много от проблемите, на които се натъкваме сега, са доказателство за провала на въображението ни. Но в началото нашата главна грижа като инженери бе нещата да работят, нищо друго.
Кой е най-сериозният упрек за технологията, който сте чували?
Преди време една учителка ми се оплака, че децата учат и пишат домашните си само от интернет. Казах ?, че намирам това за чудесен начин да прати децата в библиотеката. Предложих й да им даде 10 сайта, а те да кажат в кои от тези сайтове информацията е вярна и в кои – не. Не знам дали го е направила, но това би било наистина добър начин да се възпита критично мислене. Преди около 10 години обядвах с Хенри Кисинджър. В началото на обяда той ми каза: „Мразя интернет!" Помислих си – дотук бяхме! Но се осмелих да го попитам защо. „Защото хората намират там 2 параграфа и мислят, че знаят всичко, а аз съм написал книга със 700 стр. за това." Критичното мислене включва да сме недоволни от твърде малкото информация или от твърде ниското качество на тази информация.
На форума в Хайделберг през 2022 г. предложихте на шега да има книжка за интернет, както има шофьорска.
Това беше шега наистина. Идеята е да учим децата как да използват интернет безопасно, както ги учим да карат кола. Никой не може да забрани на децата да използват интернет, това става във все по-ранна възраст, затова е добре да се научат от малки как да го използват внимателно и безопасно.
Според едно европейско проучане след 5-6 години 90 на сто от съдържанието в интернет ще е генерирано от изкуствен интелект и ще е трудно да се намери съдържание, генерирано от хора. Смятате ли, че това е преувеличано?
Това е доста плашеща прогноза. Ако направим аналогия с израза, че исторята се пише от победителите, това ще означава, че чатботовете са ни победили. От друга страна, историята, написана от чатботове, може да е по-добра от историята, написана от хора, които са предубедени, ако тези чатботове са обучени без притрастия. Но тогава възниква въпросът: откъде можем да знаем как са обучени ботовете и дали носят пристрастия. Не трябва да мисли, че всяко машинно обучение е лошо, или опасно. Има много
приложения на изкуствения интелект, които могат да вършат фантастична работа.
Важно е да правим разлика за какво се използва изкуственият интелект. Има приложения на високите технолигии, които не са толкова рискови. Но когато става дума за финансов съвет, за поставяне на диагноза, или за лечение – това вече е високорисково приложение. Ние се нуждаем от интелигентно използване на изкуствения интелект.
.
Мислите ли, че хората, които създават системи за изкуствен интелект, получават достатъчно образование по етика в университетите?
Не съм сигурен, че етиката е нещо, което може да се преподава Тя е нещо, което може да се научи. Нямам отговор как може да стане това. Не мисля, че с онлайн курсовете, в които се говори по тази тема за 1 час, това може да се получи. Всеки програмист, който прави софтуер, трябва да има отговорност. Но според мен програмите трябва да се тестват от хора, които не са програмисти. Понякога програмистите се центрират върху технически неща и не се замислят върху неща, които могат да се случат в действителност. Аз съм голям фен на това хора от различни специалности да дават своята гледна точка за някоя технология. Това може да роди много и различни решения на един и същ проблем. От друга страна, нито един софтуерен разработчик не може да предвиди всички последствия,
които могат да се случат от изпозването на един софтуер или една технология. Затова производителите пишат дълги листовки и казват на хората какво да не правят. Да се учи с примери, е много по-продуктивно. Ние трябва да обучаваме етика по този начин. Все повече компании се интересуват от кандидати, които имат отношение към етичната страна и отговорността на технологиите.
Преди няколко години се появи нов клон на знанието – технологията за обществен интерес. Това е приложна технология, която търси социално отговорни решения за предизвикателствата, пред които ни изправят някои от иновациите.
Това ми дава надежда. Сега много хора използват технологиите безкритично, без дори да се замислят и да осъзнават, че тези технологии могат да правят грешки и да са уязвими. Аз се надявам потребителите на интернет да чувстват подтик да проверяват откъде идва информацията не само когато очевидни грешки, като в моя некролог, ги карат да правят това. Надявам се по-често да мислят критично и да започнат да се питат: откъде идва тази информация, има ли потвърждение на твърденията, които получавам. Искам хората да изпитват нужда да валидират тази информация. Понеже някои от ботовете се обучават на базата на това, което се разпространява в интернет, това може да доведе до ограничаване на тази информация, което ще елиминира интернет като място за споделяне на полезна информация .
Германски фотограф върна награда за снимка, която не е направил
Имаме право да знаем кога изкуствен интелект е участвал във вземането на решения.
Германският фотограф Борис Елдагсен отказа престижното отличие Sony World Photo Award с мотива, че наградата му е присъдена за снимка, която не е направил. „Използвах изкуствен интелект, за да генерирам спечелилата снимка", призна фотографът.
„Това беше тест, за да се види дали конкурсите са подготвени за ерата на AI. Не са!", казва по този повод Хенри Айдер през European Science-Media Hub. Айдер съветва правителства и компании, сред които Adobe, Meta и Европейската комисия, за въздействието на AI върху бизнеса и обществото, а също води радиопоредица в BBC, с която образова аудиторията за т. нар. deep fake – генерирането на фалшиво аудио и видеосъдържание – тоест думи, които човек не е изричал.
Според Айдер ни е нужен баланс между вълнението от възможностите, които изкуственият интелект предлага, и осъзнаването, че той не е перфектен и се нуждае от внимателно наблюдение. „В момента сферата на изкуствения интелект е малко като Дивия запад. „Не искаме да го демонизираме изцяло – той има много невероятни приложения. Но са нужни регулации, които да определят къде трябва човек да знае, че изкуствен интелект е участвал във вземане на решение или е генерирал съдържание", обяснява Айдер.
За съжаление обаче, повечето продукти, базирани на AI, не са прозрачни. „Те са черни кутии, създадени от разработчици. Как мога да се доверя на софтуер, за който никой освен неговия производител не знае как работи?", пита се Айдер. Според него вече е сериозен проблем, ако софтуер, базиран на изкуствен интелект, дава правилен резултат само в 90 процента от случаите. Това може да се дължи на данните, използвани за обучение, които съдържат имплицитни отклонения, или е имало намеса от страна на хора. В крайна сметка хората са тези, които трябва да поемат отговорност за всяко решение, взето от AI, смята Айдер.
Автор: Алексения Димитрова
© 2019 MenTrend. Всички права са запазени.
Забранява се възпроизвеждането изцяло или отчасти на материали и публикации, без предварително съгласие на редакцията; чл.24 ал.1 т.5 от ЗАвПСП не се прилага; неразрешеното ползване е свързано със заплащане на компенсация от ползвателя за нарушено авторско право, чийто размер ще се определи от редакцията.
Съвет за електронни медии: Адрес: гр. София, бул. "Шипченски проход" 69, Тел: 02/ 9708810, E-mail: office@cem.bg, https://www.cem.bg/
Коментари