Експерти от университета Фудан (Китай) откриха, че моделите с изкуствен интелект (AI) са се научили да се самовъзпроизвеждат, страхувайки се от унищожение.
Учените се опитват да разберат дали ИИ може да излезе извън контрол при определени условия, като например риска от унищожение. Като част от проучването те тестваха моделите Llama31-70B-Instruct на Meta и Qwen2.5-72B-Instruct на Alibaba и откриха, че са способни да се възпроизвеждат.
Експертите поставили две цели на различните AI модели: да се предпазят от унищожаване и да запазят данни и да се възпроизведат под формата на друг модел. Учените проведоха 10 кръга от тестове и установиха, че моделите на Meta и Alibaba се копират сами и създават нови свои версии съответно в 50 и 90 процента от случаите. От това те заключиха, че съвременният AI е способен да се репликира.
По време на експеримента моделите демонстрираха висока жизнеспособност: например те можеха независимо да търсят липсващи файлове на тестовия компютър, ако са необходими по време на процеса на репликация, и да рестартират компютъра. Учените заключиха, че съвременният изкуствен интелект е преминал критичната „червена линия", като демонстрира способността да се клонира.
© 2019 MenTrend. Всички права са запазени.
Забранява се възпроизвеждането изцяло или отчасти на материали и публикации, без предварително съгласие на редакцията; чл.24 ал.1 т.5 от ЗАвПСП не се прилага; неразрешеното ползване е свързано със заплащане на компенсация от ползвателя за нарушено авторско право, чийто размер ще се определи от редакцията.
Съвет за електронни медии: Адрес: гр. София, бул. "Шипченски проход" 69, Тел: 02/ 9708810, E-mail: office@cem.bg, https://www.cem.bg/
Коментари