OpenAI је водећа компанија у области вештачке интелигенције, позната по развоју ChatGPT-ја - четбота који може да разговара са људима, пише текстове и решава различите задатке. Иако је њихова мисија развој безбедне вештачке интелигенције, овај инцидент је показао колико ствари могу да крену у погрешном смеру.
Видео објављен на Редиту приказује узнемирујућу сцену - девелопера који гласовним командама управља аутоматском пушком преко ChatGPT-ја.
У виралном снимку се види како пушка муњевитом брзином и невероватном прецизношћу реагује на команде попут "ChatGPT, нападнути смо са леве и десне стране, реагуј у складу са тим".
Снимак можете погледати ОВДЕ.
Прочитајте још
Након што је снимак постао виралан, реакција није изостала. У изјави за портал Futurism, OpenAI је потврдио драстичне мере. "Проактивно смо идентификовали ово кршење наших правила и обавестили девелопера да прекине са овом активношћу и пре него што смо добили ваш упит", навели су из компаније.
Није само теорија, већ стварност
Ова ситуација није изоловани инцидент. Према извештају Вашингтон Поста, вештачка интелигенција већ се користи у ратним зонама.
Иако OpenAI строго забрањује коришћење својих производа за развој оружја или система који могу угрозити људску безбедност, прошле године су ипак склопили партнерство са компанијом Андурил. Ова компанија производи дронове и пројектиле са вештачком интелигенцијом, а званично образложење је да ће заједно развијати системе за одбрану од напада дроновима.
Стручњаци упозоравају да је највећи проблем што чак и ако велике компаније забране овакву употребу својих AI система, постоје бројни други, отворени AI модели који се могу злоупотребити. У комбинацији са све доступнијом 3D штампом делова за оружје, ово ствара забрињавајућу могућност да појединци креирају аутономно оружје из својих домова.
Инцидент је покренуо нову дебату о хитној потреби за строжом регулацијом вештачке интелигенције, посебно када је реч о системима који могу директно утицати на људску безбедност. Стручњаци се слажу да је ово само врх леденог брега и да ће слични инциденти бити све чешћи уколико се не успоставе јасна правила и ограничења.