Tudomány-Tech

Annyira emberi lett a robot hangja, hogy nem merik nyilvánosságra hozni

rtl.hurtl.hu

2024. július 15. 7:04

A Microsoft olyan mesterséges intelligenciás eszközt fejlesztett ki, amely hátborzongató pontossággal képes az emberi beszédet utánozni. Annyira meggyőző lett, hogy a technológiai óriás nem hajlandó megosztani a nyilvánossággal, a visszaélések potenciális kockázataira hivatkozva.

A VALL-E 2 névre keresztelt eszköz egy szöveget beszéddé alakító generátor, amely 

mindössze néhány másodpercnyi hang alapján képes hangot utánozni. 

Az eszközt úgy alkották meg, hogy anélkül ismerje fel a fogalmakat, hogy előzetesen példákat kapna róluk. A Microsoft szerint a VALL-E 2 első a maga nemében, mert túlszárnyalja az emberi hasonlóságra vonatkozó referenciaértékeket – írja a TheSun. A Microsoft fejlesztői szerint a VALL-E 2 képes „pontos, természetes beszédet létrehozni az eredeti beszélő hangján”, mégpedig az emberi beszédhez megtévesztésig hasonlóan. A rövid mondatok mellett összetett mondatokat is képes szintetizálni. 

Ehhez az eszköz két funkciót használ: a dekódolás során blokkolja az ismétlődő hangokat vagy kifejezéseket, így a szintetikus beszédet változatosabbá és természetesebbé teszi. A csoportosított kódmodellezés pedig a gyorsaságért felel. A kutatók a VALL-E 2-t két angol nyelvű adatbázis hangmintáival hasonlították össze. Emellett a zérószöveges szöveg-beszéd szintézis az ELLA-V nevű értékelési keretrendszerét is használták annak megállapítására, hogy a VALL-E mennyire jól kezelte az összetettebb feladatokat.

Az eredményeket összefoglaló június 17-i tanulmány szerint a rendszer jócskán felülmúlta versenytársait a beszéd természetességét és a beszélő hangjához való hasonlóság terén. A Microsoft azt állítja, hogy a VALL-E 2 a közeljövőben nem kerül a nyilvánosság elé, azt tisztán kutatási projektnek tekintik.

Jelenleg nem tervezzük a VALL-E 2 termékbe való beépítését vagy a nyilvánosság számára való hozzáférést. A modell visszaélésszerű használata potenciális kockázatokat hordozhat, például a hangalapú azonosítás meghamisítása vagy egy adott beszélő megszemélyesítése miatt

– írta a vállalat a weboldalán. Sőt: egy online portálon keresztül jelenteni is lehet, ha valaki azt gyanítja, hogy visszaéltek a Microsoft eszközével. 

A Microsoft aggodalmai teljesen jogosak

A kiberbiztonsági szakértők tapasztalatai szerint idén ugrásszerűen nőtt a mesterséges intelligencia alapú eszközökkel való rosszindulatú visszaélések gyakorisága. Ezen belül a a beszédet utánzó algoritmusok is egyre gyakrabban válnak eszközzé a bűnözők kezében.

Vishingnek nevezik azt a fajta visszaélést, amikor a csalók barátoknak, családtagoknak vagy más megbízható feleknek adják ki magukat telefonon keresztül,

és így csalnak ki például pénzt áldozataiktól, vagy veszik rá őket személyes adataik átadására. 

A hanghamisítás akár nemzetbiztonsági kockázatot is jelenthet. Januárban egy Joe Biden elnök hangját használó robothívás arra szólította fel a demokratákat, hogy ne szavazzanak a New Hampshire-i előválasztáson. 

Milyen érvek szólnak a mesterséges intelligencia ellen?

A mesterséges intelligencia növekvő használata számos területen vet fel aggasztó kérdéseket. Egyes iparági szakértők arra figyelmeztetnek, hogy bár az AI új feladatokat is kreál a munkaerőpiacon, ennél jóval több munkakör megszűnéséért is felelős lesz. Sok művész és író szerint etikai problémák vannak vele, mivel a generatív AI-eszközöket az ő munkájukra képzik ki, miközben ő munkáikból tanulnak. Ugyanis amikor az AI-t kiképzik, a tanulandó tartalom nagy része az internetről származik.  

Az adatvédelemmel sincs minden rendben. Az aggodalmak akkor merültek fel, amikor a Meta bemutatta mesterséges intelligenciával működő asszisztenseit olyan platformokon, mint a Facebook és az Instagram. 2016-ban az EU-ban jogszabály született a személyes adatok védelmére, és hasonló törvények vannak készülőben az Egyesült Államokban is.

Veszélyesek lehetnek a téves információk is. Mivel a mesterséges intelligencia eszközei az internetről merítenek információkat, előfordulhat, hogy kiragadnak dolgokat a kontextusból, vagy értelmetlen válaszokat adnak. Az olyan eszközöknél, mint a Bing Copilot és a Google generatív mesterséges intelligencia, mindig számolni kell a tévedés veszélyével. Egyes kritikusok szerint halálos következményekkel járhat, ha például a mesterséges intelligencia rossz egészségügyi információkkal látja el a felhasználókat.

A vállalatot a felhasználók is kritizálják

A Recall mesterséges intelligencia asszisztens megjelenését a múlt hónapban határozatlan időre elhalasztották. A Microsoftra záporoztak a kritikák a felhasználóktól és az adatvédelmi szakértőktől, például az Egyesült Királyságban az Információs Biztos Hivatalától, miután az alkalmazás a userek minden mozdulatát elmentené. A vállalat nem kívánt nyilatkozni arról, hogy az eszköz biztonsági kockázatot jelent-e.

Nyitókép (illusztráció): Pexels

#Tudomány-Tech#ai#mesterséges intelligencia#hang#robot#microsoft#csalás#technika

Címlapról ajánljuk