Annyira emberi lett a robot hangja, hogy nem merik nyilvánosságra hozni
2024. július 15. 7:04
A Microsoft olyan mesterséges intelligenciás eszközt fejlesztett ki, amely hátborzongató pontossággal képes az emberi beszédet utánozni. Annyira meggyőző lett, hogy a technológiai óriás nem hajlandó megosztani a nyilvánossággal, a visszaélések potenciális kockázataira hivatkozva.
A VALL-E 2 névre keresztelt eszköz egy szöveget beszéddé alakító generátor, amely
mindössze néhány másodpercnyi hang alapján képes hangot utánozni.
Az eszközt úgy alkották meg, hogy anélkül ismerje fel a fogalmakat, hogy előzetesen példákat kapna róluk. A Microsoft szerint a VALL-E 2 első a maga nemében, mert túlszárnyalja az emberi hasonlóságra vonatkozó referenciaértékeket – írja a TheSun. A Microsoft fejlesztői szerint a VALL-E 2 képes „pontos, természetes beszédet létrehozni az eredeti beszélő hangján”, mégpedig az emberi beszédhez megtévesztésig hasonlóan. A rövid mondatok mellett összetett mondatokat is képes szintetizálni.
Ehhez az eszköz két funkciót használ: a dekódolás során blokkolja az ismétlődő hangokat vagy kifejezéseket, így a szintetikus beszédet változatosabbá és természetesebbé teszi. A csoportosított kódmodellezés pedig a gyorsaságért felel. A kutatók a VALL-E 2-t két angol nyelvű adatbázis hangmintáival hasonlították össze. Emellett a zérószöveges szöveg-beszéd szintézis az ELLA-V nevű értékelési keretrendszerét is használták annak megállapítására, hogy a VALL-E mennyire jól kezelte az összetettebb feladatokat.
Az eredményeket összefoglaló június 17-i tanulmány szerint a rendszer jócskán felülmúlta versenytársait a beszéd természetességét és a beszélő hangjához való hasonlóság terén. A Microsoft azt állítja, hogy a VALL-E 2 a közeljövőben nem kerül a nyilvánosság elé, azt tisztán kutatási projektnek tekintik.
Jelenleg nem tervezzük a VALL-E 2 termékbe való beépítését vagy a nyilvánosság számára való hozzáférést. A modell visszaélésszerű használata potenciális kockázatokat hordozhat, például a hangalapú azonosítás meghamisítása vagy egy adott beszélő megszemélyesítése miatt
– írta a vállalat a weboldalán. Sőt: egy online portálon keresztül jelenteni is lehet, ha valaki azt gyanítja, hogy visszaéltek a Microsoft eszközével.
A Microsoft aggodalmai teljesen jogosak
A kiberbiztonsági szakértők tapasztalatai szerint idén ugrásszerűen nőtt a mesterséges intelligencia alapú eszközökkel való rosszindulatú visszaélések gyakorisága. Ezen belül a a beszédet utánzó algoritmusok is egyre gyakrabban válnak eszközzé a bűnözők kezében.
Vishingnek nevezik azt a fajta visszaélést, amikor a csalók barátoknak, családtagoknak vagy más megbízható feleknek adják ki magukat telefonon keresztül,
és így csalnak ki például pénzt áldozataiktól, vagy veszik rá őket személyes adataik átadására.
A hanghamisítás akár nemzetbiztonsági kockázatot is jelenthet. Januárban egy Joe Biden elnök hangját használó robothívás arra szólította fel a demokratákat, hogy ne szavazzanak a New Hampshire-i előválasztáson.
Milyen érvek szólnak a mesterséges intelligencia ellen?
A mesterséges intelligencia növekvő használata számos területen vet fel aggasztó kérdéseket. Egyes iparági szakértők arra figyelmeztetnek, hogy bár az AI új feladatokat is kreál a munkaerőpiacon, ennél jóval több munkakör megszűnéséért is felelős lesz. Sok művész és író szerint etikai problémák vannak vele, mivel a generatív AI-eszközöket az ő munkájukra képzik ki, miközben ő munkáikból tanulnak. Ugyanis amikor az AI-t kiképzik, a tanulandó tartalom nagy része az internetről származik.
Az adatvédelemmel sincs minden rendben. Az aggodalmak akkor merültek fel, amikor a Meta bemutatta mesterséges intelligenciával működő asszisztenseit olyan platformokon, mint a Facebook és az Instagram. 2016-ban az EU-ban jogszabály született a személyes adatok védelmére, és hasonló törvények vannak készülőben az Egyesült Államokban is.
Veszélyesek lehetnek a téves információk is. Mivel a mesterséges intelligencia eszközei az internetről merítenek információkat, előfordulhat, hogy kiragadnak dolgokat a kontextusból, vagy értelmetlen válaszokat adnak. Az olyan eszközöknél, mint a Bing Copilot és a Google generatív mesterséges intelligencia, mindig számolni kell a tévedés veszélyével. Egyes kritikusok szerint halálos következményekkel járhat, ha például a mesterséges intelligencia rossz egészségügyi információkkal látja el a felhasználókat.
A vállalatot a felhasználók is kritizálják
A Recall mesterséges intelligencia asszisztens megjelenését a múlt hónapban határozatlan időre elhalasztották. A Microsoftra záporoztak a kritikák a felhasználóktól és az adatvédelmi szakértőktől, például az Egyesült Királyságban az Információs Biztos Hivatalától, miután az alkalmazás a userek minden mozdulatát elmentené. A vállalat nem kívánt nyilatkozni arról, hogy az eszköz biztonsági kockázatot jelent-e.
Nyitókép (illusztráció): Pexels