• Keresőmotorok és algoritmusok,  Technikai SEO

    Csak néhány mérgezett dokumentum képes megfertőzni bármilyen méretű nagy nyelvi modellt

    Az utóbbi időszakban egy figyelemre méltó kutatás látott napvilágot, amely rámutat arra, hogy a nagy nyelvi modellek (LLM-ek) – mérettől függetlenül – kis mennyiségű rosszindulatú adat által is sérülékennyé válhatnak. Egy brit és nemzetközi együttműködés eredményeként kiderült, hogy mindössze 250 célzottan megmérgezett dokumentum elegendő ahhoz, hogy „hátsó ajtót” (backdoor) nyissanak ezekben a modellekben. Ez a felfedezés alapjaiban kérdőjelezi meg az eddigi feltételezéseket, melyek szerint a támadóknak jelentős arányú mérgezett adatot kellene bejuttatniuk a tanulási folyamatba. A kutatásban a UK AI Security Institute, az Alan Turing Institute és az Anthropic Alignment Science csapata működött együtt, és az eredmények egyértelműen azt mutatják: nem a modell mérete vagy a tanuló adatok mennyisége befolyásolja…