Az Anthropic új kutatása az MI és a biológiai kockázatok kapcsolatáról
Az Anthropic legfrissebb elemzése rámutat, hogy a mesterséges intelligencia (MI) jelentős szerepet játszhat a tudományos felfedezések előmozdításában, különösen a biológia és az orvostudomány területén. Ugyanakkor az MI kettős felhasználású technológia, amely egyszerre kínál hatalmas lehetőségeket és komoly kockázatokat is. Cikkünkben bemutatjuk, hogyan közelíti meg az Anthropic a felelősségteljes MI-fejlesztést, különös tekintettel a biológiai biztonságra és a potenciális veszélyekre.
Az MI szerepe a biotechnológiai kutatásokban
Az Anthropic partnerei, például a Benchling és a Biomni, már használják a Claude nevű MI-modellt arra, hogy gyorsítsák a bioinformatikai elemzéseket, segítsék a kutatókat az adatok rendszerezésében, és megkönnyítsék az új tudományos felismerések megszületését. Ez a technológia lehetővé teszi, hogy a szakemberek több időt fordítsanak a tényleges kutatásra, miközben az MI támogatja az adatfeldolgozást és az ötletgenerálást.
Azonban a mesterséges intelligencia nemcsak előnyöket hordoz, hanem veszélyeket is, különösen, ha rossz szándékú szereplők kezébe kerül. Az Anthropic ezért kiemelten kezeli az MI biztonsági kérdéseit, és már a Claude Opus 4 megjelenésekor bevezette az úgynevezett AI Safety Level 3 (ASL-3) védekezési szintet, amely megakadályozza, hogy a modell segítséget nyújtson például vegyi, biológiai vagy nukleáris fegyverek fejlesztésében.
Miért kiemelten fontos a biológiai kockázat?
Bár az MI számos biztonsági kihívást hordoz, a biológiai kockázat különösen aggasztó. Ennek egyik oka, hogy egy biológiai támadás hatásai messze túlmutathatnak a helyi környezeten, és globális egészségügyi katasztrófát idézhetnek elő. Emellett a biotechnológia fejlődése, például az olcsóbb nukleinsav-szintézis vagy az elterjedt laborberendezések, egyre kevésbé teszik akadályossá az ilyen jellegű támadások kivitelezését. Az MI pedig tovább csökkenti az információhoz és a szakértelemhez való hozzáférés korlátait, ami miatt e veszélyek kezelése elsődleges feladattá vált.
A Claude és más nagy nyelvi modellek (LLM-ek) hatalmas mennyiségű adatot dolgoznak fel, beleértve a biológiai tudományokat érintő szakirodalmat és kutatásokat. Ennek eredményeként a modellek egyre jobban képesek eligazodni a molekuláris biológia, a genetikai mérnökség és a virológia területein, olyannyira, hogy egyes tesztekben már szakértők szintjét vagy akár azt meghaladó teljesítményt nyújtanak.
A mesterséges intelligencia és a biológiai fegyverek kockázata
Az Anthropic kutatói kísérleteket végeztek annak feltárására, hogy mennyiben segítheti az MI a nem szakértő felhasználókat egy biológiai fegyver megszerzésének vagy megtervezésének folyamatában. Egy kontrollcsoport kizárólag internetes forrásokat használhatott, míg egy másik csoport a Claude modellhez is hozzáférést kapott. Az eredmények azt mutatták, hogy a MI-vel támogatott résztvevők lényegesen részletesebb és kevésbé hibás terveket készítettek, mint az interneten informálódók.
Fontos azonban hangsúlyozni, hogy a laboratóriumi munka nagy része tacit, vagyis nehezen átadható tudást igényel, amely nem olvasható le egyszerűen protokollokból vagy online forrásokból. Egy 2024-es előzetes laboratóriumi kísérlet során, ahol résztvevők alapvető biokémiai protokollokat hajtottak végre, nem mutatkozott egyértelmű „MI hatás” a teljesítményben, ugyanakkor a kísérlet kicsi léptéke miatt további vizsgálatok szükségesek.
A jövő: szélesebb körű laboratóriumi kutatások és együttműködés
Az Anthropic a Frontier Model Forummal és a Sentinel Bio nevű járványmegelőzési szervezettel együttműködve nagyobb léptékű laboratóriumi vizsgálatokat támogat, amelyek célja a mesterséges intelligencia valós laboratóriumi alkalmazásának és potenciális „emelő” hatásának feltérképezése. Ezek a kutatások segítenek megérteni, hogy a tacit tudás mennyiben korlátozza a nem szakértők laboratóriumi teljesítményét, valamint hogy az MI milyen mértékben képes ezt a korlátot áthidalni.
Ezzel párhuzamosan az Anthropic szorosan együttműködik nemzetközi kormányzati szervekkel, például az Egyesült Államok AI Szabványügyi Központjával (CAISI) és az Egyesült Királyság AI Biztonsági Intézetével, hogy közösen alakítsák ki a biokockázatok értékelésének és kezelésének legjobb gyakorlatait. A nyilvános és magánszféra partnerségei kulcsfontosságúak abban, hogy az AI fejlesztése felelősségteljes és biztonságos irányba haladjon.
Összegzés: A biológiai biztonság és az MI felelősségteljes fejlesztése
Az MI fejlődése új és komoly kihívásokat hoz a biológiai biztonság terén. Az Anthropic szerint ezek a kockázatok ugyan relatíve alacsony valószínűségűek, de rendkívül súlyos következményekkel járhatnak, ezért elengedhetetlen, hogy a fejlesztők és a döntéshozók folyamatosan értékeljék és kezeljék ezeket a veszélyeket. Az átláthatóság, a folyamatos ellenőrzés és a nemzetközi együttműködés alapvető elemei annak, hogy az MI a társadalom javát szolgálja, miközben minimalizálja a visszaélések lehetőségét.
Az Anthropic további kutatásokat és nyilvános beszámolókat ígér a témában, hogy elősegítse a mesterséges intelligencia biztonságos alkalmazását a biológiai és más kritikus területeken. Ez a megközelítés hozzájárulhat ahhoz, hogy az MI ne csak a tudományos fejlődés motorja legyen, hanem egyben a globális biztonság szavatolója is.