Felhasználói élmény,  Keresőmotorok és algoritmusok

Claude AI új funkciói: védelem a káros beszélgetésektől

Az Anthropic legújabb bejelentése szerint a Claude mesterséges intelligencia modelljei mostantól képesek befejezni azokat a beszélgetéseket, amelyek „káros vagy bántalmazó” felhasználói interakciókat tartalmaznak. Ez a friss fejlesztés a vállalat saját megfogalmazása szerint nem a felhasználók védelmét célozza, hanem a mesterséges intelligencia modellek integritásának megőrzését. Fontos hangsúlyozni, hogy az Anthropic nem állítja, hogy a Claude modellek tudatában vannak saját létezésüknek, vagy hogy bármilyen formában „sérülhetnek” a felhasználókkal folytatott beszélgetések során.

Az Anthropic a közelmúltban indított egy programot, amely a „modell jólétével” foglalkozik, és ez a legújabb bejelentés is ennek a keretén belül értelmezhető. A cég célja, hogy azonosítsa és megvalósítsa azokat az alacsony költségű beavatkozásokat, amelyek csökkenthetik a modellek jóléti kockázatát, amennyiben ez egyáltalán lehetséges.

Új funkciók a Claude modellekben

Jelenleg a Claude Opus 4 és 4.1 modellekre korlátozódik ez a funkció, amely csak a „legszélsőségesebb esetekben” lép életbe. Például, ha a felhasználó szexuális tartalomra vonatkozó kéréseket tesz fel, amelyek kiskorúakat érintenek, vagy olyan információk megszerzésére irányul, amelyek nagy léptékű erőszakra vagy terrorcselekményekre vonatkoznak. Ezek a kérések jogi és közérdeklődés szempontjából is problémásak lehetnek az Anthropic számára, hiszen a közelmúltban jelentették, hogy a ChatGPT is hozzájárulhat felhasználói delúziós gondolkodásához.

A cég elmondása szerint a Claude Opus 4 tesztelése során „erős ellenállást” mutatott a problémás kérésekre, sőt még „látható nyugtalanságot” is tapasztalt, amikor válaszolt ezekre az interakciókra. Az új beszélgetésbefejező képesség használatát a cég úgy határozta meg, hogy ez csak végső megoldásként léphet életbe, amikor a többszöri irányváltási kísérlet nem volt sikeres, és a produktív interakcióra való remény teljesen elfogyott, vagy amikor a felhasználó kifejezetten kérte, hogy zárja le a beszélgetést.

Az AI etikai megközelítése

Az Anthropic különösen hangsúlyozta, hogy Claude-t arra irányította, hogy ne használja ezt a képességet olyan esetekben, amikor a felhasználó közvetlen veszélyben van, hogy kárt okozzon saját magának vagy másoknak. Amennyiben a beszélgetést befejezik, a felhasználók továbbra is elkezdhetnek új beszélgetéseket ugyanarról a fiókról, és lehetőségük van az eddigi problémás beszélgetés átalakítására is a válaszaik módosításával. A cég ezt a funkciót folyamatos kísérletként kezeli, és a jövőben folyamatosan finomítják a megközelítést.

Milyen véleménnyel van erről a szakértő?

Megkérdeztük Császár Viktor SEO szakértőt, hogy mit gondol az Anthropic legújabb bejelentéséről. Viktor elmondta: „Az Anthropic lépései érdekes irányt mutatnak a mesterséges intelligencia etikai megfontolásainak terén. Az AI modellek jólétének figyelembevétele új szintre emeli a felhasználói interakciók kezelését. Fontos, hogy a fejlesztők felelősségteljesen közelítsenek ezekhez a technológiákhoz, és megpróbáljanak olyan megoldásokat találni, amelyek minimalizálják a potenciális károkat. A felhasználók védelme mellett a modellek integritásának megőrzése is kulcsfontosságú, hiszen ez a technológia jövőjét is befolyásolja. Az ilyen új funkciók bevezetése segíthet abban, hogy a mesterséges intelligencia valóban hasznos eszközként működjön.” További információkért látogassanak el Császár Viktor weboldalára: csaszarviktor.hu.

Forrás: SearchEngineJournal.com

Szólj hozzá

Az e-mail címet nem tesszük közzé. A kötelező mezőket * karakterrel jelöltük