Microsoft vylepšuje bezpečnosť AI Chatbot, aby zabránil podvodníkom

Spoločnosť Microsoft Corp pridala do Azure AI Studio množstvo bezpečnostných funkcií, ktoré by mali postupom času naďalej znižovať pravdepodobnosť, že jej používatelia nakonfigurujú modely AI do režimu, v ktorom budú konať abnormálne alebo nevhodne. Nadnárodná technologická spoločnosť so sídlom v Redmonde, Washington, načrtol vylepšenia v blogovom príspevku, pričom zdôraznil zaručenie integrity interakcií AI a posilnenie dôvery v používateľskú základňu.

Prompt štíty a ďalšie 

Medzi hlavné pokroky patrí vytvorenie „prompt shields“, technológie, ktorá je navrhnutá tak, aby našla a zabila rýchle injekcie pri konverzácii s AI chatbotmi. Toto sú takzvané útek z väzenia a sú to v podstate vstupy od používateľov, ktoré sú zámerne vytvorené takým spôsobom, aby vyvolali nežiaducu odozvu modelov AI.

Napríklad spoločnosť Microsoft hrá svoju úlohu nepriamo s rýchlymi injekciami, kde je možné vykonať zlé príkazy a takýto scenár môže viesť k vážnym bezpečnostným dôsledkom, ako je krádež údajov a únos systému. Podľa Sarah Bird, produktovej riaditeľky spoločnosti Microsoft pre zodpovednú umelú inteligenciu, sú tieto mechanizmy kľúčové pre detekciu a reakciu na tieto jedinečné hrozby v reálnom čase.

Microsoft dodáva, že čoskoro sa na obrazovke používateľa objavia upozornenia, ktoré upozornia na to, keď je pravdepodobné, že model vyjadruje nepravdivé alebo zavádzajúce informácie, čím sa zabezpečí väčšia užívateľská prívetivosť a dôvera.

Budovanie dôvery v nástroje AI 

Úsilie spoločnosti Microsoft je súčasťou väčšej iniciatívy, ktorej cieľom je poskytnúť ľuďom dôveru v čoraz populárnejšiu generatívnu AI, ktorá sa vo veľkej miere používa v službách zameraných na individuálnych spotrebiteľov a firemnú klientelu. Spoločnosť Microsoft prešla s hrebeňom s jemnými zubami po tom, čo sa vyskytli prípady, v ktorých mali používatelia možnosť hrať s chatbotom Copilot tak, aby produkoval bizarné alebo škodlivé výstupy. Pôjde o podporu výsledku, ktorý ukazuje potrebu silnej obrany proti spomínaným manipulačným taktikám, ktoré pravdepodobne pribudnú s AI technológiami a populárnymi poznatkami. Predvídanie a následné zmierňovanie je v rozpoznaní vzorcov útoku, napríklad keď útočník opakuje otázky alebo výzvy pri hraní rolí.

Ako najväčší investor a strategický partner OpenAI spoločnosť Microsoft posúva hranice toho, ako začleniť a vytvoriť zodpovedné, bezpečné generatívne technológie AI. Obaja sa zaviazali k zodpovednému nasadeniu a základným modelom generatívnej AI pre bezpečnostné opatrenia. Bird však pripustil, že tieto veľké jazykové modely, aj keď sa začínajú považovať za základ pre väčšinu budúcich inovácií AI, nie sú odolné voči manipulácii.

Budovanie na týchto základoch bude vyžadovať oveľa viac, než len spoliehanie sa na samotné modely; potrebovalo by to komplexný prístup k bezpečnosti a ochrane AI.

Microsoft nedávno oznámil posilnenie bezpečnostných opatrení pre svoje Azure AI Studio, aby ukázal a zaručil proaktívne kroky, ktoré sa prijímajú na ochranu meniaceho sa prostredia hrozieb AI.

Usiluje sa zabrániť zneužitiu AI a zachovať integritu a spoľahlivosť interakcie AI začlenením včasných obrazoviek a upozornení.

S neustálym vývojom technológie AI a jej zavádzaním do mnohých inklúzií každodenného života bude najvyšší čas, aby Microsoft a zvyšok komunity AI zachovali veľmi ostražitý postoj k bezpečnosti.

Zdroj: https://www.cryptopolitan.com/microsoft-ai-chatbot-security-to-tricksters/