Технически поглед как престъпниците използват ИИ

Машинното обучение е една от най-вълнуващите нови функции, използвани в технологиите днес. Несъмнено обаче е и противоречиво. В момента този спор всъщност не идва от перспективата на ултраинтелигентните роботи драматично да превземат човешката раса; вместо това, защото мощната технология като тази може да се използва също толкова негативно от престъпниците, колкото може да бъде използвана положително от тези с добро намерение. В това парче бих искал да проуча по-тъмната страна: как престъпниците използват незаконно ИИ.

Преди компютрите да са имали възможност да решават евристични проблеми, много системи за сигурност са проектирани с принципа, че това няма да се промени. Идеята, че компютърът може да отгатне парола, да прочете графична Captcha или да научи как се държи истинският трафик, просто не се разглеждаше. Сега ние сме заобиколени от сигурност, която беше избутана от АИ.

Captchas и класификация на изображенията

Има много, много пъти една система да трябва да потвърди, че потребителят всъщност е човек. Това е така, защото цялата функционалност, която компютърът предлага на човек, също може да бъде използвана или симулирана от компютърна програма. Ако се опитате да влезете във Facebook повече от три пъти, ще забележите, че Facebook иска да потвърди, че сте човек, а не компютърна програма, която се опитва да въведе милиони пароли в секунда. Начинът, по който Facebook и много услуги правят това, е чрез метод captcha:

Години наред тези успешно отделени програми от хората, докато не се появи ИИ. Сега могат да се използват основни конволюционни невронни мрежи, където се използва огромен набор от изображения на captcha. Всяка captcha има определена цел и след обучение на convnet, те могат да изработят предложени captchas в бъдеще. Това е по-тривиален пример, при който основните принципи на невронните мрежи са всичко, което се изисква. Сега, когато могат да бъдат заобиколени капчусите, грубите атаки са много по-възможни. Може би сте попаднали и на типа captcha „изберете всички снимки, съдържащи шина“, което е еднакво лесно за AI да се заобиколи. Всички знаем колко страхотно е откриването на обекти - Google, дори когато се интегрира в тяхната търсачка като много основна и успешна функция.

Пароли с генеративни състезателни мрежи

Малко от нас имат пароли, които изглеждат така: 5f2 # V0 ”P? Oz3

Повече от нас имат пароли, които изглеждат така: Kronenbourg1664

А останалите дори имаме пароли, които изглеждат така: парола

Все още е така, че тези, които следват първия ми пример, са много сигурни от това, че паролите им се досещат от човек или GPX 1080 GPU. Всички останали обаче са уязвими. И така, как могат да се познаят тези пароли? Най-просто бихме могли да използваме речник и да приложим всяка дума към въвеждане на парола. Можем да успеем с много малък процент от нашите опити - заради онези хора, които следват последния ми пример. Ако сте от тези хора, имам пълна увереност, че ще промените паролата си до края на тази статия.

Сега, нека да разгледаме по-модерния и дори зловещ подход (използвайки AI, очевидно). Вместо да използват речник, невронните мрежи се използват за създаване на огромен списък с вероятни пароли. Именно този списък се използва за форма за удостоверяване. Взето от PassGAN: Подход за задълбочено обучение за гадаене на парола, ето как този списък може да бъде изготвен:

Ако сте запознати с невронните мрежи (което, трябва да отбележа, е много важно за следващите няколко абзаца), това все още може да изглежда необичайно. Вместо просто да прогнозираме елемент въз основа на вход, ние се учим от данни и след това учим генератор да произвежда няколко допълнителни примера. Това е известно като генеративна състезателна мрежа, където се използват две невронни мрежи; един за разграничаване на правилни и неправилни входове и след това такъв, който се учи от това да произвежда нови правилни данни чрез случаен шум.

Първо, ние използваме съществуващ набор от данни, който съдържа истински човешки пароли, може би от исторически изтичане на парола, които оттогава са били достъпни. Те ще покажат колективно как изглеждат човешките пароли (няколко главни букви, дата, произволно число, име и т.н.).

Второ, използваме генератор на шум (G), който (в началото) ще извежда случайни данни. Тези два възможни входа (фалшиви и истински пароли) са входовете в невронната мрежа (или дискриминатор D). Целите са проектирани като прости бинарни изходи. Това означава, че по време на обучение, на невронната мрежа се казва дали въведената парола е фалшива или истинска. При всяко подаване напред, произведената стойност на изхода след това се сравнява с целевата стойност (истината) и след това се разпространява обратно, за да се коригират стойностите на теглото въз основа на допустимата грешка. Генераторът също се влияе от това, тъй като случаен входен шум ще започне да се оптимизира по-близо до изходите на паролата.

След като генераторът бъде сменен, всеки допълнителен шум, въведен в мрежата, ще доведе до струни, които приличат на пароли. Така че, ако го оставим да работи няколко часа, бихме могли да съставим огромен списък от интелигентно компилирани пароли.

Phishing

Фишингът е много често срещана форма на хакване. Случвало ли ви се е да получите имейл, който не изглежда точно, но твърди, че е вашата банка, телефонна услуга или социална медийна платформа? Всеки начинаещ програмист, който знае малко HTML, комбиниран само с едно докосване на задния код, като PHP, може да го издърпа. Тя включва изпращане на имейл, който е визуално проектиран да изглежда като, да речем, Facebook и да използва подобен официален език. Ще твърди, че трябва да актуализирате, прегледате или промените нещо и да поискате данните си за вход, за да го направите. Каквото въведете, ще бъде изпратено на сървъра на престъпника. Както и да е, как ИИ влиза в това?

Машинното обучение може да подобри фишинга чрез обхождане на всяка платформа, научаване как изглеждат и комуникират език, а след това масово произвеждат фалшиви имейли въз основа на определени наблюдения, които се изпращат автоматично в голям мащаб. Това обаче не е единственият начин. Хакерите могат също да използват същите принципи, описани по-рано за отгатване на пароли, за да отгатят имейл адреси. Могат да бъдат произведени милиони имейл адреси, което увеличава шанса да намерите технически лековерни хора.

Много имейл услуги, а именно Gmail, разполагат с модерни системи за откриване на фишинг имейли, но машинното обучение може да се използва за създаване на имейли, които не се откриват от тези системи. Комплектът за обучение ще бъде компилация от имейли, някои от които не успяха да достигнат до потребителя поради откриване на фишинг, а други - успешни. невронната мрежа може да научи как се открива фишинг, като разбере кои са били уловени и кои не. В бъдеще имейлите могат да бъдат генерирани въз основа на правила, които не са открити чрез фишинг откриване, вижте тук за справка.

заключение

Първо, това са само три случая. Притеснително е, че има много повече в други области като измамна реклама, симулиране на фалшив трафик и други. Обичам обаче да мисля, че използването на AI в правния свят много надвишава престъпния свят. По ирония на съдбата AI се използва за разкриване на престъпна дейност по много невероятни начини - от уличната полиция, до измамите в интернет. В заключение, моля, променете паролата си, ако генеративната състезателна мрежа може да я познае; моля, не следвайте връзки, изпратени до вас, освен ако не сте проверили двойно идентификацията на изпращача; и накрая, не използвайте сами нито една от тези техники, за да нарушите закона!

- - - - - - - - - - - - - - - - -

Прочетете още статии за научни данни на OpenDataScience.com, включително уроци и ръководства от начинаещи до напреднали нива! Абонирайте се за нашия седмичен бюлетин тук и получавайте най-новите новини всеки четвъртък.