როგორ შეიძლება AI მალე დაეხმაროს ჰაკერებს თქვენი ინფორმაციის მოპარვაში

Სარჩევი:

როგორ შეიძლება AI მალე დაეხმაროს ჰაკერებს თქვენი ინფორმაციის მოპარვაში
როგორ შეიძლება AI მალე დაეხმაროს ჰაკერებს თქვენი ინფორმაციის მოპარვაში
Anonim

მთავარი წაღებები

  • ექსპერტები ამბობენ, რომ ხელოვნური ინტელექტის დახმარებით კიბერთავდასხმებმა შეიძლება გატეხოს თქვენი მონაცემები.
  • ცნობილმა კიბერუსაფრთხოების ექსპერტმა ბრიუს შნაიერმა ბოლო კონფერენციაზე განაცხადა, რომ ის სულ უფრო მეტად აწუხებს კომპიუტერულ სისტემებში ხელოვნური ინტელექტის შეღწევას.
  • 2018 წელს განხორციელდა ერთი ხელოვნური ინტელექტის მქონე კიბერშეტევა TaskRabbit-ის წინააღმდეგ, რომელმაც 3,75 მილიონი მომხმარებელი დაარღვია.
Image
Image

ჰაკერები მალე შეძლებენ თქვენს კომპიუტერში ხელოვნური ინტელექტის გამოყენებით.

ცნობილმა კიბერუსაფრთხოების ექსპერტმა ბრიუს შნაიერმა ცოტა ხნის წინ კონფერენციაზე განაცხადა, რომ ის შეშფოთებულია, რომ კომპიუტერულ სისტემებში ხელოვნური ინტელექტის შეღწევა გარდაუვალია. ექსპერტები ამბობენ, რომ ხელოვნური ინტელექტის შეტევები მზარდი საფრთხეა.

"ჰაკერული პერსპექტივიდან AI სულ უფრო და უფრო სასარგებლო ხდება, მომხმარებლებისა და მომხმარებლების მონაცემები შეიძლება მნიშვნელოვნად იყოს რისკის ქვეშ," - თქვა ენდრიუ დუგლასმა, კიბერუსაფრთხოების ექსპერტმა Deloitte Risk & Financial Advisory-ში ელ. „ჰაკერები, როგორც წესი, ეძებენ უმარტივეს სამიზნეს მინიმალური ძალისხმევით, და ხელოვნური ინტელექტი საშუალებას მისცემს მათ უფრო ნაკლებ დროში გაატარონ უკეთესი თავდაცვითი ადამიანი.“

შნეიერი იყო უკანასკნელი, რომელმაც გააფრთხილა ხელოვნური ინტელექტის საფრთხეების შესახებ.”ნებისმიერი კარგი ხელოვნური ინტელექტის სისტემა ბუნებრივად იპოვის ჰაკებს,” - თქვა შნეიერმა ბოლო კონფერენციაზე. „ისინი პოულობენ ახალ გადაწყვეტილებებს, რადგან არ აქვთ ადამიანური კონტექსტი, და შედეგი არის ის, რომ ზოგიერთი გადაწყვეტა დაარღვევს ადამიანების მოლოდინებს, შესაბამისად, ჰაკი“.

AI ტელეფონები თქვენს სახლში

ჰაკერები უკვე იყენებენ ხელოვნურ ინტელექტს კომპიუტერებში შესაჭრელად. ერთი ხელოვნური ინტელექტის მქონე კიბერშეტევა განხორციელდა TaskRabbit-ის წინააღმდეგ 2018 წელს, რამაც კომპრომეტირება მოახდინა 3.75 მილიონი მომხმარებელი, მაგრამ აღმოუჩენელია, თქვა კრის ჰაუკმა, მომხმარებელთა კონფიდენციალურობის დამცველმა ვებსაიტზე Pixel Privacy, ელ. ინტერვიუში.

"შეტევა განხორციელდა ჰაკერების მიერ, რომლებიც იყენებდნენ AI-ს მიერ კონტროლირებად დიდ ბოტნეტს, რომელიც იყენებდა მონურ მანქანებს TaskRabbit-ის სერვერებზე მასიური DDoS შეტევის განსახორციელებლად," დასძინა მან.

მანქანების სწავლის ალგორითმები გამოიყენეს Defcon-ში სისტემებში წარმატებით შესაღწევად 2016 წელს, აღნიშნა რეი უოლშმა, მონაცემთა კონფიდენციალურობის ექსპერტმა ProPrivacy-ში, ელექტრონული ფოსტის ინტერვიუში. იმ დროს, შვიდი გუნდი იბრძოდა DARPA-ს Grand Challenge-ისთვის, რათა მოეგოთ $2 მილიონი პრიზი. „გამოწვევის დროს კონკურენტები AI-ს იყენებდნენ დაუცველობის საპოვნელად, ექსპლოიტების შესაქმნელად და პატჩების განსათავსებლად ავტომატური საშუალებებით“, დასძინა მან.

ბრიუს იანგმა, ჰარისბურგის მეცნიერებისა და ტექნოლოგიების უნივერსიტეტის კიბერუსაფრთხოების პროფესორმა ელფოსტით მიცემულ ინტერვიუში თქვა, რომ ხელოვნური ინტელექტი გამოიყენება ბოტნეტების გასაკონტროლებლად, კომპრომეტირებული კომპიუტერების ჯგუფი ცუდი მსახიობის კონტროლის ქვეშ, რომელიც გამოიყენება სხვებზე თავდასხმისთვის. კომპიუტერები.

"AI შეიძლება გამოყენებულ იქნას პიროვნების ინფორმაციის ავტომატურად შესაგროვებლად, მაგალითად, ბანკი, სამედიცინო, მართვის მოწმობა, დაბადების დღეები", - თქვა მან. "მათ შეუძლიათ დახვეწილი ფიშინგის მცდელობა ჩამოაყალიბონ და მომხმარებელს მიაწოდონ ელ.წერილი, რომელიც, როგორც ჩანს, კანონიერია."

AI შეიძლება გამოყენებულ იქნას გატეხვისთვის დაუცველობის აღმოჩენით და მათი ექსპლუატაციით, თქვა პოლ ბიშოფმა, კონფიდენციალურობის დამცველმა ვებსაიტზე Comparitech-ში, ელ. ინტერვიუში.

AI და მანქანათმცოდნეობა შეიძლება აღმოაჩინოს შაბლონები, რომლებსაც ადამიანები გამოტოვებენ. ამ შაბლონებს შეუძლიათ გამოავლინონ სისუსტეები… AI-ს შეუძლია გამოიყენოს ეს დაუცველობა…

"AI და მანქანათმცოდნეობა შეიძლება შეამჩნიონ შაბლონები, რომლებსაც ადამიანები გამოტოვებენ", - დასძინა მან. "ამ შაბლონებს შეუძლიათ გამოავლინონ სისუსტეები სამიზნის კიბერუსაფრთხოებაში ან ოპერაციულ უსაფრთხოებაში. AI-ს შეუძლია გამოიყენოს ეს დაუცველობა ბევრად უფრო სწრაფად, ვიდრე ადამიანი, მაგრამ ასევე უფრო მოქნილად ვიდრე ტრადიციული ბოტი."

AI-ს შეუძლია შეცვალოს და გააუმჯობესოს თავდასხმები ადამიანის მონაწილეობის გარეშე, თქვა ბიშოფმა.

"AI განსაკუთრებით კარგად შეეფერება დამალვას და შეუძლია დაიმალოს სისტემაში, სადაც ის აგროვებს მონაცემებს ან იწყებს თავდასხმებს დიდი ხნის განმავლობაში," დასძინა მან.

დაიცავი თავი ხელოვნური ინტელექტისგან

სამწუხაროდ, არ არსებობს რაიმე კონკრეტული, რისი გაკეთებაც მომხმარებლებს შეუძლიათ ხელოვნური ინტელექტის საფუძველზე დაფუძნებული ჰაკერებისგან თავის დასაცავად, თქვა ბიშოფმა.

"უბრალოდ მიჰყევით ჩვეულ მითითებებს," თქვა მან. "დაამცირეთ თქვენი ციფრული კვალი, განაახლეთ თქვენი პროგრამული უზრუნველყოფა, გამოიყენეთ ანტივირუსი, გამოიყენეთ firewall, ჩამოტვირთეთ მხოლოდ სანდო პროგრამული უზრუნველყოფა სანდო წყაროებიდან, არ დააჭიროთ ბმულებს ან დანართებს არასასურველ შეტყობინებებში."

მაგრამ, მოემზადეთ მეტი AI-ით მართული თავდასხმებისთვის.

Image
Image

"AI გამოიყენება როგორც კიბერუსაფრთხოებისთვის, ასევე კიბერშეტევებისთვის და მომავალში შეიძლება ვიხილოთ AI სისტემები, რომლებიც თავს დაესხმიან ერთმანეთს", - თქვა ბიშოფმა. „მაგალითად, ხელოვნური ინტელექტის გამოყენება შესაძლებელია არაადამიანური ქცევის იდენტიფიცირებისთვის და ბოტების წინააღმდეგ ზომების მისაღებად.პირიქით, ხელოვნური ინტელექტის გამოყენება ბოტებმა შეიძლება გამოიყენონ ადამიანის ქცევის უფრო ზუსტად მიბაძვისა და ბოტების აღმოჩენის სისტემების გვერდის ავლით.“

სახელმწიფოს მიერ დაფინანსებული ჯგუფები მომავალში იქნებიან ხელოვნური ინტელექტის ჰაკერების სავარაუდო წყარო, თქვა კრის ბონდმა, კიბერუსაფრთხოების ფირმა Mimoto-ს აღმასრულებელმა დირექტორმა ელექტრონული ფოსტის ინტერვიუში.

"ეს კატეგორია უკვე იწვევს დარღვევების ზრდას, რომლებიც სულ უფრო დახვეწილია," დასძინა ბონდიმ. "თუ ხელოვნური ინტელექტი ეფექტურად გამოიყენება ჰაკერებისთვის, ეს სავარაუდოდ ნიშნავს კიდევ უფრო დარღვევის მცდელობებს, რომლებიც კიდევ უფრო დახვეწილია. ეს გავლენას ახდენს ინდივიდებზე, ინფრასტრუქტურაზე, კორპორატიულ ჯაშუშობასა და ეროვნულ უსაფრთხოებაზე."

გირჩევთ: