Vapnen av artificiell intelligens



<div _ngcontent-c14 = "" innerhtml = "

Verkligheten av uppkomsten av autonoma vapensystemDepositphotos förbättrad av CogWorld

Introduktion

Teknologisk utveckling har blivit en råttävling. I tävlingen för att leda den framväxande tekniken och den futuristiska krigskampen, blir artificiell intelligens (AI) snabbt i centrum för det globala maktspelet. Såsom ses över många nationer, utvecklas utvecklingen i det autonoma vapensystemet (AWS) snabbt, och denna ökning av vapentiseringen av artificiell intelligens verkar ha blivit en mycket destabiliserande utveckling. Det ger komplexa säkerhetsutmaningar för inte bara varje nations beslutsfattare utan också för mänsklighetens framtid.

Verkligheten idag är att artificiell intelligens leder oss till ett nytt algoritmiskt krigsfält som inte har gränser eller gränser, kan eller inte har människor involverade och kommer att vara omöjliga att förstå och kanske styra över det mänskliga ekosystemet i cyberspace, geospace och rymd (CGS). Som ett resultat kan själva ideen om vapentisering av artificiell intelligens, där ett vapensystem som en gång aktiverat över CGS kan välja och engagera mänskliga och icke-mänskliga mål utan ytterligare ingrepp från en mänsklig formgivare eller operatör, är orsakar stor rädsla.

Tanken på en intelligent maskin- eller maskinintelligens för att kunna utföra någon projicerad krigsuppgift utan mänsklig inblandning och ingripande – endast med hjälp av interaktionen mellan dess inbyggda sensorer, datorprogrammering och algoritmer i den mänskliga miljön och ekosystemet – är bli en verklighet som inte kan ignoreras längre.

Vapning av artificiell intelligens

Som AI utvecklas maskininlärning och djupt lärande vidare och går från koncept till kommersialisering, och den snabba accelereringen i datakraft, minne, stor data och höghastighetskommunikation skapar inte bara innovation, investeringar och applikationsfeni utan ökar också uppdraget för AI-chips. Detta pågående snabba framsteg och utveckling beteckna att artificiell intelligens är på väg för att revolutionera krigföring och att nationer utan tvekan kommer att fortsätta utveckla det automatiserade vapensystem som AI kommer att möjliggöra.

När nationerna individuellt och kollektivt påskyndar sina ansträngningar för att få en konkurrensfördel i vetenskap och teknik, är den ytterligare vapentiseringen av AI oundviklig. Följaktligen finns det ett behov av att visualisera vad som skulle se ut som ett algoritmiskt krig i morgon, för att bygga autonoma vapensystem är en sak men att använda dem i algoritmisk krigföring med andra nationer och mot andra människor är en annan.

Som rapporter är redan framväxande av komplexa algoritmiska system som stöder fler och fler aspekter av krigsbekämpning över CGS, är sanningen att commoditization av AI är en verklighet nu. Som sedd i cyberspace har automatiserad krigföring (cyberwarfare) redan börjat – där någon och alla är ett mål Så, vad är nästa, geo-warfare och rymdkrigföring? Och, vem och vad blir målet?

Den snabba utvecklingen av AI-vapnet är tydligt över hela linjen: navigera och utnyttja obemannade sjöar, flygplan, & nbsp; och terrängfordon som producerar säkerhetsskador uppskattningar, distribuera "eld och glöm" missilsystem och använda stationära system för att automatisera allt från personalsystem och underhåll av utrustning till utplacering av övervakningsdronor, robotar och mer är alla exempel. Så, när algoritmer stöder fler och fler aspekter av krig, leder det oss till en viktig fråga: Vilka användningar av AI i idag och morgondagens krig bör tillåtas, begränsas och direkt förbjudas?

Medan autonoma vapensystem tros ge möjligheter att minska vapensystemets driftskostnader – särskilt genom en mer effektiv användning av arbetskraft – och det kommer sannolikt att göra det möjligt för vapensystemen att uppnå högre hastighet, noggrannhet, uthållighet, precision, räckvidd och samordning på CGS-slagfältet, behovet av att förstå och utvärdera de tekniska, juridiska, ekonomiska, samhälleliga och säkerhetsfrågorna kvarstår.

Programmers roll och programmering

I de här komplexa säkerhetsutmaningarna och havet av okända kommer vår väg, vad som fortfarande är grundläggande för människors säkerhet och säkerhet är rollen som programmerare och programmering tillsammans med halvledarchipsens integritet. Anledningen till detta är programmerare kan definiera och bestämma AWS-typ (åtminstone i början) tills AI börjar programmera sig själv.

Om och när en programmerare som avsiktligt eller oavsiktligt programmerar ett autonomt vapen för att fungera i strid med den nuvarande och framtida internationella humanitära lagen (IHL), hur ska människor styra AI: s vapentisering? Dessutom, eftersom AWS är centrerad på programvara, var ska ansvaret för fel och hanteringen av AWS-system design och användning lögner? Det bringar oss till hjärtat av frågan – när och om ett autonomt system dödar, vem ansvarar för dödandet, oavsett om det är motiverat eller inte?

Cyber-Security Utmaningar

Kortfattat är algoritmer inte alls säkra, och de är heller inte immuniska mot buggar, skadlig kod, bias och & nbsp; manipulation. Och eftersom det går att använda maskinvaror för att träna andra maskiner, vad händer om det finns skadlig kod eller manipulering av träningsdata? Medan säkerhetsrisker finns överallt, ökar anslutna enheter möjligheten att bryta mot cybersäkerhet från avlägsna platser och eftersom koden är ogenomskinlig är säkerheten väldigt komplex. Så när AI går i krig med andra AI (oavsett om det gäller cybersäkerhet, geosäkerhet eller rymdsäkerhet) kommer de pågående cybersäkerhetsutmaningarna att lägga till monumentala risker för mänsklighetens framtid och det mänskliga ekosystemet i CGS.

Samtidigt som det verkar som autonoma vapensystem är här för att stanna, den fråga vi alla individuellt och kollektivt behöver svara är, kommer artificiell intelligens att driva och bestämma vår strategi för mänsklig överlevnad och säkerhet, eller kommer vi?

Genom att erkänna denna framväxande verklighet inledde Risk Group den mycket nödvändiga diskussionen om autonoma vapensystem med Markus Wagner, en utgiven författare och docent i juridik vid University of Wollongong, baserat i Australien.

Upplysningar: Risk Group LLC är mitt företag

Risk Group diskuterar autonoma vapen system och lag med Markus Wagner, en utgiven författare och docent i juridik vid University of Wollongong baserat i Australien på Risk Roundup.

Vad kommer härnäst?

Eftersom nationer individuellt och kollektivt påskyndar sina ansträngningar för att få en konkurrensfördel i vetenskap och teknik, är ytterligare vapenbildning av AI oundviklig. Som en följd av detta skulle positioneringen av AWS förändra själva meningen med att vara mänsklig och kommer inte i några oklara villkor att ändra de grundläggande förutsättningarna för säkerhet och mänsklighetens och fredens framtid.

Det är viktigt att förstå och utvärdera om det självständiga vapnet ras inte kan förebyggas, vad kan gå fel. Det är dags att erkänna det faktum att helt enkelt eftersom tekniken kan möjliggöra en framgångsrik utveckling av AWS betyder det inte att vi borde. Det är kanske inte i mänsklighetens intresse att vapna artificiell intelligens! Det är dags för en paus.

">

Verkligheten av uppkomsten av autonoma vapensystemDepositphotos förbättrad av CogWorld

Introduktion

Teknologisk utveckling har blivit en råttävling. I tävlingen för att leda den framväxande tekniken och den futuristiska krigskampen, blir artificiell intelligens (AI) snabbt i centrum för det globala maktspelet. Såsom ses över många nationer, utvecklas utvecklingen i det autonoma vapensystemet (AWS) snabbt, och denna ökning av vapentiseringen av artificiell intelligens verkar ha blivit en mycket destabiliserande utveckling. Det ger komplexa säkerhetsutmaningar för inte bara varje nations beslutsfattare utan också för mänsklighetens framtid.

Verkligheten idag är att artificiell intelligens leder oss till ett nytt algoritmiskt krigsfält som inte har gränser eller gränser, kan eller inte har människor involverade och kommer att vara omöjliga att förstå och kanske styra över det mänskliga ekosystemet i cyberspace, geospace och rymd (CGS). Som ett resultat kan själva ideen om vapentisering av artificiell intelligens, där ett vapensystem som en gång aktiverat över CGS kan välja och engagera mänskliga och icke-mänskliga mål utan ytterligare ingrepp från en mänsklig formgivare eller operatör, är orsakar stor rädsla.

Tanken på en intelligent maskin- eller maskinintelligens för att kunna utföra någon projicerad krigsuppgift utan mänsklig inblandning och ingripande – endast med hjälp av interaktionen mellan dess inbyggda sensorer, datorprogrammering och algoritmer i den mänskliga miljön och ekosystemet – är bli en verklighet som inte kan ignoreras längre.

Vapning av artificiell intelligens

Som AI utvecklas maskininlärning och djupt lärande vidare och går från koncept till kommersialisering, och den snabba accelereringen i datakraft, minne, stor data och höghastighetskommunikation skapar inte bara innovation, investeringar och applikationsfeni utan ökar också uppdraget för AI-chips. Detta pågående snabba framsteg och utveckling beteckna att artificiell intelligens är på väg för att revolutionera krigföring och att nationer utan tvekan kommer att fortsätta utveckla det automatiserade vapensystem som AI kommer att möjliggöra.

När nationerna individuellt och kollektivt påskyndar sina ansträngningar för att få en konkurrensfördel i vetenskap och teknik, är den ytterligare vapentiseringen av AI oundviklig. Följaktligen finns det ett behov av att visualisera vad som skulle se ut som ett algoritmiskt krig i morgon, för att bygga autonoma vapensystem är en sak men att använda dem i algoritmisk krigföring med andra nationer och mot andra människor är en annan.

Som rapporter är redan framväxande av komplexa algoritmiska system som stöder fler och fler aspekter av krigsbekämpning över CGS, är sanningen att commoditization av AI är en verklighet nu. Som sedd i cyberspace har automatiserad krigföring (cyberwarfare) redan börjat – där någon och alla är ett mål Så, vad är nästa, geo-warfare och rymdkrigföring? Och, vem och vad blir målet?

Den snabba utvecklingen av AI-vapnet är tydligt över hela linjen: navigera och utnyttja obemannade sjöar, flygplan och terrängfordon som producerar säkerhetsskador uppskattningar, distribuera "eld och glöm" missilsystem och använda stationära system för att automatisera allt från personalsystem och underhåll av utrustning till utplacering av övervakningsdronor, robotar och mer är alla exempel. Så, när algoritmer stöder fler och fler aspekter av krig, leder det oss till en viktig fråga: Vilka användningar av AI i idag och morgondagens krig bör tillåtas, begränsas och direkt förbjudas?

Medan autonoma vapensystem tros ge möjligheter att minska vapensystemets driftskostnader – särskilt genom en mer effektiv användning av arbetskraft – och det kommer sannolikt att göra det möjligt för vapensystemen att uppnå högre hastighet, noggrannhet, uthållighet, precision, räckvidd och samordning på CGS-slagfältet, behovet av att förstå och utvärdera de tekniska, juridiska, ekonomiska, samhälleliga och säkerhetsfrågorna kvarstår.

Programmers roll och programmering

I de här komplexa säkerhetsutmaningarna och havet av okända kommer vår väg, vad som fortfarande är grundläggande för människors säkerhet och säkerhet är rollen som programmerare och programmering tillsammans med halvledarchipsens integritet. Anledningen till detta är programmerare kan definiera och bestämma AWS-typ (åtminstone i början) tills AI börjar programmera sig själv.

Om och när en programmerare som avsiktligt eller oavsiktligt programmerar ett autonomt vapen för att fungera i strid med den nuvarande och framtida internationella humanitära lagen (IHL), hur ska människor styra AI: s vapentisering? Dessutom, eftersom AWS är centrerad på programvara, var ska ansvaret för fel och hanteringen av AWS-system design och användning lögner? Det bringar oss till hjärtat av frågan – när och om ett autonomt system dödar, vem ansvarar för dödandet, oavsett om det är motiverat eller inte?

Cyber-Security Utmaningar

Kort sagt, algoritmer är inte på något sätt säkra, och de är heller inte immuniska mot buggar, skadlig kod, fördomar och manipulation. Och eftersom det går att använda maskinvaror för att träna andra maskiner, vad händer om det finns skadlig kod eller manipulering av träningsdata? Medan säkerhetsrisker finns överallt, ökar anslutna enheter möjligheten att bryta mot cybersäkerhet från avlägsna platser och eftersom koden är ogenomskinlig är säkerheten väldigt komplex. Så när AI går i krig med andra AI (oavsett om det gäller cybersäkerhet, geosäkerhet eller rymdsäkerhet) kommer de pågående cybersäkerhetsutmaningarna att lägga till monumentala risker för mänsklighetens framtid och det mänskliga ekosystemet i CGS.

Samtidigt som det verkar som autonoma vapensystem är här för att stanna, den fråga vi alla individuellt och kollektivt behöver svara är, kommer artificiell intelligens att driva och bestämma vår strategi för mänsklig överlevnad och säkerhet, eller kommer vi?

Genom att erkänna denna framväxande verklighet inledde Risk Group den mycket nödvändiga diskussionen om autonoma vapensystem med Markus Wagner, en utgiven författare och docent i juridik vid University of Wollongong, baserat i Australien.

Upplysningar: Risk Group LLC är mitt företag

Risk Group diskuterar autonoma vapen system och lag med Markus Wagner, en utgiven författare och docent i juridik vid University of Wollongong baserat i Australien på Risk Roundup.

Vad kommer härnäst?

Eftersom nationer individuellt och kollektivt påskyndar sina ansträngningar för att få en konkurrensfördel i vetenskap och teknik, är ytterligare vapenbildning av AI oundviklig. Som ett resultat skulle AWS: s positionering förändra själva meningen med att vara mänsklig och kommer inte på några osäkra villkor ändra de grundläggande grundarna för säkerhet och mänsklighetens och freds framtid.

Det är viktigt att förstå och utvärdera om det självständiga vapnet ras inte kan förebyggas, vad kan gå fel. Det är dags att erkänna det faktum att helt enkelt eftersom tekniken kan möjliggöra en framgångsrik utveckling av AWS betyder det inte att vi borde. Det är kanske inte i mänsklighetens intresse att vapna artificiell intelligens! Det är dags för en paus.