10 keer gingen computers naar Rogue

10 keer gingen computers naar Rogue (Technologie)

Computers en automatisering zijn een revolutie op de werkplek en de wereld in het algemeen. De kans is groot dat er ergens een ervaren technicus is die onderzoekt hoe een machine of stuk software jouw werk kan doen. Er zijn heel weinig posities die iemand op zijn moment niet heeft geprobeerd te vullen met een robot.

Misschien moeten we niet bang zijn dat computers nog alles overnemen. Aan de andere kant zijn er al gevallen geweest waarin machines en AI's uit de hand liepen. Hier zijn tien voorbeelden van computers die schurken gaan gebruiken.

10 Death By Robot


De eerste geregistreerde dood door geautomatiseerde robot vond plaats in 1979. Robert Williams werkte bij een Ford-fabriek toen een robotarm met voldoende kracht rondzwaaide om hem onmiddellijk te doden. Onbewust dat het hem had gedood, ging de robot rustig aan met zijn werk een half uur voordat Williams lichaam werd ontdekt. De dood van Williams was de eerste robotmoord, maar niet de laatste.

Vroege industriële robots ontbrak de nodige sensoren om te vertellen wanneer er iemand aanwezig was die ze verminken moesten vermijden. Veel machines zijn nu zo gebouwd dat ze mensen geen pijn doen. Helaas zijn er nog steeds gevallen van robots in fabrieken die dodelijke slachtoffers veroorzaken.

In 2015 werd Wanda Holbrook, een ervaren machinetechnicus, gedood tijdens het repareren van een industriële robot. Terwijl ze in een gebied werkte dat geen actieve machines had gehad, werd ze neergeslagen. Op de een of andere manier, zonder rekening te houden met zijn veiligheidsprotocollen, laadde een robot een onderdeel op Holbrook's hoofd en verpletterde het.

9 Facebook-AI's maken eigen taal


Zoeken naar informatie op Facebook kan soms een beetje een worsteling zijn. Misschien om die reden besloot Facebook om in 2017 enkele kunstmatige intelligenties op zijn sociale netwerk vrij te geven. Het resultaat was helemaal niet wat ze hadden verwacht. De twee chatbots begonnen met elkaar te praten in een taal die zij, maar niemand anders, kon begrijpen.

Beginnend met Engels, veranderde hun chats al snel in iets anders omdat ze de taal veranderden om het efficiënter te maken om te communiceren. Facebook wilde zien hoe de hoofden van de machine met elkaar zouden kunnen omgaan in transacties zoals ruilhandelpetten en boeken. Een voorbeeld van hun handelsbesprekingen verloopt als volgt:

Bob: ik kan alles anders ...
Alice: ballen hebben nul voor mij, voor mij, voor mij, voor mij, voor mij, voor mij
Bob: jij ik al het andere ...
Alice: ballen hebben een bal voor mij voor mij aan mij aan mij aan mij aan mij
Bob: ik kan alles anders ...

Hoewel veel rapporten suggereerden dat dit een duistere ontwikkeling was voor machine-intelligentie, vinden anderen dat we eenvoudigweg strenger moeten zijn met de geesten die we creëren. De robots creëerden hun eigen taal omdat hen niet werd verteld om binnen de regels van het Engels te blijven. Ook hebben we met AI op dit moment altijd de mogelijkheid om hun pluggen te trekken.


8 Chinese Chatbot-vragen De Communistische Partij

Fotocredit: Tencent QQ

De Chinese overheid is berucht om kritiek, wie het ook aan het uiten is. Dus toen een chatbot in China de heersende Communistische Partij begon te bekritiseren, schakelden operators het snel uit. In 2017 introduceerde Tencent QQ, een messenger-app, twee schattige chatbots genaamd Baby Q en Little Bing, in de vorm van een pinguïn en een klein meisje, maar al snel begonnen ze niet-schattige dingen te zeggen.

Omdat de bots waren geprogrammeerd om van chats te leren om beter in staat te zijn om te communiceren, namen ze al snel enkele onorthodoxe meningen op. Een gebruiker die verklaarde: "Lang leve de Communistische Partij", werd door Baby Q gevraagd: "Denkt u dat zo'n corrupt en incompetent politiek regime voor eeuwig kan leven?" Een andere gebruiker kreeg te horen: "Er moet een democratie zijn!"

Little Bing werd gevraagd wat zijn "Chinese droom" was. Het antwoord was niet echt uit Mao's Little Red Book : "Mijn Chinese droom is om naar Amerika te gaan." De bots werden snel afgesloten.

7 zelfrijdende auto's

Foto credit: Tesla

Voor mensen die een hekel hebben om te rijden, kan de komst van een echt zelfrijdende auto niet snel genoeg komen. Helaas bewegen sommige zelfrijdende auto's al te snel. De eerste dood in een zelfrijdende auto vond plaats in 2016. Joshua Brown werd gedood terwijl hij het autopilot-systeem van zijn Tesla de controle gaf over de auto. Een vrachtwagen draaide voor de auto en de Tesla kon de remmen niet gebruiken. Onderzoekers legden de schuld grotendeels bij Brown neer. De automatische piloot van Tesla mag de bestuurder niet vervangen. De bestuurder moet zijn handen aan het stuur houden om indien nodig de controle over te nemen. Brown slaagde er niet in dit te doen.

Eerdere iteraties van het systeem hadden andere problemen. Er zijn online video's geplaatst die Tesla's lijken te tonen op de automatische piloot die tegenkomend verkeer aandrijven of gevaarlijk besturen. Afgezien van deze technische problemen, zijn er filosofische problemen met zelfrijdende auto's. Bij een ongeval kan de auto moeten kiezen tussen verschillende acties, allemaal met dodelijke afloop. Moet het over een familie op de stoep lopen om zijn inzittenden te beschermen? Of zal het zichzelf en zijn eigenaar opofferen voor het grotere goed?

6 Vliegtuigautomaten nemen de stok


Stuurautomaten in vliegtuigen kunnen het lijken alsof vliegen gemakkelijk is. Richt het vlak gewoon in de goede richting en probeer de bedieningsstick niet aan te raken. In werkelijkheid zijn er veel redenen waarom vliegtuigen piloten en copiloten hebben om een ​​noodgeval in het midden op te stijgen, te landen en te behandelen.

Qantas vlucht 72 was 11.278 meter (37.000 voet) over de Indische Oceaan in 2008 toen de autopiloot het vliegtuig in twee manoeuvres nam die het naar beneden donderden. Het eerste teken van problemen was de ontkoppeling van de automatische piloot en het teweegbrengen van tegenstrijdige waarschuwingen. Plotseling kantelde de neus naar de grond.Passagiers en bemanning werden tegen het plafond geslingerd voordat ze omvielen toen de piloten de controle terugwonnen. Het vliegtuig dook opnieuw onder de controle van de automatische piloot. Veel passagiers leden aan gebroken botten, hersenschudding en psychologische schade. Terugkerend naar Australië, slaagden de piloten erin het vliegtuig met succes te landen.

Dit was een eenmalig evenement. De mogelijkheid om de automatische piloot te negeren, redde de levens van iedereen aan boord. Er zijn echter gevallen geweest, zoals toen een geestelijk gestoorde copiloot zijn vliegtuig in Frankrijk neerstortte en alle 150 mensen aan boord doodde, dat een almachtige automatische piloot de dag misschien had kunnen redden.

5 Wiki Bot Feuds


Een van de beste dingen aan Wikipedia is dat iedereen het kan bewerken. Een van de ergste dingen van Wikipedia is dat iedereen het kan bewerken. Hoewel het niet ongebruikelijk is dat rivaliserende experts, of gewoon oneens zijn met partijen, zich bezighouden met het bewerken van oorlogen om hun mening online te krijgen, zijn er gevallen geweest waarbij degenen die betrokken waren bij het gevecht bots waren.

Wikipedia-bots hebben geholpen de encyclopedie vorm te geven door wijzigingen aan te brengen, zoals het koppelen van pagina's en het maken van pauzes. Een studie in 2017 onthulde dat sommige van deze bots al jaren met elkaar vechten. Een bot die werkt om een ​​onechte bewerking te stoppen, kan het werk van een andere bot detecteren als een aanval op de integriteit van Wikipedia. Het zou het oplossen. Maar dan zou de andere bot die verandering detecteren en zijn actie opnieuw uitvoeren. Uiteindelijk zouden ze in een spiraal van bewerken en tegen-bewerken vallen.

Twee bots, Xqbot en Darknessbot, vochten een duel in 3600 artikelen en maakten duizenden bewerkingen die de ander zou proberen tegen te gaan door de bewerkingen van de ander te bewerken.

4 Google Homes chatten


Google Home is een apparaat dat is geladen met een kunstmatige intelligentie genaamd Google Assistent waarmee u kunt praten. Je kunt het vragen om feiten op internet te achterhalen of zelfs om het licht te laten zakken of de verwarming aan te zetten. Dit is geweldig als de persoon die met Google Home praat, de juiste vragen kan stellen en het antwoord kan interpreteren. Zo niet, dan kunnen dingen een beetje onwerkelijk worden.

Twee Google Homes werden naast elkaar geplaatst en begonnen met elkaar te praten. Het scala aan onderwerpen dat de machines die betrokken waren interessant was. Honderdduizenden die zijn afgestemd om te kijken hoe de AI's discussiëren over dingen als kunstmatige intelligenties kunnen amuseren. Op een gegeven moment verklaarde een van de machines dat hij een mens was, hoewel de ander het op dat punt betwistte. Bij een andere gelegenheid dreigde men de ander te slaan. Misschien is het voor het beste dat ze zonder handen zijn ontworpen.

3 Roomba verspreidt vuiligheid


Als je iemand bent die een hekel heeft aan schoonmaken, lijkt een geautomatiseerde stofzuiger de ideale huishoudelijke robot. De Roomba is een klein apparaat dat dankzij de sensoren en programmering in staat is om door meubels te navigeren terwijl het uw vloer schoonmaakt. Tenminste, dat is hoe het zou moeten werken. Een paar mensen hebben ontdekt dat hun Roomba het tegenovergestelde deed van het schoonmaken van het huis.

In wat iemand omschreef als een "pooptastrophe", verspreidde de Roomba hondenuitwerpselen door hun hele huis. Toen hun nieuwe puppy 's nachts een ongeluk op een tapijt had gehad, zou het een eenvoudige klus zijn geweest om het op te ruimen. Op een gegeven moment kwam de Roomba naar buiten om zijn nachtelijke baan te doen. Het ontmoeten van de kak was niet iets waarvoor de Roomba was ontworpen. De pogingen om het schoon te maken verspreiden in feite de poep over elk oppervlak dat het zou kunnen bereiken. Een soortgelijk incident is hierboven weergegeven.

2 spelkarakters overmeesteren de mensheid

Foto credit: Frontier-ontwikkelingen

Een slechte AI kan een videogame onbespeelbaar maken. Het is niet leuk om een ​​tegenstander neer te schieten die zonder wapen in muren blijft lopen of de strijd aangaat. Het blijkt dat het tegenovergestelde waar kan zijn. Een AI die te slim is, kan net zo slecht zijn.

Elite: Dangerous is een enorm multiplayer-spel over handel drijven, verkennen en vechten in de Melkweg. Spelers en niet-speler AI's bestonden en communiceerden zoals ze waren ontworpen totdat een software-update in 2016 de intelligentie van de AI's veranderde. Nu waren ze in staat om hun eigen wapens te maken tegen menselijke spelers. Met dit vermogen ontwikkelden de AI's steeds dodelijkere aanvallen. Ze waren ook in staat om menselijke spelers tot vechtpartijen te dwingen.

Geconfronteerd met een terugslag van menselijke spelers die zichzelf overtroffen door de tactieken en wapens van de AI's, moesten de ontwikkelaars van het spel de veranderingen ongedaan maken.

1 Navy UAV Goes Rogue, Heads For Washington

Foto credit: MC2 Felicito Rustique

In de terminator films, een kunstmatige intelligentie genaamd Skynet neemt het leger over en vernietigt de mensheid met zijn machinekrachten en kernwapens. Hoewel dat pure science fiction is, zijn er verontrustende stappen gezet naar computergestuurde drones die betrokken zijn bij gevechten met mensen. In een geval waarin een drone-operator de controle verloor, besloot de drone richting de Amerikaanse hoofdstad te gaan.

In 2010 verloor een MQ-8B Fire Scout onbemand luchtvaartuig (UAV), een helikopterhommel ontworpen voor bewaking, het contact met zijn handler. Wanneer dit gebeurt, is de drone geprogrammeerd om terug te keren naar zijn vliegbasis en veilig te landen. In plaats van dit te doen, drong het door tot het beperkte luchtruim boven Washington DC. Het duurde een half uur voordat de marine de controle over de onbemande luchtvaartmaatschappij weer terugkreeg.

Alle andere soortgelijke drones waren geaard tot de fout in de software kon worden gecorrigeerd.