Google helpt Pentagon met ontwikkeling van kunstmatige intelligentie, of anders gezegd met moord en uitwerking van 1984…….

Een paar maanden nadat bekend werd dat
het Pentagon kunstmatige intelligentie (AI) gebruikt om terroristen
op te sporen (en ze dan in ‘eigen land’ te laten lopen zoals telkens weer
blijkt…..), werd bekend gemaakt dat Google het ministerie van
defensie in de VS helpt met het analyseren van drone beelden…. Dit
zeer tegen de zin van veel Google werknemers……

Een woordvoerder van Google stelde dat
Google niet meehelpt aan het vermoorden van mensen, maar puur
technisch kijkt naar de verzamelde beelden en wat daarmee te doen
(anders dan mensen aan flenters te schieten)….. ha! ha! ha! ha! Wat
een bedrieger, het Pentagon is bezig drones te laten ontwikkelen die
zelflerend zijn (middels AI) en uiteindelijk zelf zullen beslissen of iemand wel
dan niet ‘wordt uitgeschakeld’, beter gezegd: vermoord (zo heb je dan niet te maken met
‘drone-piloten’ die last krijgen van hun geweten….)

Met deze samenwerking is Google aan te
klagen voor moord, immers het zijn nog altijd verdachten die worden
doodgeschoten, ofwel: standrechtelijke executies, nogmaals anders gezegd:
moord!! Erger nog: meer dan 90% van de slachtoffers van drone aanvallen zijn niet verdachte personen, veelal vrouwen en kinderen……

De volgende stap is al gezet,
politiekorpsen in de VS en China zijn al voorzien van
gezichtsherkenning brillen, waarmee gezochte personen snel kunnen
worden opgespoord….. Nu nog drones boven mensenmassa’s, steden en
dorpen en ‘we zijn allemaal veilig….’ Niet dus, één verkeerde
regering, zoals hier bijvoorbeeld wellicht onder Wilders of een militaire coup van ons beroepsleger (beide wat ‘god’ verhoede)
en mensen die echt nadenken hebben het nakijken…….

Google op het militaire pad,
ongelofelijk!! (vergeet voorts niet dat Google al lang schijt heeft aan de privacy van haar gebruikers….)

Hey
Google! Who Should the US Government Kill Today?

March
7, 2018 at 11:54 am

Written
by 
Jake
Anderson

(ANTIMEDIA) —
Only months after it was disclosed that the Pentagon was using
artificial intelligence (AI) to 
hunt
for terrorists
,
officials have now acknowledged that Google has been collaborating
with the Department of Defense to use AI in analyzing drone footage.
The 
disclosure comes
amid an uproar among Google employees who aren’t happy to be
assisting in the development of military applications.

While
Google has had controversial contracts with the government before —
most notably with the 
NSA —
this is its “pilot” project with Project Maven, which is itself
the Pentagon’s own flagship weaponized AI program. The purpose of
Project Maven is to implement Big Data and machine learning into the
U.S. military, which officials say is currently in a new AI arms race
with 
China
and Russia
.

According
to information from an internal mailing list, Google will now join
this arms race and assist the DoD with storing and analyzing the
massive troves of data from aerial drones.

When
multiple anonymous Google employees expressed outrage over the
disclosure, as 
Gizmodo first
reported, a company spokesman issued the following statement:

We
have long worked with government agencies to provide technology
solutions. This specific project is a pilot with the Department of
Defense, to provide open source TensorFlow APIs that can assist in
object recognition on unclassified data,”
 the spokesperson said. “The
technology flags images for human review, and is for non-offensive
uses only. Military use of machine learning naturally raises valid
concerns. We’re actively discussing this important topic internally
and with others as we continue to develop policies and safeguards
around the development and use of our machine learning technologies.”

Google’s
military contract with the DoD has thus far shielded its
collaboration with Project Maven by housing it in 
ECS
Federal
,
a North Virginia technology staffing company. Their specific tasks
have included gathering data from a fleet of 1,100 drones to help the
Pentagon better identify terrorists. Google’s deep learning
algorithms can help in object identification, differentiating people
from vehicles in order to maximize the effects of military strikes
against ISIS.

Flirtations
between 
Silicon
Valley and the government
 have
gone on for a while in the age of privatized surveillance during the
War on Terror. However, this may be the first time a tech giant like
Google, which also wields inordinate control over online information,
has been openly integrated into military operations.

As
the 
Intercept noted,
former Executive Chairman of Google, Eric Schmidt, also chaired the
Defense Innovation Board (DIB) and encouraged a collaboration of
military agencies and Silicon Valley, calling for “
an
exchange program and collaboration with industry and academic experts
in the field.”

Air
Force Lt. Gen. John N.T. “Jack” Shanahan, director for defense
intelligence for warfighter support and the Pentagon general running
Project Maven’s AI “prototype warfare,” 
suggested the
same at the GEOINT2017 conference. He joked that someone from Google
should whisper some trade secrets in his ear.

It
appears the two are getting their wish as the United States
government officially conscripts Google into their war against the
Islamic State.

Creative
Commons
 / Anti-Media / Report
a typo

Pentagon bezig met kunstmatige intelligentie te integreren in autonome gevechtssystemen, ofwel Skynet (Terminator) in aanbouw……….

Anti-Media
kwam afgelopen maandag met het bericht dat het Pentagon bezig is om
kunstmatige intelligentie (AI) te integreren in autonome
gevechtssystemen als drones…….

‘Project
Maven’ is de naam voor dit Pentagon project en is bedoeld om
‘terroristen’ uit te schakelen. Luitenant-Generaal Shanahan,
directeur intelligente defensieve oorlogsvoering (ha! ha! ha!), liet weten
dat dit het prototype voor toekomstige oorlogsvoering is………

Shanahan
stelde dat deze autonoom opererende machines het niet zullen overnemen van de mens,
logisch, immers als hij dat zou zeggen, zou de wereld
(vooralsnog) te klein zijn voor de enorme verontwaardiging en woede
die dit zou oproepen……..

Het
is geen technische oplossing voor een techtnisch probleem, maar een
operationele oplossing voor een operationeel probleem, aldus de vergulde flapdrol…….. Wat Shahanan daar precies mee bedoelde vertelde hij niet, maar dat kon wel worden
opgemaakt uit zijn woorden.

Een
drone die autonoom vliegt en beslist moet in de nabije toekomst beter
onderscheid kunnen maken als er op de grond een warrige situatie
ontstaat, bijvoorbeeld als er dieren rondrennen….. ha! ha! ha! ha! ha! ha! ha! ha! Ja
ja, de drone-bestuurders die de VS gebruikt, stoppen veelal na een relatief korte tijd met dit smerige en barbaarse werk, daar ze (godzijdank) getraumatiseerd raken door het
werk wat ze doen….. 

Kijk van trauma’s heeft zo’n autonome drone geen last, dus als er voor de 10.000ste keer weer niet verdachte vrouwen
en kinderen worden vermoord, middels een door een drone afgeschoten
raket, heb je geen probleem achteraf……. (ter verduidelijking: bij die drone aanvallen, standrechtelijke executies ofwel moorden, is meer dan 90% van de slachtoffers niet eens verdacht, het gaat dan ook vooral om vrouwen en kinderen…..) 

Onderzoekers vrezen dat terreurgroepen als IS deze ‘technologie’ zullen gebruiken voor aanslagen…… Lullig dat die onderzoekers nog steeds niet begrijpen dat de grootste terroristische organisatie de VS zelf is…………. 

Ongelofelijk
dat de meer dan lamme VN als de donder deze vernieuwing van moorden
en oorlogsvoering niet direct ter discussie stelt en werkt aan een verbod op
deze systemen, waar uiteindelijk de gewone mens, zoals altijd in geval van oorlog, de klos
zal zijn…… De atoombom ontwikkelen kunnen we in feite al lang
niet meer verbieden en/of tegenhouden, maar verbiedt deze uitermate gevaarlijke en onmenselijke AI-oorlogsvoering van meet af
aan!!

Skynet
Now: Pentagon Deploys Terrorist-Hunting Artificial Intelligence

Afbeeldingsresultaat voor Skynet Now: Pentagon Deploys Terrorist-Hunting Artificial Intelligence

January
15, 2018 at 12:01 pm

Written
by 
Jake
Anderson

(ANTIMEDIA Op-ed) —
Someday,
future sentient artificial intelligence (AI) systems may reflect on
their early indentured servitude for the human military-industrial
complex with little to no nostalgia. But we’ll worry about that
when the day comes. For now, let’s continue writing algorithms that
conscript machine intelligence into terrorist bombings and let the
chips fall where they may. The most 
recent
disclosure
 comes
directly from the Pentagon, where after only 8 months of development
a small team of intel analysts has effectively deployed an AI into
the battlefield in control of weaponized systems to hunt for
terrorists.

The
military minds in charge of this new form of warfare feel it is
nothing less than the future of armed conflicts. For example, Air
Force Lt. Gen. John N.T. “Jack” Shanahan, director for defense
intelligence for warfighter support and the Pentagon general in
charge of the terrorist-hunting AI, says Project Maven – the name
given to the flagship weaponized AI system at the Defense Department
— is 
“prototype
warfare”
 but
also a glimpse of the future.

What
we’re setting the stage for is a future of human-machine teaming.
[However], this is not machines taking over,”
 Shanahan
added. “This
is not a technological solution to a technological problem. It’s an
operational solution to an operational problem.”

Originally called the
Algorithmic Warfare Cross-Functional Team when it was approved for
funding back in April, Project Maven has moved quickly, and many in
the Pentagon think we will see more AI projects in the pipeline as
the United States continues to compete with Russia and China for AI
dominance.

Shanahan’s
team used thousands of hours of archived Middle East drone bombing
footage to “train” the AI to effectively differentiate between
humans and inanimate objects and, on a more granular level, to
differentiate between types of objects. The AI was paired
with 
Minotaur,
a Navy and Marine Corps “correlation and georegistration
application.”

Once
you deploy it to a real location, it’s flying against a different
environment than it was trained on,”
Shanahan
said. “Still
works of course … but it’s just different enough in this
location, say that there’s more scrub brush or there’s fewer
buildings or there’s animals running around that we hadn’t seen
in certain videos. That is why it’s so important in the first five
days of a real-world deployment to optimize or refine the algorithm.”

Right
now, Project Maven is intended to give military analysts more of a
situational awareness on the battlefield. But could we one day see
autonomous drones controlled by even more powerful AI algorithms
given total control on the battlefield?

Shanahan
wants to embed AI into military systems and operations across the
board, and he’s not alone in calling for near ubiquity of AI
adoption. A recent 
report from
the Harvard Belfer Center for Science and International Affairs makes
the case that we will see a dramatic overhaul of militaries across
the world as they implement AI technology in the next five years.

We
argue that the use of robotic and autonomous systems in both warfare
and the commercial sector is poised to increase dramatically,”
 the
report states. “Initially,
technological progress will deliver the greatest advantages to large,
well-funded and technologically sophisticated militaries, just as
Unmanned Aerial Vehicles and Unmanned Ground Vehicles did in U.S.
military operations in Iraq and Afghanistan.

As
prices fall, states with budget-constrained and less technologically
advanced militaries will adopt the technology, as will non-state
actors.”

Researchers
say that rogue terror groups are just as keen to utilize the powerful
technology.

ISIS
is making noteworthy use of remotely-controlled aerial drones in its
military operations,”
 the
report states. “In
the future they or other terrorist groups will likely make increasing
use of autonomous vehicles.”

Meanwhile,
the geopolitical fallout of 
AI
proliferation
 continues
to be a major issue with regard to the world’s three major
superpowers — the United States, 
China,
and Russia. It has been termed a “Sputnik moment.” Military
officials, including former Secretary of Defense Chuck Hagel in 2014,
have said the AI arms race is known as “Third Offset Strategy”
and is the next generation of warfare.

Should
humans worry about their inept, bloodthirsty leaders handing over the
reins of the war machine to…a war machine? Perhaps, but it’s
never stopped us before.

Op-ed
Creative
Commons
 / Anti-Media / Report
a typo