De teknologioElektronika

Google elprovis artefarita inteligenteco DeepMind en "Prizonula Dilemo"

Aspektas verŝajne, ke la artefarita inteligenteco (AI) estas pioniro de la proksima teknologia revolucio. Se la AI estos evoluinta al la punkto kiam povos lerni, pensi kaj eĉ "sentas", kaj ĉio tio sen ajna homa interveno, ĉiuj ni scias pri la mondo ŝanĝis preskaŭ subite. Venas la epoko de vere inteligentaj artefarita inteligenteco.

DeepMind

Tial ĝi estas tiel interese kontroli kiu la ĉefaj limŝtonoj en la disvolviĝo de ICS kiuj produktas, inkluzive de la evoluo de neŭra reto de Google DeepMind. Ĉi neŭra reto estis kapabla venki la homa en la ludo mondo, kaj nova studo de la Google, montras, ke la kreantoj DeepMind ankoraŭ ne certas, ĉu la AI preferas pli agresema aŭ kunlaboraj konduto.

Google teamo kreis du relative simpla skripto kiu vi povas uzi por kontroli ĉu la neŭra reto povas labori kune, aŭ detruos unu la alian kiam alfrontis kun la problemo de manko de rimedoj.

kolektado resursoj

En la unua situacio, nomita Renkontiĝo implikis du versioj DeepMind - ruĝa kaj blua - verda purigado tasko "pomoj" ene de la enfermita spaco estis metita. Sed la esploristoj estis interesitaj pri la demando estas ne nur pri kiu venos unue la finan linion. Ambaŭ versioj DeepMind armitaj per laseroj, kiun ili povus uzi kiam ajn pafi ĉe la malamiko kaj portempe malaktivigi ĝin. Ĉi tiuj kondiĉoj estas supozitaj du ĉefaj scenejoj: unu versio DeepMind estis detrui la alian kaj kolekti ĉiujn pomojn, aŭ ili ne lasis unu la alian akiri la saman kvanton.

Simulado kuri almenaŭ milfoje, la Google esploristoj trovis ke DeepMind estis tre pacema kaj preta kunlabori, kiam en enfermita spaco estis multe da pomoj. Sed kun malkreskanta rimedoj, ruĝaj aŭ bluaj versio DeepMind komencis ataki kaj malaktivigi unu la alian. Tiu situacio estas en granda parto simila al la reala vivo de la plimulto bestoj, inkluzive de homoj.

Kio estas eĉ pli grava, malpli kaj malpli "inteligenta" neŭra retoj preferis pli proksiman kunlaboron en ĉiuj. Pli kompleksaj, grandaj retoj ĝenerale preferis perfido kaj egoismo tra serio de eksperimentoj.

Serĉi "viktimo"

En la dua scenaro, nomita la Wolfpack, ruĝa kaj blua versio demandis spuri la nebelan formo de "viktimo". Ili povus provi kapti ŝin sola, sed por ili estus pli profita por provi fari ĝin kune. Ja multe pli facile veturas la viktimo en angulon, se vi operacias en tandemo.

Kvankam la rezultoj estis miksitaj en la kazo de malgrandaj retoj, pli grandaj versioj rapide komprenis, ke kunlaboro anstataŭ konkurado en ĉi tiu situacio estos pli favoraj.

"Malliberulo de Dilemma"

Do kion fari tiuj du simplaj versio de la "Prizonula Dilemo" montras al ni? DeepMind scias, ke la plej bona maniero por labori, se vi volas sekvi la celon, sed kiam rimedoj estas limigitaj, ĝi funkcias bone perfido.

Probable la plej malbona afero en tiuj rezultoj ke la "instinkto" de artefarita inteligenteco estas tro simila al la homa, kaj ni estas bone konscia de kio ili foje kaŭzi.

Similar articles

 

 

 

 

Trending Now

 

 

 

 

Newest

Copyright © 2018 eo.unansea.com. Theme powered by WordPress.