src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
Rörlighet för noder är en av huvudorsakerna till trasiga länkar i trådlösa nätverk. Även om flera teoretiska modeller för val av länkar och rutter har föreslagits i litteraturen, har hittills få ansträngningar gjorts för att tillämpa dem på de befintliga routingprotokollen. I denna artikel, ett beslut träd har införlivats i en reaktiv routing protokoll för att välja de mest långlivade rutter. Beslutsträdet är baserat på nodernas rörelseparametrar som normalt beaktas av de teoretiska modellerna, såsom avstånd mellan noder, relativ hastighet och nodernas riktningar. De översvämningstekniker som används inom routing protokollen för routing upptäckt förfaranden orsakar en massiv användning av kontrollpaket som i sin tur har negativ inverkan på prestanda nätverken. Så, en förbättrad översvämningskontroll presenteras i denna artikel som förbättrar prestandan för det föreslagna valet av rutt baserat på ett beslutsträd, i sin tur minskar overheads och strömförbrukningen som orsakas av kontrollpaketen. Dessa två föreslagna tillvägagångssätt har genomförts över en allmänt använd reaktiv routing protokoll såsom Ad Hoc On-Demand Distance Vector (AODV) för att få resultat med hjälp av Network Simulator 2 simuleringsverktyg. Resultaten av de föreslagna strategierna har jämförts med resultaten av AODV:s genomförande när det gäller allmän prestanda och väglängd. Simuleringsresultaten visar att det föreslagna valet av rutt avsevärt förbättrar resultaten av AODV.
Dessutom, ruttduration förbättring (RDI) algoritm baserad på beslut träd är införlivad i den reaktiva routing protokoll för att stödja WSANs REF.
16,133,559
Route duration improvement in wireless sensor and actuator networks based on mobility parameters and flooding control
{'venue': None, 'journal': 'EURASIP Journal on Wireless Communications and Networking', 'mag_field_of_study': ['Computer Science']}
1,126
I översättning, med tanke på dokumentet som helhet kan bidra till att lösa tvetydigheter och inkonsekvenser. I detta dokument föreslår vi en kors-sentence kontext-medveten strategi och undersöka påverkan av historisk kontextuell information om prestanda neural maskinöversättning (NMT). För det första sammanfattas denna historia på ett hierarkiskt sätt. Vi integrerar sedan den historiska representationen i NMT i två strategier: 1) en varm start av kodare och dekoder stater, och 2) en extra sammanhangskälla för uppdatering av dekoder stater. Experimentella resultat från en stor kinesisk-engelska översättningsuppgift visar att vår strategi avsevärt förbättrar ett starkt uppmärksamhetsbaserat NMT-system med upp till +2.1 BLEU-poäng.
I REF föreslås ett tvärgående sammanhangsmedvetet tillvägagångssätt som integrerar den historiska kontextuella informationen i NMT-systemet.
9,768,369
Exploiting Cross-Sentence Context for Neural Machine Translation
{'venue': 'Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing', 'journal': 'Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing', 'mag_field_of_study': ['Computer Science']}
1,127
I mikrobloggningstjänster använder brukar användare hashtaggar för att markera nyckelord eller ämnen. Tillsammans med den snabba ökningen av sociala nätverk har uppgiften att automatiskt rekommendera hashtaggar fått stor uppmärksamhet under de senaste åren. Tidigare arbeten fokuserade endast på användning av textinformation. Många mikroblogginlägg innehåller dock inte bara texter utan också motsvarande bilder. Dessa bilder kan ge ytterligare information som inte finns med i texten, vilket kan vara till hjälp för att förbättra riktigheten av hashtag rekommendation. Motiverade av den framgångsrika användningen av uppmärksamhetsmekanismen föreslår vi ett gemensamt nätverk som innehåller text- och visuell information för att rekommendera hashtaggar för multimodala tweets. Experimentella resultat av de data som samlats in från Twitter visade att den föreslagna metoden kan uppnå bättre resultat än de senaste metoderna med enbart textinformation.
Det utvidgade tillvägagångssättet var inspirerat av en annan hashtag rekommendationsmetod REF ) som använde co-attention mekanism för att kombinera text och visuell information som finns i många tweets.
32,927,041
Hashtag Recommendation for Multimodal Microblog Using Co-Attention Network
{'venue': 'IJCAI', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,128
Abstract Software arkiv håller program som ofta kategoriseras för att förbättra effektiviteten av olika underhållsuppgifter. Korrekt kategoriserade applikationer gör det möjligt för intressenter att identifiera krav som rör deras tillämpningar och förutsäga underhållsproblem i programvaruprojekt. Manuell kategorisering är dyrt, tröttsamt och mödosamt -det är därför automatisk kategorisering metoder blir allt viktigare. Tyvärr, av olika juridiska och organisatoriska skäl, är ansökningarnas källkod ofta inte tillgänglig, vilket gör det svårt att automatiskt kategorisera dessa program. I detta dokument föreslår vi en ny metod där vi använder Application Programming Interface (API) samtal från tredje part bibliotek för automatisk kategorisering av program som använder dessa API samtal. Vårt tillvägagångssätt är allmänt eftersom det gör det möjligt att tillämpa olika kategoriseringsalgoritmer på databaser som innehåller både källkod och bytekod för applikationer, eftersom API-anrop kan extraheras från både källkoden och byte-koden. Vi jämför vår strategi med ett toppmodernt tillvägagångssätt som använder maskininlärning föreslår vi ett nytt tillvägagångssätt som gör det möjligt att kategorisera programvaruprojekt utan källkod med hjälp av ett litet antal API-anrop som attribut, och dessutom genomförde vi en omfattande empirisk utvärdering av automatiska kategoriseringsmetoder.
Dessutom föreslog de att API-samtal från tredjepartsbibliotek skulle användas för automatisk kategorisering av program som använder dessa API-samtal REF.
14,726,976
On using machine learning to automatically classify software applications into domain categories
{'venue': 'Empirical Software Engineering', 'journal': 'Empirical Software Engineering', 'mag_field_of_study': ['Computer Science']}
1,129
Abstract-This paper tar upp sekretessläckage i biometriska sekretesssystem. Fyra inställningar undersöks. Den första är standarden Ahlswede-Csiszár hemlig generation inställning där två terminaler observerar två korrelerade sekvenser. De utgör en gemensam hemlighet genom att förväxla ett offentligt budskap. Detta meddelande bör endast innehålla en försumbar mängd information om hemligheten, men här kräver vi dessutom att den läcker ut så lite information som möjligt om de biometriska uppgifterna. För detta första fall bestäms den grundläggande kompromissen mellan sekretess-nyckel och sekretess-läckor. Även för den andra inställningen, där hemligheten inte genereras utan väljs självständigt, den grundläggande hemliga nyckel kontra integritet-läckage balans hittas. Inställningarna tre och fyra fokuserar på nollläckagesystem. Här bör det offentliga budskapet endast innehålla en försumbar mängd information om både den hemliga och den biometriska sekvensen. För att uppnå detta krävs en privat nyckel, som endast kan iakttas av terminalerna. För både den genererade-hemliga och den valda-hemliga modellen, de regioner med uppnåeliga hemliga nyckel- kontra privat nyckel klass par bestäms. För alla fyra inställningar bestäms den grundläggande balansen för både villkorslöst och villkorslöst integritetsläckage.
I REF presenterar författarna regionen med uppnåelig hemlig nyckel jämfört med sekretess-läckage (nyckel vs läckage) för GS-modellen.
1,513,363
Biometric Systems: Privacy and Secrecy Aspects
{'venue': 'IEEE Transactions on Information Forensics and Security', 'journal': 'IEEE Transactions on Information Forensics and Security', 'mag_field_of_study': ['Computer Science']}
1,131
Snabb och robust tredimensionell rekonstruktion av ansiktsgeometrisk struktur från en enda bild är en utmanande uppgift med många tillämpningar. Här introducerar vi ett inlärningsbaserat tillvägagångssätt för att rekonstruera ett tredimensionellt ansikte från en enda bild. Nya metoder för ansiktsåterhämtning bygger på korrekt lokalisering av viktiga karakteristiska punkter. Det föreslagna tillvägagångssättet bygger däremot på ett Convolutional-Neural-Network (CNN) som extraherar ansiktsgeometrin direkt från sin bild. Även om sådana djupa arkitekturer överträffar andra modeller i komplexa datorseende problem, behöver utbildning dem ordentligt en stor datauppsättning med kommenterade exempel. När det gäller tredimensionella ansikten finns det för närvarande inga stora volymdatamängder, medan det är en tråkig uppgift att skaffa sig sådana stora data. Som ett alternativ föreslår vi att generera slumpmässiga, men nästan fotorealistiska, ansiktsbilder för vilka den geometriska formen är känd. Den föreslagna modellen återvinner framgångsrikt ansiktsformer från verkliga bilder, även för ansikten med extrema uttryck och under olika ljusförhållanden.
I REF är ett CNN utbildat med hjälp av syntetiska data för att extrahera ansiktet geometri från en enda bild.
206,429,068
3D Face Reconstruction by Learning from Synthetic Data
{'venue': '2016 Fourth International Conference on 3D Vision (3DV)', 'journal': '2016 Fourth International Conference on 3D Vision (3DV)', 'mag_field_of_study': ['Computer Science']}
1,132
Abstract-Vi studerar problemet med autonom drift av enheten-till-enhet (D2D) par i ett heterogent cellulärt nätverk med flera basstationer (BS). Spektrumbanden för BS (som kan överlappa varandra) består av uppsättningar av ortogonala trådlösa kanaler. Vi betraktar följande spektrumanvändningsscenarier: 1) D2D-paren sänder över de särskilda frekvensbanden och 2) D2D-paren fungerar på de delade cellulära/D2D-kanalerna. Målet för varje enhet par är att gemensamt välja den trådlösa kanalen och effektnivån för att maximera sin belöning, definieras som skillnaden mellan den uppnådda genomströmningen och kostnaden för strömförbrukningen, begränsas av dess minsta tolerabla signal-till-interference-plus-brus-förhållande krav. Vi formulerar detta problem som ett stokastiskt icke-kooperativt spel med flera spelare (D2D par) där varje spelare blir en lärande agent vars uppgift är att lära sig sin bästa strategi (baserat på lokalt observerad information) och utveckla en helt autonom multi-agent Q-lärande algoritm konvergera till en blandad strategi Nash jämvikt. Den föreslagna inlärningsmetoden genomförs i ett långsiktigt utvecklingsavancerat nätverk och utvärderas via OPNET-baserade simuleringar. Algoritmen visar relativt snabb konvergens och nära optimal prestanda efter ett litet antal iterationer. Index Terms-Device-to-device kommunikation, heterogena nätverk, störningshantering, förstärkning lärande, resursfördelning.
Asheralieva och Miyanaga studerade det multiagentiska förstärkningslärandet med hjälp av belöningar för att maximera signal-till-interferenceplus-brus-förhållandet (SINR) och öka överföringskapaciteten i D2D-nätverk REF.
37,710,820
An Autonomous Learning-Based Algorithm for Joint Channel and Power Level Selection by D2D Pairs in Heterogeneous Cellular Networks
{'venue': 'IEEE Transactions on Communications', 'journal': 'IEEE Transactions on Communications', 'mag_field_of_study': ['Computer Science']}
1,133
För att förstå den hierarkiska organisationen av stora integrerade system introducerar vi den hierarkiska kartekvationen, som avslöjar flernivåstrukturer i nätverk. I detta informationsteoretiska tillvägagångssätt utnyttjar vi dualiteten mellan komprimering och mönsterdetektering; genom att komprimera en beskrivning av en slumpmässig gångare som en proxy för verkligt flöde på ett nätverk, hittar vi regulariteter i nätverket som inducerar detta system-omfattande flöde. Att hitta den kortaste flernivåbeskrivningen av den slumpmässiga gångmaskinen ger oss därför den bästa hierarkiska klustereringen av nätverket - det optimala antalet nivåer och modulära partitionen på varje nivå - med hänsyn till dynamiken på nätverket. Med en ny sökalgoritm tar vi fram och illustrerar den rika flernivåorganisationen av flera stora sociala och biologiska nätverk. Från det globala nätverket för flygtrafik avslöjar vi till exempel länder och kontinenter, och från mönstret för vetenskaplig kommunikation avslöjar vi mer än 100 vetenskapliga områden som är organiserade inom fyra huvudområden: biovetenskap, fysik, ekologi och geovetenskap samt samhällsvetenskap. I allmänhet finner vi ytliga hierarkiska strukturer i globalt sammankopplade system, såsom neurala nätverk, och rika flernivåorganisationer i system med mycket separerade regioner, såsom vägnät.
En senare framgångsrik algoritm, Infomap, som föreslagits av Rosvall & Bergstrom REF gjorde det möjligt att avtäcka hierarkiska strukturer i nätverk genom att komprimera en beskrivning av en slumpmässig gångare som en proxy för verkligt flöde på nätverk.
981,136
Multilevel compression of random walks on networks reveals hierarchical organization in large integrated systems
{'venue': 'PLoS ONE 6(4): e18209 (2011)', 'journal': None, 'mag_field_of_study': ['Physics', 'Computer Science', 'Medicine']}
1,134
Abstract-optimal cache innehåll placering i en trådlös liten cell basstation (sBS) med begränsad backhaul kapacitet studeras. SBS har ett stort cacheminne och tillhandahåller selektiv avlastning på innehållsnivå genom att leverera innehåll med hög datahastighet till användare inom sitt täckningsområde. Målet med sBS content controller (CC) är att lagra det mest populära innehållet i sBS-cacheminnet så att den maximala mängden data kan hämtas direkt bildar SBS, inte förlita sig på de begränsade backhaul resurser under topptrafik perioder. Om popularitetsprofilen är känd i förväg, minskar problemet till en knapsack problem. Det antas dock i detta arbete att popularitetsprofilen för filerna inte är känd av CC, och det kan bara observera den omedelbara efterfrågan på det cachade innehållet. Därför optimeras placeringen av cacheinnehåll utifrån efterfrågehistoriken. Genom att uppdatera cacheinnehållet med jämna mellanrum försöker CC lära sig popularitetsprofilen, samtidigt som man utnyttjar den begränsade cachekapaciteten på bästa möjliga sätt. Tre algoritmer studeras för detta cacheinnehåll placering problem, vilket leder till olika exploatering-exploatering kompromisser. Vi tillhandahåller omfattande numeriska simuleringar för att studera tid-evolutionen av dessa algoritmer, och effekten av systemparametrarna, såsom antalet filer, antalet användare, cachestorleken, och skevheten i popularitetsprofilen, på prestandan. Det visas att de föreslagna algoritmerna snabbt lär sig popularitetsprofilen för ett brett spektrum av systemparametrar.
REF tar hänsyn till en relaterad modell, men innehållsplaceringen är optimerad utan a-prioriterad kunskap om fil popularitet, som lärs av efterfrågehistoriken.
16,226,872
Learning-based optimization of cache content in a small cell base station
{'venue': '2014 IEEE International Conference on Communications (ICC)', 'journal': '2014 IEEE International Conference on Communications (ICC)', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
1,135
För att uppnå hög energieffektivitet och låg responstid i datormiljöer med stora dataströmmar krävs det att man modellerar en energieffektiv resursplanerings- och optimeringsram. I detta dokument föreslår vi en realtids- och energieffektiv resursplanerings- och optimeringsram, kallad Re-Stream. För det första profilerar Re-Stream ett matematiskt förhållande mellan energiförbrukning, svarstid och resursutnyttjande, och får förutsättningar att uppfylla hög energieffektivitet och låg svarstid. För det andra modelleras en dataströmsgraf med hjälp av de distribuerade strömdatateorierna, som identifierar den kritiska vägen inom dataströmmens graf. En sådan metod hjälper till att beräkna energiförbrukningen i ett resursfördelningssystem för ett dataflödesdiagram vid en given dataflödeshastighet. För det tredje fördelar Re-Stream uppgifter genom att använda en energieffektiv heuristisk och en kritisk planläggningsmekanism som omfattas av de arkitektoniska kraven. Detta görs för att optimera schemaläggningsmekanismen online genom att omfördela kritiska hörn på den kritiska vägen för en dataström graf för att minimera svarstiden och systemfluktuationer. Dessutom konsoliderar Re-Stream de icke-kritiska hörnen på den icke-kritiska vägen för att förbättra energieffektiviteten. Vi utvärderar Re-Stream för att mäta energieffektivitet och responstid för datormiljöer med stor dataström. De experimentella resultaten visar att Re-Stream har förmågan att förbättra energieffektiviteten i ett datorsystem med stor dataström och att minska den genomsnittliga svarstiden. Re-Stream ger en elegant kompromiss mellan ökad energieffektivitet och minskad svarstid effektivt i stora dataströmmars datormiljöer.
Sol och al. REF föreslog ett ramverk för schemaläggning och optimering av flera datoruppgifter i realtid och energieffektivt.
62,779,288
Re-Stream : Real-time and energy-efficient resource scheduling in big data stream computing environments
{'venue': 'Inf. Sci.', 'journal': 'Inf. Sci.', 'mag_field_of_study': ['Computer Science']}
1,136
Vi studerar konturträd av terräng, som kodar de topologiska förändringarna av nivåuppsättningen av höjdvärdet när vi höjer från −∞ till +∞ på terrängen, i närvaro av osäkerhet i data. Vi antar att terrängen representeras av en bitvis-linjär höjdfunktion över en plan triangulation M, genom att ange höjden på varje vertex. Vi studerar fallet när M är fast och osäkerheten ligger i höjden på varje vertex i trianguleringen, som beskrivs med en sannolikhetsfördelning. Vi presenterar effektiva provtagningsbaserade Monte Carlo metoder för att uppskatta, med hög sannolikhet, (i) sannolikheten att två punkter ligger på samma kant av konturträdet, inom additivt fel; (ii) det förväntade avståndet på två punkter p, q och sannolikheten att avståndet p, q är minst på konturträdet, inom additivt fel, där avståndet p, q på ett konturträd definieras som skillnaden mellan den maximala höjden och den minsta höjden på den unika banan från p till q på konturträdet. Det viktigaste tekniska bidraget från papperet är att bevisa att ett litet antal prover är tillräckliga för att uppskatta dessa kvantiteter. Vi presenterar två tillämpningar av dessa algoritmer, och även några experimentella resultat för att visa effektiviteten i vår strategi.
Zhang m.fl. har föreslagit provtagningsbaserade Monte Carlo-metoder för att studera konturträd i osäker terräng, där osäkerheten ligger i den höjdfunktion som beskrivs av en sannolikhetsfördelning REF.
10,189,242
Contour trees of uncertain terrains
{'venue': "GIS '15", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
1,137
Uppmärksamhetsmekanismer i neurala nätverk har visat sig användbara för problem där ingång och utgång inte har fast dimension. Ofta finns det funktioner som är lokalt översättningsinvariant och skulle vara värdefullt för att styra modellens uppmärksamhet, men tidigare uppmärksamhet arkitekturer är inte konstruerade för att lära sig sådana funktioner specifikt. Vi introducerar ett uppmärksamhetsnätverk som använder konvolution på inmatningspolletterna för att upptäcka lokala tidsinvarianta och långdistans aktuella uppmärksamhetsfunktioner på ett sammanhangsberoende sätt. Vi tillämpar denna arkitektur på problemet med extrem sammanfattning av källkodsslippar i korta, beskrivande funktionsnamn-liknande sammanfattningar. Med hjälp av dessa funktioner genererar modellen sekventiellt en sammanfattning genom att marginalisera över två uppmärksamhetsmekanismer: en som förutspår nästa sammanfattning token baserat på uppmärksamhet vikter av inmatningspolletter och en annan som kan kopiera en kod token as-är direkt in i sammanfattningen. Vi visar vår konvolutionella uppmärksamhet neurala nätverkets prestanda på 10 populära Java projekt visar att det uppnår bättre prestanda jämfört med tidigare uppmärksamhetsmekanismer.
Till denna punkt Allamatanis et al. använder en Uppmärksamhet Neural Network (ANN) med en convolution lager för att sammanfatta bitar av källkod i korta, funktionella beskrivningar REF.
2,723,946
A Convolutional Attention Network for Extreme Summarization of Source Code
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
1,138
Abstract-Network tjänsteleverantörer måste hantera den växande behov on-demand från slutanvändare samt mångfalden av användning. Softwerization och molnifiering av nätverkskomponenterna erbjuder en intressant lösning för att uppnå den smidighet som krävs för att dynamiskt motsvara kravet med nivån på resursförbrukningen. Detta materialiseras med utbyggnaden av nätverksfunktioner Virtualization (NFV) där virtuella nätverksfunktioner (VNF) kan kedjas ihop för att skapa nätverkstjänster. I detta dokument undersöks viktiga design- och arkitekturfrågor i samband med detta tillvägagångssätt. Vi studerar resursfördelningsproblemet i ett NFV-system för att minimera dess kostnader under begränsningar av sammanlänkningen mellan VNF:er, systemresurser och servicekrav. Vi formaliserar problemet på ett övergripande sätt med hänsyn till en bred uppsättning relevanta parametrar. De statiska (offline) och dynamiska (online) fallen beaktas. Vi föreslår och analyserar tre heuristiska algoritmer: två för att hantera stora dimensioner av offline-problemet och en för att ta itu med online-scenariot. Utvärderingen visar att våra lösningar överträffar den senaste tekniken [1] med avseende på kritiskt prestationsindex. Slutligen fokuserar vi på online-scenariot, utvärderar effekterna av migrering av en rad löpande krav och föreslår en enkel migrationsteknik.
Författarna i Reference Ref tog dessutom upp resurstilldelningsproblemet i ett NFV-system, som syftar till att minimera systemkostnaden och maximera antalet begäranden.
13,010,446
A comprehensive resource management and placement for network function virtualization
{'venue': '2017 IEEE Conference on Network Softwarization (NetSoft)', 'journal': '2017 IEEE Conference on Network Softwarization (NetSoft)', 'mag_field_of_study': ['Computer Science']}
1,139
Vi introducerar en metod för att upptäcka optimala lokala mönster, som kortfattat beskriver de viktigaste trenderna i en tidsserie. Vår strategi undersöker tidsserierna vid flera tidsskalor (dvs fönsterstorlekar) och upptäcker effektivt de viktigaste mönstren i varje. Vi inför också ett kriterium för att välja de bästa fönsterstorlekarna, som mest koncist fångar nyckeln oscillator och enperiodiska trender. Vår nyckelinsikt ligger i att lära sig en optimal ortonormal omvandling från själva data, i motsats till att använda en förutbestämd grund eller approximerande funktion (såsom bitvis konstant, kort fönster Fourier eller wavelets), som i huvudsak begränsar oss till en viss familj av trender. Vår metod lyfter denna begränsning, samtidigt utlåning sig till snabb, inkrementell uppskattning i en strömmande inställning. Experimentell utvärdering visar att vår metod kan fånga upp meningsfulla mönster i en mängd olika miljöer. Vår streaming tillvägagångssätt kräver storleksordning mindre tid och utrymme, medan fortfarande producerar koncisa och informativa mönster.
Papadimitriou m.fl. REF föreslår en metod för att upptäcka de viktigaste trenderna i en tidsserie på flera tidsskalor (fönsterlängder) genom att definiera en inkrementell version av Singular Value Decomposition.
195,904
Optimal multi-scale patterns in time series streams
{'venue': "SIGMOD '06", 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,140
Abstract-Vi föreslår en ny legaliseringsmetod baserad på virtuell kontraarial förlust: ett nytt mått på lokal smidighet i utdatadistributionen. Virtuell kontraarial förlust definieras som robustheten i modellens bakre fördelning mot lokal perturbation runt varje inmatningspunkt. Vår metod liknar den kontradiktoriska träningen, men skiljer sig från den kontradiktoriska träningen genom att den bestämmer den kontradiktoriska riktningen endast baserat på utgångsfördelningen och att den är tillämplig på en semiövervakad inställning. Eftersom de riktningar i vilka vi slätar ut modellen är praktiskt taget kontradiktoriska, kallar vi vår metod virtuell kontradiktorisk utbildning (moms). Beräkningskostnaden för mervärdesskatt är relativt låg. För neurala nätverk, den ungefärliga gradienten av virtuella motgångar förlust kan beräknas med högst två par av framåt och bakåt propagationer. I våra experiment tillämpade vi moms på övervakad och halvövervakad inlärning på flera referensdatauppsättningar. Med ytterligare förbättringar baserade på entropiminimeringsprincipen uppnår vår moms toppmoderna prestanda på SVHN och CIFAR-10 för halvövervakade inlärningsuppgifter.
Virtual Adversarial Training REF legaliserar nätverket med hjälp av ett mått på lokal smidighet i den villkorliga etikettdistributionen med tanke på inmatningen, definierad som robustheten i förutsägelsen till lokala kontrarimala störningar i inmatningsutrymmet.
17,504,174
Virtual Adversarial Training: a Regularization Method for Supervised and Semi-supervised Learning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Medicine', 'Computer Science', 'Mathematics']}
1,141
Abstrakt. Vi tar itu med problemet med att hitta ett team av experter från ett socialt nätverk för att slutföra ett projekt som kräver en uppsättning färdigheter. Det sociala nätverket är modellerat som en graf. En nod i grafen representerar en expert och har en vikt som representerar den monetära kostnaden för att använda experttjänsten. Två noder i grafen kan anslutas och vikten på kanten representerar kommunikationskostnaden mellan de två motsvarande experterna. Med tanke på ett projekt är vårt mål att hitta ett team av experter som täcker alla nödvändiga färdigheter och även minimerar kommunikationskostnaden samt personalkostnaden för projektet. För att minimera båda målen definierar vi en ny kombinerad kostnadsfunktion som bygger på den linjära kombinationen av målen (dvs. Kostnader för kommunikation och personal. Vi visar att problemet med att minimera den kombinerade kostnadsfunktionen är ett NP-hårdt problem. Således föreslås en approximationsalgoritm för att lösa problemet. Den föreslagna approximationsalgoritmen begränsas och algoritmens approximationsförhållande bevisas i dokumentet. Tre heuristiska algoritmer baserade på olika intuitioner föreslås också för att lösa problemet. Omfattande experiment på verkliga datauppsättningar visar de föreslagna algoritmernas effektivitet och skalbarhet.
I REF föreslår författarna att hitta ett team av experter samtidigt minimera både kommunikations- och personalkostnader.
16,815,909
Efficient bi-objective team formation in social networks
{'venue': 'ECML/PKDD', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,142
Multivariat statistisk analys är en viktig dataanalysteknik som har funnit tillämpningar inom olika områden. I detta dokument studerar vi några multivariata statistiska analysmetoder i Secure 2-parts Computation (S2C) ramverk illustreras av följande scenario: två parter, var och en med en hemlig datauppsättning, vill genomföra den statistiska analysen på sina gemensamma data, men ingendera parten är villig att lämna ut sina privata uppgifter till den andra parten eller någon tredje part. De nuvarande statistiska analysmetoderna kan inte användas direkt för att stödja denna typ av beräkningar, eftersom de kräver att alla parter skickar de nödvändiga uppgifterna till en central plats. I detta papper definierar vi två Secure 2-parts multivariata statistiska analysproblem: Secure 2-parts Multivariat Linear Regressionsproblem och Secure 2-parts Multivariat Classification problem. Vi har utvecklat en praktisk säkerhetsmodell som vi har utvecklat ett antal byggstenar för att lösa dessa två problem.
Du och Al. har utvecklat byggstenar för att lösa säkra tvåparts Multivariat Linjär regression och klassificeringsproblem REF.
2,350,989
Privacy-Preserving Multivariate Statistical Analysis: Linear Regression and Classification
{'venue': 'SDM', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,143
Abstract-Multimedia sociala nätverk har blivit ett framväxande forskningsområde, där analys och modellering av beteendet hos användare som delar multimedia är av stor betydelse för att förstå den mänskliga dynamikens inverkan på multimediasystem. I peer-to-peer live-streaming sociala nätverk samarbetar användare med varandra för att tillhandahålla en distribuerad, mycket skalbar och robust plattform för live-streaming applikationer. Varje användare vill dock använda så mycket bandbredd som möjligt för att få en högkvalitativ video, medan fullt samarbete inte kan garanteras. Detta dokument föreslår ett spel-teoretiskt ramverk för att modellera användarbeteende och utforma incitament-baserade strategier för att stimulera användarsamarbete i peer-topeer live streaming. Vi analyserar först Nash jämvikt och Pareto optimalitet av två-person spel och sedan utvidga till fleranvändar fall. Vi tar också hänsyn till själviska användares fuskbeteende och skadliga användares attackerande beteende. Både våra analys- och simuleringsresultat visar att de föreslagna strategierna effektivt kan stimulera användarsamarbete, uppnå fuskfrihet, attackmotstånd och bidra till att tillhandahålla tillförlitliga tjänster.
REF föreslog också ett spelteoretiskt ramverk för att modellera kamraters beteende- och designincitament för att uppnå fusksäkra och attackresistenta samarbeten i P2P livestreaming sociala nätverk.
11,451,126
Incentive Cooperation Strategies for Peer-to-Peer Live Multimedia Streaming Social Networks
{'venue': 'IEEE Transactions on Multimedia', 'journal': 'IEEE Transactions on Multimedia', 'mag_field_of_study': ['Computer Science']}
1,144
I detta dokument föreslås en snabb regionbaserad Convolutional Network-metod (Fast R-CNN) för objektdetektering. Snabb R-CNN bygger på tidigare arbete för att effektivt klassificera objektförslag med hjälp av djupa konvolutionsnätverk. Jämfört med tidigare arbete använder Fast R-CNN flera innovationer för att förbättra tränings- och testhastigheten och samtidigt öka detektionsnoggrannheten. Snabb R-CNN tränar det mycket djupa VGG16 nätverket 9× snabbare än R-CNN, är 213× snabbare vid test-tid, och uppnår en högre mAP på PASCAL VOC 2012. Jämfört med SPPnet, snabb R-CNN tåg VGG16 3× snabbare, testar 10× snabbare, och är mer exakt. Snabb R-CNN genomförs i Python och C++ (med Caffe) och finns tillgänglig under MIT-licensen med öppen källkod på https: //github.com/rbgirshick/fast-rcnn.
Snabb R-CNN REF är en förbättrad version av R-CNN med en mycket snabbare utbildning och testprocess och det uppnår mer noggrannhet jämfört med R-CNN.
206,770,307
Fast R-CNN
{'venue': '2015 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2015 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
1,145
Vi har utformat, implementerat och utvärderat en end-to-end system stavningskontroll och autokorrigering system som inte kräver någon manuellt kommenterade träningsdata. World Wide Web används som en stor bullriga corpus där vi drar slutsatser om felstavningar och ordanvändning. Detta används för att bygga en felmodell och en n-gram språkmodell. En liten sekundär uppsättning nyhetstexter med artificiellt infogade felstavningar används för att justera konfidensintervall. Eftersom det inte krävs någon manuell anteckning, kan vårt system lätt bli direktinlöst för nya språk. Vid utvärdering av mänskliga data med riktiga felstavningar på engelska och tyska, våra webbaserade system överträffar basvärden som använder kandidatkorrigeringar baserade på handkurerade ordböcker. Vårt system uppnår 3,8% total felfrekvens på engelska. Vi visar liknande förbättringar i preliminära resultat på artificiella data för ryska och arabiska.
Nyligen införlivade REF data från World Wide Web i en n-grambaserad modell, vilket avsevärt förbättrade stavningskontrollnoggrannheten med hjälp av oövervakat lärande.
8,108,505
Using the Web for Language Independent Spellchecking and Autocorrection
{'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,146
Problemförklaring. Framstegen i den mänskliga civilisationen leder till fler komplikationer i problemlösning. Grid computing fungerar som en effektiv teknik för att lösa dessa komplicerade problem. I beräkningsgaller schemalägger schemaläggaren uppgiften och finner lämplig resurs för varje uppgift. Schemaläggaren måste ta hänsyn till flera faktorer som användarefterfrågan, kommunikationstid, felhanteringsmekanismer och reducerad makepan. De flesta av de befintliga algoritmerna anser inte att användaren är nöjd. Således blir en schemaläggningsalgoritm som hanterar fel på resurser och uppnår användarnöjdhet allt viktigare. Närma er. En ny schemaläggningsalgoritm för bicriteria (BSA) som tar hänsyn till användarens tillfredsställelse och feltolerans har införts. Det viktigaste bidraget i detta dokument är att uppnå användarnöjdhet tillsammans med feltolerans och minimera antalet arbetstillfällen. Resultat. Prestandan av denna föreslagna algoritm utvärderas med GridSim baserat på makespan och antal jobb som slutförts framgångsrikt inom användarens deadline. Slutsatser/Rekommendationer. Den föreslagna BSA-algoritmen uppnår minskad madepan och bättre träffhastighet med högre användarnöjdhet och feltolerans.
I vårt tidigare arbete REF har vi föreslagit en ny Bicriteria Scheduling Algorithm som tar hänsyn till både användarnöjdhet och feltolerans.
61,486,680
An Efficient Grid Scheduling Algorithm with Fault Tolerance and User Satisfaction
{'venue': None, 'journal': 'Mathematical Problems in Engineering', 'mag_field_of_study': ['Computer Science']}
1,147
Vehikulära nätverk växer fram som en ny distribuerad systemmiljö med otaliga möjliga tillämpningar. De flesta studier av fordonsnätverk utförs via simulering, med tanke på de logistiska och ekonomiska problemen med storskaliga utbyggnader. I detta dokument undersöks hur realistiska radioutbredningsinställningar påverkar utvärderingen av VANET-baserade system. Med hjälp av en uppsättning instrumenterade bilar samlade vi in IEEE 802.11b signalförökningsmätningar mellan fordon i en mängd olika stads- och förortsmiljöer. Vi fann att signalutbredningen mellan fordon varierar i olika inställningar, särskilt mellan linje av sikt ("nere blocket") och icke-linje av sikt ("runt hörnet") kommunikation i samma inställning. Med hjälp av en probabilistisk skuggmodell utvärderar vi effekten av olika parameterinställningar på prestandan av ett protokoll för spridning av epidemisk data och diskuterar konsekvenserna av våra resultat. Vi föreslår också en variant av en grundläggande signalutbredningsmodell som innefattar ytterligare realism utan att offra skalbarhet genom att dra nytta av miljöinformation, inklusive nodplatser och gatuinformation.
Otto och Al. REF undersökte effekten av realistisk varvtalsreglering på VANET-baserade system.
11,585,666
Down the Block and Around the Corner The Impact of Radio Propagation on Inter-vehicle Wireless Communication
{'venue': '2009 29th IEEE International Conference on Distributed Computing Systems', 'journal': '2009 29th IEEE International Conference on Distributed Computing Systems', 'mag_field_of_study': ['Computer Science']}
1,148
Många program för behandling av naturligt språk använder språkmodeller för att generera text. Dessa modeller är vanligtvis tränade för att förutsäga nästa ord i en sekvens, med tanke på de tidigare orden och vissa sammanhang såsom en bild. Vid testtillfället förväntas dock modellen generera hela sekvensen från början. Denna avvikelse gör generation spröd, eftersom fel kan ackumuleras längs vägen. Vi tar itu med denna fråga genom att föreslå en ny sekvensnivåträningsalgoritm som direkt optimerar det metriska som används vid testtidpunkten, t.ex. BLEU eller ROUGE. På tre olika uppgifter överträffar vår strategi flera starka baslinjer för girig generation. Metoden är också konkurrenskraftig när dessa baslinjer använder strålsökning, samtidigt som den är flera gånger snabbare.
Ranzato m.fl. REF föreslog en sekvens-nivå utbildningsalgoritm för bildtext som direkt optimerar det metriska som används vid testtid med policy gradientmetoder.
7,147,309
Sequence Level Training with Recurrent Neural Networks
{'venue': 'ICLR 2016', 'journal': 'arXiv: Learning', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
1,149
ABSTRACT Mellan 60 och 70 % av Nairobi Citys befolkning bor i överbelastade informella bosättningar, vanligen kallade slumområden, utan ordentlig tillgång till sanitet, rent vatten, hälso- och sjukvård och andra sociala tjänster. Barn i sådana områden utsätts för oproportionerligt höga hälsorisker. I detta dokument undersöks effekterna av migration av mor och barn på överlevnaden för mer än 10 000 barn i två av Nairobis informella bosättningar – Korogocho och Viwandani – mellan juli 2003 och juni 2007, med hjälp av en semiparametrisk modell i två steg (Cox) som kontrollerar att barn överlever och olika faktorer som påverkar barns överlevnad. Resultaten visar att slumfödda har högre dödlighet än icke-slumfödda, vilket tyder på att förlossning i slumområden har långsiktiga hälsokonsekvenser för barn. Barn födda i slummen till kvinnor som var gravida vid tiden för migrationen löper störst risk att dö. Med tanke på den höga graden av cirkulär migration bör man bättre förstå och ta itu med faktorer som predisponerar barn födda i slummen för nyligen invandrade mödrar för högre dödlighet.
I en studie utförd av Ref som undersökte mamma- och barnmigrationens inverkan på överlevnaden för mer än 10 000 barn i två av Nairobis informella bosättningar mellan 2003 och 2007 konstaterades att barn födda av kvinnor som var gravida vid tidpunkten för migrationen löper den största risken att dö.
15,661,900
Do Migrant Children Face Greater Health Hazards in Slum Settlements? Evidence from Nairobi, Kenya
{'venue': 'Journal of Urban Health', 'journal': 'Journal of Urban Health', 'mag_field_of_study': ['Medicine']}
1,150
Abstrakt. Moderna organisationer har investerat i samlingar av beskrivande och/eller normativa processmodeller, men dessa beskriver sällan de faktiska processerna på ett tillfredsställande sätt. Därför har en mängd olika tekniker för konformitetskontroll föreslagits för att fastställa avvikelser mellan modellerat och observerat beteende. Dessa tekniker är dock vanligtvis inriktade på kontrollflödet och abstrakt från data, resurser och tid. I detta dokument beskrivs ett tillvägagångssätt som anpassar händelseloggen och modellen samtidigt som alla perspektiv beaktas (dvs. data, tid och resurser). På så sätt är det möjligt att kvantifiera överensstämmelse och analysera skillnader mellan modell och verklighet. Metoden genomfördes med hjälp av ProM och har utvärderats med hjälp av både syntetiska händelser loggar och en verklig fallstudie.
I detalj beskriver de kostnader och mängder för ytterligare händelsedata som gör det möjligt att kvantifiera överensstämmelse och analysera skillnader mellan modell och verklighet REF.
8,825,031
Aligning Event Logs and Process Models for Multi-Perspective Conformance Checking: An Approach Based on Integer Linear Programming
{'venue': 'BPM', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,151
Abstrakt. Flera nätverksmodeller har föreslagits för att förklara den länkstruktur som observerats i sociala nät online. I detta dokument behandlas problemet med att välja den modell som bäst passar ett givet nätverk i verkligheten. Vi implementerar en modellurvalsmetod baserad på oövervakat lärande. Ett alternerande beslutsträd tränas med hjälp av syntetiska grafer som genereras enligt var och en av de modeller som övervägs. Vi använder ett brett utbud av funktioner, med målet att representera olika strukturella aspekter av nätverket. Funktioner inkluderar frekvensräkningar av små subgrafer (grafiker) samt funktioner som fångar graden distribution och små världsegendom. Vår metod klassificerar korrekt syntetiska grafer, och är robust under perturbationer av graferna. Vi visar att enbart grafleträkningar är tillräckliga för att separera träningsdata, vilket tyder på att grafleträkningar är ett bra sätt att fånga nätverksstruktur. Vi testade vår strategi på fyra Facebook grafer från olika amerikanska universitet. De modeller som bäst passar dessa data är de som bygger på principen om förmånsfästen.
När det gäller komplexa nätverk försöker Janssen REF klassificera de flera nätverksmodellerna genom att använda ett brett spektrum av funktioner, inklusive frekvensräkningar av små subgrafer samt funktioner som fångar examensdistributionen och den lilla världens egendom, för att göra en bättre bedömning av det verkliga nätverket.
6,477,775
Model Selection for Social Networks Using Graphlets
{'venue': 'Internet Mathematics', 'journal': 'Internet Mathematics', 'mag_field_of_study': ['Computer Science']}
1,152
Vi anser att det är ett optimalt kontrollproblem baserat på den evolutionära spelteorimodellen som infördes av Short et al. Upp. E 82(6), 066114.1-066114.7 Det visas att närvaron av kriminella informatörer leder till minskande brottslighet, i detta dokument undersöker vi den aktiva rekryteringen av informatörer från den allmänna befolkningen via externa ingripanden, om än till en kostnad för samhället. Även om högre rekryteringsnivåer kan vara de mest fördelaktiga när det gäller att minska brottsligheten, är dessa också dyrare. Vi formulerar därmed vårt optimala kontrollproblem för att ta hänsyn till begränsade resurser, uppkomna kostnader och förväntade fördelar, och fastställa den mest gynnsamma rekryteringsstrategin under givna begränsningar. Vi överväger fall av riktad och oriktad rekrytering, och tillåter rekryteringskostnader att bero på tidigare kumulativa utbetalningar inom en given tidsram minne så att omvandling av mer framgångsrika individer kan vara dyrare än för mindre framgångsrika. Vårt optimala kontrollproblem uttrycks via tre styrfunktioner som är föremål för ett system av differentialekvationer och numeriskt löses, analyseras och diskuteras under olika inställningar och i olika parametersystem. Vi finner att den optimala strategin kan förändras drastiskt och abrupt eftersom parametrar och resursbegränsningar varierar, och att ökad information om enskilda spelares strategier endast leder till något minskade minimala kostnader.
Kort och gott. I REF formuleras problemet med att lösa rekryteringsstrategier som ett optimalt kontrollproblem för att ta hänsyn till begränsade resurser och budget.
64,038
External conversions of player strategy in an evolutionary game: A cost-benefit analysis through optimal control
{'venue': 'European Journal of Applied Mathematics', 'journal': 'European Journal of Applied Mathematics', 'mag_field_of_study': ['Mathematics']}
1,153
I många länder runt om i världen håller smarta städer på att bli verklighet. Dessa städer bidrar till att förbättra medborgarnas livskvalitet genom att tillhandahålla tjänster som normalt baseras på data från trådlösa sensornätverk (WSN) och andra delar av sakernas Internet. Dessutom använder den offentliga förvaltningen dessa smarta stadsdata för att öka dess effektivitet, minska kostnaderna och tillhandahålla ytterligare tjänster. Men den information som tas emot vid smarta stad datacenter är inte alltid korrekt, eftersom WSNs är ibland benägna att fel och utsätts för fysiska och datorattacker. I den här artikeln använder vi verkliga data från den smarta staden Barcelona för att simulera WSNs och genomföra typiska attacker. Sedan jämför vi ofta använda anomali detektion tekniker för att avslöja dessa attacker. Vi utvärderar algoritmerna under olika krav på tillgänglig information om nätverksstatus. Som ett resultat av denna studie, drar vi slutsatsen att en klass Support Vector Machines är den mest lämpliga tekniken. Vi uppnår en verkligt positiv andel som är minst 56 procent högre än den som uppnås med de andra jämförda teknikerna i ett scenario med en högsta falskt positiv andel på 5 procent och en 26 procent högre i ett scenario med en falsk positiv andel på 15 procent.
Garcia och Al. Ref har jämfört olika tekniker för att upptäcka avvikelser i WSN med hjälp av rådata som samlats in från den smarta staden Barcelona.
13,017,894
A Comparative Study of Anomaly Detection Techniques for Smart City Wireless Sensor Networks
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Medicine', 'Engineering', 'Computer Science']}
1,154
Vi studerar verifieringsproblemet i distribuerade nätverk, som anges på följande sätt. Låt H vara en subgraf av ett nätverk G där varje vertex av G vet vilka kanter incident på det är i H. Vi vill kontrollera om H har vissa egenskaper, t.ex. om det är ett träd eller om det är ansluten (varje nod vet i slutet av processen om H har den angivna egenskapen eller inte). Vi skulle vilja utföra denna verifiering på ett decentraliserat sätt via en distribuerad algoritm. Kontrollens tidsmässiga komplexitet mäts som antalet rundor av distribuerad kommunikation. I detta dokument initierar vi en systematisk studie av distribuerad verifiering, och ger nästan snäva lägre gränser för körtiden för distribuerade verifieringsalgoritmer för många * En fullständig version av detta dokument finns tillgänglig som [5] på http:// arxiv.org/abs/1011.3049 † En del av det arbete som utförts vid Georgia Institute of Technology. Grundläggande problem som konnektivitet, spännvidd för ansluten subgraf och s – t skärverifiering. Vi visar sedan tillämpningar av dessa resultat för att härleda stark villkorslös tid lägre gränser på hårdheten av distribuerad approximation för många klassiska optimeringsproblem inklusive minsta spännvidd träd, kortaste vägar, och minimal skärning. Många av dessa resultat är de första icke-triviala lägre gränserna för både exakt och ungefärlig distribuerad beräkning och de löser tidigare öppna frågor. Dessutom subsumerar och förbättrar vår ovillkorliga nedre gräns av approximering av minsta spännträd (MST) den tidigare hårdheten av approximationen bundet av Elkin [STOC 2004] samt den lägre gränsen för (exakt) MST beräkning av Peleg och Rubinovitj [FOCS 1999]. Vårt resultat innebär att det inte kan finnas någon distribuerad approximationsalgoritm för MST som är betydligt snabbare än den nuvarande exakta algoritmen, för någon approximationsfaktor. Våra lägre bundna bevis visar en intressant koppling mellan kommunikation komplexitet och distribuerad dator som visar sig vara användbara för att fastställa tids komplexiteten av exakt och ungefärlig distribuerad beräkning av många problem.
Tekniken vi utvecklar för att bevisa våra lägre gränser är främst inspirerad av kopplingen mellan kommunikations komplexitet och distribuerad dator i REF.
1,998,096
Distributed verification and hardness of distributed approximation
{'venue': "STOC '11", 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,155
Abstract-Recommender system används för att rekommendera objekt för användare i e-handel med information överbelastning. Verktygsbaserade recommender system bygga multi-attribute nyttofunktion av användaren och rekommendera den högsta nyttoobjekt för användaren. Vissa verktygsbaserade recommender system använder betyg för objekt för att extrahera nyttofunktion, som ger betydande belastning för användaren. Papperet föreslår en nyttobaserad recommender teknik som kan förutsäga attributvärde nytta och implicit holistisk nyttofrekvens av objekt genom användare beter beteende och genetisk algoritm, och framkalla attributets vikt genom genetisk algoritm, och bygga en multi-attribute nyttofunktion. De experimentella resultaten på klädrekommendationen visar att den föreslagna metoden är överlägsen nuvarande bruksbaserade metoder på noggrannhet, tillfredsställelse, användbarhet och tidsutgift. Nyckelord-rekommenderat system; multi-attribute verktyg; implicit verktyg; genetisk algoritm; beter beteende Rekommendera system kan hjälpa kunderna att söka efter de produkter som de gillar i e-handel sammanhang. Verktygsbaserade recommender system kan extrahera beslutsfattarens nyttofunktion, och beräkna nyttan av varje objekt, och rekommendera hög användbarhet objekt till användarna [1, 2]. Verktygsbaserade recommender-system kan förbättra klassificeringen sparhet, nya objekt, nya användare problem som samarbetsfiltrering recommender teknik möter [3], och det överträffar de traditionella innehållsbaserade recommender-system [1]. Den centrala tekniken för verktygsbaserade recommender system är att bygga nyttofunktion. Mycket nyttofunktion är baserad på multi-attribute nyttoteori (MAUT). En kund gör köpbeslut baserat på flera beslut attribut av produkter. MAUT använder multi-attribute verktygsfunktionen för att modellera kundernas preferenser, och maximera nyttofunktionen för att leta efter det bästa beslutet på grundval av multi-criteria. Vissa användbara funktion extraktion tekniker kan komma till hög beslutsnoggrannhet, såsom enkel multi-attribut rating teknik utnyttjar leden (SMARKER), radial bas funktionsnätverk (RBFN) [4], regressionsanalys [5, 6], och neurala nätverk. Dessa metoder kräver dock användarklassificering och ökad användarinsats. Detta papper utformar en verktygsfunktion extraktion teknik som är baserad på MAUT och använda implicit verktyg från användare beter beteende data [7] och genetisk algoritm (GA) [8, 9], och som kallas IU-GA. Ett verktygsbaserat recommender system föreslås baserat på IU-GA som kan klassificera objektdata baserat på centrala objekt attribut, och beräkna nyttan av objekt med användaren föredrar attribut och rekommendera top-N verktygsobjekt till användaren. I detta avsnitt introduceras i korthet verktygsbaserade recommender-system, MAUT och implicita metoder för att framkalla nytta. Verktygsbaserade rekommendationssystem ger rekommendationer baserade på beräkningen av nyttan av varje objekt för användaren. Verktygsbaserade recommender tekniker framkalla multi-attribute nyttofunktion baserat på objekthastigheter som användaren erbjuder för att beskriva användarens preferenser, och tillämpa nyttofunktionen för att beräkna objekt verktyg för användaren [3]. Verktygsbaserade rekommendationer har inte några problem med samverkande filtrering rekommenderar teknik, såsom kallstart, gleshet, och höga dimensioner. Men verktygsbaserade recommender system ansikte framkallar nyttofunktion för varje användare, vilket kräver anmärkningsvärd börda av interaktion. Flera verktygsbaserade recommender system har utvecklats baserat på användarbetyg för objekt [4] [5] [6] 10, 11]. De är baserade på MAUT och kräver betydande användarinsatser. Så, modellering verktygsfunktion med lite användaransträngning är en kritisk fråga i utformningen av verktygsbaserade recommender system. MAUT är en kvantitativ och systematisk metod för att beskriva hur man fattar beslut. MAUT kan modellera användarens beslutsfattande med flera beroende mål på grundval av osäkerhet och preferensanalys. En MAU-funktion baserad på MAUT kan i allmänhet representeras av: International Conference on Mechatronics, Electronic, Industrial and Control Engineering (MEIC 2015)
Utvecklingen av ett nyttobaserat rekommendationssystem för att hantera klädrekommendationer presenteras i REF.
58,387,682
Utility-based Recommender Systems Using Implicit Utility and Genetic Algorithm
{'venue': 'ICM 2015', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,156
Kunskapen om patientflöde är mycket viktig för hälso- och sjukvårdsorganisationer, eftersom den är starkt kopplad till effektivitet och resursfördelning. Tyvärr är traditionella metoder för processanalys knappast effektiva och låga: de är mycket tidskrävande och de kanske inte ger en korrekt bild av vårdprocesserna. Processbrytningsteknik hjälper till att övervinna dessa problem. I detta dokument föreslås en metod för att bygga ett DRG-relaterat patientflöde med hjälp av processbrytning. Fynden visar att det är möjligt att upptäcka de olika sekvenser av aktiviteter som är förknippade med en DRG-relaterad process. Ledningsmässiga konsekvenser gäller både processidentifiering, analys och förbättring. En fallstudie, baserad på en verklig öppen datauppsättning, rapporteras.
Författare i REF föreslog en metod för att identifiera och kartlägga patientflöden genom extraktionsprocessen.
7,005,066
Linking Diagnostic-Related Groups (DRGs) to their Processes by Process Mining
{'venue': 'HEALTHINF', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,157
Vi undersöker problemet med akustisk modellering där tidigare språkspecifika kunskaper och transkriberade data inte finns tillgängliga. Vi presenterar en oövervakad modell som samtidigt segmenterar talet, upptäcker en ordentlig uppsättning underordsenheter (t.ex. telefoner) och lär sig en dold Markovmodell (HMM) för varje inducerad akustisk enhet. Vår strategi är formulerad som en Dirichlet process blandning modell där varje blandning är en HMM som representerar en underordsenhet. Vi tillämpar vår modell på TIMIT corpus, och resultaten visar att vår modell upptäcker underordsenheter som är starkt korrelerade med engelska telefoner och också producerar bättre segmentering än toppmoderna oövervakade baslinjer. Vi testar kvaliteten på de lärda akustiska modellerna på en talad term detektion uppgift. Jämfört med baslinjerna förbättrar vår modell den relativa precisionen för toppträffar med minst 22,1% och överträffar en språk-mismatiserad akustisk modell.
REF presenterar ett tillvägagångssätt för att upptäcka en ordentlig uppsättning underordsliknande enheter.
5,967,419
A Nonparametric Bayesian Approach to Acoustic Model Discovery
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,158
Sammanfattning av denna webbsida: The Request-Response (RR) paradigm används ofta i allmänt förekommande system för att utbyta information på ett säkert, tillförlitligt och snabbt sätt. Det finns dock också ett växande behov av att anta PubSub-paradigm (PubSubSub) i denna typ av system, på grund av de fördelar som detta paradigm erbjuder för att stödja rörlighet genom asynkron, icke-blockerande och en-till-många meddelandedistribution semantik för händelseanmälan. I detta dokument analyseras styrkan och svagheterna i både RR- och PubSub-paradigmerna för att stödja kommunikation i allmänt förekommande system och föreslås en abstrakt kommunikationsmodell för att möjliggöra deras sömlösa integration. Utvecklarna kommer därför att fokusera på kommunikationssemantik och de kvalitetsegenskaper som krävs, snarare än att bry sig om specifika kommunikationsmekanismer. Syftet är att ge utvecklare abstraktioner som syftar till att minska komplexiteten i att integrera olika kommunikationsparadigm som vanligen behövs i allmänt förekommande system. Förslaget har tillämpats för att införa en middleware och ett verkligt hemautomationssystem för att visa dess tillämplighet och fördelar.
Författarna i REF analyserar de båda paradigmernas styrkor och svagheter när det gäller att stödja kommunikation i allmänt förekommande system.
487,593
A Communication Model to Integrate the Request-Response and the Publish-Subscribe Paradigms into Ubiquitous Systems
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Computer Science', 'Medicine']}
1,159
I detta dokument beskrivs den första gemensamma uppgiften om Taxonomiextraktionsutvärdering som anordnades som en del av SemEval-2015. Deltagarna ombads att hitta hypernym-hyponym relationer mellan givna villkor. För var och en av de fyra utvalda måldomänerna gavs deltagarna två listor med domänspecifika termer: en WordNet-samling av termer och en välkänd terminologi som utvunnits ur en allmänt tillgänglig taxonomi på nätet. Totalt 45 taxonomier som lämnats in av sex deltagande grupper utvärderades med hjälp av standardiserade strukturåtgärder, den strukturella likheten med en guldstandard taxonomi och genom manuell kvalitetsbedömning av nya förbindelser som ingick i urvalet.
Slutligen införde REF den första gemensamma uppgiften att utvärdera taxonomiextraktion för att skapa en gemensam grund för utvärdering.
17,480,016
SemEval-2015 Task 17: Taxonomy Extraction Evaluation (TExEval)
{'venue': 'SemEval@NAACL-HLT', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,160
Vi studerar tillfredsställande problem för kvalitativa PCTL (Probabilistic Computation Tree Logic), som erhålls från "vanliga" CTL genom att ersätta EX, AX, EU och AU operatörer med deras kvalitativa motsvarigheter X >0, X =1, U >0, och U =1, respektive. I motsats till CTL, har kvalitativa PCTL inte en liten modell egendom, och det finns även kvalitativa PCTL formler som bara har oändliga modeller. Icke desto mindre visar vi att tillfredsställandet problem för kvalitativ PCTL är EXPTIM-komplett och vi ger en exponentiellt-tids algoritm som för en given formel beräknar en ändlig beskrivning av en modell (om den finns), eller svarar "inte tillfredsställande" (på annat sätt). Vi betraktar också det finita tillfredsställande problemet och ger liknande resultat. Det vill säga, vi visar att det finita tillfredsställande problemet för kvalitativ PCTL är EXPTIM-komplett, och varje finit tillfredsställande formel har en modell av en exponentiell storlek som effektivt kan konstrueras i exponentiell tid. Slutligen ger vi några resultat om den kvantitativa PCTL, där de numeriska gränserna i sannolikhetsbegränsningar kan vara godtyckliga rationella mellan 0 och 1. Vi bevisar att problemet med huruvida en viss kvantitativ PCTL formel har en modell av grenningsgraden som mest k, där k ≥ 2 är en godtycklig men fast konstant, är mycket obeslutbar. Vi visar också att varje tillfredsställande formel har en modell med grenningsgrad som mest + 2. Detta innebär dock ännu inte att det tillfredsställande problemet för kvantitativ PCT är obeslutbart, och vi förmodar tvärtom.
REF visar att problemet är obeslutbart om det för en viss PCTL-formel finns en modell med en grenningsgrad som begränsas av ett visst heltal, där grenningsgraden är antalet efterträdare till en stat.
15,056,489
The Satisfiability Problem for Probabilistic CTL
{'venue': '2008 23rd Annual IEEE Symposium on Logic in Computer Science', 'journal': '2008 23rd Annual IEEE Symposium on Logic in Computer Science', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
1,161
Kodad cachelagring är en nyligen föreslagen teknik som ger betydande resultatvinster för cachenätverk jämfört med okodade cachesystem. Denna betydande kodningsvinst uppnås dock på bekostnad av stora leveransförseningar, vilket inte är acceptabelt i delay-sensitiva applikationer som videostreaming. I detta dokument identifierar och undersöker vi avvägningen mellan prestandavinsten för kodad cachelagring och leveransförseningen. Vi föreslår en beräkningseffektiv cache algoritm som ger vinster av kodning och respekterar fördröjning begränsningar. Den föreslagna algoritmen uppnår optimal prestanda för stora förseningar, men erbjuder ändå stora vinster för små förseningar. Dessa vinster visas i en praktisk miljö med en video-streaming prototyp. Jag. INLEDNING Video on demand driver nättrafikens tillväxt idag, och denna trend förväntas fortsätta fram till slutet av årtiondet [1]. I vissa studier förutspås att videotrafiken kommer att öka med en faktor 12 mellan 2010 och 2020 [2]. Videotrafik är tidsvarierande i naturen, med en betydande topp under kvällarna. Denna karakteristiska börda tjänsteleverantörer med kostnaden för att behöva expandera sina nät för att hantera ökande topptrafik även om nätet fortfarande underutnyttjas under off-peak tider. Caching är en viktig teknik för att lindra detta problem genom att jämna ut trafiken i tid och över nätverket. Caching använder minnen som distribueras i hela nätverket för att duplicera populärt innehåll under off-peak tider. Under rusningstid används dessa minnen för att leverera önskat innehåll med mindre stress på nätverket. Kärntanken bakom konventionella cachingprogram [3]-[10] är att leverera en del av innehållet lokalt från närliggande cacher. Nyligen [11], [12] föreslog i stället att använda kodad cachelagring. Till skillnad från konventionella okodade system skapar kodad cachelagring linjära kombinationer av delar av innehåll som begärs av olika användare. Kombinationerna bildas så att varje användare kan återställa sin önskade bit med hjälp av innehållet i en närliggande cache. Därför används cachens inte bara för att leverera delar av innehållet lokalt, men också för att skapa kodade multicasting möjligheter. [11], [12] visar att för vissa grundläggande nätverksstrukturer kan kodad cachelagring ge betydligt bättre prestanda än okodad cachelagring. Detta resultat visar att allmänt använda caching algoritmer såsom minst sällan används (LFU) eller minst nyligen används (LRU) kan vara betydligt suboptimal för cachenätverk [13], [14]. Den betydande vinsten av kodad cachelagring uppnås på bekostnad av ökad fördröjning vid leverans av innehåll. Många tillämpningar, t.ex. video på begäran, är dock känsliga för förseningar, och följaktligen är denna ytterligare fördröjning till följd av kodning problematisk. Detta väcker frågan om hur mycket av den kodade caching-vinsten kan uppnås inom vissa fasta fördröjningsbegränsningar. I detta dokument inleder vi en utredning av denna kompromiss mellan kodad cachingvinst och leveransförsening. Vi utvecklar ett beräkningseffektivt cachesystem som effektivt utnyttjar kodningsmöjligheterna samtidigt som leveransförseningar respekteras. Det föreslagna systemet uppnår den optimala prestanda som föreslås av [11], [12] i den stora fördröjningsgränsen, samtidigt som det ger en betydande vinst för delay-känsliga tillämpningar. En videostreaming-prototyp som implementerar dessa idéer bekräftar det föreslagna systemets praktiska och positiva effekter.
De utökade också den kodade caching metoden för att överväga fördröjningskänsligt innehåll och föreslog tre algoritmer för att uppnå kodningsvinster för låg fördröjning leverans REF.
7,274,744
Coded Caching for Delay-Sensitive Content
{'venue': 'IEEE International Conference on Communications (ICC), pp. 5559 - 5564, June 2015', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
1,162
Abstrakt. Ubiquitous Computing förespråkar konstruktion av massivt distribuerade system som hjälper till att omvandla fysiska utrymmen till beräkningsmässigt aktiva och intelligenta miljöer. Utformningen av system och tillämpningar i dessa miljöer måste ta hänsyn till heterogena enheter, mobila användare och snabbt föränderliga sammanhang. Framför allt måste agenter i allestädes närvarande och mobila miljöer vara kontextmedvetna så att de kan anpassa sig till olika situationer. I den här artikeln hävdar vi att allmänt förekommande datormiljöer måste ge mellanprogramstöd för sammanhangsmedvetenhet. Vi föreslår också en middleware som underlättar utvecklingen av kontext-medvetna agenter. Den middleware tillåter agenter att förvärva kontextuell information lätt, resonera om det med hjälp av olika logiker och sedan anpassa sig till förändrade sammanhang. En annan viktig fråga i dessa miljöer är att tillåta autonoma, heterogena agenser att ha en gemensam semantisk förståelse av kontextuell information. Vår middleware tar itu med detta problem genom att använda ontologier för att definiera olika typer av kontextuell information. Denna middleware är en del av Gaia, vår infrastruktur för att möjliggöra Smart Spaces.
Gaia REF är en infrastruktur som stöder konstruktion av tillämpningar för smarta utrymmen.
13,508,596
A Middleware for Context-Aware Agents in Ubiquitous Computing Environments
{'venue': 'Middleware', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,163
Abstrakt. Formell systemutveckling kräver uttrycklig specificering av språk, men kräver också högt automatiserade verktyg. Dessa två mål är inte lätta att förena, särskilt om man också strävar efter höga garantier för korrekthet. I den här artikeln beskriver vi en kombination av Isabelle/HOL med en korrekturproducerande SMT-lösning (Satisfiability Modulo Theories) som innehåller en SAT-motor och ett beslutsförfarande för kvantifierfri första ordningens logik med jämlikhet. Som ett resultat av detta drar användaren nytta av Isabelle/HOL:s uttrycksfullhet när man modellerar ett system, men får mycket bättre automatisering för de fragment av bevisen som omfattas av den (automatiska) SMT-lösaren. Ljudstyrka äventyras inte eftersom alla bevis skickas till Isabelles betrodda kärna för certifiering. Denna arkitektur är enkel att utvidga för andra interaktiva bevis assistenter och bevisproducerande resonerare.
Självständigt Fontaine m.fl. REF har kombinerat haRVEY med Isabelle/HOL för kvantifierfria första ordningens formler med lika och otolkade funktioner.
4,446,355
Expressiveness + automation + soundness: Towards combining SMT solvers and interactive proof assistants
{'venue': 'In Tools and Algorithms for Construction and Analysis of Systems (TACAS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,164
Logiska dolda Markov modeller (LOHMMs) uppgradera traditionella dolda Markov modeller för att hantera sekvenser av strukturerade symboler i form av logiska atomer, snarare än platta tecken. Denna not introducerar formellt LOHMMs och presenterar lösningar på de tre centrala inferenceproblemen för LOHMMs: utvärdering, sannolikt dolda tillstånd sekvens och parameteruppskattning. Den resulterande representationen och algoritmerna utvärderas experimentellt på problem från domänen bioinformatik.
Logiska dolda Markov modeller (LHMMs) har föreslagits för att ta itu med detta problem REF.
1,278,614
Logical Hidden Markov Models
{'venue': 'Journal Of Artificial Intelligence Research, Volume 25, pages 425-456, 2006', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
1,165
Distribuerade Denial-of-Service (DDoS) attacker utgör ett stort hot mot datacenter, och många försvarsmekanismer har föreslagits för att upptäcka det. Å ena sidan kan många tjänster som används i datacenter lätt leda till motsvarande DDoS attacker. Å andra sidan, angripare ständigt ändra sina verktyg för att kringgå dessa befintliga mekanismer, och forskare i sin tur ändra sina metoder för att hantera nya attacker. DDoS mot datacenter blir alltså mer och mer komplext. I den här artikeln analyserar vi först korrelationsinformationen för flöden i datacenter. För det andra presenterar vi en effektiv detekteringsmetod baserad på CKNN (K-Nearest Neighbors trafikklassificering med korrelationsanalys) för att upptäcka DDoS-attacker. Metoden utnyttjar korrelationsinformation om utbildningsdata för att förbättra klassificeringsnoggrannheten och minska de omkostnader som orsakas av utbildningsdatans densitet. Med målet att lösa de enorma kostnaderna presenterar vi också en rutnätsbaserad metod som heter -Polling Method för att minska utbildningsdata som ingår i beräkningen. Slutligen utvärderar vi vår strategi med Internet trafik och datacenter trafik spår. Jämfört med de traditionella metoderna är vårt tillvägagångssätt bra på att upptäcka onormal trafik med hög effektivitet, låg kostnad och brett detektionsområde.
Xiao m.fl. presenterade en effektiv detektion metod baserad på K-nearest grannar trafik klassificering med korrelationsanalys för att upptäcka DDoS attacker REF.
7,767,139
Detecting DDoS attacks against data center with correlation analysis
{'venue': 'Comput. Commun.', 'journal': 'Comput. Commun.', 'mag_field_of_study': ['Computer Science']}
1,166
Att upptäcka extrema händelser i stora datamängder är en stor utmaning inom klimatvetenskaplig forskning. Nuvarande algoritmer för upptäckt av extrema händelser bygger på mänsklig expertis när det gäller att definiera händelser baserade på subjektiva tröskelvärden för relevanta fysiska variabler. Ofta ger flera konkurrerande metoder mycket olika resultat på samma datauppsättning. Exakt karakterisering av extrema händelser i klimatsimuleringar och observationsdataarkiv är avgörande för att förstå trender och potentiella effekter av sådana händelser i ett klimatförändringsinnehåll. I denna studie presenteras den första tillämpningen av Deep Learning-teknik som alternativ metod för upptäckt av extrema klimathändelser. Djupa neurala nätverk kan lära sig hög nivå representationer av en bred klass av mönster från märkta data. I detta arbete utvecklade vi djupkonvolutionella neurala nätverk (CNN) klassificeringssystem och visade nyttan av Deep Learning teknik för att ta itu med klimat mönster detektion problem. Tillsammans med Bayesian-baserade hyperparameteroptimeringssystem uppnår vårt djupa CNN-system 89 %-99 % av noggrannheten när det gäller att upptäcka extrema händelser (tropiska cykloner, atmosfäriska floder och väderfronter).
Liu et al REF använde djupa neurala nätverk för att upptäcka extrema klimat i väderdataset.
10,140,273
Application of Deep Convolutional Neural Networks for Detecting Extreme Weather in Climate Datasets
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
1,167
Automatiserad argumentering gruvbrytning kräver ett lämpligt typsystem eller notationssystem för att klassificera de mönster av argument som lyckas eller misslyckas i en corpus av juridiska dokument. Dessutom måste det finnas en tillförlitlig och korrekt metod för att klassificera de argument som finns i handlingar i naturligt språk. Utan ett lämpligt och operativt system är det osannolikt att vi når enighet om argument corpora som kan fungera som en guldstandard. I denna rapport redovisas de preliminära resultaten av forskningen för att kommentera ett urval av representativa rättsliga beslut för resonemanget i faktafindern. I besluten redovisas om den bevisning som framställaren lagt fram på ett tillfredsställande sätt stöder påståendet att en medicinsk teori orsakssambandet kopplar någon typ av vaccin till olika typer av skador eller ogynnsamma medicinska tillstånd. Denna uppsats sammanfattar och diskuterar några mönster av resonemang som vi finner, med hjälp av exempel från corpus. De mönstertyper och exempel som presenteras här visar svårigheten att utveckla en typ eller notation system för att karakterisera logiskt viktiga mönster av resonemang.
REF utarbetades på grundval av en modell av argument där skälet stöder kravet på uppdrag av en häktningsorder.
4,936,286
Annotating Patterns of Reasoning about Medical Theories of Causation in Vaccine Cases: Toward a Type System for Arguments
{'venue': 'ArgMining@ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,168
Abstract-High-performance datorsystem skiftar bort från traditionella sammanlänkning topologier för att utnyttja ny teknik och minska sammankopplingen av strömförbrukningen. Dragonfly topologi är en lovande kandidat för nya system, med flera variationer redan i produktionen. Det är hierarkiskt, med lokala länkar som bildar grupper och globala länkar som förenar grupperna. På varje nivå är sammanlänkningen en klick, med en länk mellan varje par växlar i en grupp och en länk mellan varje par av grupper. Detta dokument visar att länkarna mellan grupperna kan göras på ett meningsfullt sätt. Vi utvärderar tre tidigare föreslagna strategier för länkorganisation (s.k. globala länkarrangemang) på två sätt. För det första använder vi bisektionsbandbredd, ett viktigt och allmänt använt mått på potentialen för kommunikationsflaskhalsar. Vi visar att de globala länkarrangemangen ofta ger bisektion bandbredder som skiljer sig med 10s av procent, med den specifika separationen varierar baserat på den relativa bandbredden av lokala och globala länkar. För de länkbandbredder som används i en aktuell Dragonfly implementation, är det 33%. För det andra visar vi att valet av globala länkarrangemang i hög grad kan påverka regelbundenheten i uppgiftskartläggningar för närmaste grannstencil kommunikationsmönster, ett viktigt mönster i vetenskapliga tillämpningar.
Hastings m.fl. genomföra en teoretisk analys av globala länkarrangemang och visa att den allmänt använda absoluta länkarrangemang leder till en mindre bisektion bandbredd när förhållandet mellan globala/lokala länkbandbredder är större än 1,25 REF.
14,514,449
Comparing Global Link Arrangements for Dragonfly Networks
{'venue': '2015 IEEE International Conference on Cluster Computing', 'journal': '2015 IEEE International Conference on Cluster Computing', 'mag_field_of_study': ['Computer Science']}
1,169
Andra och högre ordningen statistik över datapunkter har spelat en viktig roll för att främja den senaste tekniken på flera datorseende problem som finkornig bild och scenigenkänning. Denna statistik måste dock vidarebefordras via ett lämpligt poolingsystem för att uppnå bästa resultat. Effektnormaliseringar är icke-linjära aktiveringsenheter som har sannolikhetsinspirationer och kan tillämpas i CNN. I detta dokument föreslår vi ett liknande lärnätverk som utnyttjar andra ordningens information och Power Normalizations. I detta syfte föreslår vi flera formuleringar som fångar andra ordningens statistik och härleder en sigmoidliknande Power Normalizing-funktion för att visa dess tolkningsbarhet. Vår modell är tränad endto-end för att lära sig likheten mellan stöduppsättningen och frågebilder för problemet med en- och ett fåtal-shot lärande. Utvärderingarna av Omniglott, miniImagenet och öppna MIC-data visar att detta nätverk får toppmoderna resultat på flera få utbildningsprotokoll. Vi är de första att bädda in andra ordningens statistik och Power Normalization i en-och få-shot lärande. De relationsdeskriptorer som skickas via en sådan icke-linjäritet överförs sedan till ett så kallat nätverk för likhetslärande.
Zhang m.fl. REF använde andra ordningens statistik med makt normalisering och permutation data förstärkning för att lära sig likheten för få-shot lärande.
53,288,722
Power Normalizing Second-Order Similarity Network for Few-Shot Learning
{'venue': '2019 IEEE Winter Conference on Applications of Computer Vision (WACV)', 'journal': '2019 IEEE Winter Conference on Applications of Computer Vision (WACV)', 'mag_field_of_study': ['Computer Science']}
1,170
Konvolutionella neurala nätverk (CNN) har visat framgång i att uppnå översättningsinvariant för många bildbehandlingsuppgifter. Framgången beror till stor del på användningen av lokal filtrering och maxpoolning i CNN-arkitekturen. I detta dokument föreslår vi att CNN ska tillämpas på taligenkänning inom ramen för hybriden NN-HMM-modell. Vi föreslår att man använder lokal filtrering och maxpoolning i frekvensdomänen för att normalisera högtalarvariansen för att uppnå högre taligenkänningsprestanda med flera högtalare. I vår metod, ett par lokala filtrering lager och max-pooling skikt läggs i den lägsta änden av neurala nätverket (NN) för att normalisera spektral variationer av talsignaler. I våra experiment, den föreslagna CNN-arkitekturen utvärderas i en högtalare oberoende taligenkänning uppgift med hjälp av standard TIMIT datauppsättningar. Experimentella resultat visar att den föreslagna CNN-metoden kan uppnå en relativ felreduktion på över 10 % i de centrala TIMIT-testuppsättningarna vid jämförelse med en vanlig NN med samma antal dolda lager och vikter. Våra resultat visar också att det bästa resultatet av den föreslagna CNN-modellen är bättre än tidigare publicerade resultat på samma TIMIT-testuppsättningar som använder en förtränad djup NN-modell.
En av de mest kända studier som visar kapaciteten hos CNN för denna uppgift är REF, där en hybrid CNN-HMM modell med hjälp av lokal filtrering och max-pooling i frekvensdomänen föreslås för att hantera den translationella invariance problem som finns i andra DNN.
10,042,024
Applying Convolutional Neural Networks concepts to hybrid NN-HMM model for speech recognition
{'venue': '2012 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP)', 'journal': '2012 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP)', 'mag_field_of_study': ['Computer Science']}
1,171
Rosenthal s trängsel spel utgör en av de få kända klasser av icke-kooperativa spel med ren strategi Nash equilibria. I nätverksversionen, varje spelare vill dirigera en enhet av flödet på en enda väg från hennes ursprung till hennes destination till lägsta kostnad, och kostnaden för att använda en båge beror endast på det totala antalet spelare som använder den bågen. En naturlig förlängning är att möjliggöra för spelare som kontrollerar olika mängder av flöde, vilket resulterar i så kallade viktade trängselspel. Även om exempel har visats som visar att ren strategi Nash equilibria inte behöver finnas längre, vi bevisar att det faktiskt är starkt NP-hård att avgöra om en viss viktade nätet trängsel spel har en ren strategi Nash jämvikt. Detta gäller oavsett om flödet är osplitterbart eller inte. I det osplitterbara fallet är problemet fortfarande starkt NP-hård för ett fast antal spelare. Förutom trängselspel ger vi komplexa resultat på förekomsten och beräkningsbarheten av ren strategi Nash equilibria för den nära besläktade familjen av dubbelriktade lokala effekter spel. Däri, kostnaden för en spelare att vidta en viss åtgärd beror inte bara på antalet spelare som väljer samma åtgärd, men också på antalet spelare som bosätta sig för (lokalt) relaterade åtgärder.
Dunkel och Schulz REF visar att beslutsproblemet huruvida ett vägt nätstockning spel har en ren Nash jämvikt är NP-hård.
14,183,701
On the Complexity of Pure-Strategy Nash Equilibria in Congestion and Local-Effect Games
{'venue': 'In Proc. of the 2nd Int. Workshop on Internet and Network Economics (WINE', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,172
Abstrakt. I detta dokument studeras hierarkin av lokala minimivärden för ett polynom i rummet. För detta ändamål beräknar vi först H-minimivärden, för vilka den första och andra ordningens optimala villkor är uppfyllda. För att beräkna varje H-minimum konstruerar vi en sekvens av semidefinita avkopplingar, baserat på optimala förhållanden. Vi bevisar att varje konstruerad sekvens har ändlig konvergens, under vissa generiska förhållanden. Ett förfarande för beräkning av alla lokala minimivärden ges. När det finns jämlikhetsbegränsningar har vi liknande resultat när det gäller att beräkna hierarkin för kritiska värden och hierarkin för lokala minimivärden. Flera förlängningar diskuteras.
REF föreslår att man använder hierarkin av halvdefinita avkopplingar för att beräkna alla lokala optima som uppfyller första och andra ordningen nödvändiga villkor baserade på halvdefinita avkopplingar.
28,851,684
The Hierarchy of Local Minimums in Polynomial Optimization
{'venue': None, 'journal': 'arXiv: Optimization and Control', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
1,173
I takt med att datacenter blir allt mer centrala inom Internetkommunikation har både forsknings- och verksamhetsgemenskaper börjat undersöka hur man bättre kan utforma och hantera dem. I detta dokument presenterar vi en preliminär empirisk studie av end-to-end trafikmönster i datacenter nätverk som kan informera och hjälpa till att utvärdera forskning och operativa strategier. Vi analyserar SNMP-loggar som samlats in vid 19 datacenter för att undersöka tids- och rumsliga variationer i länkbelastningar och förluster. Vi finner att medan länkar i kärnan är kraftigt utnyttjade de närmare kanten observerar en större grad av förlust. Vi studerar sedan paket spår som samlats in vid ett litet antal växlar i ett datacenter och hitta bevis för ON-OFF trafikbeteende. Slutligen utvecklar vi ett ramverk som härleder ON-OFF trafikparametrar för datacenter trafikkällor som bäst förklarar de SNMP data som samlats in för datacenter. Vi visar att ramverket kan användas för att utvärdera datacenter trafik engineering. Vi tillämpar också ramverket för att designa trafikgeneratorer på nätverksnivå för datacenter.
I REF utförs en empirisk studie av trafikmönster från end-to-end över flera datacenter för att undersöka tidsmässiga och rumsliga variationer i länkbelastningar och förluster.
7,463,742
Understanding data center traffic characteristics
{'venue': 'CCRV', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,174
Abstrakt. I samband med Object-orienterad programvara har många verk undersökt problemet med klassintegration och testorder (CITO) och föreslagit lösningar för att bestämma testorder för integrationstestet av programklasserna. De befintliga metoder som bygger på grafer kan generera lösningar som är suboptimala, och inte ta hänsyn till de olika faktorer och åtgärder som kan påverka stubbningsprocessen. För att övervinna denna begränsning har lösningar baserade på genetiska algoritmer (GA) presenterat lovande resultat. Fastställandet av en kostnadsfunktion, som kan generera de bästa lösningarna, är dock inte alltid en trivial uppgift, främst för komplexa system med ett stort antal åtgärder. Därför inför vi i detta dokument en multiobjektiv optimeringsmetod för att bättre representera CITO-problemet. Metoden genererar en rad bra lösningar som uppnår en balanserad kompromiss mellan de olika åtgärderna (mål). Det genomfördes av en Pareto Ant Colony (P-ACO) algoritm, som beskrivs i detalj. Algoritmen användes i en uppsättning verkliga program och de erhållna resultaten jämförs med GA-resultaten. Resultaten gör det möjligt att diskutera skillnaden mellan enskilda och målinriktade strategier, särskilt för komplexa system med ett större antal beroenden bland klasserna.
Det multiobjektiva tillvägagångssättet infördes i OO-sammanhang av Cabral et al Ref.
10,865,445
A Pareto ant colony algorithm applied to the class integration and test order problem
{'venue': 'ICTSS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,175
Vi föreslår en ny verifieringsmetod för tidsmässiga egenskaper hos funktionsprogram med högre ordning, som drar nytta av Ongs senaste resultat när det gäller att avgöra om modellkontrollproblemen för system för rekursion med högre ordning (HORS's). Ett program omvandlas till en HORS som genererar ett träd som representerar alla möjliga händelsesekvenser av programmet, och sedan HORS är modellkontrollerad. Till skillnad från de flesta av de tidigare metoderna för verifiering av högre ordningsprogram är vår verifieringsmetod sund och komplett. Dessutom möjliggör detta nya verifieringsramverk en smidig integrering av abstrakta modellkontrolltekniker i verifieringen av högre ordningsprogram. Vi presenterar även en typbaserad verifieringsalgoritm för HORS. Algoritmen kan endast hantera ett fragment av egenskaperna uttryckta av modal μ-calculus, men algoritmen och dess korrekthet bevis är (argumentabelt) mycket enklare än de av Ongs spel-semantik-baserade algoritm. Dessutom, medan HORS-modellens kontrollproblem är n-EXPTIME i allmänhet, är vår algoritm linjär i storleken på HORS, under antagandet att storleken på typer och specifikationer begränsas av en konstant.
Modell kontroll godtyckliga μ-kalculus egenskaper ändliga dataprogram med högre orderfunktioner och rekursioner kan reduceras till modellkontroll för högre-order rekursion system REF.
5,912,057
Types and higher-order recursion schemes for verification of higher-order programs
{'venue': "POPL '09", 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,176
Abstrakt. Program skrivna i skriptspråk använder idiomer som förvirrar konventionella typsystem. I detta dokument lyfter vi fram en viktig uppsättning relaterade idiom: användningen av lokal kontroll och stat för att resonera informellt om typer. För att ta itu med dessa idiomer formaliserar vi run-time-taggar och deras relation till typer, och använder dessa för att presentera en ny strategi för att integrera maskinskrivning med flödesanalys på ett modulärt sätt. Vi visar att i vår separation av maskinskrivning och flödesanalys, varje komponent förblir konventionell, deras sammansättning är enkel, men resultatet kan hantera dessa idiomer bättre än någon av dem ensam.
Guha m.fl. REF utvecklade en typkontroll för JavaScript som kombinerar maskinskrivning och flödesanalys för att stödja användningen av lokal kontroll och stat att resonera informellt om typer.
2,002,071
Typing local control and state using flow analysis
{'venue': 'In ESOP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,177
Vi presenterar en metod för 3D-objektdetektering och poserar uppskattning från en enda bild. I motsats till nuvarande tekniker som endast regresserar 3D-orienteringen av ett objekt, vår metod regresserar först relativt stabila 3D-objektegenskaper med hjälp av ett djupt konvolutionellt neuralt nätverk och sedan kombinerar dessa uppskattningar med geometriska begränsningar som tillhandahålls av en 2D-objekt avgränsande låda för att producera en komplett 3D-gränsande låda. Den första nätverksutgången uppskattar 3D-objektorienteringen med hjälp av en ny hybrid diskret-kontinuerlig förlust, som avsevärt överträffar L2-förlusten. Den andra produktionen regresserar 3D-objekt dimensionerna, som har relativt lite varians jämfört med alternativ och kan ofta förutsägas för många objekttyper. Dessa uppskattningar, i kombination med de geometriska begränsningar för översättning som införs av 2D-gränsrutan, gör det möjligt för oss att återställa en stabil och korrekt 3D-objekt pose. Vi utvärderar vår metod på det utmanande KITTI-objektdetekteringsriktmärket [2] både på det officiella måttet för 3D-orienteringsuppskattning och på noggrannheten hos de erhållna 3D-begränsande rutorna. Även om vår metod är konceptuellt enkel, överträffar den mer komplexa och beräkningsmässigt dyra metoder som utnyttjar semantisk segmentering, till exempel segmentering på nivå och platta markposter [4] och upptäckt underkategori [23] [24]. Vår diskret-kontinuerliga förlust ger också toppmoderna resultat för 3D synvinkel uppskattning på Pascal 3D+ dataset [26]. * Arbete som praktikant på Zoox, Inc.
Deep3DBox REF hänvisar till 3D-information från en 2D-gränsruta med beaktande av projektions geometriska begränsningar.
8,694,036
3D Bounding Box Estimation Using Deep Learning and Geometry
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
1,178
I denna uppsats initierar vi den systematiska studien av att lösa linjära program under differential integritet. Det första steget är helt enkelt att definiera problemet: för detta ändamål introducerar vi flera naturliga klasser av privata linjära program som fångar olika sätt känsliga data kan införlivas i ett linjärt program. För varje klass av linjära program ger vi en effektiv, differentialt privat lösare baserad på multiplikativ viktram, eller så ger vi ett omöjligt resultat.
Vi introducerar en ny teknik för att lösa linjära program under gemensam differential integritet, som utökar en rad arbete (lösning linjära program under differential integritet) initierad av REF.
3,936,806
Privately Solving Linear Programs
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
1,179
Abstract-In deadline-konstruerad dataaggregation i trådlösa sensornätverk (WSNs), den införda diskho deadline i ett interferencebegränsat nätverk hindrar deltagande av alla sensornoder i dataaggregation. Således, en delmängd av noder kan bidra till aggregering och kvalitet av aggregering (QoA) ökar med tillväxten av antalet deltagande noder. Schemaläggning nodernas sändningar är ett centralt problem, som syftar till att maximera QoA, samtidigt som diskhon deadline, dvs., leverans i tid av avkännade data till diskbänk noden. Även om de tidigare studierna har föreslagit optimala schemaläggningsalgoritmer för detta problem med tanke på ett visst samlingsträd, finns det inget arbete med att bygga optimalt träd i detta sammanhang. Den underliggande aggregering träd kan göra en stor skillnad på QoA eftersom vi visar att förhållandet mellan den maximala uppnåeliga QoAs för olika träd kan vara så stor som O(2 D ), där D är diskbänken deadline. I detta papper kastar vi ett optimeringsproblem för att ta itu med optimal trädkonstruktion för deadline-konstruerad dataaggregation i WSNs. Problemet är kombinatoriskt i naturen och svårt att lösa när vi bevisar dess NP-hårdhet. Vi använder Markov approximation ram och utforma två distribuerade algoritmer med olika beräkningar overheads för att hitta avgränsade nära-optimala lösningar. Simuleringsförsök i en uppsättning representativa slumpmässiga scenarier visar att de föreslagna algoritmerna avsevärt förbättrar QoA med 101% och 93% i genomsnitt jämfört med de bästa, enligt vår kunskap, befintliga alternativa metoder.
Alinia m.fl. I REF undersöktes problemet med att bygga aggregat av högsta kvalitet i tidsbegränsade WSN, men man beaktade inte tillförlitligheten hos kopplingen och energibegränsningen.
10,388,124
On the construction of maximum-quality aggregation trees in deadline-constrained WSNs
{'venue': '2015 IEEE Conference on Computer Communications (INFOCOM)', 'journal': '2015 IEEE Conference on Computer Communications (INFOCOM)', 'mag_field_of_study': ['Computer Science']}
1,180
Vi anser att inställningen av HTTP-trafik över krypterade tunnlar, som används för att dölja identiteten på webbplatser som besöks av en användare. Det är välkänt att trafikanalyser (TA) attacker kan exakt identifiera webbplatsen en användare besök trots användning av kryptering, och tidigare arbete har tittat på specifika attacker / motmedel parningar. Vi tillhandahåller den första omfattande analysen av allmänna tekniska motåtgärder. Vi visar att nio kända motåtgärder är sårbara för enkla attacker som utnyttjar grova drag i trafiken (t.ex. total tid och bandbredd). De motåtgärder som övervägs omfattar sådana som de som standardiserats av TLS, SSH och IPsec, och ännu mer komplexa sådana som trafikmorferingssystemet Wright et al. Som bara ett av våra resultat, visar vi att trots användningen av trafik morfering, kan man använda endast total uppströms och nedströms bandbredd för att identifiera med 98% noggrannhet-vilken av två webbplatser besöktes. En konsekvens av vad vi finner är att det, i samband med identifiering av webbplatser, är osannolikt att bandbreddseffektiva, allmänna tekniska åtgärder någonsin kan ge den typ av säkerhet som eftersträvas i tidigare arbete.
Dessutom visade författarna i Ref att nio kända motåtgärder är sårbara för enkla attacker som utnyttjar grova drag i trafiken (t.ex. total tid och bandbredd).
861,248
Peek-a-Boo, I Still See You: Why Efficient Traffic Analysis Countermeasures Fail
{'venue': '2012 IEEE Symposium on Security and Privacy', 'journal': '2012 IEEE Symposium on Security and Privacy', 'mag_field_of_study': ['Computer Science']}
1,181
Samtalscentraler hanterar vanligtvis flera typer av samtal, men det är oftast inte möjligt eller kostnadseffektivt att ha varje agent att kunna hantera varje typ av samtal. Därför tenderar agenterna att ha olika färdigheter, i olika kombinationer. I en sådan miljö är det svårt att styra samtalen effektivt och avgöra personalbehoven. I detta dokument behandlas både dessa routing- och personalproblem genom att man utnyttjar begränsad gränsöverskridande utbildning. I överensstämmelse med litteraturen om flexibel tillverkning, finner vi att minimal flexibilitet kan ge stora fördelar: Simuleringsförsök visar att när (i) service-tid distributionen inte beror på samtalstyp eller agent och (ii) varje agent har endast två färdigheter, i lämpliga kombinationer, prestanda är nästan lika bra som när varje agent har alla färdigheter. Vi tillämpar denna flexibilitetsfastighet för att utveckla en algoritm för både routing och bemanning, som syftar till att minimera den totala personalen som omfattas av prestandabegränsningar per klass. Med lämplig flexibilitet räcker det att använda en suboptimal routingalgoritm. Simuleringsförsök visar att den övergripande proceduren kan vara anmärkningsvärt effektiv: Den personal som krävs med begränsad korsutbildning kan vara nästan densamma som om alla agenter hade alla färdigheter. Därför är den övergripande algoritmen nästan optimal för det scenariot. Ämnesklassificeringar: Köer, tillämpningar: callcenter med färdighetsbaserad routing. Köer, algoritmer: bemanning och routing i callcenter med färdighetsbaserad routing. Köer, nätverk: call centers med färdighetsbaserad routing.
Simuleringar i REF visar empiriskt att begränsad korsutbildning kan vara mycket effektiv i ett stort callcenter under en färdighetsbaserad routingalgoritm.
9,593,519
A staffing algorithm for call centers with skill-based routing
{'venue': 'Manufacturing and Service Operations Management', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,182
Gilgul är en förlängning av Java programmeringsspråk som möjliggör dynamisk objektersättning utan problem med konsekvens. Detta är möjligt på ett semantiskt rent sätt eftersom dess modell strikt skiljer de begrepp om referens och jämförelse som vanligen subsumeras i begreppet objektidentitet. Detta papper skisserar problem som uppstår i försök att ersätta aktiva objekt och presenterar några lösningar, inklusive både varianter som bevarar konsekvens och de som handel konsekvens för aktualitet. De senare möjliggörs med hjälp av den nya återkallningskonstruktionen som till och med gör det möjligt att ersätta föremål med icke-avslutande slingor.
I REF utvecklade författarna GILGUL-tillägget till Java-språket för dynamisk objektersättning.
18,860,291
Dynamic Replacement of Active Objects in the Gilgul Programming Language
{'venue': 'Component Deployment', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,183
I detta dokument föreslås en ny hybridarkitektur som består av ett djupt Convolutional Network och ett Markov Random Field. Vi visar hur denna arkitektur framgångsrikt tillämpas på det utmanande problemet med artikulerade mänskliga pose uppskattning i monokulära bilder. Arkitekturen kan utnyttja strukturella domänbegränsningar såsom geometriska relationer mellan kroppspooler. Vi visar att gemensam utbildning av dessa två modellers paradigm förbättrar prestandan och gör det möjligt för oss att avsevärt överträffa befintliga toppmoderna tekniker.
I REF föreslår författarna en hybrid mellan CNN och MRF (Markov Random Fields) för att lösa det mänskliga pose estimeringsproblem.
392,527
Joint Training of a Convolutional Network and a Graphical Model for Human Pose Estimation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
1,184
Det huvudsakliga syftet med detta forskningsarbete är att analysera och modellera försörjningskedjor inom ramen för små och medelstora företag inom området mekatronik. Studien bygger på en analys av de organisatoriska egenskaperna, aktörernas beteende och resultatöverväganden. Utvecklingen av modellen bygger på en iterativ ram som gradvis integrerar olika aspekter i modellen. Detta ramverk är ArchMDE-processen, som bygger på MDE (Model Driven Engineering). Ett viktigt inslag i detta arbete är dess bidrag till två olika forskningsområden. Det första bidraget från arbetet är att föreslå en generisk metamodell för SC. På grundval av en litteraturöversikt föreslås ett stegvist ramverk för modellering av SC när det gäller begrepp, struktur och relationer. Tillämpningen av ramverket i det studerade sammanhanget beskrivs och resultatet är en domänmetamodell för SC. Det andra bidraget från detta arbete är formaliseringen av det dynamiska beteendet hos begreppen i metamodellen. Formaliseringen grundar sig på flera faktorer. En representantifiering av metamodellen ritas alltså, tack vare de naturliga kopplingarna mellan multiagentteorin och SC-verkligheten. Detta steg leder till en agentifierad-domain-metamodell som även omfattar övervakning av SC- och synkroniseringsprotokoll. Genom att lägga till relationer och dynamiska beteendeaspekter får vi en hal-00627502, version 1 -8 jan 2013 Författare manuskript, publicerat i "Journal of Intelligent Manufacturing 23, 2647Manufacturing 23, -2665Manufacturing 23, (2012)
Ett annat ABM Ref är utvecklat för att analysera försörjningskedjor i samband med små och medelstora företag.
5,987,418
A multi-agent knowledge model for SMEs mechatronic supply chains
{'venue': None, 'journal': None, 'mag_field_of_study': ['Engineering', 'Computer Science']}
1,185
Set skärningspunkt är en grundläggande operation i informationssökning och databassystem. Detta dokument introducerar linjära rymddatastrukturer för att representera uppsättningar så att deras skärningspunkt kan beräknas på ett i värsta fall effektivt sätt. I allmänhet, givet k (förbearbetade) uppsättningar, med helt n element, kommer vi att visa hur man beräknar deras skärningspunkt i förväntad tid O(n/ ε w + kr), där r är skärningsstorleken och w är antalet bitar i ett maskin-ord. Dessutom introducerar vi en mycket enkel version av denna algoritm som har svagare asymptotiska garantier men presterar ännu bättre i praktiken; både algoritmer överträffar toppmoderna tekniker för både syntetiska och verkliga datamängder och arbetsbelastningar.
Det är uppenbart att denna gräns bygger på ett stort värde av w. I REF presenteras uppsättningen av linjär rymddatastruktur som gör det möjligt att beräkna skärningspunkten i O(m+n)/sqrt(w)+2r).Denna algoritm presterar bättre i praktiken.
2,885,422
Fast Set Intersection in Memory
{'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']}
1,186
ABSTRACT En beslutskarta innehåller fullständig och tydlig information om den bild som ska sammansmältas, och att upptäcka beslutskartan är avgörande för olika bildfusionsproblem, särskilt multifokuserad bildfusion. I ett försök att få en godkänd bildfusionseffekt är det dock nödvändigt och alltid svårt att få en beslutskarta. I detta dokument tar vi itu med detta problem med en ny bildsegmenteringsbaserad multifokuserad bildfusionsalgoritm, där uppgiften att upptäcka beslutskartan behandlas som bildsegmentering mellan de fokuserade och defokuserade regionerna i källbilderna. Den föreslagna metoden uppnår segmentering genom en multi-scale convolutional neural network, som utför en multi-scale analys på varje ingångsbild för att härleda respektive funktion kartor på de regionala gränserna mellan de fokuserade och defokuserade regionerna. Funktionskartorna är sedan sammansmälta för att producera en sammanslagen funktionskarta. Därefter efterbehandlas den sammanslagna kartan med hjälp av inledande segmentering, morfologisk drift och vattendelare för att erhålla segmenteringskartan/beslutskartan. Vi illustrerar att beslutskartan från det flerskaliga konvolutionella neurala nätverket är pålitlig och att det kan leda till högkvalitativa fusionsresultat. Experimentella resultat bekräftar tydligt att den föreslagna algoritmen kan uppnå optimal fusionsprestanda mot bakgrund av både kvalitativa och kvantitativa utvärderingar. INDEX TERMS Konvolutionella neurala nätverk, multi-fokus bild, beslut karta, bild fusion.
Du och Gao REF uppgav att ett beslutsdiagram innehåller fullständig och tydlig information om den bild som ska sammansmältas och föreslog en ny multifokuserad fusionsalgoritm baserad på bildsegmentering.
9,466,474
Image Segmentation-Based Multi-Focus Image Fusion Through Multi-Scale Convolutional Neural Network
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
1,187
Sammanfattning Statistiska mängder, såsom förväntan (medel) och varians, spelar en viktig roll i den nuvarande tidsåldern probabilistisk analys. I denna uppsats presenterar vi en formalisering av förväntanteorin som kan användas för att verifiera förväntningarna och variansegenskaperna hos diskreta slumpmässiga variabler inom HOL-teorin. Motiveringen bakom detta är förmågan att utföra felfri probabilistisk analys, som i sin tur kan vara mycket användbar för prestanda- och tillförlitlighetsanalys av system som används inom säkerhetskritiska områden, såsom rymdresor, medicin och militär. Vi presenterar först en formell definition av förväntan på en funktion av en diskret slumpmässig variabel. Utifrån denna definition formaliserar vi det matematiska begreppet varians och verifierar några klassiska egenskaper hos förväntan och varians i HOL. Vi använder sedan dessa formella definitioner för att verifiera förväntningarna och variansegenskaperna hos den geometriska slumpvariabeln. För att visa den praktiska effektiviteten i den formalisering som presenteras i detta dokument presenterar vi också den probabilistiska analysen av Coupon Collectors problem i HOL.
På samma sätt använde vi våra teorier relaterade till den formella verifieringen av statistiska egenskaper för prestandaanalys av Coupon Collector problem REF.
10,766,411
Using Theorem Proving to Verify Expectation and Variance for Discrete Random Variables
{'venue': 'Journal of Automated Reasoning', 'journal': 'Journal of Automated Reasoning', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
1,188
Abstraktiv sammanfattning är det yttersta målet för dokumentsammanfattning forskning, men tidigare är det mindre utredd på grund av omogenitet av textgenerering tekniker. Nyligen har imponerande framsteg gjorts till abstrakt mening summering med hjälp av neurala modeller. Tyvärr är försök till abstrakt dokumentsammanfattning fortfarande i ett primitivt stadium, och utvärderingsresultaten är värre än utvinningsmetoder på referensdatauppsättningar. I detta dokument granskar vi svårigheterna med sammanfattning av neurala abstrakta dokument och föreslår en ny grafbaserad uppmärksamhetsmekanism inom ramen för sekvens-till-sekvens. Intuitionen är att ta itu med summeringens betydelsefaktor, som har förbisetts av tidigare verk. Experimentella resultat visar att vår modell kan uppnå betydande förbättringar jämfört med tidigare neurala abstraktiva modeller. Den datadrivna neurala abstraktionsmetoden är också konkurrenskraftig med toppmoderna utvinningsmetoder.
Nyligen, inspirerad av PageRank, REF införa en grafbaserad uppmärksamhetsmekanism för att ta itu med problemet med soliditet.
26,698,484
Abstractive Document Summarization with a Graph-Based Attentional Neural Model
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,189
En enastående öppen fråga [51, Fråga #5] ber att karakterisera metriska utrymmen där avstånd kan uppskattas med hjälp av effektiva skisser. Speciellt säger vi att en skiss algoritm är effektiv om det uppnår konstant approximation med konstant skissstorlek. Ett välkänt resultat av Indyk (J. ACM, 2006) innebär att ett mått som medger en konstant förvrängning inbäddning i p för p 0, 2] också medger ett effektivt skissningsschema. Men är det motsatta sant, d.v.s. att inbädda i p det enda sättet att uppnå effektiv skissning? Vi tar upp dessa frågor för det viktiga speciella fallet av normerade utrymmen, genom att ge en nästan fullständig karakterisering av skissning i form av inbäddningar. I synnerhet bevisar vi att ett finit-dimensionellt normat utrymme möjliggör effektiva skisser om och endast om det inbäddar (linjärt) i 1−ε med konstant förvrängning. Vi bevisar vidare att för normer som är stängda under totalprodukt, är effektiv skissning lika med inbäddning i 1 med konstant förvrängning. Exempel på sådana normer är Jordens distans (speciellt dess normvariant, kallad Kantorovich-Rubinstein norm), och spårnormen (alias. Schatten 1-norm eller kärnnormen). Använda kända icke-bäddbarhet teorem för dessa normer av Naor och Schechtman (SICOMP, 2007) och av Pisier (Compositio. Math., 1978), drar vi sedan slutsatsen att dessa utrymmen inte medger effektiva skisser heller, gör framsteg mot att besvara en annan öppen fråga [51, Fråga nr 7]. Slutligen observerar vi att lösa om "sketching är likvärdigt att inbädda i 1 för allmänna normer" (dvs. utan ovanstående begränsning) är detsamma som att lösa ett välkänt öppet problem i funktionell analys som Kwapien ställde 1969.
Ett annat relaterat arbete är REF, som visar att för normer är förekomsten av bra skisser lika med enhetlig inbäddbarhet i 2.
12,133,929
Sketching and Embedding are Equivalent for Norms
{'venue': "STOC '15", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
1,190
Naiad är ett distribuerat system för att utföra data parallellt, cykliskt dataflödesprogram. Det erbjuder den höga genomströmningen av batch processorer, den låga latensen av ström processorer, och förmågan att utföra iterativa och inkrementella beräkningar. Även om befintliga system erbjuder några av dessa funktioner, applikationer som kräver alla tre har förlitat sig på flera plattformar, på bekostnad av effektivitet, underhållbarhet och enkelhet. Naiad löser komplexiteten i att kombinera dessa funktioner inom en ram. En ny beräkningsmodell, snabbt dataflöde, ligger till grund för Naiad och fångar upp möjligheter till parallellism över en bred klass av algoritmer. Denna modell berikar dataflödesberäkningen med tidsstämplar som representerar logiska punkter i beräkningen och utgör grunden för en effektiv, lätt samordningsmekanism. Vi visar att många kraftfulla högnivåprogrammeringsmodeller kan byggas på Naiads primitiva lågnivå, vilket möjliggör så olika uppgifter som streaming dataanalys, iterativ maskininlärning och interaktiv grafbrytning. Naiad överträffar specialiserade system i sina användningsområden, och dess unika funktioner möjliggör utvecklingen av nya högpresterande applikationer.
Naiad REF innehåller differentialdataflöde för att utföra iterativa och inkrementella algoritmer.
14,796,003
Naiad: a timely dataflow system
{'venue': "SOSP '13", 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,191
Abstract-Motiverad av effekten av superupplösningsmetoder för avbildning, genomför vi en detaljerad och systematisk analys av localization acuity för en biomimetic fingertopp och en platt region av taktil hud. Vi identifierar tre nyckelfaktorer bakom superupplösning som gör det möjligt för den perceptuella skärpan att överträffa sensorupplösningen: 1) sensorn är konstruerad med flera överlappande, breda men känsliga mottagliga fält; 2) den taktila perceptionsmetoden interpolerar mellan receptorer (taxlar) för att uppnå subtaxelskärpa; och 3) aktiv perception säkerställer robusthet till okänd initial kontaktplats. Alla faktorer följer av aktiv Bayesian perception tillämpas på biomimetiska taktila sensorer med en elastomerisk beläggning som sprider kontakten över flera taxlar. Följaktligen uppnår vi extrem överupplösning med en 35-faldig förbättring av lokaliseringsskärpan (0,12 mm) över sensorupplösning (4 mm). Vi räknar med att dessa principer kommer att möjliggöra billiga högvärdiga taktila sensorer som är mycket anpassningsbara för att passa deras robotiska användning. Praktiska tillämpningar omfattar alla scenarier där en end-effector måste placeras korrekt via känseln. Index Terms-Biomimetik, kraft och taktil avkänning.
I detta avseende ger en nyligen publicerad rapport REF en detaljerad och systematisk analys av taktil överupplösning (SR) lokalisering för en biomimetisk fingertopp och en platt region av taktil hud för humanoida robotar.
15,811,969
Tactile Superresolution and Biomimetic Hyperacuity
{'venue': 'IEEE Transactions on Robotics', 'journal': 'IEEE Transactions on Robotics', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
1,192
Vi tillhandahåller en metod, baserad på teorin om Markovs beslutsprocesser, för eektiv planering inom stokastiska områden. Målen är kodade som belöning funktioner, uttrycker önskvärdheten i varje världsstat; planeraren måste nd en politik (mappa från stater till åtgärder) som maximerar framtida belöningar. Standardmål för prestation, liksom mål för underhåll och prioriterade kombinationer av mål, kan anges på detta sätt. En optimal policy kan hittas med hjälp av befintliga metoder, men dessa metoder kräver tid i bästa fall polynom i antalet stater i området, där antalet stater är exponentiellt i antalet förslag (eller tillståndsvariabler). Genom att använda information om starttillståndet, belöningen funktion, och övergångssannolikheten av domänen, begränsar vi planerarens uppmärksamhet till en uppsättning av världsstater som sannolikt kommer att mötas för att uppfylla målet. Med hjälp av denna begränsade uppsättning stater kan planeraren generera mer eller mindre fullständiga planer beroende på den tid den har tillgänglig. Vårt tillvägagångssätt använder flera iterative re nement rutiner för att lösa olika aspekter av beslutsfattandet problem. Vi beskriver meta-nivå kontroll problemet med överläggning schemaläggning, allokering av beräkningsresurser till dessa rutiner. Vi tillhandahåller olika modeller som motsvarar optimeringsproblem som fångar de olika omständigheterna och beräkningsstrategierna för beslutsfattande under tidsbegränsningar. Vi ser på prekursormodeller där allt beslutsfattande utförs före verkställandet och återkommande modeller där beslutsfattandet utförs parallellt med verkställandet, med redovisning för de stater som observeras under verkställandet och förutseendet av framtida stater. Vi beskriver experimentella resultat för både prekursor- och återkommande problem som visar planeringstider som växer långsamt som en funktion av domänstorlek. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning.
Dean REF tillhandahåller en metod baserad på MDP för effektiv planering inom stokastiska domäner.
15,096,834
Planning under Time Constraints in Stochastic Domains
{'venue': 'Artif. Intell.', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
1,193
För att hantera och säkra nätverk krävs insamling och analys av mätdata. Nuvarande teknik gör det inte lätt att göra detta, vanligtvis eftersom de skiljer datainsamling (t.ex. paketfångst eller flödesövervakning) från analys, vilket ger antingen för mycket data för att svara på en allmän fråga, eller för lite data för att svara på en detaljerad fråga. Detta dokument presenterar Sonata, ett nätverkstelemetrisystem som exponerar ett frågegränssnitt som styr gemensam insamling och analys av nätverkstrafik. Sonata tillåter operatörer att direkt uttrycka frågor på en hög nivå språk, partitionerar varje fråga i en del som körs på switchen och en annan som körs på streaming analytics plattform, och förfinar frågan för att fånga bara trafiken som uppfyller en fråga. Sonata gör det möjligt för operatörer att uttrycka verkliga nätverksövervakning uppgifter med hjälp av dataflödesoperatörer, en kompakt, bekant programmering idiom. Utvärdering med hjälp av trafikspår från en stor ISP ryggrad visar att Sonata förmåga att sammanställa delar av dessa frågor till dataplanet kan minska trafikhastigheten vid strömmen processor med upp till sju storleksordningar.
Ett arbete mer relaterat till vårt sammanhang är Sonata REF, ett system som samordnar insamling och analys av nätverkstrafik för att svara på operatörsdefinierade övervakningsfrågor.
3,892,864
Sonata: query-driven streaming network telemetry
{'venue': "SIGCOMM '18", 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,194
Abstract-I detta papper, en cross-layer lösning för paketstorlek optimering i trådlösa sensornätverk (WSN) införs så att effekterna av multi-hop routing, sändning naturen av den fysiska trådlösa kanalen, och effekterna av felkontroll tekniker fångas. Ett viktigt resultat av detta papper är att längre paket minskar kollisionsrisken, i motsats till de konventionella trådlösa nätverken, i trådlösa sensornätverk. Följaktligen formaliseras en optimeringslösning genom att använda tre olika objektiva funktioner, dvs. paketgenomströmning, energiförbrukning och resursutnyttjande. Dessutom undersöks effekterna av end-to-end latency och tillförlitlighetsbegränsningar som kan krävas av en viss ansökan. Som ett resultat av detta utvecklas ett generiskt, tvärskiktsoptimeringsramverk för att bestämma den optimala paketstorleken i WSN. Detta ramverk utvidgas ytterligare för att bestämma den optimala paketstorleken i undervattens- och underjordiska sensornätverk. Utifrån detta ramverk bestäms de optimala paketstorlekarna under olika nätverksparametrar.
I REF har optimering av paketstorlek analyserats för trådlösa mark-, undervattens- och underjordiska sensornätverk.
153,124
Cross-Layer Packet Size Optimization for Wireless Terrestrial, Underwater, and Underground Sensor Networks
{'venue': 'IEEE INFOCOM 2008 - The 27th Conference on Computer Communications', 'journal': 'IEEE INFOCOM 2008 - The 27th Conference on Computer Communications', 'mag_field_of_study': ['Computer Science']}
1,195
Abstract-Vi presenterar ett nytt tillvägagångssätt för att bestämma robotrörelser som effektivt utför robotens uppgifter utan att hindra människors rörelser i miljön. Vår strategi modellerar målriktade banor för fotgängare med maximal entropi invers optimal kontroll. Fördelen med detta modellering tillvägagångssätt är att dess inlärda kostnadsfunktion är generell för förändringar i miljön och för helt olika miljöer. Vi använder förutsägelserna av denna modell av fotgängare banor i en ny inkrementell planerare och kvantitativt visa förbättringen i hinderkänsliga robot bana planering som tillhandahålls av vår strategi. Att fastställa lämpliga robotiska åtgärder i miljöer med rörliga människor är en välstuderad [15], [2], [5], men ofta svår uppgift på grund av osäkerheten om varje persons framtida beteende. Robotar bör definitivt aldrig kollidera med människor [11], men att undvika kollisioner enbart är ofta otillfredsställande eftersom avbrottet av nästan kollidering kan vara betungande för människor och suboptimal för robotar. Istället bör robotar förutsäga framtidens platser för människor och planera rutter som kommer att undvika sådana hinder (dvs. situationer där personens naturliga beteende störs på grund av en robots närhet) samtidigt som de effektivt uppnår robotens mål. Till exempel, med tanke på ursprung och mål destinationer för roboten och personen i Figur 1, robotens hinder-minimering bana skulle ta den längre vägen runt centrum hinder (ett bord), lämnar en tydlig väg för fotgängare. En vanlig metod för att förutsäga banor är att projicera prognossteget för ett spårningsfilter [9], [13], [10] framåt över tiden. Till exempel förutspås ett Kalmanfilter [7] framtida positioner enligt en Gaussisk fördelning med växande osäkerhet och tyvärr ofta hög sannolikhet för fysiskt omöjliga platser (t.ex. bakom väggar, inom hinder). Partikelfilter [16] kan innehålla mer sofistikerade begränsningar och icke-gaussiska fördelningar, men degradera till slumpmässiga promenader av genomförbar rörelse över stora tidshorisonter snarare än målinriktad, målbaserad rörelse. Närmare vår forskning är strategier som direkt modellerar politiken [6]. Dessa tillvägagångssätt antar att tidigare observerade banor fångar allt målmedvetet beteende, och den enda osäkerhet innebär att bestämma till vilken tidigare observerade klass av banor det nuvarande beteendet hör. Modeller baserade på blandningar av banor och modeller för konditionerad fördelning av åtgärder (med hjälp av dolda Markovmodeller) har använts [17]. Detta tillvägagångssätt är ofta överdrivet anpassat till de särskilda utbildningsvägarna och sammanhanget för dessa banor. När förändringar i miljön inträffar (t.ex. omläggning av möbler), kommer modellen med säkerhet att förutsäga felaktiga banor genom hinder.
En mer komplex algoritm modeller målriktade banor för fotgängare med maximal entropi invers optimal kontroll REF ).
15,354,222
Planning-based prediction for pedestrians
{'venue': '2009 IEEE/RSJ International Conference on Intelligent Robots and Systems', 'journal': '2009 IEEE/RSJ International Conference on Intelligent Robots and Systems', 'mag_field_of_study': ['Computer Science']}
1,196
Vi introducerar en ny metod för 3D-objektdetektering och poserar uppskattning endast från färgbilder. Vi använder först segmentering för att upptäcka objekt av intresse i 2D även i närvaro av partiella ocklusioner och rörig bakgrund. I motsats till den senaste patch-baserade metoder, vi förlitar oss på en "holistisk" strategi: Vi tillämpar på de upptäckta objekt en Convolutional Neural Network (CNN) tränas för att förutsäga deras 3D-poser i form av 2D-projektioner av hörnen på deras 3D begränsande lådor. Detta är dock inte tillräckligt för att hantera objekt från den senaste T-LES datauppsättning: Dessa objekt uppvisar en axel rotationssymmetri, och likheten mellan två bilder av ett sådant objekt under två olika poser gör utbildning CNN utmanande. Vi löser detta problem genom att begränsa utbudet av poser som används för utbildning, och genom att införa en klassificering för att identifiera intervallet för en pose i körtid innan man uppskattar det. Vi använder också ett valfritt ytterligare steg som förfinar de förutsagda poserna. Vi förbättrar state-of-the-art på LINEMOD-datauppsättningen från 73,7% [2] till 89,3% av korrekt registrerade RGB-ramar. Vi är också de första att rapportera resultat på Occlusion dataset [1] med bara färgbilder. Vi får 54% av ramar som passerar Pose 6D-kriteriet i genomsnitt på flera sekvenser av T-LES datauppsättning, jämfört med 67% av state-of-the-art [10] på samma sekvenser som använder både färg och djup. Den fullständiga metoden är också skalbar, eftersom ett enda nätverk kan tränas för flera objekt samtidigt.
3D-objekt upptäcktes och pose uppskattades endast från färgbilder REF.
4,392,433
BB8: A Scalable, Accurate, Robust to Partial Occlusion Method for Predicting the 3D Poses of Challenging Objects without Using Depth
{'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
1,197
Sammanfattning av denna webbsida: Den här artikeln kan ses som ett försök att undersöka konsekvenserna av två förslag. (1) Avsiktlighet hos människor (och djur) är en produkt av hjärnans orsakssamband. Jag antar att detta är ett empiriskt faktum om det faktiska orsakssambandet mellan mentala processer och hjärnor. Det står helt enkelt att vissa hjärnprocesser är tillräckliga för avsiktlighet. (2) Att direktinitiera ett datorprogram är aldrig av sig självt ett tillräckligt villkor för avsiktlighet. Det huvudsakliga argumentet i detta dokument är att fastställa detta påstående. Formen av -argumentet är att visa hur en mänsklig agent kan ögonblickligen programmet och fortfarande inte har relevant intentionalitet. Dessa två satser har följande konsekvenser: (3) Förklaringen av hur hjärnan producerar avsiktlighet kan inte vara att det gör det genom att ögonblickligen ett datorprogram, Detta är en strikt logisk konsekvens av 1 och 2. (4) Alla mekanismer som kan ge upphov till avsiktlighet måste ha samma orsaksförmågor som hjärnans. Detta är tänkt att vara en trivial konsekvens av 1. (5) Varje försök att bokstavligen skapa avsiktlighet på konstgjord väg (stark AI) kunde inte bara lyckas genom att utforma program utan skulle behöva duplicera den mänskliga hjärnans orsakskrafter. Detta följer av 2 och 4. "Kan en maskin tänka?" På argumentet avancerat här bara en maskin kunde tänka, och endast mycket speciella typer av maskiner, nämligen hjärnor och maskiner med inre orsakskrafter likvärdiga med de av hjärnor. Och det är därför stark AI har lite att berätta 3.om tRinking, eftersom det inte handlar om maskiner utan om program, och inget program i sig räcker för att tänka. Nyckelord: artificiell intelligens; hjärna; intentionalitet; sinne Vilken psykologisk och filosofisk betydelse bör vi fästa vid den senaste tidens insatser vid datorsimuleringar av människans kognitiva kapacitet? När jag besvarar denna fråga, tycker jag att det är bra att skilja vad jag kommer att kalla "stark" AI från "svag" eller "försiktig" AI (Artificial Intelligence). Enligt svag AI, det huvudsakliga värdet av datorn i studien av sinnet är att det ger USA ett mycket kraftfullt verktyg. Det gör det till exempel möjligt för oss att formulera och testa hypoteser på ett mer rigoröst och exakt sätt. Men enligt stark AI, datorn är inte bara ett verktyg i studiet av sinnet; snarare, den lämpligt programmerade datorn är verkligen ett sinne, i den meningen att datorer som ges rätt program kan bokstavligen sägas förstå och har andra kognitiva tillstånd. I stark AI, eftersom den programmerade datorn har kognitiva tillstånd, programmen är inte bara verktyg som gör det möjligt för oss att testa psykologiska förklaringar; snarare, programmen själva förklaringar. Jag har inga invändningar mot påståenden svaga AI, & minst vad gäller denna artikel. Min diskussion här kommer att riktas mot de påståenden jag har definierat som starka AI, särskilt påståendet att den lämpligt programmerade datorn bokstavligen har kognitiva tillstånd och att programmen därmed förklarar mänsklig kognition. När jag härefter hänvisar till AI, Jag har i åtanke den starka versionen, som uttrycks av dessa två påståenden. • Jag tänker på Roger Schanks och hans kollegors arbete på Yale (Schank & Abelson 1977), eftersom jag är mer förtrogen med det än med andra liknande påståenden, och eftersom det är ett mycket tydligt exempel på det slags arbete jag vill undersöka. Men ingenting som följer beror på detaljerna i Schanks program. Samma argument skulle gälla för Winograd's SHRDLU (Winograd 1973), Weizenbaum's ELIZA (Weizenbaum 1965), och faktiskt någon Turing maskin Simulering av mänskliga mentala fenomen. Mycket kort, och utelämnar de olika detaljerna, kan man beskriva Schanks program som följer: syftet med programmet är att simulera människans förmåga att förstå berättelser. Det är karakteristiskt för människors story-förståelse förmåga att de kan svara på frågor om historien även om den information som de ger aldrig uttryckligen anges i berättelsen. Anta därför att du får följande berättelse: " En man gick in på en restaurang och beställde en hamburgare. När hamburgaren kom brändes den till en krispig, och mannen stormade ut ur restaurangen ilsket, utan att betala för hamburgaren eller lämna ett tips." Om man frågar dig: "Ät mannen hamburgaren?" Du kommer förmodligen att svara: "Nej, det gjorde han inte." På liknande sätt, om du får följande berättelse: "En man gick in i en restaurang och beställde en hamburgare; när hamburgaren kom var han mycket nöjd med det; och när han lämnade restaurangen gav han servitrisen ett stort tips innan han betalade sin räkning", och du får frågan, "Ät mannen hamburgaren?", kommer du förmodligen svara, "Ja, han åt hamburgaren." Nu kan Schanks maskiner på liknande sätt svara på frågor om restauranger på detta sätt. För att göra detta har de en "representation" av den typ av information som människor har om restauranger, vilket gör det möjligt för dem att svara på sådana frågor som de ovan, med tanke på denna typ av berättelser. När maskinen ges berättelsen och sedan ställs frågan, kommer maskinen att skriva ut svar av det slag som vi skulle förvänta oss att människor skulle ge om de berättade liknande historier. Partisaner av stark AI hävdar att i denna fråga och svar sekvens maskinen är inte bara simulera en mänsklig förmåga men också 417 Searle: Minder, hjärnor, och program (som verkligen är fallet) att jag vet ingen kinesiska, varken skrivna eller talade, och att r m inte ens säker på att jag kunde känna igen kinesiskt skrivande som kinesiskt skrivande skiljer sig från, säg, japanskt skrivande eller meningslösa fnissningar. För mig är kinesiskt skrivande bara så många meningslösa fnissningar. Antag vidare att efter detta första parti av kinesiskt skrivande får jag en andra sats av kinesiskt manus tillsammans med en uppsättning regler för att korrelera det andra partiet med det första partiet. Reglerna är på engelska, och jag förstår dessa regler liksom alla andra infödda talare av engelska. De gör det möjligt för mig att korrelera en uppsättning formella symboler med en annan uppsättning formella symboler, och allt det "formella" betyder här är att jag kan identifiera symbolerna helt och hållet genom deras former. Antag nu också att jag får en tredje omgång kinesiska symboler tillsammans med några instruktioner, återigen på engelska, som gör det möjligt för mig att korrelera delar av denna tredje sats med de första två omgångar, och dessa regler instruerar mig att ge tillbaka vissa kinesiska symboler med vissa typer av former som svar på vissa typer av former som ges mig i den tredje omgången. Okänd för mig, de som ger mig alla dessa symboler kallar den första omgången "ett skript", de kallar den andra omgången en "historia", och de kallar den tredje omgången "frågor". Dessutom kallar de symboler jag ger dem tillbaka som svar på den tredje omgången "svar på frågorna", och den uppsättning regler på engelska som de gav mig, de kallar "programmet". Nu bara för att komplicera berättelsen lite, föreställ dig att dessa människor också ger mig berättelser på engelska, vilket jag förstår, och de sedan frågar mig frågor på engelska om dessa berättelser, och jag ger dem tillbaka svar på engelska. Antag också att jag efter ett tag blir så bra på att följa instruktionerna för att manipulera de kinesiska symbolerna och programmerarna blir så bra på att skriva programmen att utifrån så är det, utifrån någon utanför det rum där jag är låst - mina svar på frågorna är absolut oskiljaktiga från de inhemska kinesiska talarnas. Ingen som bara tittar på mina svar kan säga att jag inte talar ett ord kinesiska. Låt oss också anta att mina svar på de engelska frågorna, eftersom de utan tvivel skulle vara oskiljaktiga från svaren från andra infödda engelsktalande, av den enkla anledningen att jag är infödd engelsktalande. Ur den externa synvinkeln - från någon som läser mina "svar" - svaren på de kinesiska frågorna och de engelska frågorna är lika bra. Men i det kinesiska fallet, till skillnad från det engelska fallet, producerar jag svaren genom att manipulera otolkade formella symboler. När det gäller kineserna beter jag mig helt enkelt som en dator; jag utför beräkningsoperationer på formellt specificerade element. För kinesernas skull är jag bara en direktion av datorprogrammet. Nu hävdar starka AI att den programmerade datorn förstår berättelserna och att programmet i någon mening förklarar mänsklig förståelse. Men vi är nu i stånd att undersöka dessa påståenden mot bakgrund av vårt tankeexperiment. 1. Vad är det för fel på dig? När det gäller det första påståendet förefaller det mig ganska uppenbart i exemplet att jag inte förstår ett ord av de kinesiska berättelserna. Jag har ingångar och utgångar som är oskiljaktiga från infödda kinesiska talare, och jag kan ha något formellt program du gillar, men jag förstår fortfarande ingenting: Av samma skäl, Schanks dator förstår ingenting av några historier, vare sig på kinesiska, engelska eller något, eftersom i det kinesiska fallet datorn är jag, och i de fall där datorn inte är jag, datorn har ingenting mer än jag har i fallet där 1 förstår ingenting. 2. Utgångspunkten är följande: När det gäller det andra påståendet, att programmet förklarar mänsklig förståelse, kan vi se att datorn och dess program inte ger tillräckliga villkor för förståelse eftersom datorn och programmet fungerar, och det finns ingen förståelse. Men ger det ens ett nödvändigt villkor eller ett betydande bidrag till under- På grundval av dessa två antaganden antar vi att även om Schanks program inte är hela historien om förståelse, det kan vara en del av historien. Tja, jag antar att det är en empirisk möjlighet, men inte den minsta anledning har hittills getts att tro att det är sant, eftersom vad som föreslås _ även om säkert inte visas - av exemplet är att datorprogrammet är helt enkelt irrelevant för min förståelse av ~tory. I det kinesiska fallet har jag allt som artificiell intelligens kan sätta in i mig av W$y av ett program, och jag förstår ingenting; i det engelska fallet förstår jag allt, och det finns hittills ingen anledning att anta att min förståelse har något att göra med datorprogram, det vill säga med beräkningsoperationer på rent formellt specificerade element. Så länge programmet definieras i termer av beräkningsoperationer på rent formellt definierade element, vad exemplet antyder är att dessa i sig inte har någon intressant koppling till förståelse. De är verkligen inte tillräckliga villkor, och inte det minsta skäl har getts att anta att de är nödvändiga villkor eller ens att de ger ett betydande bidrag till förståelsen. Lägg märke till att argumentet inte bara är att olika maskiner kan ha samma input och output samtidigt som de arbetar enligt olika formella principer - det är inte poängen alls. Snarare, oavsett rent formella prinCiples du sätter in i datorn, kommer de inte att vara tillräckliga för att förstå, eftersom en människa kommer att kunna följa de formella prinCiples utan att förstå någonting. Ingen anledning vad som än har erbjudits att anta att sådana principer är nödvändiga eller ens bidragande, eftersom ingen anledning har getts att anta att när jag förstår engelska jag arbetar med något formellt program alls. Vad har jag då i fråga om de engelska meningarna som jag inte har i fråga om de kinesiska meningarna? Det uppenbara svaret är att jag vet vad det förra betyder, medan jag inte har den blekaste aning om vad det senare betyder. Men i vad består detta och varför kunde vi inte ge det till en maskin, vad det än är? Jag återkommer till denna fråga senare, men först vill jag fortsätta med exemplet. Jag har haft tillfälle att presentera detta exempel för flera arbetare inom artificiell intelligens, och intressant nog verkar de inte vara överens om vad det rätta svaret på det är. Jag får en överraskande mängd olika svar, och i vad som följer kommer jag att betrakta de vanligaste av dessa (anges tillsammans med deras geografiska ursprung). Men först vill jag blockera några vanliga missförstånd om "förståelse": i många av dessa diskussioner finner man en hel del tjusigt fotarbete om ordet "förstå". Mina kritiker påpekar att det finns många olika grader av förståelse; att "förstå" inte är en enkel två plats predikat; att det finns även olika typer och nivåer av förståelse, och ofta lagen av uteslutna mitten inte ens gäller på ett enkelt sätt för uttalanden av formen "x förstår y", att det i många fall är en fråga för beslut och inte en enkel sak om x förstår y; och så vidare. Till alla dessa punkter vill jag säga: naturligtvis. Men de har inget att göra med de aktuella punkterna. Det finns tydliga fall där "förstå" bokstavligen gäller och tydliga fall där det inte är tillämpligt; och dessa två typer av fall är allt jag behöver för detta argument. 2 Jag förstår historier på engelska; i mindre grad kan jag förstå historier på franska; i ännu mindre grad, berättelser på tyska; och på kinesiska, inte alls. Min bil och min tilläggsmaskin, å andra sidan, förstår ingenting: de är inte i den branschen. Vi tillskriver ofta "förstå" och andra kognitiva predikat genom metafor och analogi till bilar, lägga till maskiner, och andra artefakter, men ingenting bevisas av sådana attribut. Vi säger, ''Dörren vet när man ska öppna på grund av sin fotoelektriska cell," "Tilläggsmaskinen vet hur (förstår hur, kan) att göra addition och subtraktion men inte division," och "The termostat uppfattar chanser i temperaturen." Anledningen till att vi gör dessa attribut är ganska intressant, och det har att göra med det faktum att i artefakter vi utökar vår egen intentionalitet;3 våra verktyg är förlängningar av våra syften, och så tycker vi att det är naturligt att göra metaforiska tillskrivelser av avsiktlighet till dem; men jag antar att ingen filosofisk is skärs av sådana exempel. Den betydelse i vilken en automatisk dörr "förstår instruktioner" från sin fotoelektriska cell är inte alls den betydelse i vilken jag förstår engelska. Om den betydelse som Schanks programmerade datorer förstår berättelser ska vara den metaforiska betydelse i vilken dörren förstår, och inte den betydelse som jag förstår engelska, skulle frågan inte vara värd att diskutera. Men Newell och Simon (1963) skriver att den typ av kognition de hävdar för datorer är exakt densamma som för människor. Jag tycker om att detta påstående är rättframt, och det är det slags anspråk jag kommer att överväga. Jag kommer att hävda att i bokstavlig bemärkelse förstår den programmerade datorn vad bilen och tilläggsmaskinen förstår, nämligen exakt ingenting. Datorförståelsen är inte bara (som min förståelse av tyska) partiell eller ofullständig; den är noll. Nu till svaren: Jag. Systemen svarar (Berkeley). "Även om det är sant att den enskilda person som är inlåst i rummet inte förstår historien, faktum är att han bara är en del av ett helt system, och systemet förstår historien. Personen har en stor liggare framför sig där är skrivna reglerna, han har en hel del skrappapper och pennor för att göra beräkningar, han har "databanker" av uppsättningar kinesiska symboler. Förståelsen tillskrivs inte blott och bart individen, utan den tillskrivs i stället hela detta system, som han är en del av." Mitt svar på systemteorin är ganska enkelt: låt individen internalisera alla dessa element i systemet. Han memorerar reglerna i liggaren och databankerna av kinesiska symboler, och han gör alla beräkningar i huvudet. Individen införlivar sedan hela systemet. Det finns ingenting alls i systemet som han inte omfattar. Vi kan till och med göra oss av med rummet och anta att han arbetar utomhus. Ändå förstår han ingenting av kineserna, och.~fortiori inte heller systemet, eftersom det inte finns något i systemet som inte finns i honom. Om han inte förstår, då finns det inget sätt systemet kan förstå eftersom systemet är bara en del av honom. ".................................................................. Egentligen känner jag mig lite generad över att ge även detta svar på systemteorin eftersom teorin verkar så osannolik att börja med. Tanken är att medan en person inte förstår kinesiska, på något sätt förbindelsen av den personen och bitar av papper kan förstå kinesiska. Det är inte lätt för mig att föreställa mig hur någon som inte var i en ideologis grepp skulle finna idén över huvud taget rimlig. Ändå tror jag att många människor som är engagerade i den starka Al-ideologin till slut kommer att vara benägna att säga något liknande, så låt oss gå lite längre. Enligt en version av denna uppfattning, medan mannen i den internaliserade Searle: Minder, hjärnor, och program system exempel inte förstår kinesiska i den mening som en infödd kinesisk talare gör (eftersom, till exempel, han inte vet att historien hänvisar till restauranger och hamburgare, etc.), fortfarande "mannen som en formell symbol manipulation system" verkligen förstår kinesiska. Delsystemet för den man som är det formella symbolmanipuleringssystemet för kinesiska bör inte förväxlas med delsystemet för engelska. Så det finns egentligen två delsystem i människan; en förstår engelska, den andra kinesiska, och "det är bara det att de två systemen har lite att göra med varandra." Men, jag vill svara, inte bara har de lite att göra med varandra, de är inte ens alls lika. Det delsystem som förstår engelska (förutsatt att vi tillåter oss att prata i denna jargong av "undersystem" för ett ögonblick) vet att berättelserna handlar om restauranger och äta hamburgare, han vet att han ställs frågor om restauranger och att han svarar på frågor så bra han kan genom att göra olika slutsatser från innehållet i berättelsen, och så vidare. Men det kinesiska systemet vet inget om detta. Medan det engelska delsystemet vet att "hamburgare" avser hamburgare, vet det kinesiska delsystemet bara att "squiggle sqUiggle" följs av "squoggle swoggle". Allt han vet är att olika formella symboler introduceras i ena änden och manipuleras enligt regler skrivna på engelska, och andra symboler går ut i andra änden. Hela poängen med det ursprungliga exemplet var att hävda att sådan symbolmanipulation av sig själv inte kunde vara tillräcklig för att förstå kinesiska i någon bokstavlig mening eftersom mannen kunde skriva "squoggle swoggle" efter "squiggle squiggle" utan att förstå något på kinesiska. Och det motsvarar inte det argumentet att postulera delsystem inom människan, eftersom delsystemen inte är bättre än människan var i första hand; de har fortfarande inte något ens på distans som vad den engelsktalande mannen (eller delsystemet) har. I det fall som beskrivs är det kinesiska delsystemet helt enkelt en del av det engelska delsystemet, en del som ägnar sig åt meningslös symbolmanipulation enligt regler på engelska. Låt oss fråga oss vad som i första hand ska motivera systemens svar. Det vill säga, vilka oberoende skäl ska det finnas för att säga att agenten måste ha ett delsystem inom sig som bokstavligen förstår historier på kinesiska? Såvitt jag kan säga de enda skälen är att i exemplet har jag samma input och output som infödda kinesiska talare och ett program som går från en till en annan. Men hela poängen med exemplen har varit att försöka visa att det inte kunde vara tillräckligt för att förstå, i den bemärkelsen att jag förstår berättelser på engelska, eftersom en person, och därmed den uppsättning system som går för att utgöra en person, kunde ha rätt kombination av input, output och program och fortfarande inte förstå någonting i relevant bokstavlig mening där jag förstår engelska. Det enda
Argumentet i avsnitt 3.1, med idén att utveckla bortom rote learning, är den typ av argument som också ges av Searle Ref.
55,303,721
Minds, brains, and programs
{'venue': None, 'journal': 'Behavioral and Brain Sciences', 'mag_field_of_study': ['Computer Science', 'Psychology']}
1,198
Abstract-Vi anser att restless multiarmad bandit problem med okänd dynamik där en spelare väljer en ur armarna att spela vid varje gång. Belöningen av varje arm transiteras enligt en okänd markovisk regel när den spelas och utvecklas enligt en godtycklig okänd slumpmässig process när den är passiv. Prestandan av en arm val politik mäts genom ånger, definieras som belöningsförlust med avseende på fallet där spelaren vet vilken arm är mest givande och alltid spelar den bästa armen. Vi konstruerar en politik med en interleating utforskning och exploatering epok struktur som uppnår en ånger med logaritmisk ordning. Vi utvidgar problemet ytterligare till en decentraliserad miljö där flera distribuerade spelare delar vapnen utan informationsutbyte. Under både en exogen rastlös modell och en endogen rastlös modell visar vi att en decentraliserad utvidgning av den föreslagna politiken bevarar den logaritmiska ångerordningen som i den centraliserade situationen. Resultaten gäller adaptiv inlärning i olika dynamiska system och kommunikationsnät samt finansiella investeringar. Index Terms-Distributed learning, online learning, ånger, rastlös multiarmad bandit (RMAB).
Däremot, Ref överväga ett problem där varje arm övergår på ett okänt Markovianskt sätt till ett annat belöningstillstånd när det spelas, och utvecklas enligt en okänd slumpmässig process när det inte spelas.
10,127,959
Learning in a Changing World: Restless Multiarmed Bandit With Unknown Dynamics
{'venue': 'IEEE Transactions on Information Theory', 'journal': 'IEEE Transactions on Information Theory', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
1,199
Vi anser att ett generiskt problem med konvex optimering är förknippat med legaliserad empirisk riskminimering av linjära prediktorer. Problemstrukturen gör det möjligt för oss att omformulera den som ett konvext konkav sadelproblem. Vi föreslår en stokastisk primal-dual koordinat (SPDC) metod, som växlar mellan maximering över en slumpmässigt vald dubbelvariabel och minimering över den primära variabeln. Ett extrapolering steg på den primära variabeln utförs för att erhålla accelererad konvergens. Vi utvecklar också en mini-batch-version av SPDC-metoden som underlättar parallell beräkning, och en förlängning med viktade sannolikheter för provtagning på de dubbla variablerna, som har en bättre komplexitet än enhetlig provtagning på onormaliserade data. Både teoretiskt och empiriskt visar vi att SPDC-metoden har jämförbar eller bättre prestanda än flera toppmoderna optimeringsmetoder.
SPDC REF baserades på den ursprungliga algoritmen, som alternativt uppdaterade de primära och dubbla variablerna.
13,451,663
Stochastic Primal-Dual Coordinate Method for Regularized Empirical Risk Minimization
{'venue': None, 'journal': 'arXiv: Optimization and Control', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
1,201
Mål: Vi syftade till att minera data i Electronic Medical Record för att automatiskt upptäcka patienternas Rheumatoida Artrit sjukdom aktivitet vid diskreta reumatologiska klinikbesök. Vi kastar problemet som en dokumentklassificeringsuppgift där funktionsutrymmet innehåller begrepp från klinisk berättelse och laboratorievärden som lagrats i den elektroniska journalen. Slutsats: Automatisk Rheumatoid Artrit sjukdom aktivitet upptäckt från Electronic Medical Record data är en inlärbar uppgift som approximerar mänsklig prestanda. Som ett resultat av detta kan detta tillvägagångssätt ha flera forskningstillämpningar, såsom identifiering av patienter för genom-omfattande farmakogenetiska studier som kräver stora provstorlekar med exakta definitioner av sjukdomsaktivitet och svar på behandlingar. Material och
Det arbete som ges i REF handlar om automatisk förutsägelse av RA-sjukdomsaktivitet från Electronic Medical Records (EMR-data).
13,119,657
Automatic Prediction of Rheumatoid Arthritis Disease Activity from the Electronic Medical Records
{'venue': 'PLoS ONE', 'journal': 'PLoS ONE', 'mag_field_of_study': ['Medicine', 'Computer Science']}
1,202
Vi föreslår en metod för att lära sig latenta representationer av faktorerna för variation i data. Genom att öka de djupa autokodrarna med en övervakad kostnad och en extra oövervakad kostnad skapar vi en halvövervakad modell som kan upptäcka och explicit representera faktorer av variation utöver dem som är relevanta för kategorisering. Vi använder en ny oövervakad covariansstraff (XCov) för att reda ut faktorer som handstil för siffror och ämnesidentitet i ansikten. Vi demonstrerar detta i MNIST handskrivna sifferdatabas, Toronto Faces Database (TFD) och Multi-PIE dataset genom att generera manipulerade fall av data. Dessutom visar vi att dessa djupa nätverk kan extrapolera "dolda" variationer i den övervakade signalen med hjälp av Toronto Faces Database.
Cheung m.fl. REF lade till en kors-kovarians-påföljd i en halvövervakad autoenkoderarkitektur för att reda ut faktorer, som handskrivningsstil för siffror och ämnesidentitet i ansikten.
2,536,452
Discovering Hidden Factors of Variation in Deep Networks
{'venue': 'ICLR 2014', 'journal': 'arXiv: Learning', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
1,203
Programutvecklare konfronterar ofta frågor som "Varför implementerades koden på detta sätt"? För att svara på sådana frågor använder sig utvecklarna av information i ett programvarusystems fel- och källarkiv. I det här dokumentet överväger vi två användargränssnitt för att hjälpa en utvecklare att utforska information från sådana databaser. Ett användargränssnitt, från Holmes och Begels Deep Intellisense-verktyg, avslöjar historisk information över flera integrerade vyer, vilket gynnar prospektering från ett enda kodelement till all detta elements historiska information. Det andra användargränssnittet, i ett verktyg som kallas Rationalizer som vi introducerar i detta dokument, integrerar historisk information i källkodseditorn, gynnar prospektering från en viss kodlinje till dess omedelbara historia. Vi introducerar en modell för att uttrycka hur programvaruförrådet information är ansluten och använda denna modell för att jämföra de två gränssnitten. Genom ett labbexperiment fann vi att vår modell kan hjälpa till att förutsäga vilket gränssnitt som är till hjälp för en viss typ av historisk fråga. Vi fann också brister i gränssnitten som hindrade användarna från att utforska historisk information. Dessa resultat kan hjälpa till att informera verktygsutvecklare som presenterar historisk information antingen direkt från eller minerade från programvaruarkiv.
Bradley och Murphy presenterar Rationalizer REF, ett verktyg som integrerar historisk information i källkodseditorn, ger utvecklare information om vad som ändrades av vem, och varför.
18,999,153
Supporting software history exploration
{'venue': "MSR '11", 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,204
Vi betraktar problemet med oövervakad domänanpassning i semantisk segmentering. En nyckel i denna kampanj består i att minska domänbytet, dvs. se till att datadistributionen av de två domänerna blir likartad. En av de gemensamma strategierna är att anpassa marginalfördelningen i funktionsutrymmet genom kontradiktoriskt lärande. Denna övergripande anpassningsstrategi tar dock inte hänsyn till den gemensamma fördelningen på kategorinivå. En möjlig konsekvens av en sådan global rörelse är att vissa kategorier som ursprungligen är väl anpassade mellan källan och målet kan vara felaktigt kartlagda, vilket leder till sämre segmenteringsresultat i måldomänen. För att ta itu med detta problem inför vi ett kontradiktoriskt nätverk på kategorinivå som syftar till att upprätthålla lokal semantisk enhetlighet under utvecklingen av global anpassning. Vår idé är att ta en närmare titt på kategori-nivå gemensam distribution och anpassa varje klass med en adaptiv kontraarial förlust. Särskilt minskar vi vikten av den kontradiktoriska förlusten för kategori-nivåanpassade funktioner samtidigt som den kontradiktoriska kraften ökar för dem som är dåligt anpassade. I denna process bestämmer vi hur väl en funktion är kategorinivå anpassad mellan källa och mål genom en gemensam utbildningsmetod. I två domänanpassningsuppgifter, dvs. GTA5 → Stadslandskap och SYN-THIA → Stadslandskap, validerar vi att den föreslagna metoden matchar toppmodern i segmenteringsnoggrannhet.
Luo m.fl. I stället använder REF oenigheten mellan två klassificeringar för att ange sannolikheten för felaktig representationsanpassning för varje region av bilden, vilket ökar tyngden av den kontradiktoriska förlusten för regioner som verkar vara dåligt anpassade.
52,825,087
Taking a Closer Look at Domain Shift: Category-Level Adversaries for Semantics Consistent Domain Adaptation
{'venue': '2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
1,205
Generativa kontradiktoriska nät [8] introducerades nyligen som ett nytt sätt att träna generativa modeller. I detta arbete introducerar vi den villkorliga versionen av generativa kontradiktoriska nät, som kan konstrueras genom att helt enkelt mata data, y, vi vill villkora både generator och discriminator. Vi visar att denna modell kan generera MNIST siffror som är konditionerade på klass etiketter. Vi illustrerar också hur denna modell kan användas för att lära sig en multimodal modell, och ger preliminära exempel på en applikation för bildmärkning där vi visar hur denna metod kan generera beskrivande taggar som inte ingår i utbildningsetiketter.
Villkorligt generativt kontradiktoriskt nät (CGN) REF använde etiketterna som villkorad information till både generator och discriminator och genererade sifferbilder av angiven etikett.
12,803,511
Conditional Generative Adversarial Nets
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
1,206
Abstrakt. Vi anser att en feltolerant generalisering av den klassiska okapacitet anläggning plats problem, där varje klient j har ett krav att r j distinkt anläggningar tjänar det, i stället för bara en. Vi ger en 2.076-approximation algoritm för detta problem med LP avrundning, vilket för närvarande är den mest kända prestandagaranti. Vår algoritm utnyttjar primära och dubbla kompletterande lathetsförhållanden och bygger på klustererad randomiserad avrundning. En teknisk svårighet som vi övervinner är förekomsten av termer med negativa koefficienter i den dubbla objektiva funktionen, vilket gör det svårt att begränsa kostnaderna i form av dubbla variabler. För de fall där alla krav är desamma, ger vi en primal-dual 1.52- approximationsalgoritm. Vi anser också att det är en feltolerant version av problemet med k-median. I det metriska k-medianproblemet får vi n-poäng i ett metriska utrymme. Vi måste välja k av dessa för att vara centra, och sedan tilldela varje inmatningspunkt j till den valda centrum som är närmast den. I den feltoleranta versionen vill vi att j ska tilldelas r j distinkta center. Målet är att välja k-centra för att minimera summan av tilldelningskostnader. Den primära-dual algoritmen för feltolerant anläggning plats med enhetliga krav ger också en 4- approximation algoritm för feltolerant k-median problem för detta fall. Detta är den första approximationsalgoritmen för konstant faktor för det enhetliga kravfallet.
Nyligen, Swamy och Shmoys presenterade en 2.076-uppskattning genom att använda LP avrundning REF.
7,879,685
Fault-tolerant facility location
{'venue': 'TALG', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
1,207
Nyligen genomförda förbättringar av Generativa Adversarial Networks (GAN) har gjort det möjligt att generera realistiska bilder i hög upplösning baserat på naturliga språkbeskrivningar såsom bildtexter. Finkornig styrning av bildlayouten, dvs. var i bilden specifika objekt bör placeras, är fortfarande svårt att uppnå. Vi introducerar ett nytt tillvägagångssätt som gör att vi kan kontrollera platsen för godtyckligt många objekt i en bild genom att lägga till en objektväg till både generatorn och discriminatorn. Vårt tillvägagångssätt behöver inte en detaljerad semantisk layout utan endast avgränsande rutor och respektive etiketter för de önskade objekten behövs. Objektvägen fokuserar enbart på de enskilda objekten och tillämpas iterativt på de platser som anges av de avgränsande rutorna. Den globala vägen fokuserar på bildbakgrunden och den allmänna bildlayouten. Vi utför experiment på Multi-MNIST, CLEVR, och den mer komplexa MS-COCO data set. Våra experiment visar att genom användning av objektvägen kan vi styra objektplatser inom bilder och kan modellera komplexa scener med flera objekt på olika platser. Vi visar vidare att objektvägen fokuserar på de enskilda objekten och lär sig funktioner som är relevanta för dessa, medan den globala vägen fokuserar på globala bildegenskaper och bildbakgrund.
REF skapar bilder som är betingade av avgränsade rutor för de enskilda förgrundsobjekten genom att införa en objektväg som är dedikerad till att generera enskilda objekt.
57,375,714
Generating Multiple Objects at Spatially Distinct Locations
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
1,208
Automatisk generering av planritningar är användbart i många nya applikationer, inklusive inomhusnavigering, förstärkt och virtuell verklighet, samt bygga energisimuleringsprogram. Dessa tillämpningar kräver vattentäta modeller med begränsad komplexitet. I detta dokument presenterar vi en strategi som producerar 2.5D extruderade vattentäta modeller av byggnad interiörer från antingen 2D partikelfilter galler kartor eller hela 3D-punkt-moln fångas av mobila kartsystem. Vår strategi är att triangulera en 2D-provtagning av väggpositioner och separera dessa trianglar till inre och yttre uppsättningar. Vi delar den inre volymen av byggnaden modellen efter rum, sedan förenklar modellen för att minska buller. Sådana etiketter är användbara för att bygga energisimuleringar med termiska modeller, samt för att säkerställa geometrisk noggrannhet för den resulterande 3D-modellen. Vi kontrollerar experimentellt resultatet av vårt föreslagna tillvägagångssätt för ett brett utbud av byggnader. Vårt tillvägagångssätt är tillräckligt effektivt för att användas i realtid i samband med tillämpningar för samtidig lokalisering och kartläggning (SLAM).
REF genererade bygggolv från laserområdesdata baserat på en triangulering av en 2D-provtagning av väggpositioner.
15,326,074
Floor plan generation and room labeling of indoor environments from laser range data
{'venue': '2014 International Conference on Computer Graphics Theory and Applications (GRAPP)', 'journal': '2014 International Conference on Computer Graphics Theory and Applications (GRAPP)', 'mag_field_of_study': ['Computer Science', 'Engineering']}
1,209
Image deblurring syftar till att återställa latenta skarpa bilder från motsvarande suddiga. I detta dokument presenterar vi en oövervakad metod för domänspecifik enbildsdeblurring baserad på disentanglade representationer. Disentangling uppnås genom att dela innehållet och oskärpa funktioner i en suddig bild med innehåll kodare och oskärpa kodare. Vi upprätthåller en KL divergensförlust för att legalisera distributionsområdet för extraherade oskärpa attribut så att lite innehållsinformation är innesluten. Samtidigt, för att hantera oparade träningsdata, en suddig gren och cykel-konsistens förlust läggs till för att garantera att innehållet strukturerar av de blurred resultaten matchar de ursprungliga bilderna. Vi lägger också till en kontradiktorisk förlust på deblurerade resultat för att generera visuellt realistiska bilder och en perceptuell förlust för att ytterligare minska artefakterna. Vi utför omfattande experiment på uppgifter ansikte och text deblurring med hjälp av både syntetiska datauppsättningar och verkliga bilder, och uppnå bättre resultat jämfört med den senaste state-of-theart deblurring metoder.
I REF föreslogs en oövervakad metod för domänspecifik enbildsdeblurring genom att information om innehållet löses upp och oskärpas med hjälp av KL:s divergensrestriktion och förbättrar prestandan för ansiktsigenkänning.
67,877,149
Unsupervised Domain-Specific Deblurring via Disentangled Representations
{'venue': '2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
1,211
Abstract-Vi föreslår NOPOL, en strategi för automatisk reparation av buggy villkorliga uttalanden (dvs, om-då-else uttalanden). Detta tillvägagångssätt tar en buggy program samt en testsvit som ingång och genererar en patch med ett villkorligt uttryck som utgång. Testsviten måste innehålla godkända testfall för att modellera programmets förväntade beteende och minst ett feltestfall som avslöjar felet som ska repareras. NOPOL-processen består av tre huvudfaser. För det första använder NOPOL änglafixering för att identifiera förväntade värden av ett tillstånd under testets utförande. För det andra används runtime-spårning för att samla in variabler och deras faktiska värden, inklusive primitiva datatyper och objektorienterade funktioner (t.ex. nullness-kontroller), för att fungera som byggstenar för patchgenerering. För det tredje kodar NOPOL dessa insamlade data till en instans av ett tillfredsställande Modulo Theory (SMT) problem; sedan en genomförbar lösning till SMT instansen översättas tillbaka till en kod patch. Vi utvärderar NOPOL på 22 verkliga fel (16 fel med buggiga IF-villkor och 6 fel med saknade förutsättningar) på två stora öppna källkodsprojekt, nämligen Apache Commons Math och Apache Commons Lang. Empirisk analys av dessa fel visar att vårt tillvägagångssätt effektivt kan rätta fel med buggiga IF-tillstånd och saknade förutsättningar. Vi illustrerar NOPOL:s möjligheter och begränsningar med hjälp av fallstudier av verkliga felrättelser.
Xuan m.fl. REF föreslog NOPOL, en metod för automatisk reparation av buggy villkorliga uttalanden, som tog en buggy program samt en test svit som ingång och genererade en patch med ett villkorligt uttryck som utgång.
15,132,155
Nopol: Automatic Repair of Conditional Statement Bugs in Java Programs
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
1,212
Imiteringsutbildningsmål som härrör från en kartläggning från stater till åtgärder, bl.a. politik, från expertdemonstrationer. Befintliga metoder för imitation av lärande kräver vanligtvis åtgärder i demonstrationerna för att vara fullt tillgängliga, vilket är svårt att säkerställa i verkliga tillämpningar. Även om algoritmer för lärande med icke observerbara åtgärder har föreslagits, fokuserar de endast på statlig information och bortser från det faktum att åtgärdssekvensen fortfarande kan vara delvis tillgänglig och ge användbar information för politik som härrör. I detta dokument föreslår vi en ny algoritm som heter Action-Guided Adversarial Imitation Learning (AGAIL) som lär sig en politik från demonstrationer med ofullständiga handlingssekvenser, dvs. ofullständiga demonstrationer. Den centrala idén med AGAIL är att separera demonstrationer till stats- och handlingsbanor, och utbilda en politik med statliga banor samtidigt som åtgärder används som hjälpinformation för att vägleda utbildningen när så är tillämpligt. Byggt på Generative Adversarial Imitation Inlärning, AGAIL har tre komponenter: en generator, en discriminator, och en guide. Generatorn lär sig en politik med belöningar från discriminatorn, som försöker skilja mellan statliga fördelningar mellan demonstrationer och prover som genereras av politiken. Guiden ger ytterligare belöningar till generatorn när demonstrerade åtgärder för specifika stater finns tillgängliga. Vi jämför AGAIL med andra metoder för referensuppgifter och visar att AGAIL konsekvent levererar jämförbara resultat till de senaste metoderna även när åtgärdssekvensen i demonstrationer endast delvis är tillgänglig.
REF använder delvis åtgärdskonditionerade data för att träna ett generativt kontradiktoriskt nätverk för att syntetisera de saknade åtgärdssekvenserna.
168,169,989
Adversarial Imitation Learning from Incomplete Demonstrations
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
1,213
I den här artikeln utvecklar vi en decentraliserad resursfördelningsmekanism för kommunikation mellan fordon (V2V) som bygger på djupt förstärkande lärande. Varje V2V-länk stöds av en autonom "agent", som fattar sina beslut för att hitta den optimala subband- och kraftnivån för överföring utan att kräva eller behöva vänta på global information. Därför är den föreslagna metoden decentraliserad, med minimala omkostnader för överföring. Utifrån simuleringsresultaten kan varje agent på ett effektivt sätt lära sig att uppfylla de stränga latensbegränsningarna för V2V-länkar samtidigt som man minimerar störningarna till kommunikation mellan fordon och infrastruktur (V2I).
DRL tillämpas också i fordon-till-fordon-kommunikation (V2V) REF för att hitta en optimal delbands- och effektnivå för överföring i varje länk.
29,873,442
Deep Reinforcement Learning for Resource Allocation in V2V Communications
{'venue': '2018 IEEE International Conference on Communications (ICC)', 'journal': '2018 IEEE International Conference on Communications (ICC)', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
1,214
Den automatiska kategoriseringen (eller klassificeringen) av texter i fördefinierade kategorier har sett ett växande intresse under de senaste 10 åren, på grund av den ökade tillgången på dokument i digital form och det därav följande behovet av att organisera dem. I forskarsamhället är det dominerande synsättet på detta problem baserat på maskininlärningsteknik: en allmän induktiv process bygger automatiskt en klassificering genom att lära, från en uppsättning förklassificerade dokument, egenskaperna hos kategorierna. Fördelarna med detta tillvägagångssätt framför den kunskapsbaserade metoden (bestående i den manuella definitionen av en klassificering av domänexperter) är en mycket god effektivitet, betydande besparingar i termer av expert arbetskraft, och enkel portabilitet till olika domäner. Denna undersökning diskuterar de huvudsakliga tillvägagångssätten för textkategorisering som faller inom maskininlärningsparadigmet. Vi kommer att diskutera i detalj frågor som rör tre olika problem, nämligen dokumentrepresentation, klassificeringskonstruktion och klassificeringsbedömning.
Sebastiani Ref kartlade de viktigaste tillvägagångssätten för textkategorisering som inom maskininlärningsparadigmet.
3,091
Machine learning in automated text categorization
{'venue': 'CSUR', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,215
Abstract-Asstract-Ass nätverk blir allestädes närvarande i människors liv, användare är beroende av nätverk mycket för tillräcklig kommunikation och bekväm information. Nätverken lider emellertid av säkerhetsfrågor. Nätverkssäkerhet blir ett utmanande ämne eftersom många nya nätverksattacker har framträtt alltmer sofistikerade och orsakat stora förluster för nätverksresurserna. Spelteoretiska metoder har införts som ett användbart verktyg för att hantera dessa knepiga nätverksattacker. I det här dokumentet går vi igenom de befintliga spelteoribaserade lösningarna för nätsäkerhetsproblem och klassificerar deras tillämpningsscenarier under två kategorier, attack-försvarsanalys och säkerhetsmätning. Dessutom presenterar vi en kort bild av spelmodellerna i dessa lösningar och sammanfattar dem i två kategorier, kooperativa spelmodeller och icke-kooperativa spelmodeller med den senare kategorin som består av underkategorier. Förutom introduktionen till den senaste tekniken diskuterar vi begränsningarna i dessa spelteoretiska metoder och föreslår framtida forskningsinriktningar.
Till exempel Liang et al. REF sammanfattade de presenterade spelmodellernas tillämpningsscenarier (både kooperativa och icke-kooperativa spel) under två kategorier: attack-försvarsanalys och säkerhetsmätning.
14,527,348
Game Theory for Network Security
{'venue': 'IEEE Communications Surveys & Tutorials', 'journal': 'IEEE Communications Surveys & Tutorials', 'mag_field_of_study': ['Computer Science']}
1,216
Abstract-Vi utvecklar en enkel stokastisk vätskemodell som försöker avslöja de grundläggande egenskaperna och begränsningarna hos P2P-strömningssystem. Denna modell står för många av de viktigaste funktionerna i ett P2P streaming system, inklusive kamraternas efterfrågan i realtid på innehåll, peer churn (peers gå och lämna), kamrater med heterogen uppladdningskapacitet, begränsad infrastruktur kapacitet, och peer buffring och uppspelning fördröjning. Modellen är dragbar, ger slutna-form uttryck som kan användas för att sprida insikt om det grundläggande beteendet hos P2P streaming system. Modellen visar att prestandan till stor del bestäms av ett kritiskt värde. När systemet är av måttlig till stor storlek, om en viss andel trafikbelastningar överstiger det kritiska värdet, fungerar systemet bra, annars fungerar systemet dåligt. Dessutom har stora system bättre prestanda än små system eftersom de är mer motståndskraftiga mot bandbreddsfluktuationer orsakade av peer churn. Slutligen kan buffring dramatiskt förbättra prestandan i den kritiska regionen, för både små och stora system. I synnerhet kan buffring leda till större förbättringar än ytterligare infrastrukturbandbredd.
Kumar m.fl. REF tillhandahöll en stokastisk vätskemodell för att exponera de grundläggande egenskaperna och begränsningarna hos ISO P2P-strömningssystem.
8,733,679
Stochastic Fluid Theory for P2P Streaming Systems
{'venue': 'IEEE INFOCOM 2007 - 26th IEEE International Conference on Computer Communications', 'journal': 'IEEE INFOCOM 2007 - 26th IEEE International Conference on Computer Communications', 'mag_field_of_study': ['Computer Science']}
1,217
Att mäta allmänhetens känslor är en viktig uppgift för både forskare och beslutsfattare. Explosionen av tillgängliga data från sociala medier möjliggör en mer tidskänslig och geografiskt specifik analys än någonsin tidigare. I detta papper analyserar vi data från mikro-bloggning webbplats Twitter och generera en känsla karta över New York City. Vi utvecklar en classifier speciellt inställd för 140 tecken Twitter-meddelanden, eller tweets, med hjälp av nyckelord, fraser och smilisar för att bestämma stämningen på varje tweet. Denna metod, i kombination med geotagging som tillhandahålls av användare, gör det möjligt för oss att mäta allmänhetens känslor på extremt finkorniga rumsliga och temporala skalor. Vi finner att allmänhetens stämning i allmänhet är högst i offentliga parker och lägst på transportknutpunkter, och lokalisera andra områden med starka känslor såsom kyrkogårdar, vårdcentraler, ett fängelse och en avloppsanläggning. Sentimentet förbättras gradvis med närhet till Times Square. Periodiska mönster av känslor fluktuerar på både en daglig och en vecka skala: mer positiva tweets publiceras på helger än på vardagar, med en daglig topp i känslor runt midnatt och en nadir mellan 09:00 och 12.00.
Bertrand m.fl. REF, med hjälp av geospatiala verktyg, upptäckte via Twitter att allmänhetens känslor i allmänhet är positiva i offentliga parker och negativa på transportnav.
25,789,040
Sentiment in New York City: A High Resolution Spatial and Temporal View
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Physics', 'Computer Science']}
1,218
Namngiven enhet översättning är oumbärlig i korsspråksinformation hämtning nuförtiden. Vi föreslår en strategi för att kombinera lexisk information, webbstatistik och omvänd sökning baserad på Google för att bakåt översätta en kinesisk namngiven enhet (NE) till engelska. Vårt system uppnår en hög topp-1 noggrannhet på 87,6%, vilket är en relativt bra prestanda rapporteras inom detta område fram till idag.
REF använde kombinationen av webbstatistik och ordförrådet, och fick topp-1 noggrannhet på 87,6% i kinesisk-engelska OOV ordöversättning.
6,736,888
A High-Accurate Chinese-English NE Backward Translation System Combining Both Lexical Information And Web Statistics
{'venue': 'International Conference On Computational Linguistics And Annual Meeting Of The Association For Computational Linguistics - Poster Sessions', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,219
Abstract-kommunikationer med hjälp av obemannade luftfartyg med låg höjd har visat sig vara en effektiv lösning för att ge stor täckning och dynamisk kapacitet för både militära och civila tillämpningar, särskilt i oväntade scenarier. Men på grund av deras breda täckning, UAV kommunikationer är benägna att passiva tjuvlyssna attacker. Detta papper analyserar sekretessprestandan hos UAVs-nätverk vid millimetervågbandet och tar hänsyn till unika funktioner i luft-till-jord-kanaler och praktiska begränsningar av UAV-utbyggnaden. För att vara specifik utforskar man 3D-antennvinsten i luft-till-mark-länkarna och använder Matérns hardcore-punktprocess för att garantera säkerhetsavståndet mellan de slumpmässigt utplacerade UAV-basstationerna. Dessutom föreslår vi en strategi för överföringsstörning för att förbättra sekretessprestandan där en del av UAV:er sänder störningssignaler för att lura tjuvlyssnarna. Simuleringsresultat verifierar vår analys och visar hur olika systemparametrar påverkar den möjliga sekretessgraden. Det avslöjas också att optimera densiteten av störning UAVs kommer att avsevärt förbättra säkerheten för UAV-aktiverade nätverk. Index Terms-Obemannade luftfarkoster, fysiska lager säkerhet, Matérn hardcore process, millimeter våg (mm-våg), 3D antenn mönster.
Referens REF analyserade sekretessprestandan för nedlänk mmWave UAVs nätverk där UAVs fungerade som antenn BSs.
53,041,137
Secrecy Rate Analysis of UAV-Enabled mmWave Networks Using Matérn Hardcore Point Processes
{'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science']}
1,220
Sloveniens nuvarande forskningsinformationssystem (SICRIS) är för närvarande värd för 86 443 publikationer med citeringsdata från 8.359 forskare som arbetar med hela mängden av samhällsvetenskap och naturvetenskap från 1970 till idag. Med hjälp av dessa data visar vi att de citeringsdistributioner som härleds från enskilda publikationer har zipfianska egenskaper genom att de kan utrustas med en maktlag P(x) x −α, med α mellan 2.4 och 3.1 beroende på institution och forskningsområde. Fördelningar av index som kvantifierar forskarnas framgång snarare än enskilda publikationer, å andra sidan, kan inte förknippas med en maktlag. Vi finner att för Egghe's g-index och Hirsch's h-index gäller log-normal form 2 ] bäst, med a och b beroende måttligt på den underliggande uppsättningen forskare. I särskilda fall, särskilt för institutioner med en starkt hierarkisk författning och forskningsområden med hög självcitationsgrad, kan exponentiella fördelningar också observeras. Båda indexen ger utdelningar med motsvarande statistiska egenskaper, vilket är en stark indikator på deras överensstämmelse och logiska samband. Samtidigt stärker skillnader i bedömningen av enskilda forskares citeringar deras betydelse för en korrekt utvärdering av den vetenskapliga produktionens kvalitet och inverkan.
Dessutom visade REF att fördelningen av citeringar per publikation för olika forskningsområden och vetenskapliga institutioner i Slovenien följer Zif-lagen.
15,003,088
Zipf's law and log-normal distributions in measures of scientific output across fields and institutions: 40 years of Slovenia's research as an example
{'venue': 'Journal of Informetrics 4 (2010) 358-364', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Physics', 'Computer Science']}
1,221
Vi tar itu med problemet med att översätta från morfologiskt fattiga till morfologiskt rika språk genom att lägga till språklig information per ord till källspråket. Vi använder syntaxen i källmeningen för att extrahera information för substantiv och verb personer och kommentera motsvarande ord därefter. I experiment visar vi förbättrade prestationer för att översätta från engelska till grekiska och tjeckiska. För engelsk-grekiska minskar vi felet på verbböjningen från 19% till 5,4% och substantivavtal från 9% till 6%.
Ref rapport arbete med att översätta från fattiga till rika morfologi, nämligen engelska till grekiska och tjeckiska översättning.
11,657,043
Enriching Morphologically Poor Languages for Statistical Machine Translation
{'venue': 'Annual Meeting Of The Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,222
I detta brev föreslår vi en ny procedur för tredimensionell layout återställning av inomhusscener från enkel 360 • panoramabilder. Med sådana bilder, alla scener ses på en gång, så att vi kan återställa stängda geometrier. Vår metod kombinerar strategiskt den noggrannhet som ges av geometriska resonemang (linjer och försvinnande punkter) med den högre nivån av data abstraktion och mönsterigenkänning som uppnås genom djupinlärning tekniker (kant och normala kartor). Således tar vi fram strukturella hörn där vi skapar layouthypoteser av rummet om Manhattan världen. Den bästa layoutmodellen väljs, vilket ger bra prestanda på både enkla rum (box-typ), och komplexa formade rum (med mer än fyra väggar). Experiment av den föreslagna metoden utförs inom två offentliga dataset, SUN360 och Stanford (2D-3D-S) som visar fördelarna med att uppskatta layouter genom att kombinera geometri och djupt lärande och effektiviteten i vårt förslag med avseende på den senaste tekniken. Kommissionens genomförandeförordning (EU) nr 668/2014 av den 13 juni 2014 om tillämpningsföreskrifter för Europaparlamentets och rådets förordning (EU) nr 1151/2012 om kvalitetsordningar för jordbruksprodukter och livsmedel (EUT L 179, 19.6.2014, s. 1).
Motiverad av behovet av att ta itu med komplexa rumsgeometrier genererar REF layouthypoteser genom geometriska resonemang från en liten uppsättning strukturella hörn som erhålls från kombinationen av geometri och djupt lärande.
49,355,176
Layouts From Panoramic Images With Geometry and Deep Learning
{'venue': 'IEEE Robotics and Automation Letters', 'journal': 'IEEE Robotics and Automation Letters', 'mag_field_of_study': ['Computer Science', 'Engineering']}
1,223
Deep Neural Networks (DNN) betecknar artificiella nätverk med flera lager med mer än ett dolt lager och miljontals fria parametrar. Vi föreslår en Generalized Discriminant Analysis (GerDA) baserad på DNNs för att lära sig diskriminerande egenskaper av låg dimension optimerad med avseende på en snabb klassificering från en stor uppsättning akustiska funktioner för känslaigenkänning. På nio ofta använda emotionella tal corpora, jämför vi prestanda av GerDA funktioner och deras efterföljande linjära klassificering med tidigare rapporterade riktmärken som erhållits med samma uppsättning av akustiska egenskaper klassificeras av Support Vector Machines (SVMs). Våra resultat visar på ett imponerande sätt att lågdimensionella GerDA-funktioner fångar in dold information från de akustiska egenskaperna vilket leder till en avsevärt höjd ovägd genomsnittlig recall och avsevärt höjd viktad genomsnittlig recall.
REF föreslog en generaliserad diskriminant analys (GerDA) baserad på djupa neurala nätverk (DNN) för att lära sig kompakta diskriminativa funktioner och uppnå bättre prestanda i både oviktade och viktade recall på flera känslor corpora.
11,671,736
Deep neural networks for acoustic emotion recognition: Raising the benchmarks
{'venue': '2011 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP)', 'journal': '2011 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP)', 'mag_field_of_study': ['Computer Science']}
1,224
Medan neurala nätverk har framgångsrikt tillämpats på många naturliga språk bearbetning uppgifter, de kommer på bekostnad av tolkningsbarhet. I detta dokument föreslår vi en allmän metod för att analysera och tolka beslut från en neural modell genom att observera effekterna på modellen av radering av olika delar av representationen, såsom indata ord-vektor dimensioner, mellanliggande dolda enheter, eller inmatningsord. Vi presenterar flera metoder för att analysera effekterna av sådan radering, från att beräkna dess inverkan på utvärderingsmått, till att använda förstärkning lärande för att radera den minsta uppsättning indataord för att vända en neural modells beslut. I en omfattande analys av flera NLP-uppgifter från lexikal (ordform, morfologi) till meningsnivå (sentiment) till dokumentnivå (sentimentaspekt), visar vi att den föreslagna metoden inte bara ger tydliga förklaringar om neurala modellbeslut, utan också ger ett sätt att genomföra felanalys på neurala modeller.
REF använder förstärkning lärande för att hitta de optimala orden att ta bort för att lura klassificeringen.
13,017,314
Understanding Neural Networks through Representation Erasure
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
1,225
En enkel iterativ algoritm, så kallad dekonvolution-interpolering gridning (DING), presenteras för att ta itu med problemet med att rekonstruera bilder från godtyckligt samplad k-rymd. Den nya algoritmen löser ett glest system av linjära ekvationer som motsvarar en dekonvolution av k-rymden med ett litet fönster. Dekonvolutionen resulterar i ökad återuppbyggnad noggrannhet utan att rutnätet subsampling, till någon kostnad för beräkningsbelastning. Genom att undvika översampling av rutnät sparar den nya lösningen minnet, vilket är avgörande för 3D-banor. DING-algoritmen kräver inte någon beräkning av en kompensationsfunktion för provtagningstätheten, vilket ofta är problematiskt. DING's glesa linjära system är inverteras effektivt med hjälp av konjugat gradient (CG) metod. Rekonstruktionen av gridning systemmatrisen är enkel och snabb, och ingen legalisering behövs. Denna funktion gör DING lämplig för situationer där k-rymdbanan ändras ofta eller inte är känd a priori, t.ex. när patientens rörelse inträffar under skanningen. Ombyggnad av bilder från icke-uniforma prover av deras rumsliga frekvensdomän (k-space) är ett viktigt problem i fält så olika som datortomografi och radioastronomi. En konvolutionsinterpoleringsalgoritm som kallas "griddningsalgoritm" används i stor utsträckning för att rekonstruera bilder från sådana data. I grund och botten sammanbinder denna konventionella gridningsalgoritm (1,2) de icke-uniforma proverna med ett litet fönster och tar prov på resultatet på ett rektilinjärt rutnät. Den består av följande fyra steg: För det första kompenseras de icke-uniforma proverna för den icke-uniforma provtagningstätheten i k-rymden genom multiplikation med en viktningsfunktion, kompensationsfunktionen för densitet (DCF), som har små värden i områden med hög provtagningstäthet och stora värden i glest utvalda områden. För det andra är de densitetskompenserade uppgifterna interpolerade till ett enhetligt rutnät med hjälp av ett litet konvolutionsfönster. För det tredje är uppgifterna Fourier omvandlad (FT) till bilddomänen. För det fjärde kompenseras apodiseringen som orsakas av konvolutionssteget genom att resultatet divideras med konvolutionsfönstrets FT. Den konventionella gridningsalgoritmen är effektiv och stabil eftersom konvolutionssteget har en utjämnande effekt, men det har visat sig vara icke-optimalt och artefakt-benäget (3,4). Densitetskompensation är nödvändig för att tillnärma konvolutionen (3), och flera studier har försökt fastställa den optimala DCF (2,5,6). Det sista steget i den konventionella gridningsalgoritmen, som kompenserar för konvolutionens roll-off, resulterar i stor signal vid bildperiferin (vingar) på grund av sidoloberna i konvolutionsfönstret och aliaset som orsakas av provtagningsprocessen. Provtagning resultatet av konvolutionen på ett finare rutnät minskar alias och ving artefakter i den rekonstruerade bilden. Ett tvåfaldigt rutnät ("twice-finer") används ofta för att uppnå godtagbar bildkvalitet. Andra metoder som används för att övervinna begränsningar i den konventionella gridningsalgoritmen utnyttjar vanligen förhållandet mellan de förvärvade k-rymdsproven och deras rektilinjära motsvarigheter, såsom anges av den normala sinkfunktionsinterpoleringen av provtagningsteoremet (7). Detta förhållande är strikt giltigt endast om signalen är oändligt lång i k-rymden, men det ger en god approximation om k-rymdens täckning är stor. Diskret provtagning av interpoleringen resulterar i ett linjärt system med en tät sinkinterpoleringsmatris, vars inversion resulterar i den enhetliga resamplingslösningen (URS) (8). Medan invertering sinc-koefficienter matris är praktiskt för endimensionell (1D) signaler, blir det opraktiskt för högre dimensioner på grund av den enorma matrisstorlek, utom för speciella fall (9). Den konventionella gridningsalgoritmen har dock visat sig vara en approximation av URS-lösningen, och en optimal DCF som minimerar skillnaden mellan gridningen och URS-lösningen erhålls med matris approximeringsteknik för strukturerade matriser (7). Dessa tekniker är emellertid beräkningsmässigt uttömmande. Metoden med block URS (BURS) är en approximation till URS-lösningen som syftar till att minska beräkningsansträngningen (8). Ett litet block av sinc-matrisen runt varje rutnätspunkt är isolerat och inverterat för att erhålla ett rumsligt varierande konvolutionsfönster. Uppmärksamhet på legalisering är kritisk, och dåliga uppskattningar rapporteras för Lissajous k-rymdbanor (9 -11). Den beräkning som krävs för att rekonstruera rutnätsmatrisen är fortfarande enorm, även om den bara har
Alternativt ger upphovsmännen i REF en enkel iterativ algoritm, benämnd dekonvolution-interpolering gridning (DING) för att rekonstruera MRT-avbildning från godtyckligt samplad k-rymd.
16,667,882
Deconvolution-interpolation gridding (DING): Accurate reconstruction for arbitrary k-space trajectories
{'venue': 'Magnetic resonance in medicine', 'journal': 'Magnetic resonance in medicine', 'mag_field_of_study': ['Computer Science', 'Medicine']}
1,226
Abstrakt. I detta dokument presenteras en ny metod för säkerhetskontroll av hybridsystem. För att bevisa att alla banor i ett hybridsystem inte kommer in i en osäker region använder den föreslagna metoden en funktion av staten som kallas ett barriärcertifikat. Nollnivåuppsättningen av ett barriärcertifikat skiljer den osäkra regionen från alla möjliga banor från en given uppsättning ursprungliga förhållanden, vilket ger ett exakt bevis på systemsäkerheten. Ingen explicit beräkning av nåbara uppsättningar krävs vid konstruktion av barriärcertifikat, vilket gör att icke-linjäritet, osäkerhet och begränsningar kan hanteras direkt inom denna ram. Metoden är också beräkningsbart, eftersom barriärcertifikat kan konstrueras med summan av kvadrater sönderdelning och semidefinit programmering. Några exempel ges för att illustrera användningen av metoden.
Barriärcertifikat utvidgas också för att garantera säkerheten för hybridsystem REF.
16,339,818
Safety Verification of Hybrid Systems Using Barrier Certificates
{'venue': 'HSCC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,227
Abstract-I detta dokument presenterar vi en detaljerad ram som består av modellering av routing overhead genereras av tre allmänt använda proaktiva routing protokoll; Destination-Sequenced Distance Vector (DSDV), Fish-eye State Routing (FSR) och Optimized Link State Routing (OLSR). Frågor som, hur dessa protokoll skiljer sig från varandra på grundval av genomförandet av olika routing strategier, hur grannuppskattning fel påverkar sändning av linjeförfrågningar, hur minskning av sändning overhead uppnår bandbredd, hur man kan hantera problemet med rörlighet och densitet, etc, försöker svara. I alla ovan nämnda situationer, kan routing overhead och fördröjning som genereras av de valda protokollen exakt beräknas från våra modellerade ekvationer. Slutligen analyserar vi prestandan hos utvalda routingprotokoll med hjälp av vårt föreslagna ramverk i NS-2 genom att överväga olika prestandaparametrar; Route REQuest (RREQ) paketgenerering, End-to-End Delay (E2ED) och Normalized Routing Load (NRL) med avseende på varierande hastigheter av rörlighet och densitet av noder i det underliggande trådlösa nätverket.
Detaljerade ramar som består av modellering av routing overhead genereras av tre allmänt använda proaktiva routing protokoll; DSDV, FSR och OLSR presenteras i REF.
8,736,671
Modeling Routing Overhead Generated by Wireless Proactive Routing Protocols
{'venue': '54th IEEE Globecom2011 (SaCoNAS Workshop)', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,228