src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
Autonomic Computing är ett koncept som sammanför många områden av datorer med syftet att skapa datorsystem som självstyr. I början kritiserades det för att vara en "hype ämne" eller en omväg av vissa Multi Agent Systems arbete. I denna undersökning hoppas vi kunna visa att detta faktiskt inte var "hype" och att dess innovation, även om den bygger på mycket arbete som redan utförts av datorvetenskaps- och kontrollgrupperna, är stark och ligger i dess robusta tillämpning på den specifika självhanteringen av datorsystem. I detta syfte ger vi först en introduktion till motivationen och begreppen i autonom datorteknik och beskriver en del forskning som har setts som seminal när det gäller att påverka en stor del av det tidiga arbetet. Med inslagen i en etablerad referensmodell i sin tur diskuterar vi de arbeten som har gett betydande bidrag till detta område. Vi tittar sedan på system i större skala som består av autonoma system som illustrerar den hierarkiska karaktären hos deras arkitekturer. Autonomicity är inte en väldefinierad subjekt och som sådan olika system följer olika grader av autonomi, därför vi kors-slice kroppen av arbete i termer av dessa grader. Av detta listar vi de viktigaste tillämpningarna av autonom datorteknik och diskuterar det forskningsarbete som saknas och vad vi anser att samhället bör överväga.
Autonom datorteknik syftar till att minska graden av mänskligt engagemang i förvaltningen av komplexa datorsystem REF.
8,914,588
A survey of autonomic computing—degrees, models, and applications
{'venue': 'CSUR', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,523
Djupa Neurala nätverk är kraftfulla modeller som uppnådde anmärkningsvärda resultat på en mängd olika uppgifter. Dessa modeller visas vara extremt effektiva när tränings- och testdata hämtas från samma distribution. Det är dock oklart hur ett nätverk kommer att agera när det får ett exempel på utanför distributionen. I detta arbete överväger vi problemet med att upptäcka utanför distributionen i neurala nätverk. Vi föreslår att använda flera semantiska täta representationer istället för gles representation som måletikett. Specifikt föreslår vi att använda flera ord representationer som erhållits från olika korpora eller arkitekturer som måletiketter. Vi utvärderade den föreslagna modellen på datorseende, och talkommandon detektion uppgifter och jämförde den med tidigare metoder. Resultaten tyder på att vår metod är fördelaktig i jämförelse med tidigare arbeten. Dessutom presenterar vi effektiviteten i vår strategi för att upptäcka felaktigt klassificerade och kontradiktoriska exempel. Nyligen föreslog flera studier olika metoder för att hantera denna osäkerhet [13, 25, 23, 19]. I [13] författarna föreslog en basmetod för att upptäcka out-of-distribution exempel baserade på modellernas utdata sannolikheter. Arbetet i [25] förlängde baslinjemetoden genom att använda temperaturskalning av softmax-funktionen och lägga små kontrollerade perturbationer till ingångar [14]. I [23] föreslogs att ytterligare en term skulle läggas till förlusten för att minimera skillnaden mellan Kullback-Leibler (KL) mellan modellernas out-of-distributionsprover och den enhetliga fördelningen. Ensemble of classifiers with facultive adversarial training föreslogs i [19] för att upptäcka out-of-distribution exempel. Trots deras höga detektionshastighet kräver ensemblemetoder optimering av flera modeller och är därför resursintensiva. Dessutom tränas var och en av dem som deltog i ensemblen självständigt och representationen delas inte mellan dem.
Shaleve m.fl. REF använde flera semantiska täta representationer av måletiketterna för att upptäcka felklassificerade och kontradiktoriska exempel.
52,056,532
Out-of-Distribution Detection using Multiple Semantic Label Representations
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,524
Samverkansfiltrering har blivit en av de mest använda metoderna för att tillhandahålla personliga tjänster för användare. Nyckeln i detta tillvägagångssätt är att hitta liknande användare eller objekt med hjälp av user-item betygsmatris så att systemet kan visa rekommendationer för användare. De flesta metoder relaterade till detta tillvägagångssätt är dock baserade på likhetsalgoritmer, såsom cosinus, Pearson korrelationskoefficient, och genomsnittlig kvadratskillnad. Dessa metoder är inte mycket effektiva, särskilt under kalla användarförhållanden. I detta dokument presenteras en ny modell för användarlikhet för att förbättra rekommendationens prestanda när endast ett fåtal betyg finns tillgängliga för att beräkna likheterna för varje användare. Modellen tar inte bara hänsyn till den lokala kontextinformationen om användarbetyg, utan också till den globala preferensen för användarbeteende. Försök på tre verkliga datamängder genomförs och jämförs med många toppmoderna likhetsåtgärder. Resultaten visar den nya likhetsmodellens överlägsenhet i rekommenderad prestanda.
Liu m.fl. REF presenterar en ny modell för användarlikviditet för att förbättra rekommendationens prestanda när endast ett fåtal betyg finns tillgängliga för att beräkna likheterna för varje användare.
2,993,626
A new user similarity model to improve the accuracy of collaborative filtering
{'venue': 'Knowl. Based Syst.', 'journal': 'Knowl. Based Syst.', 'mag_field_of_study': ['Computer Science']}
82,525
Att kombinera djupa neurala nätverk med strukturerade logiska regler är önskvärt för att utnyttja flexibilitet och minska oförutsägbarheten hos de neurala modellerna. Vi föreslår en allmän ram som kan förbättra olika typer av neurala nätverk (t.ex. CNN och RNN) med förklarande första ordningen logiska regler. Speciellt utvecklar vi en iterativ destillationsmetod som överför den strukturerade informationen om logiska regler till tyngderna av neurala nätverk. Vi använder ramverket för en CNN för känsloanalys, och en RNN för namngiven enhet erkännande. Med några få mycket intuitiva regler får vi betydande förbättringar och uppnår toppmoderna eller jämförbara resultat jämfört med tidigare bäst presterande system.
Hu m.fl. REF föreslår också att strukturerad information av logik regler överförs till neurala nätverk med bakre regularisering tekniker för att minska otolkbarhet.
7,663,461
Harnessing Deep Neural Networks with Logic Rules
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,526
Abstract-Nyligen, mobiltelefonnätverk har börjat tillåta tredje part program för att köra över vissa öppna API-telefon operativsystem som Windows Mobile, Iphone och Googles Android-plattform. Men med denna ökade öppenhet blir rädslan för oseriösa program som skrivs för att sprida sig från en telefon till en annan allt mer verklig. I detta dokument föreslås en motmekanism för att begränsa spridningen av en mobil mask i ett tidigt skede genom att lappa ihop en optimal uppsättning utvalda telefoner. Kontramekaniken tar kontinuerligt fram ett socialt relationsdiagram mellan mobiltelefoner genom en analys av nätverkstrafiken. Eftersom människor är mer benägna att öppna och ladda ner innehåll som de får från vänner, denna sociala relation graf är representativ för den mest sannolika spridningsvägen för en mobil mask. Kontramekanismen partitionerar den sociala relationen grafen via två olika algoritmer, balanserade och klustererade partitionering och väljer en optimal uppsättning telefoner som ska lappas först som de som har möjlighet att infektera flest antal andra telefoner. Dessa partitioneringsalgoritmers prestanda jämförs mot ett slumpmässigt partitioneringssystem. Genom omfattande spårdrivna experiment med verkliga IP-paketspår från ett av de största cellulära nätverken i USA visar vi effektiviteten i vår föreslagna motmekanik genom att innehålla en mobil mask.
Genom att analysera ett riktigt mobilt nätverk spår, Zhu et al. REF konstruerade en graf för att beskriva de sociala relationerna mellan mobiltelefoner, och föreslog två algoritmer (balanserad partitionering och klusterpartitionering) som skulle innehålla mobila maskar i ett tidigt skede.
2,737,879
A Social Network Based Patching Scheme for Worm Containment in Cellular Networks
{'venue': 'IEEE INFOCOM 2009', 'journal': 'IEEE INFOCOM 2009', 'mag_field_of_study': ['Computer Science']}
82,527
Abstrakt. Att förstå resursutnyttjandet och serveregenskaperna hos storskaliga system är avgörande för att tjänsteleverantörerna ska kunna optimera sin verksamhet samtidigt som tjänsternas kvalitet upprätthålls. För storskaliga datacenter, identifiera egenskaperna hos resursefterfrågan och den nuvarande tillgången på sådana resurser, gör det möjligt för systemchefer att utforma och distribuera mekanismer för att förbättra datacenterutnyttjandet och uppfylla servicenivåavtal med sina kunder, samt underlätta affärsexpansion. I detta dokument presenterar vi en storskalig analys av serverresursutnyttjande och en karakterisering av en produktion Cloud datacenter med hjälp av de senaste datacenter spårloggar som gjorts tillgängliga av Google. Vi presenterar deras statistiska egenskaper, och en omfattande grovkornig analys av data, inklusive inlämningsfrekvenser, serverklassificering, och server resursutnyttjande. Dessutom utför vi en finkornig analys för att kvantifiera resursutnyttjandet av servrar som slösas bort på grund av tidig avslutning av uppgifter. Våra resultat visar att resursutnyttjandet för datacenter är relativt stabilt på mellan 40 -60%, att graden av korrelation mellan serverutnyttjande och Cloud arbetsbelastningsmiljö varierar beroende på serverarkitektur, och att mängden resursutnyttjande som slösas bort varierar mellan 4,53 -14,22% för olika serverarkitekturer. Detta ger ovärderliga verkliga empiriska data för Cloud-forskare inom många ämnesområden.
Garraghan m.fl. REF presenterar en storskalig analys av Google-klustret dataset, presenterar flera insikter, inklusive resursutnyttjande, arbetsbelastning miljöegenskaper, samt slöseri resursutnyttjande.
15,836,847
An Analysis of the Server Characteristics and Resource Utilization in Google Cloud
{'venue': '2013 IEEE International Conference on Cloud Engineering (IC2E)', 'journal': '2013 IEEE International Conference on Cloud Engineering (IC2E)', 'mag_field_of_study': ['Computer Science']}
82,528
Vi studerar sociala valregler inom ramen för den utilitaristiska snedvridningen, med ytterligare ett metriska antagande om agenternas kostnader i förhållande till alternativen. I detta tillvägagångssätt ges dessa kostnader genom ett underliggande mått på uppsättningen av alla agenter plus alternativ. Reglerna för socialt val har endast tillgång till agenters normala preferenser, men inte till de latenta huvudkostnader som föranleder dem. Snedvridning definieras sedan som förhållandet mellan den sociala kostnaden (vanligtvis summan av agentkostnaderna) för det alternativ som valts av den nuvarande mekanismen och det optimala alternativet som väljs av en allvetande algoritm. Den värsta snedvridningen av en social valregel är därför ett mått på hur nära den alltid kommer det optimala alternativet utan någon kunskap om de underliggande kostnaderna. Enligt denna modell har man antagit att Ranked Pars, den välkända viktade turneringsregeln, uppnår en förvrängning på högst 3 (Anshelevich et al. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning. Vi motbevisar denna gissning genom att konstruera en sekvens av fall som visar att den värsta fall förvrängning av Rankade par är minst 5. Vår nedre gräns på den värsta förvrängningen av Ranked Pairs matchar en tidigare känd övre gräns för Copeland-regeln, vilket bevisar att i värsta fall är den enklare Copeland-regeln minst lika bra som Ranked Pairs. Och så länge vi är begränsade till (viktade eller oviktade) turneringsregler, visar vi att randomisering inte kan bidra till att uppnå en förväntad värsta fall snedvridning på mindre än 3. Med hjälp av begreppet ungefärlig majorisering inom ramen för snedvridningen, visar vi att Copeland och Randomized Dictatorship uppnår låg konstant faktor rättvisa-ratios (5 respektive 3), vilket är en betydande generalisering av liknande resultat för summan av kostnader och enskilda största kostnadsmål. Förutom allt det ovanstående skisserar vi flera intressanta riktningar för ytterligare forskning i detta utrymme.
REF:s arbete visar att regeln om rankningspar har en snedvridning på minst 5.
7,776,528
Metric Distortion of Social Choice Rules: Lower Bounds and Fairness Properties
{'venue': "EC '17", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,529
Hittills har framsteg i ansiktsigenkänning dominerats av utformningen av algoritmer som gör igenkänning från en enda testbild. Nyligen har en uppenbar men viktig fråga lagts fram. Kommer igenkänningsresultaten för sådana metoder i allmänhet att förbättras vid användning av flera bilder eller videosekvenser? För att testa detta utökar vi formuleringen av en probabilistisk utseendebaserad ansiktsigenkänningsmetod (som ursprungligen definierades för att göra igenkänning från en enda stillbild) för att arbeta med flera bilder och videosekvenser. I vår algoritm, som det är fallet i de flesta utseende-baserade metoder, kommer vi att behöva använda en funktion extraktion algoritm för att hitta de funktioner som bäst beskriva och diskriminera bland ansiktsbilder av distinkta människor. Vi kommer att visa att oavsett vilken algoritm som används förbättras igenkänningsresultaten avsevärt när man använder en videosekvens snarare än en enda stillbild. Ett positivt svar på vår fråga (i allmän bemärkelse) verkar därför rimligt. Den probabilistiska algoritm som vi föreslår i detta dokument är robust till partiella ocklusioner, orientering och uttryck förändringar, och kräver inte en exakt lokalisering av ansiktet eller ansiktsdrag. Vi kommer också att visa hur dessa problem lättare kan lösas när man använder en videosekvens snarare än en enda bild för testning. Begränsningarna i vår algoritm kommer också att diskuteras. Att förstå begränsningarna i nuvarande tekniker när de tillämpas på video är viktigt, eftersom det bidrar till att identifiera de svaga punkter som kräver ytterligare övervägande. q ska tillämpas från och med den 1 januari 2016 till och med den 31 december 2018.
Upphovsmännen till dokumentet REF utökade till exempel den probabilistiska utseende-baserade ansiktsigenkänningsmetoden för att arbeta med flera bilder och videosekvenser.
18,722,068
A Weighted Probabilistic Approach to Face Recognition from Multiple Images and Video Sequences
{'venue': 'Image and Vision Computing', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,530
Riding på vågorna av djupa neurala nätverk, djupt metrisk inlärning har uppnått lovande resultat i olika uppgifter genom att använda triplet nätverk eller Siamese nätverk. Även om det grundläggande målet att göra bilder från samma kategori närmare än de från olika kategorier är intuitivt, är det svårt att optimera målet direkt på grund av den kvadratiska eller kubik urval storlek. Hårt exempel gruvbrytning används ofta för att lösa problemet, som spenderar den dyra beräkningen på en delmängd av prover som anses svåra. Hårt definieras dock i förhållande till en viss modell. Då kommer komplexa modeller att behandla de flesta prover som enkla och vice versa för enkla modeller, som båda inte är bra för träning. Det är svårt att definiera en modell med rätt komplexitet och välja hårda exempel på ett lämpligt sätt eftersom olika prover har olika hårda nivåer. Detta motiverar oss att föreslå det nya ramverket Hard-Aware Deeply Cascaded Embedding (HDC) för att ensemble en uppsättning modeller med olika komplexiteter på kaskad sätt för att mina hårda exempel på flera nivåer. Ett prov bedöms av en serie modeller med ökande komplexitet och endast uppdaterar modeller som betraktar provet som ett hårt fall. HDC utvärderas på CARS196, CUB-200-2011, Stanford Online Products, VehicleID och DeepFashion dataset, och överträffar toppmoderna metoder med stor marginal. * Motsvarande författare : Chao Zhang. frågebild enkelt positiva bilder hårda positiva bilder semi-hårda positiva bilder
Ur nätverksstrukturens perspektiv är BranchyNet (Teerapittayanon, McDanel och Kung 2016) och hårt medveten djupt kaskad inbäddning (HDC) REF relaterad till vårt arbete.
7,849,657
Hard-Aware Deeply Cascaded Embedding
{'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
82,531
Abstract-Convexity estimatorer används ofta i analysen av form. I detta dokument definierar och utvärderar vi en ny konvexitetsåtgärd för plana regioner som begränsas av polygoner. Den nya konvexiteten kan förstås som en "gränsbaserad" åtgärd och i enlighet med detta är den känsligare för uppmätta gränsdefekter än de så kallade "områdesbaserade" konvexitetsåtgärderna. Jämfört med konvexitetsmåttet som definieras som förhållandet mellan den euklideiska omkretsen av konvexa skrov av den uppmätta formen och den euklideiska omkretsen av den uppmätta formen visar den nya konvexitetsmåttet också vissa fördelar, särskilt för former med hål. Den nya konvexitetsmåttet har följande önskvärda egenskaper: 1) den uppskattade konvexiteten är alltid ett tal från ð0; 1, 2) den uppskattade konvexiteten är 1 om och endast om den uppmätta formen är konvex, 3) det finns former vars uppskattade konvexitet är godtyckligt nära 0, 4) den nya konvexitetsmåttet är invariant under likhetsomvandlingar, och 5) det finns en enkel och snabb procedur för att beräkna den nya konvexitetsmåttet.
Ett naturligt val skulle vara att använda förhållandet mellan omkretsen av konvexa skrov av en form P och omkretsen av P för att mäta konvexitet REF.
9,004,361
A new convexity measure for polygons
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Mathematics', 'Computer Science', 'Medicine']}
82,532
Att upptäcka små föremål är notoriskt utmanande på grund av deras låga upplösning och bullriga representation. Befintliga objekt detektion pipelines ofta upptäcka små objekt genom att lära representationer av alla objekt på flera skalor. Prestandavinsten för sådana ad hoc-arkitekturer är dock vanligtvis begränsad till att betala av beräkningskostnaden. I detta arbete tar vi itu med problemet med att upptäcka små objekt genom att utveckla en enda arkitektur som internt lyfter representationer av små objekt till "super-upplösta", uppnå liknande egenskaper som stora objekt och därmed mer diskriminerande för detektion. För detta ändamål föreslår vi en ny Perceptual Generative Adversarial Network (Perceptual GAN) modell som förbättrar små objekt upptäckt genom att begränsa representation skillnad av små objekt från de stora. Specifikt, dess generator lär sig att överföra upplevda dåliga representationer av de små objekten till super-upplösta som liknar riktigt stora objekt för att lura en konkurrerande discriminator. Samtidigt dess discriminator konkurrerar med generatorn för att identifiera den genererade representationen och inför ett ytterligare perceptuellt krav - genererade representationer av små objekt måste vara fördelaktigt för detektionsändamål - på generatorn. Omfattande utvärderingar av de utmanande Tsinghua-Tencent 100K [45] och Caltech [9]-riktmärket visar tydligt hur överlägset Perceptual GAN är när det gäller att upptäcka små föremål, inklusive trafikskyltar och fotgängare, över väletablerade state-of-the-arts.
Löjtnant m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m för m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. REF föreslog att generativa kontradiktoriska nätverk skulle användas för att upptäcka småskaliga objekt och uppnå goda resultat.
6,704,804
Perceptual Generative Adversarial Networks for Small Object Detection
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
82,533
Nätdata i stor skala, såsom sociala nät och informationsnät, är allmänt förekommande. Studiet av sådana sociala nätverk och informationsnätverk syftar till att hitta mönster och förklara deras uppkomst genom hanterbara modeller. I de flesta nätverk, och särskilt i sociala nätverk, noder har en rik uppsättning attribut (t.ex. ålder, kön) i samband med dem. Här presenterar vi en modell som vi kallar Multiplicative Attribute Graphs (MAG), som naturligt fångar interaktioner mellan nätverksstruktur och nodattribut. Vi betraktar en modell där varje nod har en vektor av kategoriska latenta attribut associerade med den. Sannolikheten för en kant mellan ett par noder beror sedan på produkten av individuella attribut-attribut affiniteter. Modellen ger sig själv till matematisk analys och vi härleder trösklar för anslutning och uppkomsten av den gigantiska anslutna komponenten, och visar att modellen ger upphov till nätverk med konstant diameter. Vi analyserar examensfördelningen för att visa att MAG-modellen kan producera nätverk med antingen log-normala eller power-law grad fördelningar beroende på vissa villkor.
Modellen Multiplicativt Attributdiagram (MAG) bygger på båda ovannämnda forskningsområden.
3,167,447
Multiplicative Attribute Graph Model of Real-World Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Physics']}
82,534
Abstract-Vi anser att ett storskaligt trådlöst nätverk, men med en låg densitet av noder per enhet område. Interferenser är då mindre kritiska, i motsats till konnektivitet. I detta dokument studeras den senare egendomen för både ett rent ad hoc-nät och ett hybridnät, där fasta basstationer kan nås i flera humlestationer. Vi antar här att kraftbegränsningar modelleras av ett maximalt avstånd över vilket två noder inte är (direkt) anslutna. Vi finner att införandet av ett glest nät av basstationer avsevärt bidrar till att öka uppkopplingen, men bara när nodtätheten är mycket större i den ena dimensionen än i den andra. Vi förklarar resultaten med perkoleringsteori. Vi får analytiska uttryck för sannolikheten för anslutning i 1-dim. Fallet. Vi visar också att flaskhalsar är oundvikliga vid en låg rumslig täthet av noder. Resultat från faktiska populationsdata bekräftar våra resultat.
Anslutningen av markbundna heterogena ad hoc-nät analyseras i REF.
1,384,760
Connectivity in ad-hoc and hybrid networks
{'venue': 'Proceedings.Twenty-First Annual Joint Conference of the IEEE Computer and Communications Societies', 'journal': 'Proceedings.Twenty-First Annual Joint Conference of the IEEE Computer and Communications Societies', 'mag_field_of_study': ['Computer Science']}
82,535
3D-scanning innebär traditionellt separat avskiljning och offline bearbetning faser, kräver mycket noggrann planering av fångsten för att se till att varje yta är täckt. I praktiken är det mycket svårt att undvika hål, vilket kräver flera iterationer av fångst, återuppbyggnad, identifiera hål, och återanpassning saknade regioner för att säkerställa en komplett modell. Rekonstruktionssystem i realtid som KinectFusion [18, 10] utgör ett stort framsteg, genom att ge användarna möjlighet att omedelbart se återuppbyggnaden och identifiera regioner som återstår att skanna. KinectFusion sporrade till en uppföljande forskning som syftade till att stärka spårningen [9, 32] och utöka dess rumsliga kartläggningskapacitet till större miljöer [22, 19, 34, 31, 9]. Men som med alla traditionella SLAM och täta återuppbyggnadssystem är det mest grundläggande antagandet bakom KinectFusion att den observerade scenen i stort sett är statisk. Kärnfrågan vi tar itu med i detta dokument är: Hur kan vi generalisera KinectFusion för att rekonstruera och spåra dynamisk, Därför introducerar vi DynamicFusion, ett tillvägagångssätt som bygger på att lösa för ett volymetriskt flöde fält som omvandlar tillståndet i scenen vid varje tillfälle till en fast, kanonisk ram. I fallet med en rörliga person, till exempel, denna omvandling upphäver personens rörelse, förvränger varje kropp konfiguration till pose av den första ramen. Efter dessa warp, scenen är effektivt stel, och standard KinectFusion uppdateringar kan användas för att få en hög kvalitet, denoised rekonstruktion. Denna gradvis denoiserade rekonstruktion kan sedan omvandlas tillbaka till den levande ramen med hjälp av den inversa kartan; varje punkt i den kanoniska ramen omvandlas till sin plats i den levande ramen (se figur 1). Att definiera ett kanoniskt "rigid" utrymme för en dynamiskt rörlig scen är inte enkelt. Ett viktigt bidrag av vårt arbete är en strategi för icke-rigid transformation och fusion som behåller optimalitet egenskaper volymetrisk scan fusion [5], som ursprungligen utvecklats för stela scener. Den viktigaste insikten är att om man upphäver scenens rörelse för att möjliggöra fusion av alla observationer till en enda fast ram kan man uppnå effektivt genom att enbart beräkna den omvända kartan. Under denna omvandling, varje kanonisk punkt projicerar längs en linje av syn i den levande kameraramen. Eftersom argumenten för optimalitet [5] (utvecklade för stela scener) endast beror på synfält, kan vi generalisera deras optimala resultat till det icke-rigida fallet. Vårt andra viktiga bidrag är att effektivt representera denna volymiska warp och beräkna den i realtid. Till och med en relativt låg upplösning skulle 256 3 deformationsvolym kräva 100 miljoner omvandlingsvariabler för att beräknas i bildhastighet. Vår lösning beror på en kombination av adaptiva, sparsamma, hierarkiska volymetriska basfunktioner och innovativt algoritmiskt arbete för att säkerställa ett verkligt-343 978-1-4673-6964-0/15/$31.00 ©2015 IEEE
DynamicFusion REF var det första systemet för att uppnå hög kvalitet, i realtid täta rekonstruktioner från RGB-D ingång.
206,592,546
DynamicFusion: Reconstruction and tracking of non-rigid scenes in real-time
{'venue': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
82,536
Parafraser spelar en viktig roll för de naturliga språkdokumentens mångfald och komplexitet. De bidrar dock till svårigheten med behandling av naturligt språk. Här beskriver vi ett förfarande för att få parafraser från nyhetsartikeln. En uppsättning parafraser kan vara användbara för olika typer av program. Artiklar från olika tidningar kan innehålla parafraser om de rapporterar samma händelse samma dag. Vi utnyttjar denna funktion genom att använda Named Entity-igenkänning. Vårt grundläggande tillvägagångssätt bygger på antagandet att namngivna enheter bevaras över parafraser. Vi tillämpade vår metod på artiklar på två områden och fick anmärkningsvärda exempel. Även om detta är vårt första försök att automatiskt extrahera parafraser från en corpus, resultaten är lovande.
REF använde de namngivna enhetsigenkänningsfunktionerna för att extrahera parafraser från enspråkig jämförbar corpus.
12,308,112
Automatic Paraphrase Acquisition from News Articles
{'venue': 'Proceedings of the second international conference on Human Language Technology Research -', 'journal': 'Proceedings of the second international conference on Human Language Technology Research -', 'mag_field_of_study': ['Computer Science']}
82,537
Eftersom känsligare data delas och lagras av webbplatser från tredje part på Internet kommer det att finnas ett behov av att kryptera data som lagras på dessa webbplatser. En nackdel med att kryptera data, är att det kan selektivt delas endast på en grov-kornig nivå (dvs. att ge en annan part din privata nyckel). Vi utvecklar ett nytt kryptosystem för finkornig delning av krypterad data som vi kallar Key-Policy Attribut-Based Encryption (KP-ABE). I vårt kryptosystem är chiffertexter märkta med uppsättningar av attribut och privata nycklar associerade med åtkomststrukturer som styr vilka chiffertexter en användare kan dekryptera. Vi demonstrerar tillämpligheten av vår konstruktion på delning av revisions-logg information och sända kryptering. Vår konstruktion stöder delegering av privata nycklar som subsumerar Hierarchical Identity-Based Encryption (HIBE).
Den första KP-ABE-konstruktionen REF förverkligade de monotona åtkomststrukturerna för viktiga policyer.
5,131,034
Attribute-based encryption for fine-grained access control of encrypted data
{'venue': "CCS '06", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,538
Ett antal verkliga domäner som sociala nätverk och e-handel omfattar heterogena data som beskriver förhållandet mellan flera grupper av enheter. Att förstå den naturliga strukturen hos denna typ av heterogena relationsdata är viktigt både för undersökande analys och för att utföra olika prediktiva modelleringsuppgifter. I detta dokument föreslår vi en principiell flervägsklusterram för relationsdata, där olika typer av enheter samtidigt samlas inte bara på grundval av sina inneboende attributvärden, utan också på de många sambanden mellan enheterna. För att uppnå detta inför vi en relationsdiagrammodell som beskriver alla kända samband mellan de olika entitetsklasserna, där varje relation mellan en viss grupp av entitetsklasser representeras i form av multimodala tensor över en lämplig domän. Vår multi-way kluster formulering drivs av målet att fånga maximal "information" i den ursprungliga relationen graf, dvs exakt approximering av uppsättningen tensorer som motsvarar de olika relationerna. Denna formulering är tillämplig på alla Bregman divergenser (en bred familj av förlustfunktioner som inkluderar kvadrat Euclidean avstånd, KL-divergens), och tillåter även analys av blandade datatyper med konvexa kombinationer av lämpliga Bregman förlustfunktioner. Dessutom presenterar vi en stor familj av strukturellt olika multi-way klustersystem som bevarar olika linjära sammanfattande statistik av de ursprungliga uppgifterna. Vi åstadkommer ovanstående generaliseringar genom att utvidga ett nyligen föreslaget viktigt teoretiskt resultat, nämligen minsta Bregman informationsprincip [1], till relationsdiagraminställningen. Vi beskriver också en effektiv multi-way klusteralgoritm baserad på alternativ minimering som generaliserar ett antal andra nyligen föreslagna klustermetoder. Empiriska resultat på datauppsättningar som erhållits från verkliga domäner (t.ex. filmrekommendationer, nyhetsartiklar) visar hur allmänt och effektivt vårt ramverk är.
I REF föreslogs en metod baserad på en relationsdiagrammodell.
5,980,025
Multi-way clustering on relation graphs
{'venue': 'In Proc. of the 7th SIAM Intl. Conf. on Data Mining', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,539
Dokument-nivå uppfattningsklassificering syftar till att förutsäga användarens övergripande känslor i ett dokument om en produkt. De flesta befintliga metoder fokuserar dock endast på lokal textinformation och bortser från de globala användarnas preferenser och produktegenskaper. Även om vissa verk tar hänsyn till sådan information, lider de vanligtvis av hög modell komplexitet och endast beakta ordnivå preferenser snarare än semantiska nivåer. För att ta itu med denna fråga föreslår vi ett hierarkiskt neuralt nätverk för att införliva global användar- och produktinformation i känsloklassificeringen. Vår modell bygger först en hierarkisk LSTM-modell för att generera menings- och dokumentrepresentationer. Därefter beaktas användar- och produktinformation via uppmärksamhet över olika semantiska nivåer på grund av dess förmåga att fånga viktiga semantiska komponenter. De experimentella resultaten visar att vår modell uppnår betydande och konsekventa förbättringar jämfört med alla toppmoderna metoder. Källkoden för detta dokument kan erhållas från https://github. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning.
REF ökar uppmärksamheten med stöd av användarpreferenser och produktinformation för att förstå hur användare och produkter påverkar känslobetyg.
13,753,905
Neural Sentiment Classification with User and Product Attention
{'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,540
Ljudhistorier är en engagerande form av kommunikation som kombinerar tal och musik till fängslande berättelser. Befintliga ljudredigeringsverktyg tvinga storyproducenter att manipulera tal och musik spår via tråkig, låg nivå vågform redigering. Däremot presenterar vi en uppsättning verktyg som analyserar ljudinnehållet i tal och musik och därmed gör det möjligt för producenter att arbeta på mycket högre nivå. Våra verktyg tar upp flera utmaningar när det gäller att skapa ljudhistorier, bland annat 1) navigera och redigera tal, 2) välja lämplig musik för poängen, och 3) redigera musiken för att komplettera talet. Viktiga funktioner inkluderar en utskriftsbaserad talredigering verktyg som automatiskt propagerar redigeringar i utskriftstexten till motsvarande talspår; en musik webbläsare som stöder sökning baserad på känslor, tempo, nyckel, eller timbral likhet med andra låtar; och musik retargeting verktyg som gör det enkelt att kombinera delar av musik med talet. Vi har använt våra verktyg för att skapa ljudhistorier från en mängd olika råa talkällor, inklusive manusberättelser, intervjuer och politiska tal. Informell feedback från förstagångsanvändare tyder på att våra verktyg är lätta att lära sig och i hög grad underlättar processen att redigera råfilm till en slutsaga.
Rubin m.fl. REF fokuserar på processen att redigera tal och lägga till musik till ljudhistorier.
9,275,767
Content-based tools for editing audio stories
{'venue': "UIST '13", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,541
Vi föreslår en ny tvåspråkig topikal admix (BiTAM) formalism för ordjustering i statistisk maskinöversättning. Under denna formalism antas de parallella meningsparen inom ett dokumentpar utgöra en blandning av dolda ämnen; varje ordpar följer en ämnesspecifik tvåspråkig översättningsmodell. Tre BiTAM-modeller föreslås fånga ämnesdelning på olika nivåer av språklig granularitet (dvs. på menings- eller ordnivåer). Dessa modeller gör det möjligt för ordanpassningsprocessen att utnyttja aktuellt innehåll i dokumentpar. Effektiva variationsalgoritmer för approximering är utformade för slutledning och parameteruppskattning. Med de inferred latent ämnen, BiTAM modeller underlättar sammanhängande parning av tvåspråkiga språkliga enheter som delar gemensamma aktuella aspekter. Våra preliminära experiment visar att de föreslagna modellerna förbättrar noggrannheten i orduppställningen och leder till bättre översättningskvalitet.
REF använder tre modeller som gör det möjligt för ordanpassningsprocessen att utnyttja aktuellt innehåll i dokumentpar med ämnesmodell.
14,079,772
BiTAM: Bilingual Topic AdMixture Models For Word Alignment
{'venue': 'International Conference On Computational Linguistics And Annual Meeting Of The Association For Computational Linguistics - Poster Sessions', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,542
Många verkliga datauppsättningar består av olika representationer eller åsikter som ofta ger information som kompletterar varandra. För att integrera information från flera vyer i den oövervakade inställningen, har multiview kluster algoritmer utvecklats för att samla flera vyer samtidigt för att härleda en lösning som avslöjar den gemensamma latenta strukturen delas av flera vyer. I detta dokument föreslår vi en ny NMF-baserad multi-view klusteralgoritm genom att söka efter en faktorisering som ger kompatibla klusterlösningar över flera vyer. Nyckelidén är att formulera en gemensam matris factorization process med den begränsning som driver klusterlösning av varje syn mot ett gemensamt samförstånd istället för att fastställa det direkt. Den största utmaningen är hur man kan hålla klusterlösningarna inom olika synvinklar meningsfulla och jämförbara. För att ta itu med denna utmaning utformar vi en ny och effektiv normaliseringsstrategi inspirerad av kopplingen mellan NMF och PLSA. Experimentella resultat på syntetiska och flera verkliga dataset visar effektiviteten i vår strategi.
För exempel, REF ) fastställer en gemensam NMF-modell för multi-view klustering, som utför NMF för varje syn och driver lågdimensionell representation av varje syn på ett gemensamt samförstånd.
4,968
Multi-View Clustering via Joint Nonnegative Matrix Factorization
{'venue': 'SDM', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,543
Abstract En videosekvens är mer än en sekvens av stillbilder. Den innehåller en stark rumslig-temporal korrelation mellan regionerna i på varandra följande ramar. Den viktigaste egenskapen hos videor är den upplevda rörelseförgrunden objekt över ramarna. Rörelsen av förgrundsobjekt förändrar dramatiskt betydelsen av objekten i en scen och leder till en annan solid karta över ramen som representerar scenen. Detta gör det betydligt mer komplicerat att analysera videor än att analysera stillbilder. I det här dokumentet undersöker vi soliditet i videosekvenser och föreslår en ny spatiotemporal Saliency modell som ägnas åt videoövervakningsapplikationer. Jämfört med klassiska solida modeller baserade på stillbilder, t.ex. Ittis modell, och rumstids soliditetsmodeller, är den föreslagna modellen mer korrelerad till visuell soliditetsuppfattning av övervakningsvideor. Både nedifrån-och-upp-mekanismerna är involverade i denna modell. Stationär bärkraft och rörelseförseelse analyseras. För det första utvecklas en ny metod för bakgrundstraktion och förgrundsextraktion baserad på innehållsanalys av scenen inom området videoövervakning. Sedan är en stationär soliditet modell konfigurerad baserat på flera funktioner som beräknas från förgrunden. Varje funktion analyseras med en flerskalig Gaussian pyramid, och alla funktioner konspicuity kartor kombineras med olika vikter. Den stationära modellen integrerar ansikten som ett komplement funktion till andra låg nivå funktioner såsom färg, intensitet och orientering. För det andra beräknas en rörelselönekarta med hjälp av statistiken över rörelsevektorns fält. För det tredje slås både rörelsekraft karta och stationär soliditet karta samman baserat på centrum-omgivning ram definieras av en approximerad Gaussian funktion. Bilderna från vår modell har jämförts med de kartor som erhållits från subjektiva experiment med SMI eye tracker för övervakningsvideosekvenser. Resultaten visar ett starkt samband mellan resultatet av den föreslagna spatiotemporala saliensmodellen och de experimentella blickkartorna.
På liknande sätt, Tong et al. I REF föreslogs en solid modell som används för videoövervakning.
12,707,126
A Spatiotemporal Saliency Model for Video Surveillance
{'venue': 'Cognitive Computation', 'journal': 'Cognitive Computation', 'mag_field_of_study': ['Computer Science']}
82,544
I detta dokument presenterar vi en ny metod för mänsklig aktivitetsförutsägelse. Mänsklig aktivitetsförutsägelse är en probabilistisk process för att sluta sig till pågående aktiviteter från videor som endast innehåller debuter (dvs. den första delen) av verksamheten. Målet är att möjliggöra ett tidigt erkännande av oavslutad verksamhet i motsats till klassificeringen av slutförd verksamhet i efterhand. Verksamhetsförutsägelsemetoder är särskilt nödvändiga för övervakningssystem som krävs för att förhindra att brott och farlig verksamhet inträffar. Vi formulerar probabilistiskt aktivitetsförutsägelseproblemet och introducerar nya metoder som är utformade för förutsägelsen. Vi representerar en aktivitet som en integrerad histogram av spatio-temporala funktioner, effektivt modellera hur funktionsfördelningen förändras över tid. Den nya igenkänningsmetoden kallas dynamisk bag-of-words utvecklas, som beaktar sekventiell karaktär av mänskliga aktiviteter samtidigt som fördelarna med bag-of-words för att hantera bullriga observationer. Våra experiment bekräftar att vårt tillvägagångssätt på ett tillförlitligt sätt känner igen pågående aktiviteter från strömmande videor med hög noggrannhet.
Till exempel Ryoo et al. REF utvecklade en dynamisk bag-of-words för att modellera hur funktionsdistributioner förändras över tid.
9,342,979
Human activity prediction: Early recognition of ongoing activities from streaming videos
{'venue': '2011 International Conference on Computer Vision', 'journal': '2011 International Conference on Computer Vision', 'mag_field_of_study': ['Computer Science']}
82,545
Tidigare arbete har visat att svårigheter att lära sig djupa generativa eller diskriminerande modeller kan övervinnas genom en inledande oövervakad inlärning steg som kartlägger input till användbara mellanliggande representationer. Vi inför och motiverar en ny utbildningsprincip för oövervakad inlärning av en representation baserad på idén att göra de inlärda representationerna robusta till partiell korruption av inmatningsmönstret. Detta tillvägagångssätt kan användas för att träna autokodare, och dessa denoiserande autokodare kan staplas för att initiera djupa arkitekturer. Algoritmen kan motiveras ur ett mångsidigt inlärnings- och informationsteoretiskt perspektiv eller ur ett generativt modellperspektiv. Jämförande experiment visar tydligt den överraskande fördelen med att korrumpera indata från autokodare på ett mönster klassificering riktmärkessvit.
Den litteraturen har främst fokuserat på att utnyttja principen om robusta representationer, baserad på det denoiserande autoencoder paradigmet REF.
207,168,299
Extracting and composing robust features with denoising autoencoders
{'venue': "ICML '08", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,546
I detta dokument föreslår vi en mängd modeller baserade på Long Short-Term Memory (LSTM) för sekvensmärkning. Dessa modeller inkluderar LSTM-nätverk, dubbelriktade LSTM-nätverk (BI-LSTM), LSTM med ett villkorligt slumpmässigt fältskikt (CRF) (LSTM-CRF) och dubbelriktat LSTM med ett CRF-skikt (BI-LSTM-CRF). Vårt arbete är det första att tillämpa en dubbelriktad LSTM CRF (benämns som BI-LSTM-CRF) modell för NLP-riktmärke sekvens taggning dataset. Vi visar att BI-LSTM-CRF-modellen effektivt kan använda både tidigare och framtida inmatningsfunktioner tack vare en dubbelriktad LSTM-komponent. Det kan också använda mening nivå tagg information tack vare en CRF lager. BI-LSTM-CRF-modellen kan producera toppmodern (eller nära) noggrannhet på POS-, bitnings- och NER-datamängder. Dessutom är det robust och har mindre beroende av ordet inbäddning jämfört med tidigare observationer.
REF uppnådde toppmodern noggrannhet på del av tal, styckning och NER med hjälp av en Bi-LSTM-CRF.
12,740,621
Bidirectional LSTM-CRF Models for Sequence Tagging
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,547
Trådlösa sensornätverk (WSN) kräver implementering av energi-aware tekniker och låg-komplexitet protokoll i alla lager. Nyligen har en MIMO-baserad struktur föreslagits för att erbjuda ökade energibesparingar i WSN. I detta dokument undersöker och jämför vi MIMO-baserad WSN med en multihopöverföring när det gäller energieffektivitet. Resultaten beror på nätverkstätheten, kanalförhållandena och avståndet till destinationsnoden. Vi når analytiska uttryck för att beräkna tröskelvärden för dessa parametrar, som bestämmer de områden där MIMO-baserad struktur överträffar multihopöverföring. Dessutom presenterar vi en detaljerad analys av den förlorade kraften under en sensorknutpunkts drift, för att bevisa att när mikroelektronik utvecklas kommer MIMO-baserad arkitektur att överträffa motsvarande multihopstruktur för de flesta undersökta fall. Slutligen genomför vi en enkel samarbetsalgoritm för val av nod för att uppnå högre energivinster i MIMO-metoden, och vi undersöker hur denna algoritm påverkar de beräknade tröskelvärdena.
I REF har författarna implementerat en enkel kooperationell nodvalsalgoritm för att uppnå högre energivinster i MIMO-metoden, och undersökt hur deras algoritm påverkar de beräknade tröskelvärdena.
8,103,188
Energy efficiency comparison of MIMO-based and multihop sensor networks
{'venue': None, 'journal': 'EURASIP Journal on Wireless Communications and Networking', 'mag_field_of_study': ['Computer Science']}
82,548
I detta dokument föreslår vi en generativ modell, Temporal Generative Adversarial Nets (TGAN), som kan lära sig en semantisk representation av omärkta videor, och kan generera videor. Till skillnad från befintliga Generativa Adversarial Nets (GAN)-baserade metoder som genererar videor med en enda generator som består av 3D-dekonvolutionella lager, utnyttjar vår modell två olika typer av generatorer: en tidsgenerator och en bildgenerator. Tidsgeneratorn tar en enda latent variabel som ingång och utgångar en uppsättning latenta variabler, som var och en motsvarar en bildram i en video. Bildgeneratorn omvandlar en uppsättning av sådana latenta variabler till en video. För att hantera instabilitet i utbildningen av GAN med sådana avancerade nätverk, antar vi en nyligen föreslagen modell, Wasserstein GAN, och föreslår en ny metod för att utbilda den stabilt på ett end-to-end sätt. De experimentella resultaten visar hur effektiva våra metoder är.
I videosyntesen delar REF syntesen mellan två generatorer, tidsgeneratorn som ger ut en latent variabel för varje ram och den rumsliga generator som genererar ramen från de latenta variablerna.
6,945,308
Temporal Generative Adversarial Nets with Singular Value Clipping
{'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,549
Abstrakt. Djupa konvolutionella neurala nätverk (CNN) har visat sitt löfte som en universell representation för erkännande. Globala CNN-aktiveringar saknar dock för närvarande geometrisk variation, vilket begränsar deras robusthet för uppgifter som klassificering och matchning av mycket varierande scener. För att förbättra variansen av CNN-aktiveringar utan att försämra deras diskriminerande makt, presenterar detta dokument ett enkelt men effektivt system som kallas flerskalig oordnad poolning (eller MOP-CNN kort sagt). Detta tillvägagångssätt fungerar genom att extrahera CNN aktiveringar för lokala patchar på flera skalor, följt av orderlös VLAD sammanslagning av dessa aktiveringar på varje skala nivå och concretenating resultatet. Denna funktionsrepresentation överträffar på ett avgörande sätt globala CNN-aktiveringar och uppnår toppmoderna prestanda för scenklassificering på sådana utmanande riktmärken som SUN397, MIT Indoor Scenes och ILSVRC2012, samt till exempel hämtning på Holidays dataset.
Gong m.fl. REF noterade att robustheten hos globala funktioner var begränsad på grund av avsaknaden av geometrisk variation, och föreslog därför ett flerskaligt system för sammanläggning (MOP-CNN), som koncentrerar ordningslösa Vectors av lokalt aggregerade Descriptors (VLAD) pooling av CNN aktiveringar på flera nivåer.
1,346,519
Multi-scale Orderless Pooling of Deep Convolutional Activation Features
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,550
Abstract-Extrahera informativa bildfunktioner och lära sig effektiva ungefärliga hashing funktioner är två avgörande steg i bildhämtning. Konventionella metoder studerar ofta dessa två steg separat, t.ex. inlärning hash funktioner från en fördefinierad handgjorda funktion utrymme. Samtidigt är bitlängderna av utdata hashing koder förinställda i de mest tidigare metoderna, försumma betydelsen av olika bitar och begränsa deras praktiska flexibilitet. För att ta itu med dessa frågor föreslår vi en övervakad inlärningsram för att generera kompakta och bitskalbara hashkoder direkt från råa bilder. Vi poserar hashing lärande som ett problem av regularized likhet lärande. I synnerhet organiserar vi träningsbilder i en sats av trioler prover, varje prov innehåller två bilder med samma etikett och en med en annan etikett. Med dessa trillingar maximerar vi marginalen mellan de matchade paren och de missmatchade paren i hammingutrymmet. Dessutom införs en legaliseringsbegrepp för att upprätthålla adjacenskonsistensen, dvs. bilder av liknande utseende bör ha liknande koder. Det djupa konvolutionella neurala nätverket används för att träna modellen i ett end-to-end mode, där diskriminerande bildfunktioner och hash funktioner samtidigt optimeras. Dessutom är varje bit av våra hashingkoder ojämlikt viktade, så att vi kan manipulera kodlängderna genom att trunkera de obetydliga bitarna. Vårt ramverk överträffar state-of-the-arts på offentliga riktmärken för liknande bildsökning och uppnår också lovande resultat i tillämpningen av personåteridentifierande i övervakningen. Det visas också att de genererade bit-skalbar hashing koder väl bevara de diskriminerande befogenheter med kortare kodlängder.
Referensreferensreferensen föreslog en ram för övervakad inlärning för att generera kompakta och hash-koder som är bitskalbara direkt från de råa bilderna.
1,449,366
Bit-Scalable Deep Hashing With Regularized Similarity Learning for Image Retrieval and Person Re-Identification
{'venue': 'IEEE Transactions on Image Processing', 'journal': 'IEEE Transactions on Image Processing', 'mag_field_of_study': ['Computer Science', 'Medicine']}
82,551
Abstract-Distribuerad bearbetning genom ad hoc- och sensornätverk har en stor inverkan på skala och tillämpningar av datorer. Skapandet av nya it-fysiska tjänster baserade på trådlösa sensorenheter bygger i hög grad på hur väl kommunikationsprotokoll kan anpassas och optimeras för att möta kvalitetsbegränsningar under begränsade energiresurser. IEEE 802.15.4 Medium Access Control Protocol för trådlösa sensornätverk kan stödja energieffektiv, tillförlitlig och snabb paketöverföring genom en parallell och distribuerad inställning av parametrar för mediumåtkomstkontroll. En sådan inställning är svår, eftersom det inte finns några enkla och exakta modeller för hur dessa parametrar påverkar sannolikheten för lyckad paketöverföring, paketförsening och energiförbrukning. Dessutom är det inte klart hur parametrarna ska anpassas till förändringarna i nät- och trafiksystemen genom algoritmer som kan köras på resursbegränsade enheter. I detta dokument föreslås en Markovkedja för att modellera dessa relationer genom enkla uttryck utan att ge upp riktigheten. I motsats till tidigare arbeten redovisas förekomsten av begränsat antal återsändningar, erkännanden, omättad trafik, paketstorlek och fördröjning av paketkopiering på grund av hårdvarubegränsningar. Modellen används sedan för att härleda en distribuerad adaptiv algoritm för att minimera strömförbrukningen samtidigt som en given framgångsrik paketmottagning sannolikhet och fördröjning begränsningar i paketöverföringen. Algoritmen kräver ingen ändring av IEEE 802.15.4 medelstor åtkomstkontroll och kan enkelt implementeras på nätverksenheter. Algoritmen har implementerats och utvärderats experimentellt på en testbädd med off-the-shelf trådlösa sensorenheter. Experimentella resultat visar att analysen är korrekt, att den föreslagna algoritmen uppfyller kraven på tillförlitlighet och fördröjning och att tillvägagångssättet minskar energiförbrukningen i nätet under både stationära och transienta förhållanden. Specifikt, även om antalet enheter och trafikkonfiguration förändras kraftigt, den föreslagna parallella och distribuerade algoritmen gör det möjligt för systemet att fungera nära sitt optimala tillstånd genom att uppskatta den upptagna kanalen och kanalåtkomst sannolikheter. Resultaten tyder dessutom på att protokollet reagerar snabbt på fel i uppskattningen av antalet enheter och den trafikbelastning som kan uppstå på grund av enhetens rörlighet. Det visas också att effekten av bristfällig kanal- och bäraravkänning på systemets prestanda i hög grad beror på trafikbelastningen och begränsat räckvidd för protokollparametrarna.
Arbetet i REF använde upptagen kanal sannolikhet och överföringshastighet för att minimera energiförbrukningen genom att justera MAC lagerparametrar.
3,916,934
Modeling and Optimization of the IEEE 802.15.4 Protocol for Reliable and Timely Communications
{'venue': 'IEEE Transactions on Parallel and Distributed Systems', 'journal': 'IEEE Transactions on Parallel and Distributed Systems', 'mag_field_of_study': ['Computer Science']}
82,552
Abstract-kognitiv radio ger användarna möjlighet att byta kanaler och utnyttja dynamiska spektrummöjligheter. Att byta kanal tar dock tid och kan påverka kvaliteten på en användares överföring. När en kognitiv radioanvändares kanal blir otillgänglig, kan det ibland vara bättre att vänta tills dess nuvarande kanal blir tillgänglig igen. Motiverad av den senaste FCC-domen om TV-vitrum, anser vi att scenariot där kognitiva radioanvändare ges förhandskunskap om kanaltillgänglighet. Med hjälp av denna information måste varje användare bestämma när och hur man byter kanal. Användarna vill utnyttja spektrummöjligheterna, men de måste ta hänsyn till kostnaderna för att byta kanal och den överbelastning som uppstår genom att dela kanaler med varandra. Vi modellerar scenariot som ett spel som, som vi visar, är likvärdigt med ett nätverk trängselspel i litteraturen efter ordentliga och icke-triviala omvandlingar. Detta gör att vi kan utforma ett protokoll som användarna kan tillämpa för att hitta Nash Equilibria på ett distribuerat sätt. Vi utvärderar vidare hur de föreslagna systemens prestanda är beroende av att man byter kostnad med hjälp av mätningar av verklig kanaltillgänglighet.
I REF modellerar författarna scenariot som ett spel som motsvarar ett nätverk trängselspel i litteraturen efter ordentliga och icke-triviala omvandlingar. Och till vår bästa kunskap, vårt arbete är den första att analysera gateway urvalsproblem i CPSs med hjälp av spelteori.
716,117
Spectrum mobility games
{'venue': '2012 Proceedings IEEE INFOCOM', 'journal': '2012 Proceedings IEEE INFOCOM', 'mag_field_of_study': ['Computer Science']}
82,553
I detta dokument föreslår vi att lära sig en Mahalanobis avstånd för att utföra anpassning av multivariata tidsserier. Lärande exempel för denna uppgift är tidsserier för vilka den sanna anpassningen är känd. Vi kastar anpassningsproblemet som en strukturerad förutsägelse uppgift, och föreslår realistiska förluster mellan justeringar för vilka optimeringen är dragbar. Vi tillhandahåller experiment på verkliga data i ljud-till-ljudsammanhang, där vi visar att lärandet av en likhetsmått leder till förbättringar i utförandet av anpassningsuppgiften. Vi föreslår också att använda detta metriska inlärningsramverk för att utföra funktionsval och, från grundläggande ljudfunktioner, bygga en kombination av dessa med bättre prestanda för anpassningen.
I REF föreslår Garreau et al att lära sig en Mahalanobis avstånd metrisk för att utföra DTW sekvensjustering.
568,866
Metric Learning for Temporal Sequence Alignment
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,554
Lämna in ditt manuskript www.dovepress.com Dovepress O r i g i n a l r e s e a r c h open access till vetenskaplig och medicinsk forskning Sammanfattning: Lungcancer har en dålig prognos när inte diagnostiseras tidigt och oresectable lesioner är närvarande. Hanteringen av små lungknutor noterade på datortomografi scan är kontroversiellt på grund av osäkra tumöregenskaper. Ett konventionellt datorstödd diagnos (CAD) schema kräver flera bildbehandling och mönsterigenkänning steg för att uppnå en kvantitativ tumör differentiering resultat. I en sådan ad hoc bildanalys pipeline, varje steg beror i hög grad på resultatet av det föregående steget. Följaktligen är det mycket komplicerat och mödosamt att justera klassificeringsprestandan i ett konventionellt CAD-system. Djupt lärande tekniker, å andra sidan, har den inneboende fördelen av en automatisk exploatering funktion och inställning av prestanda på ett sömlöst sätt. I denna studie försökte vi förenkla bildanalysrörledningen för konventionell CAD med djupinlärningsteknik. Speciellt introducerade vi modeller av ett djupt trosnätverk och ett konvolutionellt neuralt nätverk i samband med nodule klassificering i datortomografi bilder. Två grundläggande metoder med funktionsberäkningssteg genomfördes för jämförelse. De experimentella resultaten tyder på att djupinlärningsmetoder kan ge bättre diskriminativa resultat och hålla löftet inom CAD-tillämpningsområdet.
Därför är det i de traditionella CAD-lösningarna både komplicerat och mödosamt att justera klassificeringsprestandan.
18,848,337
Computer-aided classification of lung nodules on computed tomography images via deep learning technique
{'venue': 'OncoTargets and therapy', 'journal': 'OncoTargets and therapy', 'mag_field_of_study': ['Computer Science', 'Medicine']}
82,555
Abstract-This paper handlar om routing i kognitiva mobila ad hoc-nätverk. Vi föreslår att det allmänt antagna ad hoc-protokollet om distansvektor (AODV) [1] ändras för att säkerställa dess funktionalitet i det aktuella scenariot. Det resulterande protokollet, som kallas Cognitive Ad-hoc Ondemand Distance Vector (CAODV) protokoll, har utformats enligt tre riktlinjer: i) att undvika regioner av primära användare aktivitet under både ruttbildning och paket upptäckt utan att kräva en särskild gemensam kontrollkanal; ii) att utföra en gemensam väg och kanalval vid varje skotare för att minimera ruttkostnaden; iii) att dra nytta av tillgängligheten av flera kanaler för att förbättra de övergripande prestanda. Resultaten av CAODV har utvärderats med hjälp av numeriska simuleringar, och de experimentella resultaten bekräftar effektiviteten för kognitiva mobila ad hoc- nätverk.
I REF föreslog författarna ett reaktivt Cognitive Ad-hoc on-demand Distance Vector (CAODV) protokoll för CRAHN miljö.
11,489,652
CAODV: Routing in mobile ad-hoc cognitive radio networks
{'venue': '2010 IFIP Wireless Days', 'journal': '2010 IFIP Wireless Days', 'mag_field_of_study': ['Computer Science']}
82,557
Att använda drönarbasstationer (drone-BS) i trådlösa nätverk har börjat väcka uppmärksamhet. Drone-BS kan hjälpa marken BS i både kapacitet och täckning förbättring. Ett av de viktiga problemen med att integrera drönare-BS till cellulära nätverk är hanteringen av deras placering för att uppfylla de dynamiska systemkraven. I detta dokument föreslår vi en metod för att hitta positionerna för drönare-BS i ett område med olika användartätheter med hjälp av en heuristisk algoritm. Målet är att hitta det minsta antalet drönare-BS och deras 3D placering så att alla användare serveras. Våra simuleringsresultat visar att det föreslagna tillvägagångssättet kan uppfylla kraven på servicekvalitet i nätverket. 978-1-5090-1701-1/16/$31.00 ©2016 IEEE
I REF använde studien denna modell för att hitta det minsta antalet UAV och deras 3D placering så att alla användare var betjänade.
5,049,127
On the Number and 3D Placement of Drone Base Stations in Wireless Cellular Networks
{'venue': '2016 IEEE 84th Vehicular Technology Conference (VTC-Fall)', 'journal': '2016 IEEE 84th Vehicular Technology Conference (VTC-Fall)', 'mag_field_of_study': ['Computer Science']}
82,558
Gruvanvändarpreferenser spelar en avgörande roll i många viktiga applikationer såsom kundrelationshantering (CRM), produkt- och tjänsterekommendation och marknadsföringskampanjer. I detta dokument identifierar vi ett intressant och praktiskt problem med gruvanvändarpreferenser: i ett flerdimensionellt utrymme där användarens preferenser på vissa kategoriska attribut är okända, från några överlägsna och underlägsna exempel som tillhandahålls av en användare, kan vi lära oss om användarens preferenser på dessa kategoriska attribut? Vi modellerar problemet systematiskt och visar att gruvanvändarens preferenser från överlägsna och underlägsna exempel är utmanande. Även om problemet har stor potential i praktiken, så vitt vi vet, har det inte undersökts systematiskt tidigare. Som första försök att ta itu med problemet föreslår vi en girig metod och visar att vår metod är praktisk med hjälp av verkliga datamängder och syntetiska datamängder.
REF var det första dokumentet som införde scenariot med gruvpreferenser med hjälp av överlägsna och underlägsna exempel.
15,855,306
Mining preferences from superior and inferior examples
{'venue': 'KDD', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,559
Syntetisering av högkvalitativa bilder från textbeskrivningar är ett utmanande problem i datorseendet och har många praktiska tillämpningar. Prover som genereras av befintliga text-till-bild-metoder kan grovt återspegla betydelsen av de givna beskrivningarna, men de misslyckas med att innehålla nödvändiga detaljer och levande objektdelar. I detta dokument föreslår vi Stacked Generative Adversarial Networks (StackGAN) att generera 256×256 fotorealistiska bilder konditionerade på textbeskrivningar. Vi delar upp det svåra problemet i mer hanterbara delproblem genom en skissrefinieringsprocess. Stage-I GAN skisserar objektets primitiva form och färger baserat på den givna textbeskrivningen, vilket ger Stage-I lågupplösta bilder. Steg II GAN tar Stage-I resultat och textbeskrivningar som ingångar, och genererar högupplösta bilder med fotorealistiska detaljer. Den kan rätta till brister i steg I-resultaten och lägga till övertygande detaljer i förfiningsprocessen. För att förbättra mångfalden av de syntetiserade bilderna och stabilisera utbildningen av den villkorliga-Gan, introducerar vi en ny Conditioning Augmentation teknik som uppmuntrar jämnhet i latent konditioneringsgrenröret. Omfattande experiment och jämförelser med state-of-the-arts på referensdatauppsättningar visar att den föreslagna metoden uppnår betydande förbättringar när det gäller att generera fotorealistiska bilder som är betingade av textbeskrivningar.
Stackgan REF genererar realistiska bilder med två steg.
1,277,217
StackGAN: Text to Photo-Realistic Image Synthesis with Stacked Generative Adversarial Networks
{'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,560
Vi studerar problemet med privat informationsinsamling (PIR) i närvaro av tidigare sidoinformation. Probleminställningen inkluderar en databas med K- oberoende meddelanden som eventuellt kopieras på flera servrar, och en användare som behöver hämta ett av dessa brev. Dessutom har användaren viss tidigare sidoinformation i form av en delmängd av M-meddelanden, som inte innehåller det önskade meddelandet och är okänd för servrarna. Detta problem motiveras av praktiska inställningar där användaren kan få sidoinformation opportunistiskt från andra användare eller tidigare har laddat ner vissa meddelanden med hjälp av klassiska PIR-system. Syftet med användaren är att hämta det önskade meddelandet med att ladda ner minsta mängd data från servrarna samtidigt som man uppnår informationsteoretisk integritet i ett av följande två scenarier: i) användaren vill gemensamt skydda identiteten på efterfrågan och sidoinformationen; ii) användaren vill bara skydda identiteten på efterfrågan, men inte nödvändigtvis sidoinformationen. För att lyfta fram sidoinformationens roll fokuserar vi först på fallet med en enda server (en enda databas). I det första scenariot bevisar vi att den minsta nedladdningskostnaden är K − M-meddelanden, och i det andra scenariot är det K/(M + 1)-meddelanden, som bör jämföras med K-meddelanden – den minsta nedladdningskostnaden i händelse av ingen sidoinformation. Sedan, vi utvidgar några av våra resultat till fallet med databasen replikeras på flera servrar. Våra bevistekniker relaterar PIR med sidoinformation till indexkodningsproblem. Vi utnyttjar denna koppling för att bevisa motsatta resultat, samt för att utforma achievability system. Index Villkor-Private informationssökning, informationteoretisk integritet, indexkodning.
I REF visas det att denna typ av sidoinformation också hjälper i flerserversingle-message-scenariot när användaren bara vill skydda det begärda meddelandet.
28,034,645
Private Information Retrieval With Side Information
{'venue': 'IEEE Transactions on Information Theory', 'journal': 'IEEE Transactions on Information Theory', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,561
Denna artikel initierar en teoretisk undersökning av online schemaläggning problem med hastighetsskalning där de tillåtna hastigheterna kan vara diskret, och effektfunktionen kan vara godtycklig, och utvecklar algoritmiska analystekniker för denna inställning. Vi visar att en naturlig algoritm, som använder kortast återstående processtid för schemaläggning och sätter makten att vara en mer än antalet oavslutade jobb, är 3-konkurrenskraftiga för målet med total flödestid plus energi. Vi visar också att en annan naturlig algoritm, som använder den högsta densiteten först för schemaläggning och sätter kraften att vara den fraktionerade vikten av de oavslutade jobben, är en 2-konkurrenskraftig algoritm för målet med fraktionerad viktad flödestid plus energi.
HDF är optimal REF i clairvoyantinställningar online för målet med fraktionerad viktad/viktbaserad flödestid plus energi.
5,794,321
Speed Scaling with an Arbitrary Power Function
{'venue': 'TALG', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,562
Differentiell integritet är ett kraftfullt verktyg för att tillhandahålla sekretessbevarande bullriga frågesvar över statistiska databaser. Det garanterar att fördelningen av bullriga frågor svarar mycket lite med tillägg eller radering av någon tuple. Det åtföljs ofta av populariserade påståenden att det ger integritet utan några antaganden om data och att det skyddar mot angripare som vet alla utom en post. I den här artikeln analyserar vi kritiskt integritetsskyddet som erbjuds av differentiell integritet. Först använder vi en no-free-lunch teorem, som definierar nonprivacy som ett spel, för att hävda att det inte är möjligt att ge integritet och nytta utan att göra antaganden om hur data genereras. Sedan förklarar vi var antaganden behövs. Vi hävdar att integritet för en individ bevaras när det är möjligt att begränsa slutsatsen av en angripare om individens deltagande i datagenereringsprocessen. Detta skiljer sig från att begränsa slutsatsen om närvaron av en tuple (till exempel Bobs deltagande i ett socialt nätverk kan orsaka kanter att bilda mellan par av sina vänner, så att det påverkar mer än bara tuple som heter "Bob"). Definitionen av bevis på delaktighet beror i sin tur på hur data genereras - det är så antaganden kommer in i bilden. Vi förklarar dessa idéer med hjälp av exempel från forskning inom sociala nätverk samt tabelldata för vilka deterministisk statistik tidigare har publicerats. I båda fallen varierar begreppet deltagande, användningen av differentiell integritet kan leda till integritetsbrott, och differentiell integritet begränsar inte alltid i tillräcklig utsträckning slutsatsen om deltagande.
Faktum är att Kifers och Machanavajhalas teorem utan frihet innebär att det är omöjligt att garantera både integritet och nytta, utan att göra antaganden om hur uppgifterna har genererats (t.ex. oberoende antaganden).
8,955,577
No free lunch in data privacy
{'venue': "SIGMOD '11", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,563
: Översikt över vår pipeline: från indata skannar vi upptäcka planar fläckar som sannolikt hör till väggar (a); från dessa bygger vi en 2D cell komplex av golvplanen, som sedan segmenteras i enskilda rum (b); slutligen, 3D-modellen av varje rum rekonstrueras (c). Behovet av metoder för att utvinna semantiskt rika 3D-modeller av byggnadsinteriör växer sig starkare inom arkitektur och ingenjörskonst. Särskilt intressant är problemet med att rekonstruera den arkitektoniska strukturen i miljöer, med fokus på permanenta strukturer som väggar, tak och golv. Nya framsteg inom teknik för 3D-förvärv (t.ex. laserskanning) möjliggör snabb och noggrann produktion av råa mätningar, men rekonstruktionen av modeller på högre nivå försvåras av ett antal faktorer. För det första, inomhusmiljöer innehåller höga nivåer av skräp, vilket resulterar i tunga ocklusioner av väggar och andra strukturer av intresse under förvärvet. För det andra innehåller skannade modeller vanligtvis storskaliga artefakter som kommer från mycket reflekterande ytor (t.ex. fönster) ofta närvarande i sådana scener. Slutligen, att skapa strukturerade 3D-modeller av typiska interiöra miljöer, såsom lägenheter och kontorsbyggnader, innebär utmaningen att erkänna deras struktur i form av en uppsättning av enskilda rum och korridorer. För att ta itu med dessa punkter införde vi en rörledning [Mura et al. 2014] för att rekonstruera den arkitektoniska modellen av en inomhusmiljö från en uppsättning 3D indata skannar. Metoden är robust för att skräpa och kan extrahera formen av de enskilda rummen i miljön, som representerar var och en av dem som en polyhedron. De antaganden som gjorts är att skannerns positioner är kända och att miljön är bunden av vertikala väggar och av horisontella tak av samma höjd. Vår rörledning (visuellt sammanfattad i bild 1 ) består av tre huvudsakliga bearbetningssteg, som kan sammanfattas enligt följande. (a) Occlusion-medveten val av kandidat vägg fläckar. Från uppsättningen av inmatningspunkt moln vi extrahera planar patchar genom att tillämpa en enkel region växande förfarande. Vi uppskattar höjden på golvet och taket genom att hitta plana fläckar som har, respektive minimala och maximala vertikala koordinater. Bra kandidater för väggkonstruktioner beräknas genom att välja de fläckar som är vertikala och spänner en vertikal omfattning nästan lika med höjdskillnaden mellan tak och golv. För att uppnå robusthet att betrakta ocklusioner, när du beräknar den vertikala omfattningen av en patch tar vi också hänsyn till skuggorna som kastas på den av eventuella ockluders, det vill säga andra patcher placeras mellan patchen beaktas och den scan position från vilken den förvärvades. Denna al-lows för att återställa den fria vertikala utsträckningen av de vertikala fläckarna. b) Automatisk extraktion av enskilda rum. De (3D) kandidat vägg fläckar som valts i a) projiceras på det horisontella planet, erhålla en uppsättning 2D-linjesegment. Vi slår samman segment som ligger nära varandra med hjälp av medelskiftande klusteralgoritm; den uppsättning representativa linjer som motsvarar de erhållna klusteren används för att bygga ett 2D-cellskomplex (dvs. ett arrangemang av linjer) som motsvarar miljöns planlösning. Uppsättningen av celler i komplexet klustras sedan av iterativt tillämpa en binär version av k-medoid algoritmen (med k = 2). Genom att dra nytta av de kända positionerna i scanpoints, denna process extraherar ett rum efter ett annat och stannar automatiskt när alla rum har hittats. Klustret drivs av spridningsavstånd mellan cellerna i komplexet, som beräknas genom att tillämpa en robust värmespridningsprocess på själva komplexet. c) Återuppbyggnad av de slutliga rumsmodellerna. De kluster av 2D celler som erhålls i (b) motsvarar rummen i miljön; i detta steg, varje kluster omvandlas till en 3D polyhedron. För att göra detta, kanterna på gränsen till varje rum kluster extraheras; sedan 3D väggplan som motsvarar sådana gränskanter beräknas, genom att kraftfullt montera ett plan till 3D-punkterna i kandidatväggen fläckar som härrörde från varje segment. För varje rum erhålls den slutliga polyhedronen genom skärning av 3D-gränsens väggplan och tak- och golvplan (extraherade i a). Vår pipeline har framgångsrikt validerats genom att testa den på ett antal verkliga och syntetiska dataset. Vi ser vårt arbete som ett första steg mot att gå bortom den enkla geometriska rekonstruktionen för att ta fram information på högre nivå om inomhusmiljöer.
Mura m.fl. REF återvinner exakta planritningar från plan som upptäcks i punktmoln som produceras av belamrade 3D-ingångar.
8,829,852
Automatic Room Detection and Reconstruction in Cluttered Indoor Environments with Complex Room Layouts
{'venue': 'Comput. Graph.', 'journal': 'Comput. Graph.', 'mag_field_of_study': ['Computer Science']}
82,564
Abstrakt. Neural nätverk komprimering har nyligen fått mycket uppmärksamhet på grund av de beräkningskrav moderna djupa modeller. I detta arbete är vårt mål att överföra kunskap från en djup och exakt modell till en mindre. Våra bidrag är trefaldiga: (i) vi föreslår en kontradiktorisk nätverkskompressionsmetod för att utbilda det lilla studentnätverket för att härma den stora läraren, utan behov av etiketter under utbildningen; (ii) vi inför ett legaliseringsprogram för att förhindra en trivialt stark discriminator utan att minska nätverkskapaciteten och (iii) vårt tillvägagångssätt generaliseras på olika modeller lärare-studenter. I en omfattande utvärdering av fem standarddatauppsättningar visar vi att vår student har liten noggrannhetsförlust, uppnår bättre prestanda än andra kunskapsöverföringsmetoder och överträffar prestandan hos samma nätverk som utbildats med etiketter. Dessutom visar vi de senaste resultaten jämfört med andra kompressionsstrategier.
REF använde också denna idé för att överföra kunskap från större nätverk till mycket ytligare nätverk med kontradiktorisk förlust.
4,375,646
Adversarial Network Compression
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,565
I det här dokumentet föreslår vi en ny djupinlärningsarkitektur för flermärkt noll-shot-inlärning (ML-ZSL), som kan förutsäga flera osedda klassetiketter för varje inmatningstillfälle. Inspirerad av hur människor använder semantisk kunskap mellan intresseobjekt föreslår vi ett ramverk som innehåller kunskapsgrafer för att beskriva sambanden mellan flera etiketter. Vår modell lär sig en informationsutbredningsmekanism från det semantiska märkningsutrymmet, som kan användas för att modellera det ömsesidiga beroendet mellan synliga och osynliga klassetiketter. Med en sådan undersökning av strukturerade kunskapsgrafer för visuellt resonemang, visar vi att vår modell kan tillämpas för att lösa multi-märkning klassificering och ML-ZSL uppgifter. Jämfört med den senaste tekniken kan jämförbara eller förbättrade resultat uppnås med vår metod.
Hung-Wei Lee m.fl. I REF föreslogs ML-ZSL-ramverk som byggde ett WordNet-kunskapsdiagram för noll-shot-klassificering.
8,168,187
Multi-label Zero-Shot Learning with Structured Knowledge Graphs
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
82,566
Abstrakt. I detta dokument tar vi itu med ett grundläggande problem i Underwater Sensor Networks (UWSN): robust, skalbar och energieffektiv routing. UWSN skiljer sig avsevärt från markbundna sensornätverk i följande aspekter: låg bandbredd, hög latens, nodflytande rörlighet (vilket resulterar i hög nätverksdynamik), hög felsannolikhet och 3-dimensionellt utrymme. Dessa nya funktioner medför många utmaningar för nätverksprotokoll design av UWSNs. I detta dokument föreslår vi ett nytt routingprotokoll, kallat vektorbaserad speditering (VBF), för att ge robust, skalbar och energieffektiv routing. VBF är i huvudsak en positionsbaserad routing metod: noder nära "vektorn" från källan till destinationen kommer att vidarebefordra meddelandet. På detta sätt är endast en liten del av noderna inblandade i routing. VBF antar också en lokaliserad och distribuerad självanpassningsalgoritm som gör det möjligt för noder att väga nyttan av vidarebefordra paket och därmed minska energiförbrukningen genom att kasta de låga fördelarna paket. Genom simuleringsförsök visar vi VBF:s lovande prestanda.
Vectorbased spedition REF var ett geografiskt tillvägagångssätt, som gjorde det möjligt för noderna att väga nyttan för att vidarebefordra paket och minska energiförbrukningen genom att kasta låg nytta paket.
191,949
VBF: Vector-Based Forwarding Protocol for Underwater Sensor Networks
{'venue': 'Networking', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,567
Bärbara system kräver lång batterilivslängd samtidigt som de levererar hög prestanda. Dynamic power management (DPM) policys trade off prestanda för strömförbrukningen på systemnivå i bärbara enheter. I detta arbete presenterar vi den tidsindexerade SMDP-modellen (TISMDP) som vi använder för att få fram optimal policy för DPM i bärbara system. TISMDP modellen behövs för att hantera den icke exponentiella användaren begär interarrival gånger vi observerade i praktiken. Vi använder vår policy för att styra strömförbrukningen på tre olika enheter: SmartBadge bärbar enhet [18], Sony Vaio bärbar hårddisk och WLAN-kort. Simuleringsresultaten visar stora besparingar för alla tre enheterna när vi använder vår algoritm. Dessutom mätte vi vår algoritms strömförbrukning och prestanda och jämförde den med andra DPM-algoritmer för bärbar hårddisk och WLAN-kort. Algoritmen baserad på vår TISMDP modell har 1,7 gånger mindre strömförbrukning jämfört med standard Windows timeout policy för hårddisken och tre gånger mindre strömförbrukning jämfört med standard algoritm för WLAN-kortet.
I REF använde författarna modellen Time-Indexed Semi-Markov Decision Process (TISMDP) för att få fram den optimala policyn för dynamisk effekthantering i bärbara system.
663,212
Dynamic power management for portable systems
{'venue': "MobiCom '00", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,568
I detta dokument analyseras prestandan hos IEEE 802.15.4 Low-Rate Wireless Personal Area Network (LR-WPAN) i ett storskaligt trådlöst sensornätverk (WSN). För att minimera energiförbrukningen i hela nätverket och för att möjliggöra adekvat nättäckning väljs IEEE 802.15.4 peer-to-peer topologi och konfigureras till en fyrkantig klusterträdsstruktur. Analysen består av modeller för CSMA-CA-mekanism och MAC-verksamhet som specificeras i IEEE 802.15.4. Nätverkslager i ett kluster-tree-nätverk som anges av ZigBee ingår i analysen. För realistiska resultat ingår även mätning av effektförbrukning i en utvärderingsnämnd för IEEE 802.15.4. Prestandan hos en enhet och en koordinator analyseras i termer av strömförbrukning och god prestanda. Resultaten verifieras med simuleringar med hjälp av WIreless SEnsor NEtwork Simulator (WISENES). Resultaten visar att den minsta effektförbrukningen för anordningen är så låg som 73 μW, när beacon intervallet är 3,93 s, och data överförs med 4 minuters intervall. Samordnar strömförbrukning och god effekt med 15,36 ms CAP varaktighet och 3,93 s bacon intervall är cirka 370 μW och 34 bits/s.
Kohvakka m.fl. matematiskt analysera MAC lager mekanismer i en stor skala IEEE 802.15.4 nätverk som utför ZigBee nätverk verksamhet inom en kluster träd topologi och etablera körtid drift modeller av noderna REF.
7,512,578
Performance analysis of IEEE 802.15.4 and ZigBee for large-scale wireless sensor network applications
{'venue': "PE-WASUN '06", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,569
Abstrakt. Temporal relationell resonemang, förmågan att länka meningsfulla omvandlingar av objekt eller entiteter över tid, är en grundläggande egenskap hos intelligenta arter. I detta dokument introducerar vi en effektiv och tolkningsbar nätverksmodul, Temporal Relation Network (TRN), utformad för att lära sig och resonera om tidsberoenden mellan videoramar på flera tidsskalor. Vi utvärderar TRN-utrustade nätverk på aktivitetsigenkänning uppgifter med hjälp av tre senaste video dataset -Något, Jester, och Charades -som i grunden beror på temporal relationell resonemang. Våra resultat visar att den föreslagna TRN ger konvolutionella neurala nätverk en anmärkningsvärd kapacitet att upptäcka tidsmässiga relationer i videor. Genom endast glest provade videoramar, TRN-utrustade nätverk kan exakt förutsäga mänskliga objekt interaktioner i något-någonting dataset och identifiera olika mänskliga gester på Jester dataset med mycket konkurrenskraftiga prestanda. TRN-utrustade nätverk överträffar också tvåströmsnät och 3D-konvolutionsnät när det gäller att känna igen den dagliga verksamheten i Charades dataset. Ytterligare analyser visar att modellerna lär sig intuitivt och tolkningsbart visuellt sunt förnuft kunskap i videor 1.
Temporal Relation Network REF presenterar också Temporal Relation Pooling till modell frame relations i flera temporal skala.
22,044,313
Temporal Relational Reasoning in Videos
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,570
Genom att överbrygga "realitetsgapet" som separerar simulerad robotik från experiment på hårdvara kan robotforskningen påskyndas genom förbättrad datatillgänglighet. Detta papper utforskar domän randomisering, en enkel teknik för att träna modeller på simulerade bilder som överförs till verkliga bilder genom att randomisera rendering i simulatorn. Med tillräcklig variation i simulatorn, kan den verkliga världen visas för modellen som bara en annan variation. Vi fokuserar på uppgiften att objekt lokalisering, som är en språngbräda till allmänna robotiska manipulation färdigheter. Vi finner att det är möjligt att träna en verklig objektdetektor som är exakt till 1,5 cm och robust till distraktorer och partiella ocklusioner med endast data från en simulator med icke-realistiska slumpmässiga texturer. För att visa våra detektorers kapacitet, visar vi att de kan användas för att utföra grepp i en rörig miljö. Såvitt vi vet är detta den första framgångsrika överföringen av ett djupt neuralt nätverk som endast utbildats på simulerade RGB-bilder (utan förutbildning på riktiga bilder) till den verkliga världen för robotkontroll.
REF utbildade en objektdetektor med randomiserat utseende och applicerade den i en verklig greppuppgift.
2,413,610
Domain randomization for transferring deep neural networks from simulation to the real world
{'venue': '2017 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)', 'journal': '2017 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)', 'mag_field_of_study': ['Engineering', 'Computer Science']}
82,571
Vi presenterar en skalbar metod för halvövervakad inlärning på grafstrukturerade data som bygger på en effektiv variant av konvolutionella neurala nätverk som fungerar direkt på grafer. Vi motiverar valet av vår konvolutionella arkitektur via en lokaliserad första ordningen approximation av spektral graf konvolutioner. Vår modell skalar linjärt i antalet grafkanter och lär sig dolda lager representationer som kodar både lokala graf struktur och funktioner i noder. I ett antal experiment på citeringsnätverk och på ett kunskapsdiagram visar vi att vårt tillvägagångssätt överträffar relaterade metoder med en betydande marginal.
Det andra synsättet av intresse på grund av Ref, föreslogs för att ta itu med halvövervakad inlärning av grafstrukturerade data genom en CNN-arkitektur som använder lokaliserad approximation av spektral grafkonvolutioner.
3,144,218
Semi-Supervised Classification with Graph Convolutional Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,572
Sociala medier språk innehåller enorma mängder och ett brett utbud av icke-standard tokens, skapas både avsiktligt och oavsiktligt av användarna. Det är av avgörande betydelse att normalisera de bullriga icke-standard tokens innan du använder andra NLP-tekniker. En stor utmaning för denna uppgift är systemtäckningen, d.v.s. för alla användarskapade icke-standardterm, systemet bör kunna återställa rätt ord inom sina topp n utdatakandidater. I detta dokument föreslår vi ett kognitivt styrt normaliseringssystem som integrerar olika mänskliga perspektiv i normalisering av icke-standardpolletter, inklusive förbättrad bokstavsomvandling, visuell priming, och sträng/fontisk likhet. Systemet utvärderades både på ord- och meddelandenivå med hjälp av fyra SMS- och Twitter-dataset. Resultaten visar att vårt system uppnår över 90 % word-coverage i alla datamängder (en absolut ökning på 10 % jämfört med den senaste tekniken); det breda word-coveraget kan också med framgång översättas till prestandavinster på budskapsnivå, vilket ger 6 % absolut ökning jämfört med den bästa tidigare metoden.
Studien REF designar ett normaliseringssystem som integrerar förbättrad bokstavstransformation, visuell priming och sträng/fontisk likhet för SMS- och Twitterdataset.
1,069,021
A Broad-Coverage Normalization System for Social Media Language
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,573
Hyper-heuristik består av en uppsättning metoder som motiveras (åtminstone delvis) av målet att automatisera utformningen av heuristiska metoder för att lösa svåra datorsökningsproblem. En underliggande strategisk forskningsutmaning är att utveckla mer allmänt tillämpliga sökmetoder. Termen hyperheuristisk är relativt ny; den användes först år 2000 för att beskriva heuristik för att välja heuristik i samband med kombinatorisk optimering. Men tanken på att automatisera utformningen av heuristik är inte ny; den kan spåras tillbaka till 1960-talet. Definitionen av hyper-heuristik har nyligen utvidgats för att hänvisa till en sökmetod eller inlärningsmekanism för att välja eller generera heuristik för att lösa datorsökningsproblem. Två huvudsakliga hyperheuristiska kategorier kan övervägas: heuristiskt urval och heuristisk generation. Det utmärkande för hyper-heuristik är att de arbetar på ett sökområde för heuristik (eller heuristiska komponenter) snarare än direkt på sökområdet för lösningar på det underliggande problemet som behandlas. I detta dokument presenteras en kritisk diskussion om den vetenskapliga litteraturen om hyperheuristik, inklusive deras ursprung och intellektuella rötter, en detaljerad redogörelse för de viktigaste typerna av tillvägagångssätt och en översikt över vissa närliggande områden. Aktuella forskningstrender och riktningar för framtida forskning diskuteras också.
Hyper-heuristik använder ofta en inlärningsmekanism REF.
3,053,192
Hyper-heuristics: A Survey of the State of the Art
{'venue': 'the Journal of the Operational Research Society', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,574
För de flesta djupt lärande utövare är sekvensmodellering synonymt med återkommande nätverk. Men de senaste resultaten visar att konvolutionella arkitekturer kan överträffa återkommande nätverk på uppgifter som ljudsyntes och maskinöversättning. Med tanke på en ny sekvensmodellering uppgift eller datauppsättning, vilken arkitektur bör man använda? Vi genomför en systematisk utvärdering av generiska konvolutionella och återkommande arkitekturer för sekvensmodellering. Modellerna utvärderas över ett brett spektrum av standarduppgifter som ofta används för att jämföra återkommande nätverk. Våra resultat tyder på att en enkel konvolutionell arkitektur överträffar kanoniska återkommande nätverk som LSTMs över en mängd olika uppgifter och datauppsättningar, samtidigt som den visar längre effektivt minne. Vi drar slutsatsen att den gemensamma kopplingen mellan sekvensmodellering och återkommande nätverk bör omprövas och att konvolutionsnätverk bör betraktas som en naturlig utgångspunkt för sekvensmodelleringsuppgifter. För att underlätta tillhörande arbete har vi gjort koden tillgänglig på http://github.com/locuslab/TCN.
REF genomför en detaljerad utvärdering av återkommande och konvolutionella, framåtriktade modeller för en mängd olika sekvensmodelleringsuppgifter.
4,747,877
An Empirical Evaluation of Generic Convolutional and Recurrent Networks for Sequence Modeling
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,575
Representationen av geometri i 3D-perceptionssystem i realtid fortsätter att vara en kritisk forskningsfråga. Täta kartor fångar fullständig ytform och kan utökas med semantiska etiketter, men deras höga dimensionalitet gör dem beräkning dyrt att lagra och bearbeta, och olämpliga för rigorösa probabilistiska slutsatser. Sparse funktionsbaserade representationer undviker dessa problem, men fångar endast partiell sceninformation och är främst användbara endast för lokalisering. Vi presenterar en ny kompakt men tät representation av scengeometri som är beroende av intensitetsdata från en enda bild och genereras från en kod som består av ett litet antal parametrar. Vi inspireras av arbete både på inlärt djup från bilder, och auto-kodare. Vår strategi är lämplig att använda i en nyckelframe-baserad monocular tät SLAM-system: Medan varje nyckelframe med en kod kan producera en djupkarta, kan koden optimeras effektivt tillsammans med pose variabler och tillsammans med koderna för överlappande nyckelramar för att uppnå global konsekvens. Konditionera djupkartan på bilden gör att koden endast representerar aspekter av den lokala geometrin som inte direkt kan förutsägas från bilden. Vi förklarar hur vi lär oss vår kodrepresentation och visar dess fördelaktiga egenskaper i monokulära SLAM.
CodeSLAM REF föreslår en kompakt kod för att representera djupkartan med hjälp av variationella auto-encoder-nätverk och optimera det fotometriska felet på kod- och rörelseparametrarna.
4,624,670
CodeSLAM - Learning a Compact, Optimisable Representation for Dense Visual SLAM
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
82,576
Abstract-State-of-the-art objekt detekteringsnätverk är beroende av region förslag algoritmer för att hypothesize objekt platser. Framsteg som SPPnet [1] och Fast R-CNN [2] har minskat drifttiden för dessa detektionsnät, vilket exponerar beräkning av regionförslag som flaskhals. I detta arbete introducerar vi ett regionförslagsnätverk (RPN) som delar fullbildskonvolutionella funktioner med detektionsnätverket, vilket möjliggör nära nog kostnadsfria regionförslag. Ett RPN är ett helt konvolutionellt nätverk som samtidigt förutsäger objektgränser och objektitetspoäng vid varje position. RPN är utbildad end-to-end för att generera högkvalitativa regionförslag, som används av Fast R-CNN för detektion. Vi slår ytterligare samman RPN och Fast R-CNN till ett enda nätverk genom att dela deras konvolutionella funktioner-med hjälp av den nyligen populära terminologin för neurala nätverk med "attention" mekanismer, RPN komponenten talar om för det enhetliga nätverket var man ska leta. För den mycket djupa VGG-16-modellen [3] har vårt detektionssystem en bildhastighet på 5 fps (inklusive alla steg) på en GPU, samtidigt som vi uppnår toppmoderna objektdetektionsnoggrannhet på PASCAL VOC 2007, och MS COCO-datauppsättningar med endast 300 förslag per bild. I ILSVRC och COCO 2015 tävlingar, Snabbare R-CNN och RPN är grunden för den 1: a plats vinnande poster i flera spår. Koden har gjorts tillgänglig för allmänheten. Regionens förslagsmetoder är vanligtvis beroende av billiga funktioner och ekonomiska slutledningssystem. Selektiv sökning [4], en av de mest populära metoderna, sammansmälter girigt superpixel baserat på konstruerade låg nivå funktioner. Ändå jämfört med effektiva detektionsnätverk [2], Selektiv sökning är en storleksordning långsammare, på 2 sekunder per bild i en CPU-implementation. EdgeBoxar [6] ger för närvarande den bästa kompromissen mellan förslagskvalitet och hastighet, med 0,2 sekunder per bild. Trots detta konsumerar regionförslaget lika mycket drifttid som nätverket för upptäckt. Man kan notera att snabba regionbaserade CNN dra nytta av GPU, medan de regionala förslag metoder som används i forskning genomförs på CPU, vilket gör sådana runtime jämförelser ojämförliga. Ett självklart sätt att påskynda beräkningen av förslag är att återinföra det för GPU. Detta kan vara en effektiv teknisk lösning, men omgenomförandet bortser från down-stream detektion nätverk och därför missar viktiga möjligheter att dela beräkningar. I detta dokument visar vi att en algoritmisk förändringskomputerande förslag med en djup konvolutionell neural nätverk-leads till en elegant och effektiv lösning där förslagsberäkning är nästan gratis med tanke på detektionsnätverkets beräkning. I detta syfte introducerar vi nya regionala förslagsnätverk (RPN) som delar konvolutionella skikt med toppmoderna nätverk för objektdetektering [1], [2]. Genom att dela konvolutioner vid testtid är marginalkostnaden för datorförslag liten (t.ex. 10 ms per bild). Vår iakttagelse är att de konvolutionella funktionskartor som används av regionbaserade detektorer, som Fast R-CNN, också kan användas för att generera regionförslag. Ovanpå dessa konvolutionella funktioner konstruerar vi en RPN genom att lägga till några ytterligare konvolutionella lager som samtidigt regresserar regiongränser och objektitet poäng på varje plats på ett vanligt rutnät. RPN är således ett slags fullständigt konvolutionsnätverk [7] och kan utbildas från början till slut särskilt för uppgiften att ta fram förslag på detektering. RPN är utformade för att effektivt förutsäga regionala förslag med ett brett spektrum av skalor och proportioner. I motsats till vanliga metoder [1], [2], [8], [9] som använder pyramider av bilder (Fig. 1a) eller filterpyramider (Fig. 1b), Vi introducerar nya "anchor" rutor som fungerar som referenser på flera skalor och proportioner. Vårt schema kan ses som en pyramid av regressionsreferenser (Fig. 1c), som undviker att räkna upp bilder eller filter av flera skalor eller proportioner. Denna modell fungerar bra när den är tränad och testad med enskaliga bilder och därmed gynnar körhastigheten. För att förena RPNs med snabba R-CNN [2] objektdetekteringsnätverk, föreslår vi ett utbildningsprogram som alternerar S. Ren är med
Ren och al. föreslås Snabbare R-CNN REF, en fullständig end-to-end rörledning som delar funktioner mellan förslagsgenerering och objektdetektering, förbättra både noggrannhet och beräkningseffektivitet.
10,328,909
Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
82,577
Abstrakt. Vi presenterar läckageEst, ett verktyg som uppskattar hur mycket information läcker från system. För att använda loakiEst, måste en analytiker köra ett system med en rad hemliga värden och registrera utdata som kan utsättas för en angripare. Vårt verktyg uppskattar sedan mängden information som läckt från de hemliga värdena till de observerbara utgångarna i systemet. Viktigt, vårt verktyg beräknar konfidensintervallen för dessa uppskattningar, och testar om de utgör verkliga bevis på en informationsläckage i systemet. LäckageEst är fritt tillgängligt och har använts för att verifiera säkerheten i en rad verkliga system, inklusive e-passportar och Tor. Inledning. Informationsläckage uppstår när något om ett systems hemliga data kan härledas från att observera dess offentliga utgångar. Inte alla informationsläckage är allvarligt: många återförsäljares faktureringssystem lätt "läcka" de sista fyra siffrorna i ett kreditkortsnummer, och lösenordskontroll funktioner "läcka" viss information om ett hemligt lösenord som svar på en felaktig gissning (t.ex. att gissa är inte lösenordet). Informationsläckage är därför kvantitativt och det är viktigt att kunna svara på frågan "hur mycket information läcker ett system?". Informationsteori är en användbar ram för kvantifiering av dessa läckor i system (se t.ex. [9]), och två särskilda åtgärder, ömsesidig information och min-entropi läckage, placera användbara gränser på en angripares förmåga att gissa hemligheterna från de offentliga resultaten. Vårt verktyg, loakiEst, uppskattar dessa läckage åtgärder från dataset som innehåller hemligheter och offentliga resultat som genereras från försökskörningar i ett system. Dess metodik bygger på vårt tidigare arbete som ger rigorösa verifieringsmetoder för att uppskatta informationsläckage [3, 4]; den utför statistiska tester för att skilja ett osäkert system med en mycket liten informationsläckage från en säker en utan läckor. Detta liknar att upptäcka en korrelation mellan två slumpvariabler, ett väl undersökt problem, och vi jämför läckageEsts prestanda med den för befintliga statistiska tester. Om en läcka hittas, läckageEst kan visa den villkorliga sannolikheten att observera varje utdata från systemet med tanke på en viss hemlighet, som kan användas för att härleda en konkret attack mot systemet. Det finns flera verktyg som beräknar mängden information som läcker från ett program (t.ex., [7, 2] ). Dessa verktyg ger snäva gränser, men kräver tillgång till källkoden för programmet och en formalism som är tillräckligt kraftfull för att modellera det underliggande systemet. Dessa krav är ofta oöverkomliga, och
Chothia m.fl. Ref föreslog ett system som kallas läckageEst för att kvantifiera informationsläckage från en observerbar utgång om ett enda hemligt värde.
18,441,701
A Tool for Estimating Information Leakage ⋆
{'venue': 'CAV', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,578
Ökad övervakning av transaktioner, miljöparametrar, säkerhet i hemlandet, RFID-chips och interaktioner mellan online-användare skapar snabbt nya datakällor och tillämpningsscenarier. I detta dokument föreslår vi sökordssökning på relationella dataströmmar (S-KWS) som ett effektivt sätt att ställa frågor i sådana intrikata och dynamiska miljöer. Jämfört med konventionella frågemetoder har S-KWS flera fördelar. För det första gör det möjligt att söka efter kombinationer av intressanta termer utan a-prioriterad kunskap om de dataströmmar i vilka de visas. För det andra döljer det schemat från användaren och tillåter det att ändras, utan att det behövs en omskrivning av frågan. Slutligen, sökord frågor är lätt att uttrycka. Våra bidrag sammanfattas enligt följande. (i) Vi tillhandahåller formella semantik för S-KWS, som behandlar tidsmässig giltighet och ordning av resultat. (ii) Vi föreslår en effektiv algoritm för att generera operatörsträd, tillämplig på godtyckliga scheman. iii) Vi integrerar dessa träd i en operatörsmaska som har gemensamma uttryck. (iv) Vi utvecklar tekniker som använder operatören mesh för effektiv frågebehandling. Teknikerna anpassar sig dynamiskt till förändringar i schemat och indataegenskaperna. Slutligen, (v) vi presenterar metoder för rensning utgångna tuples, minimera antingen CPU, eller minne krav.
Detta beslut träder i kraft dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. REF tar upp frågan om sökordssökning på strömmar av relationsdata.
2,096,552
Keyword search on relational data streams
{'venue': "SIGMOD '07", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,579
Medan varje nätverksnod endast förmedlar meddelanden i ett traditionellt kommunikationssystem, föreslår den senaste nätverkskodning (NC) paradigm att genomföra enkel i-nätverk bearbetning med paketkombinationer i noderna. NC utökar begreppet "kodning" ett meddelande bortom källkod (för kompression) och kanalkodning (för skydd mot fel och förluster). Det har visat sig öka nätgenomströmningen jämfört med det traditionella nätgenomförandet, minska förseningarna och ge robusthet åt överföringsfel och nätdynamik. Dessa egenskaper är så tilltalande för multimediatillämpningar att de har stimulerat en stor forskningsinsats för att utveckla multimediaspecifika NC-tekniker. I detta dokument granskas det senaste arbetet i NC för multimediatillämpningar och man fokuserar på de tekniker som fyller gapet mellan NC-teori och praktiska tillämpningar. Den beskriver NC:s fördelar och presenterar de öppna utmaningarna på detta område. Dokumentet fokuserar till att börja med på multimediaspecifika aspekter av nätkodning, särskilt fördröjning, felkontroll i nätverk och mediespecifik felkontroll. Dessa aspekter gör det möjligt att hantera varierande nätverksförhållanden samt kund heterogenitet, som är avgörande för utformningen och utbyggnaden av multimediasystem. Efter att ha introducerat dessa allmänna koncept går man i detalj igenom två tillämpningar som naturligt NC ägnar sig åt via samarbets- och sändningsmodellerna, nämligen streaming av peer-to-peer-multimedia och trådlösa nätverk. Jag. INLEDNING Nätverkskodning (NC) är ett av de senaste genombrotten inom kommunikationsforskning. Det har först föreslagits [1] och kan påverka alla kommunikations- och nätverksområden. I ett nötskal är det konventionella nätverksparadigmet baserat på routing, där paketen vidarebefordras till destinationen av varje nätverksnod. NC bygger på tanken att mellanliggande nätverk noder processpaket förutom att återsända dem. Bearbetning innebär vanligtvis att generera och skicka nya utdatapaket som linjära kombinationer av de inkommande. Det kan göras på olika nivåer av den klassiska protokoll stacken (transport / applikation, MAC / IP, fysiska lager, och gemensam bearbetning som omfattar flera lager). Detta nya paradigm innebär en radikal förändring i utformningen av kommunikationsnät och -tillämpningar. Multimedia leveranstekniker är starkt beroende av transport och nätverk lager av kommunikationsprotokoll stacken. Multimediakommunikation har optimerats för att fullt ut utnyttja de traditionella protokollen och maximera kvaliteten på tjänsten. Med det nya NC-paradigmet i nätverk med käll-, väg- och kamratmångfald måste de traditionella kodnings- och kommunikationsmetoderna omprövas när det gäller hur paket skapas, kombineras och levereras. I synnerhet skulle multimediatillämpningar helt klart kunna dra nytta av de förbättringar som NC erbjuder när det gäller ökat genomflöde, minskad sårbarhet för paketraderingar och enkel spridning i stora distribuerade system. Konceptet NC har ursprungligen utformats i informationsteorigemenskapen. Klyftan mellan de teoretiska informationsmodellerna och modellerna för verkliga multimedietillämpningar är ganska stor. Detta har genererat ett stort intresse för att utveckla NC-system som ger betydande fördelar i multimediaapplikationer, särskilt i peer-to-peer (P2P) streaming och trådlösa kommunikationssystem. I synnerhet multimediatillämpningar utgör unika och viktiga utmaningar beroende på tillämpningsscenariot, såsom stora mängder data, stränga tidsbegränsningar, heterogenitet i paketets betydelse samt i klientuppsättningen. Därför måste praktiska NC-algoritmer vara särskilt utformade för att klara av dessa utmaningar under flera ytterligare begränsningar från realistiska inställningar. För det första måste avkodningskomplexet förbli rimligt för avkodning i realtid. För det andra måste algoritmerna vara skalbara och robusta för att hantera dynamiken i källorna, de mellanliggande noderna och vägarna i en stor nätverksinfrastruktur. Slutligen måste NC-lösningarna vara anpassade för att ta hänsyn till olika tidsbegränsningar när det gäller att leverera multimedieinnehåll, eftersom dessa är bland de mest grundläggande frågor som bör behandlas i ett realistiskt multimediasystem. Alla dessa frågor kräver en lämplig utformning av det distribuerade kommunikationsprotokollet och effektiva kodningsstrategier. På samma sätt som den traditionella multimediakommunikationsramen är de mest lovande lösningarna i NC-system helt säkert beroende av optimering av end-to-end-system baserat på en gemensam utformning av källkoden och nätkoden, där tids- eller komplexitetsbegränsningar läggs till problemet med datakommunikation. Syftet med detta dokument är att se över det arbete som nyligen utförts i NC-baserad multimediakommunikation och att tillhandahålla en omfattande kartläggning av de problem som helt eller delvis har lösts, tillsammans med de öppna forskningsfrågorna. Papperet guidar läsarna genom dessa problem på följande sätt. I avsnitt II går vi kort igenom NC-teorin, sammanfattar de viktigaste teoretiska resultaten och sätter dem i samband med praktiska tillämpningar för multimediakommunikation. I avsnitt III ser vi över de specifika NC-tekniker som har utvecklats för att ta itu med de frågor som nämns ovan. Vår analys omfattar felkontroll inom nätverket samt mediaspecifik felkontroll. Den förstnämnda avser NC-tekniker som har som mål att maximera nätverksprestandan från en "multimedia" synvinkel, t.ex. Minimera fördröjningen. Mediespecifik felkontroll introducerar distorsion i NC-inställningen, med användning av nätverksorienterade källkoder baserade på skiktad och flera beskrivningskodning. NC-teknik med låg komplexitet beaktas också. Avsnitt IV och V beskriver två specifika tillämpningsområden för NC-principer, nämligen P2P och trådlösa nätverk. Dessa är viktiga eftersom de naturligtvis lånar sig till NC på grund av samarbete och sändningsmodeller. I synnerhet gäller avsnitt IV användningen av NC för medieströmning via P2P. Den beskriver i detalj hur NC kan radikalt förändra hur P2P streaming system är utformade, utnyttja en kodad representation som underlättar distribution och streaming av innehåll. Det innehåller också en diskussion om NC för både live och on-demand streaming. Avsnitt V är avsett för tillämpningar av NC i trådlösa nätverk, med beaktande av olika topologier,
Med de senaste framstegen inom nätkodningsforskning har potentialen för nätkodning utvecklats inom ramen för P2P- och överlagringsnäten REF.
3,200,945
Network Coding Meets Multimedia: a Review
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,580
Bakgrund: Smartphone-användning har spridit sig till många inställningar, inklusive hälso- och sjukvård med många potentiella och realiserade fördelar. Förmågan att ladda ner skräddarsydda program (appar) har skapat en ny mängd kliniska resurser tillgängliga för vårdpersonal, vilket ger evidensbaserade beslutsverktyg för att minska medicinska fel. Tidigare litteratur har undersökt hur smartphones kan användas av både medicinska studenter och läkarpopulationer, för att förbättra utbildnings- och arbetsplatsaktiviteter, med potential att förbättra den övergripande patientvården. Denna litteratur har dock inte undersökt smartphone acceptans och mönster av medicinsk app användning inom student och junior läkare befolkningar. Metoder: En online-undersökning av medicinska student- och stiftelsenivå junior doktorskohorter genomfördes inom en brittisk hälso- och sjukvårdsregion. Deltagarna tillfrågades om de ägde en Smartphone och om de använde appar på sina Smartphones för att stödja sin utbildnings- och övningsverksamhet. Användningsfrekvens och typ av app som användes undersöktes också. Öppna svarsfrågor utforskade deltagarnas syn på appar som önskades eller rekommenderades och egenskaperna hos appar som var användbara. Resultat: 257 medicinska studenter och 131 yngre läkare svarade, vilket motsvarar en svarsfrekvens på 15,0% respektive 21,8%. 79,0% (n=203/257) av medicinska studenter och 74,8% (n=98/131) av junior läkare ägde en smartphone, med 56,6% (n=115/203) av studenter och 68,4% (n=67/98) av läkare som äger en iPhone. Majoriteten av studenter och läkare ägde 1-5 medicinska relaterade applikationer, med mycket få äger mer än 10, och iPhone ägare betydligt mer sannolikt att äga appar (Chi sq, p < 0.001). Båda populationerna visade liknande trender för appanvändning flera gånger om dagen. Över 24 timmar apps användes för mellan 1-30 minuter för studenter och 1-20 minuter för läkare, studenter använde sjukdomsdiagnos / hantering och drog referens apps, med läkare som gynnar kliniska poäng / kalkylator apps. Slutsatser: Denna studie fann en hög nivå av smartphone ägande och användning bland medicinska studenter och junior läkare. Båda grupperna stöder utvecklingen av fler appar för att stödja deras utbildning och klinisk praxis.
Enligt en undersökning utförd i U.K. REF, 75,5% av junior läkare och 79,8% av medicinska studenter äger medicinska smartphone apps relaterade till procedurdokumentation, sjukdomsdiagnos, klinisk poäng och drogreferens.
3,104,929
Smartphone and medical related App use among medical students and junior doctors in the United Kingdom (UK): a regional survey
{'venue': 'BMC Medical Informatics and Decision Making', 'journal': 'BMC Medical Informatics and Decision Making', 'mag_field_of_study': ['Medicine', 'Computer Science']}
82,581
Datautvinningstekniken har gett oss nya möjligheter att identifiera korrelationer i stora datamängder. Detta medför risker när uppgifterna ska offentliggöras, men korrelationerna är privata. Vi inför en metod för att selektivt ta bort enskilda värden från en databas för att förhindra upptäckt av en uppsättning regler, samtidigt som data för andra tillämpningar bevaras. Denna metods effektivitet och komplexitet diskuteras. Vi presenterar också ett experiment som visar ett exempel på denna metod.
I samma riktning, Saygin et al. I REF infördes en metod för selektiv borttagning av enskilda värden från en databas för att förhindra upptäckt av en uppsättning regler, samtidigt som data för andra tillämpningar bevaras.
578,767
Using unknowns to prevent discovery of association rules
{'venue': 'SGMD', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,582
Abstract-Det har visat sig att samarbetskommunikation (CC) har potential att avsevärt öka kapaciteten i trådlösa nät. De flesta av de befintliga resultaten är dock begränsade till trådlösa enhopsnätverk. För att illustrera fördelarna med CC i trådlösa multi-hop-nätverk löser vi ett gemensamt optimeringsproblem för relä nodtilldelning och flödesplanering för samtidiga sessioner. Vi studerar detta problem via matematisk modellering och löser det med hjälp av en lösningsprocedur baserad på den grenbaserade ramen. Vi designar flera nya komponenter för att snabba upp beräkningstiden för gren-och-skärning. Via numeriska resultat visar vi de betydande hastighetsvinster som kan uppnås genom att integrera CC i multi-hop nätverk.
I REF, Sharma och Hou studera ett gemensamt problem med relä nod uppdrag och multi-hop flöde routing, med målet att maximera den lägsta hastigheten bland en uppsättning samtidiga sessioner.
3,646,433
Cooperative Communications in Multi-hop Wireless Networks: Joint Flow Routing and Relay Node Assignment
{'venue': '2010 Proceedings IEEE INFOCOM', 'journal': '2010 Proceedings IEEE INFOCOM', 'mag_field_of_study': ['Computer Science']}
82,583
Attribut är en mellanliggande representation, som möjliggör parameterdelning mellan klasser, ett måste när utbildningsdata är knapp. Vi föreslår att vi ser attributbaserad bildklassificering som ett problem med inbäddning av etiketter: varje klass är inbäddad i utrymmet för attributvektorer. Vi inför en funktion som mäter kompatibiliteten mellan en bild och en etikett inbäddning. Parametrarna för denna funktion är inlärda på en utbildning uppsättning märkta prover för att säkerställa att, med tanke på en bild, de rätta klasserna rankas högre än de felaktiga. Resultat på djuren med attribut och Caltech-UCSD-Birds datauppsättningar visar att det föreslagna ramverket överträffar standarden Direct Attribut Prediction baslinje i ett noll-shot lärande scenario. Märkningsramverket erbjuder andra fördelar, t.ex. möjligheten att utnyttja alternativa informationskällor utöver attributen (t.ex. klasshierarkier) eller att smidigt övergå från noll-sprängt lärande till lärande med stora mängder data.
Till exempel föreslog REF en märkning inbäddning funktion som rankar korrekt klass av osynlig bild högre än felaktiga klasser.
8,288,863
Label-Embedding for Attribute-Based Classification
{'venue': '2013 IEEE Conference on Computer Vision and Pattern Recognition', 'journal': '2013 IEEE Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
82,584
Ett långsiktigt mål med maskininlärning forskning är att bygga en intelligent dialogagent. Merparten av forskningen inom naturligt språk har fokuserat på lärande från fasta utbildningsset av märkta data, med handledning antingen på ordnivå (taggning, tolkningsuppgifter) eller meningsnivå (fråga svar, maskinöversättning). Den här typen av tillsyn är inte realistisk när det gäller hur människor lär sig, där språk både lärs av och används för kommunikation. I detta arbete studerar vi dialogbaserad språkinlärning, där handledning ges naturligt och implicit i svaret från dialogpartnern under samtalet. Vi studerar denna uppsättning på två områden: bAbI-datasetet [29] och storskaligt svar på frågor från [4]. Vi utvärderar en uppsättning grundläggande inlärningsstrategier för dessa uppgifter, och visar att en ny modell med prediktiv lookahead är en lovande metod för att lära sig av en lärares svar. I synnerhet ett överraskande resultat är att den kan lära sig att svara korrekt på frågor utan någon belöningsbaserad tillsyn alls.
Vårt arbete är nära relaterat till det senaste arbetet av REF, som utforskar problemet med lärande genom att föra samtal, där handledning ges naturligt i svaret under samtalet.
2,017,135
Dialog-based Language Learning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,585
Abstract-This paper föreslår en gemensam metod för beräknings- och kommunikationssamarbete i mobila datorsystem (MEC) för att förbättra energieffektiviteten i mobila datorer. I synnerhet anser vi att ett grundläggande trenode MEC-system består av en användarnod, en hjälpnod och en åtkomstpunkt (AP) nod kopplad till en MEC-server. Vi fokuserar på användarens latency-konstruerade beräkning över ett ändligt block och utvecklar ett fyrdelat protokoll för genomförande av det gemensamma beräknings- och kommunikationssamarbetet. Under denna inställning optimerar vi gemensamt aktiviteten partition och tid allokering, och sändningseffekten för avlastning och central processenhet (CPU) frekvenser för lokal databehandling hos användaren och hjälparen, för att minimera deras totala energiförbrukning som omfattas av användarens beräkning latency restriktion. Detta problem löses optimalt med hjälp av konvex optimeringsteknik. Numeriska resultat visar att den föreslagna metoden avsevärt förbättrar beräkningskapaciteten och energieffektiviteten för användaren, jämfört med andra referenssystem utan en sådan gemensam utformning.
I REF föreslår författarna en effektiv beräkningsmodell för MEC-systemet, som kopplar samman beräknings- och kommunikationssamarbetet för att förbättra systemets prestanda.
10,045,985
Joint computation and communication cooperation for mobile edge computing
{'venue': '2018 16th International Symposium on Modeling and Optimization in Mobile, Ad Hoc, and Wireless Networks (WiOpt)', 'journal': '2018 16th International Symposium on Modeling and Optimization in Mobile, Ad Hoc, and Wireless Networks (WiOpt)', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,586
Cloud computing leverantörer har inrättat flera datacenter på olika geografiska platser över Internet för att optimalt tillgodose behoven hos sina kunder runt om i världen. Befintliga system stöder dock inte mekanismer och policyer för dynamisk samordning av lastfördelning mellan olika molnbaserade datacenter för att fastställa optimal plats för hosting av applikationstjänster för att uppnå rimliga QoS-nivåer. Dessutom kan leverantörerna av molntjänster inte förutsäga geografisk distribution av användare som konsumerar sina tjänster, och därför måste belastningssamordningen ske automatiskt, och distributionen av tjänster måste förändras som svar på förändringar i belastningen. För att motverka detta problem förespråkar vi skapandet av federerad molndatamiljö (InterCloud) som underlättar just-in-time, opportunistisk och skalbar tillhandahållande av applikationstjänster, konsekvent uppnå QoS-mål under varierande arbetsbelastning, resurs- och nätverksförhållanden. Det övergripande målet är att skapa en datormiljö som stöder dynamisk expansion eller krympning av kapacitet (VM, tjänster, lagring och databas) för att hantera plötsliga variationer i servicekrav. I detta dokument presenteras visioner, utmaningar och arkitektoniska delar av InterCloud för verktygsorienterad federation av Cloud computing-miljöer. Den föreslagna InterCloud-miljön stöder skalning av applikationer över flera leverantörsmoln. Vi har validerat vår strategi genom att genomföra en rigorös utvärderingsstudie med hjälp av verktygslådan CloudSim. Resultaten visar att den federerade molndatamodellen har en enorm potential eftersom den erbjuder betydande resultatvinster när det gäller svarstid och kostnadsbesparingar under dynamiska arbetsbelastningsscenarier.
REF föreslår en arkitektur för bruksorienterad federation av molndatamiljöer.
14,755,515
InterCloud: Utility-Oriented Federation of Cloud Computing Environments for Scaling of Application Services
{'venue': 'Proceedings of the 10th International Conference on Algorithms and Architectures for Parallel Processing (ICA3PP 2010, Busan, South Korea, May 21-23, 2010), LNCS, Springer, Germany, 2010.', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,587
För en planar punkt som vi anser grafen av korsande fria raka linjen spänner träd där två spännande träd är intilliggande i grafen om deras förening är korsande-fri. En övre gräns på diametern av denna graf innebär en övre gräns på diametern av flip grafen av pseudo-trianguleringar av den underliggande punkten uppsättningen. Vi bevisar en lägre gräns av log(n)/ log (log(n)) för diametern på grafen av spännande träd på en planar uppsättning av n punkter. Detta motsvarar nästan den kända övre gränsen för O(log(n)). Om vi mäter diametern i förhållande till antalet konvexa lager k i punktuppsättningen, är vår nedre bundna konstruktion stram, d.v.s. diametern är i ska (log(k)) som matchar den kända övre gränsen av O(log(k)). Hittills var bara konstanta lägre gränser kända.
Nyligen Buchin et al. REF visade en lägre gräns för denna fråga (log n/ log log n).
14,037,980
Transforming spanning trees: A lower bound
{'venue': 'Graz University of Technology', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,588
Målet med nederbörd nucasting är att förutsäga den framtida nederbördsintensiteten i en lokal region under en relativt kort tidsperiod. Mycket få tidigare studier har undersökt detta avgörande och utmanande väderprognos problem ur maskininlärning perspektiv. I detta papper formulerar vi nederbörd som nu sänder som en spatiotemporal sekvens prognostisering problem där både input och förutsägelse målet är spatiotemporala sekvenser. Genom att utöka den fullt anslutna LSTM (FC-LSTM) till att ha konvolutionella strukturer i både input-to-state och stat-to-state övergångar, föreslår vi convolutional LSTM (ConvLSTM) och använda den för att bygga en end-to-end training modell för nederbörd nucasting problem. Experiment visar att vårt ConvLSTM-nätverk fångar spatiotemporala korrelationer bättre och konsekvent överträffar FC-LSTM och den toppmoderna operativa ROVER-algoritmen för nusändning av nederbörd.
Till exempel föreslogs ConvLSTM att bygga en end-to-end trainingable modell för regn eller nederbörd när man fångar spatiotemporala korrelationer REF.
6,352,419
Convolutional LSTM Network: A Machine Learning Approach for Precipitation Nowcasting
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,589
Abstract-Utbildning en djup konvolutional neurala nätverk (CNN) från grunden är svårt eftersom det kräver en stor mängd märkta träningsdata och en hel del expertis för att säkerställa korrekt konvergens. Ett lovande alternativ är att finjustera ett CNN som har förtränats med till exempel en stor uppsättning märkta naturliga bilder. De stora skillnaderna mellan naturliga och medicinska bilder kan dock avråda från sådan kunskapsöverföring. I detta dokument försöker vi besvara följande centrala fråga i samband med medicinsk bildanalys: Kan användningen av förträngda djupa CNN med tillräcklig finjustering eliminera behovet av att utbilda ett djupt CNN från grunden? För att ta itu med denna fråga övervägde vi 4 olika medicinska avbildningstillämpningar i 3 specialiteter (radiologi, kardiologi och gastroenterologi) som innefattar klassificering, detektion och segmentering från 3 olika avbildningsmetoder, och undersökte hur prestandan hos djupa CNNs tränade från grunden jämfört med de förtränade CNNs finjusterade på ett skiktmässigt sätt. Våra experiment har genomgående visat att (1) användningen av ett förtränat CNN med lämplig finjusteringsutformning eller, i värsta fall, utfört såväl som ett CNN utbildat från grunden; (2) finjusterade CNN:er var mer robusta än CNN:er utbildade från grunden; (3) varken ytlig inställning eller djup inställning var det optimala valet för en viss applikation; och (4) vårt lagermässigt finjusterande system kunde erbjuda ett praktiskt sätt att uppnå bästa möjliga prestanda för den applikation som finns tillgänglig baserat på mängden tillgängliga data.
Finjustera en förtränad modell från naturliga bilder visas vara användbart för medicinsk bildanalys, även om källan och måldomäner är mycket olika REF.
32,710
Convolutional Neural Networks for Medical Image Analysis: Full Training or Fine Tuning?
{'venue': 'IEEE Transactions on Medical Imaging. 35(5):1299-1312 (2016)', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Medicine', 'Mathematics']}
82,590
Frågesvar portaler som Naver och Yahoo! Svaren blir snabbt rika källor till kunskap om många ämnen som inte är väl betjänade av allmänna sökmotorer på webben. Tyvärr är kvaliteten på de inlämnade svaren ojämn, allt från utmärkta detaljerade svar till snappy och förolämpande kommentarer eller till och med annonser för kommersiellt innehåll. Dessutom är användarens feedback för många ämnen sparsam, och kan vara otillräcklig för att på ett tillförlitligt sätt identifiera bra svar från de dåliga. Att uppskatta behörigheten för användare är därför en viktig uppgift för denna framväxande domän, med potentiella applikationer för att svara på rankning, skräppost upptäckt och incitament mekanism design. Vi presenterar en analys av länkstrukturen i en allmän fråga svarande gemenskap för att upptäcka auktoritativa användare, och lovande experimentella resultat över en datauppsättning på mer än 3 miljoner svar från en populär community QA webbplats. Vi beskriver också strukturella skillnader mellan frågeämnen som korrelerar med framgången med länkanalys för myndighetsupptäckt.
Jurczyk och Agichtein REF [16] presenterar en länkanalys av länkstrukturen i CQA-gemenskapen för att upptäcka ämnesfria myndighetsanvändare.
16,193,116
Discovering authorities in question answer communities by using link analysis
{'venue': "CIKM '07", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,591
Trådlösa nätverk med energiskördande batteriutrustade noder växer snabbt fram som ett användbart alternativ för framtida trådlösa nätverk med längre livslängd. Lika viktiga för deras motsvarighet i utformningen av energiskördande radioapparater är de designprinciper som detta nya nätverksparadigm kräver. Till skillnad från de trådlösa nät som hittills övervägts måste särskilt energipåfyllningsprocessen och lagringsbegränsningarna för de uppladdningsbara batterierna beaktas vid utformningen av effektiva överföringsstrategier. I detta arbete beaktas sådana överföringspolicyer för uppladdningsbara noder, och optimala lösningar för två relaterade problem identifieras. Specifikt, den överföringspolicy som maximerar den kortsiktiga genomströmningen, dvs. mängden data som överförs i en ändlig tidshorisont hittas. Dessutom demonstreras förhållandet mellan detta optimeringsproblem och ett annat, nämligen minimeringen av sändningstiden för en given mängd data, vilket leder till lösningen av det senare också. Den optimala transmissionspolitiken identifieras under begränsningarna för energi orsakssambandet, dvs. energipåfyllningsprocessen, samt energilagringen, dvs. batterikapaciteten. Vid påfyllning av batteri beaktas en modell med diskreta paket av energi som anländer. De nödvändiga villkor som den genomströmningsoptimala tilldelningen uppfyller härleds, och sedan den algoritm som finner den optimala överföringspolicyn med avseende på den kortsiktiga genomströmningen och den minsta sändningstiden anges. Numeriska resultat presenteras för att bekräfta analysresultaten. Index Terms-Energi skörd, optimal schemaläggning, trådlösa nätverk, batteri begränsade noder.
I REF beaktas en ändlig horisontinställning med målet att maximera mängden överförda data.
2,425,972
Optimum Transmission Policies for Battery Limited Energy Harvesting Nodes
{'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,592
Abstract-Data aggregering är en nyckelfunktion i trådlösa sensornätverk (WSN). Detta dokument fokuserar på data aggregering schemaläggning problem för att minimera fördröjningen (eller latency). Vi föreslår en effektiv distribuerad algoritm som producerar ett kollisionsfritt schema för dataaggregation i WSN. Teoretiskt visar vi att fördröjningen av det aggregeringsschema som genereras av vår algoritm är som mest 16R på Á À 14 tider. Här är R nätverksradien och Á är den maximala nodgraden i det ursprungliga nätverkets kommunikationskurva. Vår algoritm förbättrar avsevärt den tidigare kända bästa dataaggregeringsalgoritmen med en övre fördröjning på 24D 6Á 16 tidsfack, där D är nätverksdiametern (observera att D kan vara så stor som 2R). Vi genomför omfattande simuleringar för att studera de praktiska resultaten av vår föreslagna dataaggregationsalgoritm. Våra simuleringsresultat bekräftar våra teoretiska resultat och visar att våra algoritmer presterar bättre i praktiken. Vi bevisar att den totala lägre fördröjningsgränsen för dataaggregation under någon interferensmodell är maxflog n; Rg, där n är nätverksstorleken. Vi ger ett exempel för att visa att den nedre gränsen är (ungefär) snäv under protokollets interferensmodell när r I 1⁄4 r, där r I är interferensområdet och r är överföringsområdet. Vi härleder också den nedre gränsen av fördröjning under protokollets interferens modell när r < r I < 3r och r I! 3 r. 3 r. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st.
I REF, Xu et al. Utforma centraliserade och distribuerade algoritmer för förbättrad aggregeringsschemaläggning (IAS) med hjälp av protokollinterferensmodellen med en övre gräns vid fördröjning av 16R + − 14.
13,519,867
A Delay-Efficient Algorithm for Data Aggregation in Multihop Wireless Sensor Networks
{'venue': 'IEEE Transactions on Parallel and Distributed Systems', 'journal': 'IEEE Transactions on Parallel and Distributed Systems', 'mag_field_of_study': ['Computer Science']}
82,593
Abstract-I detta brev, prestanda icke-ortogonal multipel åtkomst (NOMA) undersöks i en cellulär nedlänk scenario med slumpmässigt utplacerade användare. De utvecklade analysresultaten visar att NOMA kan uppnå en överlägsen prestanda när det gäller ergoda summor, men NOMA:s avbrottsprestanda beror kritiskt på valet av användarnas riktade datahastigheter och tilldelade effekt. I synnerhet kan ett felaktigt val av måldatahastighet och tilldelad effekt leda till en situation där användarens sannolikhet för avbrott alltid är en, dvs. användarens riktade servicekvalitet aldrig kommer att uppnås.
När det gäller DL, NOMA visades att uppnå överlägsen prestanda i termer av ergodisk summa av ett cellulärt nätverk med slumpmässigt utplacerade användare i REF.
4,764,988
On the Performance of Non-Orthogonal Multiple Access in 5G Systems with Randomly Deployed Users
{'venue': 'IEEE Signal Processing Letters', 'journal': 'IEEE Signal Processing Letters', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,594
Skadlig kod är ett allt viktigare problem som hotar datasystemens säkerhet. Den traditionella raden av försvar mot skadlig kod består av malware detektorer såsom virus och spionprogram scanners. Tyvärr har både forskare och malware författare visat att dessa scanners, som använder mönster matchning för att identifiera skadlig kod, lätt kan kringgås av enkla kod transformationer. För att ta itu med denna brist, mer kraftfulla malware detektorer har föreslagits. Dessa verktyg förlitar sig på semantiska signaturer och använder statiska analystekniker såsom modellkontroll och teorem som visar sig utföra detektion. Även om det har visat sig att dessa system är mycket effektiva för att identifiera nuvarande malware, är det mindre tydligt hur framgångsrika de skulle vara mot motståndare som tar hänsyn till de nya detektionsmekanismer. Målet med detta dokument är att utforska gränserna för statisk analys för upptäckt av skadlig kod. I detta syfte presenterar vi ett binärt obfuscation system som bygger på idén om ogenomskinliga konstanter, som är primitiva som tillåter oss att ladda en konstant i ett register så att ett analysverktyg inte kan bestämma dess värde. Baserat på ogenomskinliga konstanter bygger vi obfuscation transformationer som obskyr programkontrollflöde, dölja tillgång till lokala och globala variabler, och avbryta spårning av värden som hålls i processorregister. Med hjälp av vår föreslagna obfuscation metod, kunde vi visa att avancerade semantik-baserade malware detektorer kan undvikas. Dessutom kan vår ogenomskinliga konstanta primitiva tillämpas på ett sätt som är bevisligen svårt att analysera för någon statisk kodanalysator. Detta visar att statisk analys tekniker ensam kanske inte längre räcker för att identifiera skadlig kod.
Dessa tekniker kan lätt undvikas av skadlig kod i polymorf form REF.
7,130,808
Limits of Static Analysis for Malware Detection
{'venue': 'Twenty-Third Annual Computer Security Applications Conference (ACSAC 2007)', 'journal': 'Twenty-Third Annual Computer Security Applications Conference (ACSAC 2007)', 'mag_field_of_study': ['Computer Science']}
82,595
Hattal i form av rasistiska och sexistiska kommentarer är en vanlig företeelse i sociala medier. Av den anledningen tar många sociala medier upp problemet med att identifiera hatpropaganda, men definitionen av hatpropaganda varierar markant och är till stor del en manuell ansträngning (BBC, 2015; Lomas, 2015). Vi tillhandahåller en lista över kriterier som bygger på kritisk rasteori, och använder dem för att kommentera en offentligt tillgänglig corpus på mer än 16k tweets. Vi analyserar effekten av olika extralingvistiska funktioner i samband med karaktär n-gram för att upptäcka hatspeech. Vi presenterar också ett lexikon baserat på de mest vägledande orden i våra data.
REF lade fram en förteckning över kriterier baserade i kritisk rasteori för att identifiera rasistiska och sexistiska slurs.
1,721,388
Hateful Symbols or Hateful People? Predictive Features for Hate Speech Detection on Twitter
{'venue': 'SRW@HLT-NAACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,596
Abstrakt. Det finns ökande bevis för att neokortexen i däggdjurshjärnan inte består av en samling specialiserade och hängivna kortikala arkitekturer, utan i stället har en ganska enhetlig, hierarkiskt organiserad struktur. Som Mountcastle har observerat [1] innebär denna enhetlighet att samma allmänna beräkningsprocesser utförs över hela neokortex, även om olika regioner är kända för att spela olika funktionella roller. Baserat på detta bevis, Hawkins har föreslagit en top-down modell av neokortisk operation [2], tar det att vara en typ av mönsterigenkänning maskin, lagra invarianta representationer av neurala ingångssekvenser i hierarkiska minnesstrukturer som både förutsäga sensorisk ingång och kontroll beteende. Det första partiella beviset på begreppet Hawkins modell utvecklades nyligen med hjälp av ett hierarkiskt organiserat Bayesianskt nätverk som testades på ett enkelt mönsterigenkänningsproblem [3]. I den aktuella studien utökar vi Hawkins arbete genom att jämföra prestandan hos ett neuralt nätverk för backpropagation med vår egen implementering av ett hierarkiskt Bayesiskt nätverk inom det välstuderade området för karaktärsigenkänning. Resultaten visar att även en förenklad implementering av Hawkins modell kan producera igenkänningsfrekvenser som överstiger en standard neural nätverksstrategi. Sådana resultat skapar starka argument för vidare utredning och utveckling av Hawkins neokortiskt inspirerade tillvägagångssätt för att bygga intelligenta system. Nyckelord: Bayesian nätverk, cerebral cortex, teckenigenkänning 1 Hierarchical Bayesian Network Figur 1 presenterar ett förenklat exempel på det hierarkiska Bayesian nätverk som används i den aktuella studien. Detta nätverk bygger på Georges och Hawkins ursprungliga genomförande [3] och följer följaktligen inte vanliga Bayesianska uppdateringsförfaranden, vilket förklaras i dokumentet. Nätverksinmatningen består av en vektor med 100 verkligt värderade element, med ett värde från 0 till 1. Den särskilda formen för inmatningen fastställdes med hjälp av den funktionsextraktionsmetod som användes vid genomförandet av neurala nätverk (beskrivs i avsnitt 2). Vi behöll denna funktion vektor för Bayesian nätverket för att se till att våra resultat återspeglar skillnader mellan de två beräkningsarkitekturer och inte förbryllas av effekter från olika representationer av problemdomänen.
En oberoende implementering av Georges och Hawkins hierarkiska Bayesian nätverk skapades i REF, där dess prestanda jämfördes med en backpropagation neurala nätverk tillämpas på ett teckenigenkänningsproblem.
5,056,937
Robust Character Recognition using a Hierarchical Bayesian Network
{'venue': 'ICANN', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,597
Abstrakt. Motiverade av den senaste tidens framväxt av de så kallade opportunistiska kommunikationsnätverken, överväger vi frågan om anpassningsförmåga i den mest grundläggande kontinuerliga tiden (asynkrona) ryktesspridningsprocessen. I vår miljö måste ett rykte spridas till en befolkning; tjänsteleverantören kan driva det när som helst till någon nod i nätverket och har enhetskostnad för att göra detta. Å andra sidan, som vanligt i ryktet sprider sig, noder dela ryktet vid mötet och detta medför ingen kostnad för tjänsteleverantören. I stället för att fastställa en budget på antalet pushes, anser vi kostnadsversionen av problemet med en fast deadline och ber om en minimikostnadsstrategi som sprider ryktet till varje nod. En icke-adaptiv strategi kan endast ingripa i början och i slutet, medan en adaptiv strategi har full kunskap och förmåga att ingripa. Vårt huvudsakliga resultat är att i det homogena fallet (där varje par av noder slumpmässigt möts i samma takt) är fördelen med anpassningsförmåga begränsad av en konstant. Detta kräver en subtil analys av den underliggande slumpmässiga processen som är av intresse i sin egen rätt.
Correa m.fl. REF visar att om varje par av noder slumpmässigt träffas i samma takt, är anpassningsvinsten begränsad.
32,592,574
Adaptive Rumor Spreading
{'venue': 'WINE', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,598
Att lära sig användbara representationer utan handledning är fortfarande en viktig utmaning när det gäller maskininlärning. I detta dokument föreslår vi en enkel men kraftfull generativ modell som lär sig sådana diskreta representationer. Vår modell, Vector Quantized-Variational AutoEncoder (VQ-VAE), skiljer sig från VEAS på två viktiga sätt: encoder-nätverksutgångar diskreta, snarare än kontinuerliga, koder; och föregående lärs snarare än statiska. För att lära oss en diskret latent representation införlivar vi idéer från vektorquantisation (VQ). Med hjälp av VQ-metoden kan modellen kringgå problem med "baksida kollaps" -- där latentas ignoreras när de paras ihop med en kraftfull autoregressiv dekoder --typiskt observeras i VAE-ramverket. Genom att koppla ihop dessa representationer med en autoregressiv tidigare, kan modellen generera högkvalitativa bilder, videor och tal samt göra högkvalitativ högtalarkonvertering och oövervakad inlärning av phonemes, vilket ger ytterligare bevis på nyttan av de inlärda representationerna.
En annan förbättring av VAE är VQ-VAE-modellen REF, som kräver kodaren för att producera diskreta latenta koder genom vektorkvantisering, då den bakre kollapsen av VAEs kan övervinnas.
20,282,961
Neural Discrete Representation Learning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,599
Vi studerar problemet med att bygga generativa modeller av naturlig källkod (NSC), det vill säga källkod skriven och förstådd av människor. Vårt primära bidrag är att beskriva en familj av generativa modeller för NSC som har tre nyckelegenskaper: För det första innehåller de både sekventiell och hierarkisk struktur. För det andra lär vi oss en distribuerad representation av källkodselement. Slutligen integreras de nära med en kompilator, vilket gör det möjligt att utnyttja kompilatorns logik och abstraktioner när man bygger in strukturen i modellen. Vi utvecklar också en förlängning som inkluderar mer komplex struktur, förfina hur modellen genererar identifierare polletter baserat på vilka variabler som för närvarande är i omfattning. Våra modeller kan läras effektivt, och vi visar empiriskt att inklusive lämplig struktur avsevärt förbättrar modellerna, mätt med sannolikheten för att generera testprogram.
Maddison och Tarlow REF presenterar en generativ modell för källkod, som bygger på syntaktiska strukturer.
5,737,841
Structured Generative Models of Natural Source Code
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,600
Avlastning av mobilräkning (MECO) avlastar intensiv mobil beräkning till moln belägna vid kanterna på cellulära nätverk. MECO är därmed tänkt som en lovande teknik för att förlänga batteriets livslängd och förbättra mobilernas beräkningskapacitet. I detta dokument studerar vi resursallokering för ett fleranvändar-MECO-system baserat på tidsdelningsmultipel access (TDMA) och ortogonal frekvensdivision multiple access (OFDMA). För det första, för TDMA MECO-systemet med oändlig eller ändlig molnberäkningskapacitet, är den optimala resurstilldelningen formulerad som ett konvext optimeringsproblem för att minimera den viktade summan mobil energiförbrukning under begränsningen på beräkning latency. Den optimala politiken har visat sig ha en tröskelbaserad struktur med avseende på en härledd avlastningsprioriterad funktion, som ger användarna prioritet beroende på deras kanalvinster och lokala energiförbrukning. Till följd av detta utför användare med prioriteringar över och under ett visst tröskelvärde fullständig respektive minimal avlastning. För molnet med ändlig kapacitet föreslås dessutom en suboptimal resursallokeringsalgoritm för att minska beräknings komplexiteten för beräkning av tröskelvärdet. Därefter anser vi att ODDMA MECO-systemet, för vilket den optimala resurstilldelningen formuleras som ett blandat integer-problem. För att lösa detta utmanande problem och karakterisera dess policystruktur föreslås en suboptimal algoritm med låg komplexitet genom att ODDMA-problemet omvandlas till dess TDMA-motsvarighet. Motsvarande resursfördelning erhålls genom att definiera en genomsnittlig avlastningsprioriterad funktion och visas ha nära optimal prestanda vid simulering.
Du och Al. REF utvidgade energiminimeringsproblemet till fleranvändar-MEC-system med tidsdelningsmultipelåtkomst (TDMA) respektive ortogonal frekvensdelningsmultipelåtkomst (OFDMA).
14,764,353
Energy-Efficient Resource Allocation for Mobile-Edge Computation Offloading
{'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,601
Abstract-Social media utgör en central domän för produktion och spridning av realtidsinformation. Även om sådana informationsflöden traditionellt sett har betraktats som spridningsprocesser över sociala nätverk, är de underliggande fenomenen resultatet av ett komplext nät av interaktioner mellan många deltagare. Här utvecklar vi en Linear Influence Model där vi istället för att kräva kunskap om det sociala nätverket och sedan modellera diffusionen genom att förutsäga vilken nod som kommer att påverka vilka andra noder i nätverket, fokuserar på att modellera den globala påverkan av en nod på spridningshastigheten genom (implicit) nätverket. Vi modellerar antalet nyinfekterade noder som en funktion av vilka andra noder blev infekterade i det förflutna. För varje nod uppskattar vi en påverkansfunktion som kvantifierar hur många efterföljande infektioner som kan tillskrivas påverkan av den noden över tid. En icke-parametrisk formulering av modellen leder till en enkel minsta kvadrat problem som kan lösas på stora datauppsättningar. Vi validerar vår modell på en uppsättning av 500 miljoner tweets och en uppsättning av 170 miljoner nyheter och blogginlägg. Vi visar att Linear Influence Model exakt modellerar influenser av noder och på ett tillförlitligt sätt förutspår tidsdynamiken av informationsspridning. Vi finner att de enskilda deltagarnas påverkansmönster skiljer sig avsevärt åt beroende på typen av nod och ämnet för informationen.
Det är en traditionell uppfattning att socialt inflytande står för informationsspridningen i typiska sociala nätverk [11, REF.
14,557,557
Modeling Information Diffusion in Implicit Networks
{'venue': '2010 IEEE International Conference on Data Mining', 'journal': '2010 IEEE International Conference on Data Mining', 'mag_field_of_study': ['Computer Science']}
82,602
I detta arbete presenterar vi en end-to-end system för text spotting-lokalisera och känna igen text i naturliga scenbilder-och textbaserad bildsökning. Detta system bygger på en regional förslagsmekanism för detektion och djupa konvolutionella neurala nätverk för erkännande. Vår pipeline använder en ny kombination av kompletterande förslagsgenereringstekniker för att säkerställa hög återkallning och ett snabbt efterföljande filtreringssteg för att förbättra precisionen. För erkännande och rangordning av förslag utbildar vi mycket stora konvolutionella neurala nätverk för att utföra ordigenkänning på hela förslagsregionen samtidigt, som avviker från de karaktärsklassificeringsbaserade systemen i det förflutna. Dessa nätverk utbildas enbart på data som produceras av en syntetisk textgenereringsmotor, som inte kräver några humanmärkta data. Genom att analysera stegen i vår pipeline visar vi toppmoderna resultat hela tiden. Vi utför rigorösa experiment över ett antal standard-end-to-end text spotting riktmärken och text-baserade bildsökning dataset, visar en stor förbättring jämfört med alla tidigare metoder. Slutligen visar vi en verklig tillämpning av vårt textspaningssystem så att tusentals timmar av nyhetsfilmer omedelbart kan sökas via en textsökning.
Jaderberg m.fl. REF använde en kombination av kompletterande teknik för förslagsgenerering för förslag till ordområde och en slumpmässig klassificering av skog för klassificering av ord/nej-ord.
207,252,329
Reading Text in the Wild with Convolutional Neural Networks
{'venue': 'International Journal of Computer Vision', 'journal': 'International Journal of Computer Vision', 'mag_field_of_study': ['Computer Science']}
82,603
Visuell fråga svar är i grunden komposition i naturen-en fråga som var är hunden? delar understruktur med frågor som vilken färg är hunden? Och var är katten? Syftet med detta dokument är att samtidigt utnyttja de djupa nätverkens representationskapacitet och frågornas språkliga struktur. Vi beskriver ett förfarande för att bygga och lära neurala modulnätverk, som utgör samlingar av gemensamt utbildade neurala "moduler" i djupa nätverk för frågesvar. Vårt tillvägagångssätt bryter ner frågor i deras språkliga understrukturer, och använder dessa strukturer för att dynamiskt ögonblickliga modulära nätverk (med återanvändbara komponenter för att känna igen hundar, klassificera färger, etc.). De sammanslagna nätverken utbildas gemensamt. Vi utvärderar vårt förhållningssätt till två utmanande dataset för visuellt svar på frågor och uppnår toppmoderna resultat på både VQA:s naturliga bilddataset och en ny dataset med komplexa frågor om abstrakta former.
Tidigare introducerade REF neurala modulnätverk (NMNs) för visuellt svar på frågor, med moduler som motsvarar språkliga understrukturer i inmatningsfrågan.
1,683,726
Deep Compositional Question Answering with Neural Module Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,604
Med tanke på en databasinstans och en motsvarande vyinstans, tar vi upp problemet med vydefinitioner (VDP): Hitta den mest kortfattade och korrekta vydefinitionen, när vyförfrågan är begränsad till en specifik familj av frågor. Vi studerar kompromisserna mellan framgång, nivå av approximation, och familjen av frågor genom algoritmer och komplexa resultat. För varje familj av frågor, vi behandlar tre varianter av VDP: (1) Finns det en exakt vy definition, och i så fall hitta den. (2) Hitta den bästa visningsdefinitionen, dvs. en så nära inmatningsvyn som möjligt, och så kortfattad som möjligt. (3) Hitta en ungefärlig bilddefinition som uppfyller ett tröskelvärde för input approximation och är så koncist som möjligt.
Das Ref har studerat vydefinitionsproblemet, det vill säga med tanke på en databasinstans och en motsvarande vyinstans, hitta den mest kortfattade och korrekta vydefinitionen.
1,171,937
Synthesizing view definitions from data
{'venue': "ICDT '10", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,605
En grundläggande fråga i sensornätverk är täckningsproblemen, som speglar hur väl ett sensornätverk övervakas eller spåras av sensorer. I detta dokument formulerar vi detta problem som ett beslutsproblem, vars mål är att avgöra om varje punkt i sensornätverkets serviceområde täcks av minst k-sensorer, där k är ett fördefinierat värde. Sensorernas avkänningsområden kan vara enhetsdiskar eller icke-enhetsdiskar. Vi presenterar polynom-tid algoritmer, i termer av antalet sensorer, som lätt kan översättas till distribuerade protokoll. Resultatet är en generalisering av några tidigare resultat där endast k = 1 antas. Tillämpningar av resultatet omfattar i) positioneringstillämpningar, ii) situationer som kräver en starkare miljöövervakningsförmåga och iii) scenarier som medför en strängare feltolerant förmåga.
För det allmänna täckningsproblemet, Huang et al. REF undersökte problemet med att avgöra om området är tillräckligt täckt, dvs. varje punkt i målområdet täcks av minst k-sensorer.
8,499,871
The coverage problem in a wireless sensor network
{'venue': "WSNA '03", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,606
Abstract-This paper presenterar en ny ram för visuell objektigenkänning med hjälp av oändliga-dimensionella covariance operatörer av indatafunktioner i paradigm av kärnmetoder på oändliga-dimensionella Riemannska grenrör. Vår formulering ger i synnerhet en rik representation av bildegenskaper genom att utnyttja deras icke-linjära korrelationer. Teoretiskt sett ger vi en finit-dimensionell approximation av Log-Hilbert-Schmidt-avståndet (Log-HS) mellan kovariansoperatörer som är skalbara till stora datauppsättningar, samtidigt som vi upprätthåller en effektiv diskrimineringsförmåga. Detta gör att vi effektivt kan approxima alla kontinuerliga skift-invarianta kärnan definieras med hjälp av Log-HS avstånd. Samtidigt bevisar vi att den inre produkten Log-HS mellan covariance-operatörer endast kan tillnärmas av sin finita-dimensionella motsvarighet i ett mycket begränsat scenario. Följaktligen är kärnor som definieras med hjälp av den inre produkten Log-HS, såsom polynomkärnor, inte skalbara på samma sätt som skiftinvarianta kärnor. Beräkningsmässigt tillämpar vi den ungefärliga log-HS-avståndsformuleringen på kovariansoperatörer av både handgjorda och konvolutionella egenskaper, och utnyttjar både expressiviteten av dessa egenskaper och kraften i kovariansrepresentationen. Empiriskt testade vi vårt ramverk för bildklassificering på tolv utmanande datauppsättningar. I nästan alla fall har de resultat som uppnåtts överträffat andra moderna metoder, vilket visar vår rams konkurrenskraft och potential.
Dessutom, Minh et al. REF ger en finit-dimensionell approximation av avståndet mellan Log-Hilbert-Schmidt (Log-HS), som är utvidgningen av Log-Euclidean, mellan covarianceoperatörer till det stora antalet bilder klassificering.
2,887,216
Kernel Methods on Approximate Infinite-Dimensional Covariance Operators for Image Classification
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,607
I de flesta fall när information ska extraheras från en bild, finns det tidigare tillgängliga på tillståndet i världen och därför på de detaljerade mätningar som kommer att erhållas. Medan sådana föregångare ofta kombineras med de faktiska mätningarna via Bayes' regel för att beräkna bakre sannolikhetsfördelningar på modellparametrar, har deras extra värde för att styra effektiv bildbehandling nästan alltid förbisetts. Talare talar om för oss var vi ska leta efter information i en bild, hur mycket beräkningsansträngning vi kan förvänta oss att spendera för att extrahera den, och om hur mycket nytta för uppgiften i handen det är sannolikt att vara. Sådana överväganden är av betydelse i alla praktiska realtidsseende system, där de bearbetningsresurser som finns tillgängliga vid varje ram i en sekvens är strikt begränsade - och det är exakt i hög bildhastighet system som spårare där starka tidigare är mest sannolikt att vara tillgängliga. I detta dokument använder vi Shannon informationsteori för att analysera det grundläggande värdet av mätningar med hjälp av ömsesidiga informationsresultat i absoluta enheter av bitar, särskilt tittar på det överväldigande fallet där osäkerhet kan karakteriseras av Gaussiska sannolikhetsfördelningar. Vi jämför sedan dessa mätvärden med beräkningskostnaden för den bildbehandling som krävs för att erhålla dem. Denna teori lägger en fast grund för första gången principer för "aktiv sökning" för effektiv guidad bildbehandling, där kandidatfunktioner av möjligen olika typer kan jämföras och väljas automatiskt för mätning.
I motsats till detta, Davison REF analyserar ömsesidig information, särskilt när det gäller Gaussiska sannolikhetsfördelningar, för att styra bildbehandling.
12,861,583
Active search for real-time vision
{'venue': "Tenth IEEE International Conference on Computer Vision (ICCV'05) Volume 1", 'journal': "Tenth IEEE International Conference on Computer Vision (ICCV'05) Volume 1", 'mag_field_of_study': ['Computer Science']}
82,608
Att skapa högupplösta, fotorealistiska bilder har varit ett långvarigt mål inom maskininlärning. Nyligen, Nguyen et al. [37] visade ett intressant sätt att syntetisera nya bilder genom att utföra lutningsstigning i det latenta utrymmet i ett generatornätverk för att maximera aktiveringen av en eller flera neuroner i ett separat klassificeringsnätverk. I detta dokument utökar vi denna metod genom att införa ytterligare en tidigare på latent kod, förbättra både provkvalitet och provmångfald, vilket leder till en toppmodern generativ modell som producerar högkvalitativa bilder vid högre upplösning (227 × 227) än tidigare generativa modeller, och gör det för alla 1000 ImageNet kategorier. Dessutom ger vi en enhetlig probabilistisk tolkning av relaterade aktiveringsmaximeringsmetoder och kallar den allmänna klassen av modeller "Plug and Play Generative Networks". PPGNs består av 1) ett generatornätverk G som kan rita ett brett utbud av bildtyper och 2) ett utbytbart "villkor" nätverk C som talar om för generatorn vad man ska rita. Vi demonstrerar generering av bilder betingade på en klass (när C är ett ImageNet eller MIT Places klassificering nätverk) och även betingad på en bildtext (när C är en bildtextning nätverk). Vår metod förbättrar också state of the art of Multifaceted Feature Visualisering [40], som genererar den uppsättning syntetiska ingångar som aktiverar en neuron för att bättre förstå hur djupa neurala nätverk fungerar. Slutligen visar vi att vår modell presterar någorlunda bra på uppgiften att måla bilden. Medan bildmodeller används i detta dokument, metoden är modalitet-agnostic och kan tillämpas på många typer av data. † Detta arbete utfördes mestadels på Geometric Intelligence, som Uber förvärvade för att skapa Uber AI Labs. Figur 1 : Bilder syntetiskt genererade av Plug och Play Generativa Nätverk vid hög upplösning (227x227) för fyra ImageNet klasser. Inte bara är många bilder nästan fotorealistiska, men prover inom en klass är olika.
Nguyen m.fl. REF använde en ungefärlig provtagningsmetod för Langevin för att generera bilder som var betingade av text.
2,023,211
Plug & Play Generative Networks: Conditional Iterative Generation of Images in Latent Space
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
82,609
Att bryta ner komplexa programvarusystem i konceptuellt oberoende delsystem är en viktig programvaruteknisk verksamhet som rönt stor forskning. Merparten av forskningen inom detta område tar hänsyn till källkodens kropp; försöker samla ihop filer som är begreppsmässigt relaterade. I detta dokument diskuteras tekniker för att extrahera begrepp (vi kallar dem "förkortningar") från en mer informell informationskälla: filnamn. Uppgiften är svår eftersom ingenting anger var filnamnen ska delas upp i delsträngar. I allmänhet, hitta förkortningar skulle Mycket av forskningen i filen kluster domän handlar om källkoden; försöker extrahera designkoncept från den. Men vi studerade ett äldre programvarusystem, och lade märke till att programvaruingenjörer organiserade filer enligt några filnamnskonventioner. I detta dokument föreslår vi att denna mer informella informationskälla används för att utvinna delsystem. Vårt övergripande projekt syftar till att bygga en konceptuell webbläsare för äldre mjukvarusystem. En viktig del av detta är en konstruktion återvinningsanläggning där filer är hopsamlade ac-. som anknyter till de begrepp som de hänvisar till. Dessa kluster eller begrepp kan kallas delsystem. kräva domänkunskap för att identifiera de begrepp som avses i ett namn och en intuition för att känna igen sådana begrepp i förkortade former. Vi visar genom experiment att de tekniker vi föreslår gör det möjligt att automatiskt hitta omkring 90 procent av förkortningarna. Merlo [8] har redan föreslagit att samla filer enligt de begrepp som anges i deras kommentarer och de funktionsnamn de innehåller. Ett experiment som vi genomförde [l] visar dock att filnamn i vårt fall är ett mycket bättre klusterkriterium än funktionsnamn eller
Anquetil och Lethbridge REF föreslog tekniker för att extrahera koncept från en mycket enkel informationskälla, dvs. filnamn.
10,633,783
Extracting concepts from file names; a new file clustering criterion
{'venue': 'Proceedings of the 20th International Conference on Software Engineering', 'journal': 'Proceedings of the 20th International Conference on Software Engineering', 'mag_field_of_study': ['Computer Science']}
82,610
För att integrera regler och ontologier i den semantiska webben föreslår vi en kombination av logikprogrammering under svarsuppsättningen semantik med beskrivningslogiken SHIF(D) och SHOIN (D), som ligger till grund för webb ontologispråken OWL Lite respektive OWL DL. Denna kombination gör det möjligt att bygga upp regler utöver ontologier men också, i begränsad utsträckning, bygga ontologier ovanpå regler. Vi introducerar beskrivning logik program (dl-program), som består av en beskrivning logik kunskapsbas L och en ändlig uppsättning beskrivning logik regler (dl-regler) P. Sådana regler liknar vanliga regler i logiska program med negation som misslyckande, men kan också innehålla frågor till L, eventuellt standard negated, i sina kroppar. Vi definierar Herbrand-modeller för dl-program och visar att tillfredsställande positiva dl-program har en unik minst Herbrand-modell. Mer allmänt kan konsekvent stratifierade dl-program förknippas med en unik minimal Herbrand-modell som kännetecknas av iterativ minst Herbrand-modeller. Vi generaliserar sedan (unik) minimala Herbrand-modellen semantik för positiva och stratifierade dl-program till ett starkt svar semantik för alla dl-program, som bygger på en reduktion till minsta modell semantik av positiva dl-program. Vi definierar också ett svagt svar semantik baserat på en minskning till svar uppsättningar av vanliga logiska program. Starka svar uppsättningar är svaga svar uppsättningar, och båda korrekt generalisera svar uppsättningar av vanliga normala logiska program. Vi ger sedan fixpoint karakteriseringar för (unik) minimal Herbrand modell semantik av positiva och stratifierade dl-program, och visa hur man beräknar dessa modeller genom finita fixpoint iterationer. Dessutom ger vi en exakt bild av komplexiteten i att besluta om starka och svaga svar sätter existensen för ett dl-program.
Som ett framträdande exempel Beskrivning Logikprogram (dl-program) kan tas, som introducerades av REF och kombinera DL och normala logiska program under stabil modell semantik.
9,123,271
Combining answer set programming with description logics for the Semantic Web
{'venue': 'Artif. Intell.', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,611
Gemenskapens upptäckt och analys är en viktig metod för att förstå organisationen av olika verkliga nätverk och har tillämpningar i problem som är så olika som samförståndsbildning i sociala samhällen eller identifiering av funktionella moduler i biokemiska nätverk. För närvarande används algoritmer som identifierar samhällsstrukturer i storskaliga verkliga nätverk kräver en priori information såsom antal och storlek på samhällen eller är beräkning dyrt. I det här dokumentet undersöker vi en enkel algoritm som använder nätverksstrukturen ensam som sin guide och som varken kräver optimering av en fördefinierad objektiv funktion eller förhandsinformation om samhällena. I vår algoritm initieras varje nod med en unik etikett och vid varje steg antar varje nod den etikett som de flesta av dess grannar för närvarande har. I denna iterativa process bildar tätt sammankopplade grupper av noder ett samförstånd om en unik märkning för att bilda samhällen. Vi validerar algoritmen genom att tillämpa den på nätverk vars samhällsstrukturer är kända. Vi visar också att algoritmen tar nästan linjär tid och därför är det beräkningsmässigt billigare än vad som hittills varit möjligt.
LPA REF använder enbart nätverksstrukturen för att styra processen och kräver varken några parametrar eller optimering av den objektiva funktionen.
18,741,059
Near linear time algorithm to detect community structures in large-scale networks
{'venue': 'Physical Review E 76, 036106 (2007)', 'journal': None, 'mag_field_of_study': ['Physics', 'Medicine']}
82,612
Sociala nätverk har framträtt som en avgörande faktor för informationsspridning, sökning, marknadsföring, expertis och inflytande på upptäckter, och potentiellt ett viktigt verktyg för att mobilisera människor. Sociala medier har gjort sociala nätverk allmänt förekommande, och även gett forskare tillgång till enorma mängder data för empirisk analys. Dessa datauppsättningar erbjuder en rik källa av bevis för att studera dynamiken av individ- och gruppbeteende, strukturen av nätverk och globala mönster av flödet av information om dem. I de flesta tidigare studier var strukturen hos de underliggande nätverken dock inte direkt synlig utan måste härledas från informationsflödet från en individ till en annan. Som ett resultat av detta förstår vi ännu inte dynamiken i informationsspridningen på nätverken eller hur nätverkets struktur påverkar det. Vi tar itu med denna lucka genom att analysera data från två populära sociala nyhetssajter. Specifikt extraherar vi sociala nätverk av aktiva användare på Digg och Twitter, och spårar hur intresset för nyheter sprider sig bland dem. Vi visar att sociala nätverk spelar en avgörande roll för informationsspridningen på dessa webbplatser, och att nätverksstruktur påverkar informationsflödets dynamik.
Lerman och Ghosh REF analyserade nätverksstrukturens påverkan i informationsöverföringen baserat på Digg- och Twitterdata.
2,603,383
Information Contagion: an Empirical Study of the Spread of News on Digg and Twitter Social Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Physics']}
82,613
Vi visar att det finns betydande redundans i parameteriseringen av flera djupt lärande modeller. Med bara ett fåtal viktvärden för varje funktion är det möjligt att exakt förutsäga de återstående värdena. Dessutom visar vi att parametervärdena inte bara kan förutsägas, utan många av dem behöver inte läras alls. Vi tränar flera olika arkitekturer genom att lära oss bara ett litet antal vikter och förutsäga resten. I bästa fall kan vi förutsäga mer än 95% av vikterna i ett nätverk utan någon nedgång i noggrannhet.
REF ] visar att det i allmänhet finns betydande redundans i modellerna för djupt lärande.
1,639,981
Predicting Parameters in Deep Learning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,614
Abstract-Automatiserad upptäckt av blodkärl strukturer håller på att bli av avgörande intresse för bättre hantering av kärlsjukdomar. I detta dokument föreslår vi en ny oändlig aktiv konturmodell som använder hybridinformation om regionen för att närma sig detta problem. Mer specifikt, en oändlig omkrets regularizer, som tillhandahålls genom att använda Lebesgue mått på - granne med gränser, gör det möjligt att bättre upptäcka små oscillator (grenning) strukturer än de traditionella modeller som bygger på längden på en funktions gränser (dvs. Hausdorff åtgärd). För att förbättra den allmänna segmenteringsprestandan drar den föreslagna modellen dessutom fördel av att använda olika typer av regional information, såsom kombinationen av intensitetsinformation och lokal fasbaserad förbättringskarta. Den lokala fasbaserade förbättringskartan används för sin överlägsenhet när det gäller att bevara kärlkanterna, medan den givna bildintensitetsinformationen garanterar en korrekt funktions segmentering. Vi utvärderar prestandan av den föreslagna modellen genom att tillämpa den på tre offentliga retinal bilddataset (två datauppsättningar av färg fundus fotografi och en fluorescein angiografi dataset). Den föreslagna modellen överträffar konkurrenterna jämfört med andra oövervakade och övervakade metoder som används i stor utsträckning. Den känslighet (0,742), specificitet (0,982) och noggrannhet (0,954) som uppnås på DRIVE-datauppsättningen ligger till exempel mycket nära den andra observatörens kommentarer.
Till exempel föreslog upphovsmännen i REF en aktiv konturmodell med hjälp av information från hybridregioner.
9,638,378
Automated Vessel Segmentation Using Infinite Perimeter Active Contour Model with Hybrid Region Information with Application to Retinal Images
{'venue': 'IEEE Transactions on Medical Imaging', 'journal': 'IEEE Transactions on Medical Imaging', 'mag_field_of_study': ['Computer Science', 'Medicine']}
82,615
Det är nödvändigt att hitta en ordentlig ordning av meningar för att generera en välorganiserad sammanfattning från flera dokument. I detta dokument beskriver vi en metod för sammanhållen straffordning för att sammanfatta tidningsartiklar. Eftersom det inte finns någon garanti för att kronologisk ordning av utdragna meningar, som i stor utsträckning används av konventionella summeringssystem, ordnar varje mening bakom förutsatt information om meningen, förbättrar vi kronologisk ordning genom att lösa tidigare meningar av arrangerade meningar. Genom att kombinera förfiningsalgoritmen med aktuell segmentering och kronologisk ordning tar vi itu med vårt experiment för att testa den föreslagna metodens effektivitet. Resultaten visar att den föreslagna metoden förbättrar kronologiska meningsföljder.
REF har föreslagit en algoritm för att förbättra kronologisk ordning genom att lösa presuppositionell information om utdragna meningar.
6,798,950
Improving Chronological Sentence Ordering By Precedence Relation
{'venue': 'International Conference On Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,616
Abstract-State-of-the-art objekt detekteringsnätverk är beroende av region förslag algoritmer för att hypothesize objekt platser. Framsteg som SPPnet [1] och Fast R-CNN [2] har minskat drifttiden för dessa detektionsnät, vilket exponerar beräkning av regionförslag som flaskhals. I detta arbete introducerar vi ett regionförslagsnätverk (RPN) som delar fullbildskonvolutionella funktioner med detektionsnätverket, vilket möjliggör nära nog kostnadsfria regionförslag. Ett RPN är ett helt konvolutionellt nätverk som samtidigt förutsäger objektgränser och objektitetspoäng vid varje position. RPN är utbildad end-to-end för att generera högkvalitativa regionförslag, som används av Fast R-CNN för detektion. Vi slår ytterligare samman RPN och Fast R-CNN till ett enda nätverk genom att dela deras konvolutionella funktioner-med hjälp av den nyligen populära terminologin för neurala nätverk med "attention" mekanismer, RPN komponenten talar om för det enhetliga nätverket var man ska leta. För den mycket djupa VGG-16-modellen [3] har vårt detektionssystem en bildhastighet på 5 fps (inklusive alla steg) på en GPU, samtidigt som vi uppnår toppmoderna objektdetektionsnoggrannhet på PASCAL VOC 2007, och MS COCO-datauppsättningar med endast 300 förslag per bild. I ILSVRC och COCO 2015 tävlingar, Snabbare R-CNN och RPN är grunden för den 1: a plats vinnande poster i flera spår. Koden har gjorts tillgänglig för allmänheten. Regionens förslagsmetoder är vanligtvis beroende av billiga funktioner och ekonomiska slutledningssystem. Selektiv sökning [4], en av de mest populära metoderna, sammansmälter girigt superpixel baserat på konstruerade låg nivå funktioner. Ändå jämfört med effektiva detektionsnätverk [2], Selektiv sökning är en storleksordning långsammare, på 2 sekunder per bild i en CPU-implementation. EdgeBoxar [6] ger för närvarande den bästa kompromissen mellan förslagskvalitet och hastighet, med 0,2 sekunder per bild. Trots detta konsumerar regionförslaget lika mycket drifttid som nätverket för upptäckt. Man kan notera att snabba regionbaserade CNN dra nytta av GPU, medan de regionala förslag metoder som används i forskning genomförs på CPU, vilket gör sådana runtime jämförelser ojämförliga. Ett självklart sätt att påskynda beräkningen av förslag är att återinföra det för GPU. Detta kan vara en effektiv teknisk lösning, men omgenomförandet bortser från down-stream detektion nätverk och därför missar viktiga möjligheter att dela beräkningar. I detta dokument visar vi att en algoritmisk förändringskomputerande förslag med en djup konvolutionell neural nätverk-leads till en elegant och effektiv lösning där förslagsberäkning är nästan gratis med tanke på detektionsnätverkets beräkning. I detta syfte introducerar vi nya regionala förslagsnätverk (RPN) som delar konvolutionella skikt med toppmoderna nätverk för objektdetektering [1], [2]. Genom att dela konvolutioner vid testtid är marginalkostnaden för datorförslag liten (t.ex. 10 ms per bild). Vår iakttagelse är att de konvolutionella funktionskartor som används av regionbaserade detektorer, som Fast R-CNN, också kan användas för att generera regionförslag. Ovanpå dessa konvolutionella funktioner konstruerar vi en RPN genom att lägga till några ytterligare konvolutionella lager som samtidigt regresserar regiongränser och objektitet poäng på varje plats på ett vanligt rutnät. RPN är således ett slags fullständigt konvolutionsnätverk [7] och kan utbildas från början till slut särskilt för uppgiften att ta fram förslag på detektering. RPN är utformade för att effektivt förutsäga regionala förslag med ett brett spektrum av skalor och proportioner. I motsats till vanliga metoder [1], [2], [8], [9] som använder pyramider av bilder (Fig. 1a) eller filterpyramider (Fig. 1b), Vi introducerar nya "anchor" rutor som fungerar som referenser på flera skalor och proportioner. Vårt schema kan ses som en pyramid av regressionsreferenser (Fig. 1c), som undviker att räkna upp bilder eller filter av flera skalor eller proportioner. Denna modell fungerar bra när den är tränad och testad med enskaliga bilder och därmed gynnar körhastigheten. För att förena RPNs med snabba R-CNN [2] objektdetekteringsnätverk, föreslår vi ett utbildningsprogram som alternerar S. Ren är med
I detta arbete använder vi Snabbare RCNN REF som vår ram-nivå åtgärdsdetektor.
10,328,909
Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
82,617
Ett uppkopplat Dominating Set (CDS) som fungerar som en virtuell ryggrad är ett effektivt sätt att minska omkostnaderna för routing i ett trådlöst sensornätverk. Dessutom är en kConnected m-Dominating Set (kmCDS) nödvändigt för feltolerans och routing flexibilitet. Vissa approximationsalgoritmer har föreslagits för att konstruera en kmCDS. De flesta av dem tar dock endast hänsyn till vissa specialfall där k = 1, 2 eller k ≤ m, eller inte är lätta att genomföra, eller har hög meddelande komplexitet. I detta dokument föreslår vi en ny distribuerad algoritm LDA med låg meddelande komplexitet att konstruera en kmCDS för allmänna k och m vars storlek garanteras vara inom en liten konstant faktor för den optimala lösningen när den maximala nodgraden är en konstant. Vi föreslår också en centraliserad algoritm ICGA med ett konstant prestandaförhållande för att konstruera en kmCDS. Teoretisk analys samt simuleringsresultat visas för att utvärdera de föreslagna algoritmerna.
I REF föreslås en distribuerad algoritm, LDA, för att lösa problemen med DDA.
636,844
Construction algorithms for k-connected m-dominating sets in wireless sensor networks
{'venue': "MobiHoc '08", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,618
Abstract-Coverage är ett grundläggande problem i Wireless Sensor Networks (WSNs). Befintliga studier om detta ämne fokuserar på 2D ideal plan täckning och 3D full rymd täckning. 3D-ytan på ett målinriktat intresseområde är komplex i många tillämpningar i verkligheten, och ändå ger befintliga studier om täckning inte några praktiska resultat. I detta dokument föreslår vi en ny täckningsmodell som kallas yttäckning. I yttäckning är målfältet en komplex yta i 3D-utrymme och sensorer kan endast användas på ytan. Vi visar att befintlig 2D-plantäckning endast är ett specialfall av yttäckning. Simuleringar visar att befintliga system för distribution av sensorer för ett 2D-plan inte kan tillämpas direkt på fall av yttäckning. I detta dokument inriktar vi oss på två problem där man antar att fall av yttäckning är sanna. En, under stokastisk driftsättning, hur många sensorer behövs för att nå en viss förväntad täckningsgrad? För det andra, om det går att planera utplacering av sensorer, vilken är den optimala utplaceringsstrategin med garanterad full täckning med minst antal sensorer? Vi visar att det senare problemet är NP-komplett och föreslår tre approximationsalgoritmer. Vi bevisar vidare att dessa algoritmer har ett påvisbart approximationsförhållande. Vi genomför också omfattande simuleringar för att utvärdera de föreslagna algoritmernas prestanda.
I REF, Zhao et al. Föreslog en yttäckningsmodell där målregionen är en komplex 3D-yta och sensorer endast kan användas vid vissa diskreta punkter på ytan.
14,400,348
Surface Coverage in Wireless Sensor Networks
{'venue': 'IEEE INFOCOM 2009', 'journal': 'IEEE INFOCOM 2009', 'mag_field_of_study': ['Computer Science']}
82,619
Abstrakt. Uppmärksamhetsbaserat lärande för finkornig bildigenkänning är fortfarande en utmanande uppgift, där de flesta av de befintliga metoderna behandlar varje objektdel isolerat, samtidigt som korrelationerna mellan dem försummas. Dessutom gör de flerstegsmekanismer eller flerskaliga mekanismer som ingår de befintliga metoderna mindre effektiva och svåra att utbilda från början till slut. I detta dokument föreslår vi en ny uppmärksamhetsbaserad konvolutionell neurala nätverk (CNN) som reglerar flera objekt delar bland olika indata bilder. Vår metod lär sig först flera uppmärksamhet region funktioner av varje ingångsbild genom one-squeeze multi-excitation (OSME) modulen, och sedan tillämpa multi-attention multi-class restriktion (MAMC) i en metriska läranderam. För varje ankare funktion, MAMC fungerar genom att dra samma-attention samma-klass funktioner närmare, samtidigt som olika-attention eller olika-klass funktioner bort. Vår metod kan enkelt tränas end-to-end, och är mycket effektiv vilket kräver endast ett träningssteg. Dessutom introducerar vi Hundar-i-den-Wild, en omfattande hund art dataset som överträffar liknande befintliga dataset efter kategori täckning, datavolym och kommenterad kvalitet. Denna datauppsättning kommer att släppas efter godkännande för att underlätta forskningen om finkornig bildigenkänning. Omfattande experiment utförs för att visa de väsentliga förbättringarna av vår metod på fyra referensdatauppsättningar.
REF använder först one-squeeze multi-excitation modul (OSME) för att lokalisera olika delar, och sedan träna modellen med en multi-attention multi-class hinder för att konsekvent genomdriva korrelationer mellan olika delar i utbildningen.
49,207,803
Multi-Attention Multi-Class Constraint for Fine-grained Image Recognition
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,620
Modellering av volymobjekt är fortfarande ett svårt problem. Solida textursyntesmetoder möjliggör utformning av volymer med homogena texturer, men globala funktioner såsom smidigt varierande färger ses i grönsaker och frukter är svåra att modellera. I detta dokument föreslår vi en representation som kallas diffusionsytor (DS) för att möjliggöra modellering av sådana objekt. DS består av 3D-ytor med färger som definieras på båda sidor, så att de inre färgerna i volymen erhålls genom att sprida färger från närliggande ytor. Ett enkelt sätt att beräkna färgspridning är att lösa en volymetrisk Poisson ekvation med färgerna i DS som gränsförhållanden, men det kräver dyra volymetrisk meshing som inte är lämpligt för interaktiv modellering. Vi föreslår därför att interpolera färger endast lokalt vid användardefinierade tvärsnitt med hjälp av en modifierad version av det positiva medelvärdet koordinater algoritm för att undvika volymetrisk meshing. DS är i allmänhet tillämpbara för att modellera många olika typer av objekt med interna strukturer. Som fallstudie presenterar vi ett enkelt skissbaserat gränssnitt för modellering av objekt med rotationssymmetrier som också kan generera slumpmässiga variationer av modeller. Vi demonstrerar effektiviteten i vårt tillvägagångssätt genom olika DS-modeller med enkla icke-fotorealistiska renderingsmetoder som möjliggörs av DS.
Dessutom har diffusionskurvor utökats till diffusionsytor för att modellera många olika typer av objekt med intern struktur REF.
8,730,021
Volumetric modeling with diffusion surfaces
{'venue': "SIGGRAPH ASIA '10", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,621
Abstrakt. Att tydligt förklara en motivering för ett klassificeringsbeslut för en slutanvändare kan vara lika viktigt som själva beslutet. Befintliga metoder för djup visuell igenkänning är i allmänhet ogenomskinliga och ger inte ut någon motiveringstext; moderna synspråksmodeller kan beskriva bildinnehåll men inte ta hänsyn till klass-diskriminativa bildaspekter som motiverar visuella förutsägelser. Vi föreslår en ny modell som fokuserar på de diskriminerande egenskaperna hos det synliga objektet, tillsammans förutspår en klassetikett, och förklarar varför den förutsedda etiketten är lämplig för bilden. Vi föreslår en ny förlustfunktion baserad på provtagning och förstärkning lärande som lär sig att generera meningar som förverkligar en global mening egendom, såsom klass specificitet. Våra resultat på en finkornig fågelart klassificeringsdata visar att vår modell kan generera förklaringar som inte bara överensstämmer med en bild utan också mer diskriminerande än beskrivningar som produceras genom befintliga bildtextmetoder.
Nyligen föreslog Ref en djupgående modell för att skapa naturliga språkmotiveringar för en finkornig objektklassificering.
12,030,503
Generating Visual Explanations
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,622
Inom det specifika området programvaruteknik (SE) för självanpassade system (SAS) finns en växande forskningsmedvetenhet om synergin mellan SE och artificiell intelligens (AI). Hittills har dock bara några få viktiga resultat publicerats. I detta dokument föreslår vi en ny och formell Bayesiansk definition av överraskning som grund för kvantitativ analys för att mäta graden av osäkerhet och avvikelser av självanpassningssystem från normalt beteende. En överraskning mäter hur observerade data påverkar modeller eller antaganden i världen under körning. Nyckelidén är att en "överraskande" händelse kan definieras som en händelse som orsakar en stor skillnad mellan trosfördelningen före och efter händelsen. I sådana fall kan systemet antingen besluta att anpassa sig efter detta eller att påpeka att en onormal situation inträffar. I detta dokument diskuterar vi möjliga tillämpningar av Bayesian teori om överraskning för fallet med självanpassningssystem med hjälp av Bayesian dynamiska beslutsnätverk.
Design-tid övertygelser för specifika beslut specificeras med Bayesian Dynamic Decision Networks (DDNs) REF.
14,680,195
A world full of surprises: bayesian theory of surprise to quantify degrees of uncertainty
{'venue': 'ICSE Companion 2014', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,623