src
stringlengths 100
134k
| tgt
stringlengths 10
2.25k
| paper_id
int64 141
216M
| title
stringlengths 9
254
| discipline
stringlengths 67
582
| __index_level_0__
int64 0
83.3k
|
---|---|---|---|---|---|
I det här dokumentet föreslår vi en ny djupinlärningsarkitektur för flermärkt noll-shot-inlärning (ML-ZSL), som kan förutsäga flera osedda klassetiketter för varje inmatningstillfälle. Inspirerad av hur människor använder semantisk kunskap mellan intresseobjekt föreslår vi ett ramverk som innehåller kunskapsgrafer för att beskriva sambanden mellan flera etiketter. Vår modell lär sig en informationsutbredningsmekanism från det semantiska märkningsutrymmet, som kan användas för att modellera det ömsesidiga beroendet mellan synliga och osynliga klassetiketter. Med en sådan undersökning av strukturerade kunskapsgrafer för visuellt resonemang, visar vi att vår modell kan tillämpas för att lösa multi-märkning klassificering och ML-ZSL uppgifter. Jämfört med den senaste tekniken kan jämförbara eller förbättrade resultat uppnås med vår metod. | Hung-Wei Lee m.fl. I REF föreslogs ML-ZSL-ramverk som byggde ett WordNet-kunskapsdiagram för noll-shot-klassificering. | 8,168,187 | Multi-label Zero-Shot Learning with Structured Knowledge Graphs | {'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 79,183 |
Likhetsåtgärder för Abstract-Sentence spelar en allt viktigare roll i textrelaterad forskning och tillämpningar inom områden som t.ex. textutvinning, hämtning av webbsidor och dialogsystem. Befintliga metoder för beräkning av meningslikhet har använts från metoder som används för dokument med lång text. Dessa metoder bearbetar meningar i ett mycket högdimensionellt utrymme och är följaktligen ineffektiva, kräver mänsklig input, och är inte anpassningsbara till vissa tillämpningsområden. Detta dokument fokuserar direkt på att beräkna likheten mellan mycket korta texter av meningslängd. Den presenterar en algoritm som tar hänsyn till semantisk information och ordordning information underförstått i meningarna. Den semantiska likheten mellan två meningar beräknas med hjälp av information från en strukturerad lexisk databas och från corpusstatistik. Användningen av en lexisk databas gör det möjligt för vår metod att modellera kunskap om mänskligt sunt förnuft och införlivandet av corpus-statistik gör att vår metod kan anpassas till olika områden. Den föreslagna metoden kan användas i en mängd olika tillämpningar som innefattar textkunskap representation och upptäckt. Experiment på två uppsättningar av utvalda mening par visar att den föreslagna metoden ger en likhetsmått som visar en betydande korrelation till mänsklig intuition. | En liknande semantisk likhetsåtgärd, som föreslås av REF, använder en semantisk-vektor metod för att mäta mening likhet. | 12,007,882 | Sentence similarity based on semantic nets and corpus statistics | {'venue': 'IEEE Transactions on Knowledge and Data Engineering', 'journal': 'IEEE Transactions on Knowledge and Data Engineering', 'mag_field_of_study': ['Computer Science']} | 79,184 |
Vi föreslår en modell för kinesisk diktgeneration baserad på återkommande neurala nätverk som vi hävdar är idealisk för att fånga poetiskt innehåll och form. Vår generator utför gemensamt innehållsval ("vad att säga") och ytligt förverkligande ("hur man säger") genom att lära sig representationer av enskilda karaktärer, och deras kombinationer i en eller flera rader samt hur dessa ömsesidigt förstärker och begränsar varandra. Poem linjer genereras stegvis genom att ta hänsyn till hela historien om vad som har genererats hittills snarare än den begränsade horisont som införts av den föregående linjen eller lexical n-grams. Experimentella resultat visar att vår modell överträffar konkurrenskraftiga kinesiska poesigenerationssystem med hjälp av både automatiska och manuella utvärderingsmetoder. | REF t.ex. använde Convolutional (CNN) och Recurrent Neural Networks (RNN) för att generera kinesisk Poetry. | 12,964,363 | Chinese Poetry Generation with Recurrent Neural Networks | {'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,185 |
Abstrakt. Vi anser att problemet med samtidig inbäddning av planar grafer. Det finns två varianter av detta problem, en där kartläggningen mellan hörnen i de två graferna ges och en annan där kartläggningen inte ges. I synnerhet visar vi att utan kartläggning, något antal yttre plana grafer kan inbäddas samtidigt på ett O(n) × O(n) rutnät, och en yttre plana och allmänna plana graf kan inbäddas samtidigt på ett O(n 2 ) × O(n 3 ) rutnät. Om kartläggningen ges visar vi hur man bäddar in två vägar på ett n × n rutnät, eller två larvdiagram på ett O(n 2 ) × O(n 3 ) rutnät. | Problemet med samtidig inbäddning av plana grafer infördes i REF, där det visas att par av banor, cykler och larver alltid kan realiseras, medan för allmänna plana grafer och även yttre plana grafer är detta inte alltid möjligt. | 3,374 | On Simultaneous Graph Embedding | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 79,186 |
Abstract-Vi anser att problemet med att upprätta minimikostnad multicast anslutningar över kodade paketnätverk, dvs.. paketnätverk där innehållet i utgående paket är godtyckligt, orsaksfunktioner för innehållet i mottagna paket. Vi anser att både trådnät och trådlösa paketnätverk samt både statiska multicaster (där medlemskap i multicast-gruppen förblir konstant under anslutningstiden) och dynamiska multicaster (där medlemskap i multicast-gruppen ändras i tid, med noder som går med och lämnar gruppen). För statisk multicast, minskar vi problemet till en polynom tid solvable optimeringsproblem, och vi presenterar decentraliserade algoritmer för att lösa det. Dessa algoritmer, i kombination med befintliga decentraliserade system för att bygga nätföreskrifter, ger en helt decentraliserad strategi för att uppnå minimikostnadsmulticast. Däremot är det ett mycket svårt problem att upprätta statisk minimikostnadsanslutning över raderade paketnät, även med hjälp av centraliserad beräkning, utom i de särskilda fallen av unicast- och sändningsanslutningar. För dynamisk multisändning minskar vi problemet till ett dynamiskt programmeringsproblem och tillämpar teorin om dynamisk programmering för att föreslå hur den kan lösas. | I REF undersöktes till exempel minimikostnadsmulticast över nätkodad trådlinje och trådlösa nätverk. | 13,319,050 | Minimum-Cost Multicast over Coded Packet Networks | {'venue': 'IEEE Trans. Inform. Theory, vol. 52, no. 6, pp. 2608-2623, June 2006', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 79,187 |
Abstrakt. Detta papper förbättrar de senaste metoderna för storskalig bildsökning. Toppmoderna metoder bygger på bildrepresentationen på bag-of-features. Vi analyserar först bag-of-features inom ramen för ungefärlig närmaste grannsökning. Detta visar suboptimiteten av en sådan representation för matchande deskriptorer och leder oss att härleda en mer exakt representation baserad på 1) Hamming inbäddning (HE) och 2) svaga geometriska konsekventa begränsningar (WGC). HE tillhandahåller binära signaturer som förfinar matchningen baserat på visuella ord. WGC-filter som matchar deskriptorer som inte är konsekventa i fråga om vinkel och skala. HE och WGC är integrerade i den inverterade filen och utnyttjas effektivt för alla bilder, även när det gäller mycket stora datauppsättningar. Experiment som utförs på en datauppsättning av en miljon bilder visar en betydande förbättring på grund av den binära signaturen och den svaga geometriska konsistensen begränsningar samt deras effektivitet. Uppskattning av den fullständiga geometriska omvandlingen, dvs. ett omplaceringssteg på en kort bildlista, kompletterar våra svaga geometriska konsekventa begränsningar och gör det möjligt att ytterligare förbättra noggrannheten. | De svaga geometriska konsistensbegränsningarna (WGC) REF använder vinkel- och skalinformation från nyckelpunkter för att verifiera enhetligheten i matchningsdeskriptorer. | 8,964,627 | Hamming embedding and weak geometric consistency for large scale image search | {'venue': 'In ECCV', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,188 |
Detta papper studerar webbobjekt klassificering problem med den nya prospektering av sociala taggar. Att automatiskt klassificera webbobjekt i hanterbara semantiska kategorier har länge varit en grundläggande förprocess för att indexera, bläddra, söka och bryta dessa objekt. Den explosiva tillväxten av heterogena webbobjekt, särskilt icke-textuella objekt som produkter, bilder och videor, har gjort problemet med webbklassificering allt svårare. Sådana föremål lider ofta av brist på lättåtkomliga funktioner med semantisk information, sammankopplingar mellan varandra samt utbildningsexempel med kategorietiketter. I detta dokument undersöker vi de sociala märkningsuppgifterna för att överbrygga denna klyfta. Vi kastar webbobjekt klassificering problem som ett optimeringsproblem på en graf av objekt och taggar. Vi föreslår sedan en effektiv algoritm som inte bara använder sociala taggar som berikade semantiska funktioner för objekten, utan också drar slutsatser om kategorierna av omärkta objekt från både homogena och heterogena märkta objekt, genom den implicita anslutningen av sociala taggar. Experimentella resultat visar att utforskningen av sociala taggar effektivt ökar klassificeringen av webbobjekt. Vår algoritm överträffar avsevärt toppmoderna allmänna klassificeringsmetoder. | Yin m.fl. REF utforskar sociala taggningsgrafer för heterogen klassificering av webbobjekt. | 11,345,579 | Exploring social tagging graph for web object classification | {'venue': 'KDD', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,189 |
Jag bedömer i vilken utsträckning den nyligen införda BERT-modellen fångar engelska syntaktiska fenomen, med hjälp av (1) naturligt förekommande subjekt-verb-avtal stimuli; (2) "färglösa gröna idéer" subjekt-verb-avtal stimuli, där innehållsord i naturliga meningar slumpmässigt ersätts med ord som delar samma del av tal och böjning; och (3) manuellt skapade stimuli för subjekt-verb-avtal och reflexiva anafora-fenomen. BERT-modellen presterar anmärkningsvärt bra i alla fall. | I REF visas att BERT-modellerna fungerar bra på att fånga upp flera syntaktiska fenomen i det engelska språket. | 58,007,068 | Assessing BERT's Syntactic Abilities | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 79,190 |
Vi undersöker problemet med akustiska emanationer på tangentbordet. Vi presenterar en ny attack tar som ingång en 10-minuters ljudinspelning av en användare som skriver engelsk text med hjälp av ett tangentbord och återhämtar sig upp till 96% av maskinskrivna tecken. Det finns inget behov av utbildningsinspelningar märkta med motsvarande tydlig text. En igenkännare bootstrappad från en 10-minuters ljudinspelning kan även känna igen slumpmässig text som lösenord: I våra experiment, 90% av 5 tecken slumpmässiga lösenord med endast bokstäver kan genereras i färre än 20 försök av en motståndare; 80% av 10 tecken lösenord kan genereras i färre än 75 försök av en motståndare. I attacken använder vi de statistiska begränsningarna i det underliggande innehållet, engelska språket, för att rekonstruera text från ljudinspelningar utan att känna till motsvarande tydlig text. Angreppet innehåller en kombination av standard maskininlärning och taligenkänning tekniker, inklusive cepstrum funktioner, dolda Markov modeller, linjär klassificering, och feedback-baserat inkrementellt lärande. | Till exempel kan de uppnå 80% noggrannhet för en 10 tecken lösenord i mindre än 75 försök REF. | 6,742,572 | Keyboard acoustic emanations revisited | {'venue': 'TSEC', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,191 |
Abstract-Accurate upptäckt av rörliga objekt är en viktig föregångare till stabil spårning eller igenkänning. I detta dokument presenterar vi ett system för att upptäcka objekt som har tre innovationer jämfört med befintliga strategier. För det första ifrågasätts modellen av intensiteten av bild pixlar som oberoende slumpmässiga variabler och det hävdas att användbar korrelation finns i intensiteter av rumsligt proximala bildpunkter. Denna korrelation utnyttjas för att upprätthålla höga nivåer av detektionsnoggrannhet i närvaro av dynamiska bakgrunder. Genom att använda en icke-parametrisk densitetsuppskattningsmetod över en gemensam domänomfångsrepresentation av bildpixlar, modelleras multimodala rumsliga osäkerheter och komplexa beroenden mellan domänen (lokalisering) och området (färg) direkt. Vi föreslår en bakgrundsmodell som en enda sannolikhetstäthet. För det andra föreslås tidsbeständighet som ett detektionskriterium. Till skillnad från tidigare metoder för objektdetektering som detekterar objekt genom att bygga adaptiva modeller av bakgrunden, är förgrunden modellerad för att öka upptäckten av objekt (utan explicit spårning) eftersom objekt som detekteras i den föregående ramen innehåller väsentliga bevis för detektion i den aktuella ramen. Slutligen används bakgrunds- och förgrundsmodellerna konkurrenskraftigt i ett MAP-MRF-beslutsramverk, där rumsliga sammanhang betonas som ett villkor för att upptäcka intressanta objekt och den bakre funktionen maximeras effektivt genom att man hittar den minsta skärningen av en kapacierad graf. Experimentell validering av den föreslagna metoden utförs och presenteras på en rad olika dynamiska scener. | I REF konstrueras bakgrunds- och förgrundsmodellerna först separat via KDE-teknik, som sedan används konkurrenskraftigt i ett MAP-MRF-beslutsramverk. | 1,961,889 | Bayesian modeling of dynamic scenes for object detection | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 79,192 |
Trådlösa ad hoc-sensornätverk har framträtt som ett intressant och viktigt forskningsområde under de senaste åren. De tillämpningar som förutses för sådana nätverk kräver samarbete utförande av en distribuerad uppgift bland en stor uppsättning sensornoder. Detta realiseras genom att utbyta meddelanden som är tidsstämplade med hjälp av lokala klockor på noderna. Därför blir tidssynkronisering en oumbärlig infrastruktur i sådana system. I åratal har protokoll som NTP hållit klockorna i nätverksanslutna system i perfekt synkronisering. Denna nya typ av nätverk har dock en stor täthet av noder och mycket begränsade energiresurser vid varje nod, vilket leder till skalbarhetskrav samtidigt som de resurser som kan användas för att uppnå dem begränsas. En ny metod för tidssynkronisering behövs för sensornätverk. I detta dokument presenterar vi Timing-sync Protocol for Sensor Networks (TPSN) som syftar till att tillhandahålla nätverkstäckande tidssynkronisering i ett sensornätverk. Algoritmen fungerar i två steg. I det första steget etableras en hierarkisk struktur i nätverket och sedan utförs en parvis synkronisering längs kanterna på denna struktur för att etablera en global tidsskala i hela nätverket. Till slut synkroniserar alla noder i nätverket sina klockor till en referensnod. Vi implementerar vår algoritm på Berkeley Motes och visar att det kan synkronisera ett par angränsande Motes till en genomsnittlig noggrannhet på mindre än 20μs. Vi hävdar att TPSN ungefär ger en 2x bättre prestanda jämfört med Reference Broadcast Synkronization (RBS) och verifiera detta genom att genomföra RBS på motes. Vi visar också prestandan hos TPSN över små multihop nätverk av Motes och använder simuleringar för att verifiera dess noggrannhet över storskaliga nätverk. Vi visar att synkroniseringsnoggrannheten inte försämras avsevärt med ökningen av antalet noder som används, vilket gör TPSN helt skalbar. | I REF, Ganeriwal et al. föreslog Timing-Sync Protocol for Sensor Networks (TPSN), där synkroniseringen sker på ett hierarkiskt sätt. | 22,550,674 | Timing-sync protocol for sensor networks | {'venue': "SenSys '03", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,193 |
I detta dokument föreslår vi en generativ modell, Temporal Generative Adversarial Nets (TGAN), som kan lära sig en semantisk representation av omärkta videor, och kan generera videor. Till skillnad från befintliga Generativa Adversarial Nets (GAN)-baserade metoder som genererar videor med en enda generator som består av 3D-dekonvolutionella lager, utnyttjar vår modell två olika typer av generatorer: en tidsgenerator och en bildgenerator. Tidsgeneratorn tar en enda latent variabel som ingång och utgångar en uppsättning latenta variabler, som var och en motsvarar en bildram i en video. Bildgeneratorn omvandlar en uppsättning av sådana latenta variabler till en video. För att hantera instabilitet i utbildningen av GAN med sådana avancerade nätverk, antar vi en nyligen föreslagen modell, Wasserstein GAN, och föreslår en ny metod för att utbilda den stabilt på ett end-to-end sätt. De experimentella resultaten visar hur effektiva våra metoder är. | Likaså använder Temporal GAN REF en tidsgenerator och en bildgenerator som genererar en uppsättning latenta variabler respektive bildsekvenser. | 6,945,308 | Temporal Generative Adversarial Nets with Singular Value Clipping | {'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 79,194 |
Abstract-I detta dokument föreslår vi ett nytt positionsbaserat routing protokoll som är utformat för att förutse egenskaperna hos en urban VANET-miljö. Den föreslagna algoritmen använder förutsägelsen av nodens position och navigeringsinformation för att förbättra effektiviteten i routingprotokollet i ett fordonsnätverk. Dessutom använder vi informationen om länkskiktets kvalitet när det gäller SNIR- och MAC-ramfelfrekvens för att ytterligare förbättra effektiviteten i det föreslagna routingprotokollet. Detta bidrar särskilt till att minska end-to-end-fördröjningen. Slutligen används bärraketmekanismen som en reparationsstrategi i glesa nät. Det visas att användningen av denna teknik ökar paketleveransförhållandet, men ökar även end-to-end-fördröjningen och rekommenderas inte för QoS-begränsningstjänster. Våra resultat tyder på att jämfört med GPSR visar vårt förslag bättre resultat i stadsmiljön. Index Terms-vehicular ad-hoc nätverk, positionsbaserad routing, tvärskikt. | I REF föreslog författarna ett enhetligt, multi-hop routing-protokoll baserat på opportunistisk vidarebefordring i stadsmiljö. | 11,425,029 | CLWPR — A novel cross-layer optimized position based routing protocol for VANETs | {'venue': '2011 IEEE Vehicular Networking Conference (VNC)', 'journal': '2011 IEEE Vehicular Networking Conference (VNC)', 'mag_field_of_study': ['Computer Science']} | 79,195 |
T han samtidigt lokalisering och kartläggning (SLAM) problem frågar om det är möjligt för en mobil robot att placeras på en okänd plats i en okänd miljö och för roboten att gradvis bygga en konsekvent karta över denna miljö samtidigt bestämma sin plats inom denna karta. En lösning på SLAM-problemet har setts som en "helig graal" för den mobila robotvärlden eftersom det skulle ge möjlighet att göra en robot verkligt autonom. SLAM-problemets "lösning" har varit en av robotsamhällets anmärkningsvärda framgångar under det senaste årtiondet. SLAM har formulerats och lösts som ett teoretiskt problem i ett antal olika former. SLAM har också implementerats i ett antal olika domäner, från inomhusrobotar till utomhus-, undervattens- och luftburna system. På teoretisk och konceptuell nivå kan SLAM nu betraktas som ett löst problem. Stora problem kvarstår dock när det gäller att praktiskt förverkliga mer generella SLAM-lösningar, särskilt när det gäller att bygga och använda perceptuellt rika kartor som en del av en SLAM-algoritm. Denna tvådelade handledning och kartläggning av SLAM syftar till att ge en bred introduktion till detta snabbt växande fält. Del I (denna artikel) börjar med att ge en kort historik över den tidiga utvecklingen i SLAM. Formuleringsavsnittet introducerar strukturen SLAM-problemet i nu standard Bayesian form, och förklarar utvecklingen av SLAM processen. Lösningen beskriver de två viktiga beräkningslösningarna för SLAM-problemet genom användning av det utökade Kalman-filtret (EKF-SLAM) och genom användning av Rao-Blackwellized partikelfilter (FastSLAM). Andra nya lösningar på SLAM-problemet diskuteras i del II i denna handledning. Applikationsavsnittet beskriver ett antal viktiga real-world implementationer av SLAM och belyser också implementationer där sensordata och mjukvara är fritt nedladdade för andra forskare att studera. Del II i denna handledning beskriver viktiga frågor inom beräkning, konvergens och databindning i SLAM. Detta är ämnen som har stått i centrum för SLAM-forskningen under de senaste fem åren. Uppkomsten till det probabilistiska SLAM-problemet inträffade vid 1986 års IEEE Robotics and Automation Conference som hölls i San Francisco i Kalifornien. Detta var en tid då probabilistiska metoder bara började introduceras i både robotik och artificiell intelligens (AI). Ett antal forskare hade tittat på att tillämpa skattning-teoretiska metoder för att kartlägga och lokalisera problem; dessa inkluderade Peter Cheeseman, Jim Crowley, och Hugh DurrantWhyte. Under konferensens gång fylldes många pappersdukar och servetter med långa diskussioner om en konsekvent kartläggning. Raja Chatila, Oliver Faugeras, Randal Smith och andra bidrog också till samtalet. Resultatet av detta samtal var ett erkännande av att konsekvent probabilistisk kartläggning var ett grundläggande problem inom robotik med stora konceptuella och beräkningsmässiga frågor som behövde åtgärdas. Under de närmaste åren har ett antal nyckeldokument tagits fram. Smiths och Cheesmans arbete [39] och Durrant-Whyte [17] lade en statistisk grund för att beskriva sambanden mellan landmärken och manipulera geometrisk osäkerhet. Ett viktigt inslag i detta arbete var att visa att det måste finnas en hög grad av korrelation mellan uppskattningar av placeringen av olika landmärken i en karta och att dessa korrelationer faktiskt skulle växa med successiva observationer. Samtidigt arbetade Ayache och Faugeras [1] tidigt med visuell navigering, Crowley [9] och Chatila och Laumond [6] arbetade med sonarbaserad navigering av mobila robotar med Kalman filterliknande algoritmer. Dessa två forskningsområden hade mycket gemensamt och resulterade kort därefter i Smith et als landmärkespapper. Detta beslut riktar sig till Konungariket Spanien. Detta dokument visade att när en mobil robot rör sig genom en okänd miljö med relativa observationer av landmärken, är uppskattningarna av dessa landmärken alla nödvändigtvis korrelerade med varandra på grund av det gemensamma felet i uppskattad fordonsplats [27]. Konsekvensen av detta var djupgående: En konsekvent fullständig lösning på det kombinerade lokaliserings- och kartläggningsproblemet skulle kräva en gemensam stat bestående av fordonets pose och varje landmärke position, att uppdateras efter varje landmärke observation. Detta skulle i sin tur kräva att estimator att använda en enorm tillstånd vektor (i storleksordningen av antalet landmärken som upprätthålls på kartan) med beräkning skalning som kvadraten på antalet landmärken. Avgörande, detta arbete inte titta på konvergens egenskaper kartan eller dess steady-state beteende. Ja, det är det verkligen. | I robotik skapar Simultan Localization and Mapping (SLAM) REF en karta när självlokaliseringen fortskrider. | 8,061,430 | Simultaneous localization and mapping: part I | {'venue': 'IEEE Robotics & Automation Magazine', 'journal': 'IEEE Robotics & Automation Magazine', 'mag_field_of_study': ['Computer Science', 'Engineering']} | 79,196 |
Vi presenterar en strategi som utnyttjar hierarkiska Recurrent Neural Networks (RNN) för att ta itu med problemet med videotext, dvs. skapa en eller flera meningar för att beskriva en realistisk video. Vårt hierarkiska ramverk innehåller en meningsgenerator och en paragrafgenerator. Den mening generator producerar en enkel kort mening som beskriver en specifik kort video intervall. Den utnyttjar både mekanismer för tids- och rumslig uppmärksamhet för att selektivt fokusera på visuella element under generering. Punktgeneratorn fångar det inter-sentence beroendet genom att ta som indata den Sendential inbäddning som produceras av meningsgeneratorn, kombinera den med punkthistoriken, och utdata den nya ursprungliga tillstånd för meningsgeneratorn. Vi utvärderar vår strategi för två storskaliga referensdataset: YouTubeClips och TACoS-MultiLevel. Experimenten visar att vårt tillvägagångssätt avsevärt överträffar de nuvarande toppmoderna metoderna med BLEU@4 poäng 0.499 respektive 0,305. | Yu m.fl. REF använde en hierarkisk RNN för att generera en eller flera meningar för att beskriva en video. | 2,642,134 | Video Paragraph Captioning Using Hierarchical Recurrent Neural Networks | {'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 79,197 |
ABSTRACT Trådlösa sensornätverk (WSN) har i stor utsträckning tillämpats i olika industriella tillämpningar, vilket innebär att samla in en massiv mängd heterogen sensoriska data. De flesta datainsamlingsstrategierna för WSN kan dock inte undvika problem med hotspot i det lokala eller hela utplaceringsområdet. Hotspot-problemet påverkar nätverksanslutningen och minskar nätverkets livslängd. Därför föreslår vi en träd-kluster-baserad data-samlande algoritm (TCBDGA) för WSNs med en mobil diskho. En ny viktbaserad trädbyggnadsmetod införs. De konstruerade trädens rotnoder definieras som mötesplatser (RP). Dessutom, några speciella noder som kallas subrendezvous punkter (SRP) väljs efter deras trafik belastning och humle till rot noder. RPs och SRPs ses som stopppunkter i den mobila diskbänken för datainsamling, och kan omväljas efter en viss period. Simuleringen och jämförelsen med andra algoritmer visar att vår TCBDGA avsevärt kan balansera hela nätets belastning, minska energiförbrukningen, lindra hotspot-problemet och förlänga nätverkets livslängd. INDEX TERMS Datainsamlingssystem, kluster, mobilsänka, trådlösa sensornätverk. | I detta sammanhang, Zhu et al. REF föreslog en Tree-Cluster-baserad Data-Gathering Algorithm (TCBDGA) med hjälp av en mobil diskho för att förbättra den icke-uniforma energiförbrukningen för WSNs. | 3,504,717 | A Tree-Cluster-Based Data-Gathering Algorithm for Industrial WSNs With a Mobile Sink | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 79,198 |
Vi presenterar en kapacitetsuppnående kodningssystem för unicast eller multicast över förlorade paketnätverk. I systemet, mellanliggande noder utför ytterligare kodning men inte avkoda eller ens vänta på ett block av paket innan du skickar ut kodade paket. Närhelst de har en överföringsmöjlighet skickar de i stället ut kodade paket som formats från slumpmässiga linjära kombinationer av tidigare mottagna paket. All kodning och avkodning har polynomisk komplexitet. Vi visar att systemet är kapacitetsskapande så länge paket som tas emot på en länk anländer enligt en process som har en genomsnittlig hastighet. Således kan paketförluster på en länk uppvisa korrelation i tid eller med förluster på andra länkar. I specialfallet Poisson trafik med i.i.d. förluster, vi ger fel exponenter som kvantifierar graden av förfall av sannolikheten för fel med kodning fördröjning. Vår analys av systemet visar att det inte bara är kapacitetsuppnående, utan att spridningen av paket med "innovativ" information följer spridningen av jobb genom ett könät, och därför ger vätskeflödesmodeller goda approximationer. Vi anser att nätverk med både förlust point-to-point och sändningslänkar gör det möjligt för oss att modellera både trådnät och trådlösa paketnätverk. | Och Lun et al. REF visar en kapacitetapproaching kodningsteknik för unicast eller multicast over lossy paketnätverk där alla noder utför opportunistisk kodning genom att konstruera kodade paket med slumpmässiga linjära kombinationer av tidigare mottagna paket. | 2,732,023 | On Coding for Reliable Communication over Packet Networks | {'venue': 'Physical Communication, vol. 1, no. 1, pp. 3-20, March 2008.', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 79,199 |
De moderna modellerna för semantisk segmentering bygger på anpassningar av konvolutionsnät som ursprungligen hade utformats för bildklassificering. Täta förutsägelseproblem som semantisk segmentering skiljer sig dock strukturellt från bildklassificeringen. I detta arbete utvecklar vi en ny konvolutionell nätverksmodul som är speciellt utformad för tät förutsägelse. Den presenterade modulen använder dilaterade konvolutioner för att systematiskt aggregera kontextuell information i flera skalor utan att förlora upplösningen. Arkitekturen bygger på det faktum att utvidgade konvolutioner stöder exponentiell expansion av det mottagliga fältet utan förlust av upplösning eller täckning. Vi visar att den presenterade kontextmodulen ökar noggrannheten i toppmoderna semantiska segmenteringssystem. Dessutom undersöker vi anpassningen av bildklassificeringsnät till täta förutsägelser och visar att en förenkling av det anpassade nätet kan öka noggrannheten. | Dilated convolution REF stöder exponentiell expansion av det mottagliga fältet (dvs. Fönster) utan förlust av upplösning eller täckning och kan på så sätt hjälpa nätverk att samla in information i flera skalor. | 17,127,188 | Multi-Scale Context Aggregation by Dilated Convolutions | {'venue': 'ICLR 2016', 'journal': 'arXiv: Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 79,200 |
Abstract-I detta papper, försöker vi förstå de inneboende orsakerna till den välkända fenomen av tung-tailed grad i Internet AS grafen och hävdar att i motsats till traditionella modeller baserade på preferens fastsättning och centraliserad optimering, Pareto graden av Internet kan förklaras av utvecklingen av rikedom i samband med varje Internetleverantör. Den föreslagna topologimodellen använder en enkel multiplicativ stokastisk process som bestämmer varje Internetleverantörs rikedom vid olika tidpunkter och flera "underhållsregler" som håller graden av varje nod proportionell mot dess rikedom. Faktisk länkbildning bestäms på ett decentraliserat sätt baserat på slumpmässiga promenader, där varje ISP individuellt bestämmer när och hur man ska öka sin grad. Simuleringar visar att den föreslagna modellen, som vi kallar Wealth-baserad Internet Topology (WIT), producerar skalfria slumpmässiga grafer med tonfiskbar exponent α och höga klusterkoefficienter (mellan 0,35 och 0,5) som förblir invarianta allteftersom grafens storlek ökar. Denna utveckling efterliknar i hög grad Internets utveckling sedan 1997. | Wang och Loguinov REF föreslår modellen Wealth-Based Internet Topology (WIT). | 3,391,053 | Wealth-Based Evolution Model for the Internet AS-Level Topology | {'venue': 'Proceedings IEEE INFOCOM 2006. 25TH IEEE International Conference on Computer Communications', 'journal': 'Proceedings IEEE INFOCOM 2006. 25TH IEEE International Conference on Computer Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 79,201 |
Vid objektdetektering krävs en skärningspunkt över unionströskeln (IoU) för att definiera positiva och negativa värden. En objektdetektor, tränad med låg IoU-tröskel, t.ex. 0,5, vanligtvis producerar bullriga upptäckter. Detektionsprestanda tenderar dock att försämras med en ökning av IoU-trösklarna. Två huvudfaktorer är ansvariga för detta: 1) överutrustning under träning, på grund av exponentiellt försvinnande positiva prover, och 2) inferens-tid missmatchning mellan de IoUs för vilka detektorn är optimal och de indatahypoteser. En flerstegsarkitektur för objektdetektering, Cascade R-CNN, föreslås för att ta itu med dessa problem. Den består av en sekvens av detektorer tränade med ökande IoU-trösklar, för att bli mer sekventiellt selektiva mot nära falska positiva. Detektorerna är utbildade steg för steg och utnyttjar observationen att detektorns utgång är en bra fördelning för att träna nästa detektor av högre kvalitet. Omsamplingen av gradvis förbättrade hypoteser garanterar att alla detektorer har en positiv uppsättning exempel på likvärdig storlek, vilket minskar problemet med övermontering. Samma kaskadförfarande tillämpas vid slutsatsen, vilket möjliggör en närmare överensstämmelse mellan hypoteserna och detektorkvaliteten i varje steg. En enkel implementering av Cascade R-CNN visar sig överträffa alla en modell objektdetektorer på den utmanande COCO dataset. Experiment visar också att Cascade R-CNN är allmänt tillämplig över detektorarkitekturer, vilket ger konsekventa vinster oberoende av baslinje detektorstyrkan. Koden finns på https://github.com/zhaoweicai/cascade-rcnn. | Cascade R-CNN REF föreslår en flerstegsarkitektur för objektdetektering som tränar en sekvens av R-CNN med ökande IoU-trösklar. | 206,596,979 | Cascade R-CNN: Delving Into High Quality Object Detection | {'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 79,202 |
Nyligen djupa nätverk kan memorera hela data även när etiketterna är helt slumpmässiga. För att övervinna överutrustning på korrupta etiketter, föreslår vi en ny teknik för att lära sig ett annat neuralt nätverk, som kallas MentorNet, för att övervaka utbildningen av basen djupa nätverk, nämligen StudentNet. Under utbildningen tillhandahåller MentorNet en läroplan (provvägningsschema) för StudentNet att fokusera på provet vars etikett förmodligen är korrekt. Till skillnad från den befintliga läroplanen som vanligtvis är fördefinierad av mänskliga experter, MentorNet lär sig en datadriven läroplan dynamiskt med StudentNet. Experimentella resultat visar att vårt tillvägagångssätt avsevärt kan förbättra generaliseringen av djupa nätverk som är utbildade på korrumperade träningsdata. Särskilt, så vitt vi vet, uppnår vi det bäst publicerade resultatet på WebVision, ett stort riktmärke som innehåller 2,2 miljoner bilder av verkliga bullriga etiketter. Koden finns på https://github.com/google/mentornet. | REF föreslår ett MentorNet som lär sig en datadriven läroplan med ett Student-Net för att mildra övermontering på skadade etiketter. | 51,876,228 | MentorNet: Learning Data-Driven Curriculum for Very Deep Neural Networks on Corrupted Labels | {'venue': 'published at ICML 2018', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,203 |
Med tillkomsten av ord inbäddade, lexikon inte längre utnyttjas fullt ut för känsloanalys även om de fortfarande ger viktiga egenskaper i den traditionella miljön. I detta dokument introduceras en ny strategi för känsloanalys som integrerar lexicons inbäddningar och en uppmärksamhetsmekanism i konvolutionella neurala nätverk. Vår strategi utför separata konvolutioner för ord och lexicon inbäddar och ger en global syn på dokumentet med hjälp av uppmärksamhet. Våra modeller experimenteras både på datasetet SemEval'16 Task 4 och Stanford Sentiment Treebank och visar jämförande eller bättre resultat mot de befintliga toppmoderna systemen. Vår analys visar att inbäddningar av lexikon gör det möjligt att bygga högpresterande modeller med mycket mindre inbäddade ord, och uppmärksamhetsmekanismen dämpar effektivt bullriga ord för känsloanalys. | I REF förbättras resultaten av en CNN-känslomodell genom att man använder sig av inbäddade lexikon och uppmärksamhetsmekanism. | 1,254,267 | Lexicon Integrated CNN Models with Attention for Sentiment Analysis | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 79,204 |
Abstrakt. Vi presenterar en probabilistisk generativ modell av enhetsrelationer och textattribut; modellen upptäcker samtidigt grupper bland enheterna och ämnen bland motsvarande text. Blockmodeller av relationsdata har under en tid studerats i analys av sociala nätverk, men här samlas vi i flera olika former samtidigt. Betydande, gemensam slutsats gör det möjligt att upptäcka grupper för att vägledas av de framväxande ämnen, och vice versa. Vi presenterar experimentella resultat på två stora datauppsättningar: sexton års räkningar som lagts fram för den amerikanska senaten, bestående av deras motsvarande text och röstlängder, och 43 år av liknande uppgifter från Förenta nationerna. Vi visar att jämfört med traditionella, separata latent-variabla modeller för ord eller blockstrukturer för röster, förbättrar vår grupp-Topic-modells gemensamma slutledning både de grupper och ämnen som upptäcks. Dessutom presenterar vi en icke-Markov continoous-time gruppmodell för att fånga skiftande gruppstruktur över tid. | McCallum m.fl. I REF föreslogs en modell för att upptäcka grupper bland enheterna och ämnena Correlated Topic Detection. | 47,074,550 | Joint group and topic discovery from relations and text | {'venue': 'SNA@ICML', 'journal': None, 'mag_field_of_study': ['Sociology', 'Computer Science']} | 79,205 |
Ett antal tekniker har utvecklats för att rekonstruera ytor genom att integrera grupper av anpassade avståndsbilder. En önskvärd uppsättning egenskaper för sådana algoritmer inkluderar: inkrementell uppdatering, representation av riktningsosäkerhet, förmågan att fylla luckor i återuppbyggnaden och robusthet i närvaro av avvikande faktorer. Tidigare algoritmer har undergrupper av dessa egenskaper. I denna uppsats presenterar vi en volymetrisk metod för att integrera avståndsbilder som har alla dessa egenskaper. Vår volymetriska representation består av en kumulativ viktad distansfunktion. Genom att arbeta med en räckvidd bild i taget, vi först skanna-konvertera det till en distans funktion, sedan kombinera detta med de data som redan förvärvats med hjälp av en enkel additiv schema. För att uppnå utrymme effektivitet använder vi en run-long kodning av volymen. För att uppnå tidseffektivitet, vi samplar om intervallet bilden för att anpassa sig till voxel rutnätet och passera intervallet och voxel scanlines synkront. Vi genererar det sista grenröret genom att utvinna en isoyta från det volymetriska rutnätet. Vi visar att under vissa antaganden, är denna isoytan optimal i minsta kvadrat betydelse. För att fylla luckor i modellen tessellat vi över gränserna mellan regioner som ses vara tomma och regioner aldrig observeras. Med denna metod kan vi integrera ett stort antal seriebilder (så många som 70) som ger sömlösa modeller med hög detaljrikedom på upp till 2,6 miljoner trianglar. | Bland de icke-geometriska tillvägagångssätten använder REF en volymetrisk representation för att upptäcka de områden som måste fyllas i. | 12,358,833 | A volumetric method for building complex models from range images | {'venue': "SIGGRAPH '96", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,206 |
Förstå dynamiken i online-innehåll popularitet är ett aktivt forskningsområde med tillämpning inom sektorer så olika som mediereklam, innehåll replikation och caching och on-line marknadsföring. I de flesta fall har forskarna fokuserat på användargenererat innehåll, som är fritt tillgängligt via olika on-line-tjänster. Bland sådana tjänster är den dominerande YouTube. Denna online-plattform lanserades 2005 och den har för närvarande mer än 6 miljarder timmar video såg varje månad (nästan en timme per person på jorden), med mer än 100 timmar av videor uppladdade varje minut och 1 miljard unika användare per månad 1. För att analysera eller förutsäga innehåll popularitet, statistik om tittare, klocktid och aktier måste hämtas. YouTube API:erna tillåter dock inte tredje part att hämta sådan information på ett öppet och tillgängligt sätt. För att lösa detta problem har vi utvecklat ett ramverk, baserat på webbskrapteknik och big data verktyg, för insamling och analys av YouTube-videoinnehåll popularitet i skala. Vårt ramverk, kallat YOUStatAnalyzer, gör det möjligt för forskare att skapa sina egna datauppsättningar, enligt ett antal olika sökkriterier och analysera dem för att ta fram relevanta funktioner och viktig statistik. | Ett ramverk som heter YOUStatAnalyzer gör det möjligt för forskare att skapa sina egna datamängder baserat på en mängd olika sökkriterier REF. | 15,267,548 | YOUStatAnalyzer: a tool for analysing the dynamics of YouTube content popularity | {'venue': 'VALUETOOLS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,207 |
Abstract-För linjära modeller, komprimerad sensor teori och metoder möjliggör återvinning av glesa signaler av intresse från få mätningar-i storleksordningen av antalet icke-noll poster i motsats till längden på signalen av intresse. Resultat av liknande smak har mer nyligen dykt upp för bilinjära modeller, men inga resultat finns tillgängliga för multilinjära modeller av tensor data. I detta bidrag överväger vi komprimerad avkänning för glesa och lågvärdiga tensorer. Mer specifikt anser vi lågrankade tensorer syntetiserade som mängder av yttre produkter av glesa lastvektorer, och en speciell klass av linjära dimensionalitetsreducerande transformationer som minskar varje enskilt läge. Vi bevisar intressanta "orkel" egenskaper som visar att det är möjligt att identifiera de okomprimerade glesa laster direkt från komprimerade tensor data. Bevisen tyder naturligtvis på en tvåstegs återhämtningsprocess: montering av en lågvärdig modell i komprimerad domän, följt av per-läge dekompression. Denna tvåstegsprocess är också tilltalande ur en beräknings komplexitet och minneskapacitet synvinkel, särskilt för stora tensor dataset. Index Termer-, CANDECOMP/PARAFAC, komprimerad avkänning, multi-way analys, tensor nedbrytning. | I REF föreslås en multivägskompressiv avkänningsmetod (MWCS) för glesa och lågvärdiga tensorer. | 6,639,990 | Multi-Way Compressed Sensing for Sparse Low-Rank Tensors | {'venue': 'IEEE Signal Processing Letters', 'journal': 'IEEE Signal Processing Letters', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 79,208 |
Abstract-Shake Them All är ett populärt "Wallpaper" program som överstiger miljontals nedladdningar på Google Play. Vid installationen, denna ansökan ges tillstånd till (1) tillgång till Internet (för uppdatering tapeter) och (2) använda enheten mikrofon (för att ändra bakgrund efter bullerförändringar). Med dessa behörigheter kunde programmet tyst spela in användarkonversationer och ladda upp dem på distans. För att ge mer förtroende om hur Shake Them All faktiskt behandlar vad den registrerar, är det nödvändigt att bygga ett exakt analysverktyg som spårar flödet av alla känsliga data från dess källa till någon diskho, särskilt om de är i olika komponenter. Eftersom Android-program kan läcka privat data vårdslöst eller illvilligt, föreslår vi IccTA, en statisk fläckanalysator för att upptäcka integritet läckor bland komponenter i Android-program. IccTA går längre än de senaste metoderna genom att stödja interkomponentdetektering. Genom att sprida kontextinformation mellan olika komponenter förbättrar IccTA analysens precision. IccTA överträffar befintliga verktyg på två riktmärken för ICC-läckdetektorer: DroidBench och ICC-Bench. Dessutom upptäcker vår strategi 534 ICC läcker i 108 appar från MalGenome och 2 395 ICC läcker i 337 appar i en uppsättning av 15 000 Google Play-appar. | Löjtnant m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m för m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. I REF föreslogs IccTA för att förbättra precisionen i ICC-analysen genom att sprida kontextinformation mellan olika komponenter. | 4,834,658 | IccTA: detecting inter-component privacy leaks in Android apps | {'venue': "ICSE '15", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,209 |
Sammanfattning av denna webbsida: För att en robot ska vara en generalist som kan utföra ett brett spektrum av jobb måste den snabbt och effektivt kunna skaffa sig en mängd olika färdigheter i komplexa ostrukturerade miljöer. Högkapacitetsmodeller som djupa neurala nätverk kan göra det möjligt för en robot att representera komplexa färdigheter, men att lära sig varje skicklighet från grunden blir då ogenomförbart. I detta arbete presenterar vi en meta-imiterings inlärningsmetod som gör det möjligt för en robot att lära sig mer effektivt, så att den kan tillägna sig nya färdigheter från bara en demonstration. Till skillnad från tidigare metoder för en-shot imitation, vår metod kan skala till rå pixel ingångar och kräver data från betydligt färre tidigare uppgifter för effektiv inlärning av nya färdigheter. Våra experiment på både simulerade och riktiga robotplattformar visar förmågan att lära sig nya uppgifter, end-to-end, från en enda visuell demonstration. | Med en annan synvinkel föreslog REF en en-shot visuell imitation inlärningsmetod för att låta roboten utföra uppgifterna från bara en enda demonstration. | 22,221,787 | One-Shot Visual Imitation Learning via Meta-Learning | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 79,210 |
Vi presenterar en oövervakad metod för att märka verbens argument med deras semantiska roller. Vår bootstrappningsalgoritm gör initiala entydiga rolluppdrag och uppdaterar sedan iterativt den sannolikhetsmodell som framtida uppdrag baseras på. En ny aspekt av vårt tillvägagångssätt är användningen av verb, slot och substantiv klassinformation som grund för att backa upp i vår sannolikhetsmodell. Vi uppnår 50-65% minskning av felfrekvensen över en informerad baslinje, vilket visar potentialen i vår strategi för en uppgift som hittills har förlitat sig på stora mängder manuellt genererade träningsdata. | REF presenterar en oövervakad metod för att märka verbens argument med deras semantiska roller. | 13,149,615 | Unsupervised Semantic Role Labeling | {'venue': 'SIGDAT Conference On Empirical Methods In Natural Language Processing', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,211 |
Vi presenterar en strategi för att rekonstruera fordon från en enda (RGB) bild, i samband med autonom körning. Även om problemet verkar vara illa ställt, visar vi att förkunskaper om hur 3D-former av fordon projekt till en bild kan användas för att resonera om den omvända processen, dvs. hur former (back-)projekt från 2D till 3D. Vi kodar denna kunskap i form tidigare, som lärs över en liten nyckelpunkt-annoterade dataset. Vi formulerar sedan ett shapeaware anpassningsproblem som använder den inlärda formen tidigare för att återställa 3D-posen och formen av ett frågeobjekt från en bild. För formrepresentation och slutledning utnyttjar vi de senaste framgångarna med Convolutional Neural Networks (CNN) för uppgiften att lokalisera objekt och nyckelpunkter, och utbildar en ny kaskad helt konvolutionell arkitektur för att lokalisera fordonsnyckelpunkter i bilder. Den formmedvetna justeringen återvinner sedan kraftigt formen (3D-platserna för de upptäckta nyckelpunkterna) samtidigt som den fyller i oavslutade nyckelpunkter. För att hantera skattningsfel på grund av felaktigt upptäckta nyckelpunkter använder vi ett Iteratively Re-vikted Least Squares (IRLS) system för robust optimering, och som en biprodukt karakteriserar bullermodeller för varje förutsagd nyckelpunkt. Vi utvärderar vår strategi för autonoma körriktmärken, och presenterar överlägsna resultat till befintliga monokulära, samt stereo metoder. | I REF föreslås en form-aware-ordning för att uppskatta 3D-pose och form av ett fordon, med tanke på formen tidigare kodad i form av nyckelpunkter. | 1,910,679 | Reconstructing vehicles from a single image: Shape priors for road scene understanding | {'venue': '2017 IEEE International Conference on Robotics and Automation (ICRA)', 'journal': '2017 IEEE International Conference on Robotics and Automation (ICRA)', 'mag_field_of_study': ['Engineering', 'Computer Science']} | 79,212 |
Uppmärksamhetsbaserade neural kodare-dekoder ramar har allmänt antagits för bildtextning. De flesta metoder tvingar visuell uppmärksamhet att vara aktiv för varje genererat ord. Dekoder kräver dock knappast någon visuell information från bilden för att förutsäga icke-visuella ord som "den" och "av". Andra ord som kan verka visuella kan ofta förutsägas på ett tillförlitligt sätt bara från språkmodellen, t.ex. "tecken" efter "bakom ett rött stopp" eller "telefon" efter "prata på en cell". I detta dokument föreslår vi en ny adaptiv uppmärksamhetsmodell med en visuell indikator. Varje gång bestämmer sig vår modell för om bilden (och i så fall till vilka regioner) eller den visuella vaktposten ska visas. Modellen avgör om bilden ska användas och var, för att extrahera meningsfull information för sekventiell ordgenerering. Vi testar vår metod på COCO bildtext 2015 utmaning dataset och Flickr30K. Vår strategi sätter den nya toppmoderna tekniken med en betydande marginal. | Sedan i REF, en adaptiv uppmärksamhet modell med en visuell indikator applicerades för att bestämma när du ska delta. | 18,347,865 | Knowing When to Look: Adaptive Attention via a Visual Sentinel for Image Captioning | {'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 79,213 |
I detta dokument föreslås en metod för att ändra ett traditionellt konvolutionellt neuralt nätverk (CNN) till ett tolkningsbart CNN, för att klargöra kunskap representationer i höga konv-lager av CNN. I ett tolkningsbart CNN representerar varje filter i ett högt konv-skikt en specifik objektdel. Våra tolkningsbara CNN använder samma träningsdata som vanliga CNN utan att behöva kommentera objektdelar eller texturer för övervakning. Den tolkningsbara CNN tilldelar automatiskt varje filter i ett högt konv-lager med en objektdel under inlärningsprocessen. Vi kan tillämpa vår metod på olika typer av CNN med olika strukturer. Den explicita kunskapsrepresentationen i ett tolkningsbart CNN kan hjälpa människor att förstå logiken i ett CNN, dvs. vilka mönster som är memorerade av CNN för förutsägelse. Experiment har visat att filter i ett tolkningsbart CNN är mer semantiskt meningsfulla än filter i ett traditionellt CNN. Koden finns på https: // github.com/ zqs1022/interpretableCNN. | Den tolkningsbara CNN REF-inlärda objektdelen funktioner utan del annoteringar. | 4,562,004 | Interpretable Convolutional Neural Networks | {'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 79,214 |
Med den snabba utvecklingen av smartphone marknaden, framtida bilar verkar ha fler anslutningar med intelligent mobiltelefon och Internet. Intelligent transportsystem (ITS) och telematiksystem har blivit forskningsfokus under de senaste åren. Efterfrågan på fjärrövervakning och diagnossystem ökar i takt med att forskningen om hybridelfordon (HEV) fortsätter. I detta papper, en fjärrstyrning område nätverksbuss (CAN-Bus) datamonitor och diagnossystem för HEV presenteras med hjälp av ombord diagnostiska version II (OBD-II) och Android-baserade smartphone. Det är billigt, bekvämt och extensibelt med smartphone som används i systemet för att förverkliga kommunikation med ELM327 och fjärrövervakning center trådlöst. Prototypen av klient och server är utvecklad på Java språk, och det bevisas av testet att systemet fungerar stabilt och de insamlade data har praktiska värden. | REF har presenterat ett diagnostiskt system för hybridelfordon och en datamonitor. | 110,603,113 | Research and Development of Hybrid Electric Vehicles CAN-Bus Data Monitor and Diagnostic System through OBD-II and Android-Based Smartphones | {'venue': None, 'journal': 'Advances in Mechanical Engineering', 'mag_field_of_study': ['Engineering']} | 79,215 |
Abstract-Den traditionella ennivå kontroll pekar metod lider av betydande overhead på storskaliga plattformar. Kontrollprotokoll på flera nivåer har därför studerats ingående under de senaste åren. Kontrollpunkten på flera nivåer gör det möjligt att ställa in olika nivåer av kontrollpunkter (var och en med olika kontrollpunkters omkostnader och återhämtningsförmåga), för att ytterligare förbättra feltoleransprestandan hos HPC-tillämpningar i extrem skala. Hur man optimerar kontrollpunkternas intervaller för varje nivå är dock ett extremt svårt problem. I det här dokumentet konstruerar vi en lättanvänd checkpoint-modell på två nivåer. Checkpoint nivå 1 hanterar fel med låga checkpoint / återvinning overheads såsom övergående minnesfel, medan checkpoint nivå 2 hanterar maskinvarukrascher såsom nodfel. Jämfört med tidigare optimeringsarbete erbjuder vår nya optimala kontrollpunktslösning två förbättringar: (1) det är en onlinelösning utan att kräva kunskap om jobblängden i förväg, och (2) det visar att periodiska mönster är optimala och bestämmer det bästa mönstret. Vi utvärderar den föreslagna lösningen och jämför den med de mest aktuella relaterade tillvägagångssätten på en simuleringsbädd i extrem skala som konstruerats utifrån en riktig HPC-applikation. Simuleringsresultat visar att vår föreslagna lösning överträffar andra optimerade lösningar och i vissa fall kan förbättra prestandan avsevärt. Särskilt, med den nya lösningen kan klockan på väggen förkortas med upp till 25,3 procent jämfört med andra state-of-the-art metoder. Slutligen visar en brute-force-jämförelse med alla möjliga mönster att vår lösning alltid ligger inom 1 procent av det bästa mönstret i experimenten. | Detta beslut riktar sig till Konungariket Spanien. REF analyserade ett kontrollvärde på två nivåer och visade sig vara lika långa segment i den optimala lösningen. | 15,475,645 | Toward an Optimal Online Checkpoint Solution under a Two-Level HPC Checkpoint Model | {'venue': 'IEEE Transactions on Parallel and Distributed Systems', 'journal': 'IEEE Transactions on Parallel and Distributed Systems', 'mag_field_of_study': ['Computer Science']} | 79,216 |
Datorstödd diagnos (CAD) har blivit en av de viktigaste forskningsämnena inom medicinsk avbildning och diagnostisk radiologi. I denna artikel presenteras motivationen och filosofin för tidig utveckling av CAD-system tillsammans med CAD:s nuvarande status och framtida potential i en PACS-miljö. Med CAD använder radiologer datorutgången som ett "andra utlåtande" och fattar de slutliga besluten. CAD är ett koncept som etablerats genom att man tar hänsyn till läkares och datorers roller, medan automatiserad datordiagnos endast är ett koncept baserat på datoralgoritmer. Med CAD behöver datorprestandan inte vara jämförbar med eller bättre än den hos läkare, utan måste komplettera den hos läkare. I själva verket har ett stort antal CAD-system använts för att hjälpa läkare att tidigt upptäcka bröstcancer på mammogram. Ett CAD-system som använder sig av laterala bröstbilder har potential att förbättra den totala prestandan vid upptäckt av lungknutor i kombination med ett annat CAD-schema för PA-bröstbilder. Eftersom vertebrala frakturer kan upptäckas på ett tillförlitligt sätt av datorn på laterala bröströntgen, skulle radiologernas noggrannhet i upptäckten av vertebrala frakturer förbättras genom användning av CAD, och därmed skulle tidig diagnos av osteoporos bli möjlig. I MRA har ett CAD-system utvecklats för att hjälpa radiologer att upptäcka intrakraniella aneurysmer. På på varandra följande benskanningsbilder har ett CAD-schema för detektering av intervallförändringar utvecklats genom användning av tidsmässiga subtraktionsbilder. I framtiden skulle många CAD-system kunna monteras ihop som paket och implementeras som en del av PACS. Till exempel, paketet för bröst CAD kan omfatta datoriserad upptäckt av lungknutor, interstitiell opacitet, kardiomegalt, kotfrakturer, och intervallförändringar i bröstradiografer samt datoriserad klassificering av benigna och maligna knutor och differentialdiagnos av interstitiella lungsjukdomar. För att hjälpa till med differentialdiagnosen skulle det vara möjligt att söka efter och hämta bilder (eller lesioner) med känd patologi, vilket skulle vara mycket likt ett nytt okänt fall, från PACS när en tillförlitlig och användbar metod har utvecklats för att kvantifiera likheten mellan ett par bilder för visuell jämförelse av radiologer. | CAD är ett väl etablerat koncept där läkare använder datorutmatningen på ett kompletterande sätt för att stödja sin slutliga diagnos REF. | 17,233,601 | Computer-aided diagnosis in medical imaging: Historical review, current status and future potential | {'venue': 'Computerized Medical Imaging and Graphics', 'journal': 'Computerized Medical Imaging and Graphics', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 79,217 |
Bilddeskriptorer baserade på aktiveringar av Convolutional Neural Networks (CNN) har blivit dominerande i bildsökning på grund av deras diskriminerande kraft, kompakt representation och sökeffektivitet. Utbildning av CNN, antingen från grunden eller finjustering, kräver en stor mängd kommenterade data, där en hög kvalitet på annotering ofta är avgörande. I detta arbete föreslår vi att finjustera CNN för bildsökning på en stor samling obeställda bilder på ett helt automatiserat sätt. Rekonstruerade 3D-modeller som erhålls genom toppmodern hämtning och struktur-from-motion metoder styr valet av utbildningsdata. Vi visar att både hård-positiva och hård-negativa exempel, utvalda genom att utnyttja geometrin och kamerapositioner tillgängliga från 3D-modellerna, förbättrar prestandan för specifik-objekt hämtning. CNN descriptor vitare discriminativt lärt sig från samma träningsdata överträffar vanliga PCA vitare. Vi föreslår en ny tränad Generalized-Mean (GeM) pooling lager som generaliserar max och genomsnittliga pooling och visar att det ökar hämtning prestanda. Genom att tillämpa den föreslagna metoden på VGG-nätverket uppnås toppmoderna resultat på standardriktmärkena Oxford Buildings, Paris och Holidays datauppsättningar. | Ett nyare verk av Radenovic et al. Ref syftar till att skapa bra deskriptorer för bildsökning genom att finjustera CNN:er på en stor samling obeställda bilder på ett helt automatiserat sätt. | 6,426,453 | Fine-Tuning CNN Image Retrieval with No Human Annotation | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 79,218 |
Abstrakt. Lärda 3D-representationer av mänskliga ansikten är användbara för datorseende problem såsom 3D-ansiktsspårning och rekonstruktion från bilder, liksom grafik program som karaktärsgenerering och animation. Traditionella modeller lär sig en latent representation av ett ansikte med linjära subrymder eller högre-order tensor generaliseringar. På grund av denna linjäritet kan de inte fånga extrema deformationer och icke-linjära uttryck. För att ta itu med detta, introducerar vi en mångsidig modell som lär sig en icke-linjär representation av ett ansikte med hjälp av spektral konvolutioner på en mesh yta. Vi inför provtagning av maskor som möjliggör en hierarkisk mesh representation som fångar icke-linjära variationer i form och uttryck i flera skalor inom modellen. I en varierad miljö, våra modeller prov olika realistiska 3D ansikten från en multivariat Gaussian distribution. Våra träningsdata består av 20,466 maskor av extrema uttryck som fångas upp över 12 olika ämnen. Trots begränsade träningsdata överträffar vår utbildade modell toppmoderna ansiktsmodeller med 50% lägre återuppbyggnadsfel, samtidigt som 75% färre parametrar används. Vi visar att genom att ersätta uttrycket utrymme av en befintlig state-of-theart ansikte modell med vår modell, uppnår en lägre återuppbyggnad fel. Vår data, modell och kod finns på http://coma.is.tue.mpg.de/. | Ranjan m.fl. REF lär sig en icke-linjär modell med hjälp av en djup mesh autoencoder med snabba spektral konvolutionskärnor. | 50,790,278 | Generating 3D faces using Convolutional Mesh Autoencoders | {'venue': 'European Conference on Computer Vision 2018', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,219 |
En stor mängd arbete har ägnats åt att ta itu med frågor som rör företagens integritet i samband med sociala nätverk. Det mesta av detta arbete fokuserar på hur man delar sociala nätverk som ägs av organisationer utan att avslöja de berörda användarnas identiteter eller känsliga relationer. Det har inte ägnats någon större uppmärksamhet åt de risker för privatlivet som användarna utsätts för genom sin dagliga verksamhet för informationsutbyte. I den här artikeln närmar vi oss de integritetsfrågor som tas upp i sociala nät på nätet ur de enskilda användarnas synvinkel: vi föreslår ett ramverk för att beräkna sekretesspoängen för en användare. Denna poäng anger användarens potentiella risk som orsakas av hans eller hennes deltagande i nätverket. Vår definition av integritet poäng uppfyller följande intuitiva egenskaper: ju mer känslig information en användare avslöjar, desto högre hans eller hennes integritet risk. Ju mer synlig informationen blir i nätverket, desto större är risken för integritet. Vi utvecklar matematiska modeller för att uppskatta både känslighet och synlighet av informationen. Vi tillämpar våra metoder på syntetiska och verkliga data och visar deras effektivitet och praktiska nytta. | Liu m.fl. REF föreslog ett ramverk för att beräkna en användares integritetspoäng, vilket anger användarens potentiella risk som orsakas av hennes/hans deltagande i OSN. | 10,963,662 | A Framework for Computing the Privacy Scores of Users in Online Social Networks | {'venue': 'TKDD', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,220 |
ABSTRACT Motivering: Word Sense Disambiguation (WSD), som automatiskt identifierar betydelsen av tvetydiga ord i sitt sammanhang, är ett viktigt steg i textbearbetningen. I detta dokument presenteras en grafbaserad metod för WSD inom det biomedicinska området. Metoden är oövervakad och kräver inga märkta träningsdata. Den använder sig av kunskaper från det enhetliga medicinska språksystemet (UMLS) Metathesaurus som representeras som en graf. En toppmodern algoritm, Personalized PageRank, används för att utföra WSD. Resultat: När de utvärderas på NLM-WSD data sätter algoritmen överträffar andra metoder som förlitar sig enbart på UMLS Metathesaurus. Tillgänglighet: WSD-systemet är licensierat med öppen källkod och tillgängligt från http://ixa2.si.ehu.es/ukb/. UMLS, MetaMap-programmet och NLM-WSD-korpus finns tillgängliga från National Library of Medicine http://www.nlm.nih.gov/research/umls/, http://mmtx.nlm.nih.gov och http://wsd.nlm.nih.gov. Programvara för att konvertera NLM-WSD corpus till ett format som kan användas av vårt WSD-system finns tillgänglig från http://www.dcs.shef.ac.uk/ på marks/biomedical wsd/ under open source license. | Personlig PageRank studeras av REF, förlitar sig på och jämför olika undergrupper av UMLS. | 12,547,785 | Graph-based Word Sense Disambiguation of biomedical documents | {'venue': 'Bioinformatics', 'journal': 'Bioinformatics', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 79,221 |
Konvolutionella neurala nätverk (CNN) vanligtvis byggs genom stapling konvolutionella operationer lager för lager. Även om CNN har visat stark förmåga att extrahera semantik från råa pixlar, är dess kapacitet att fånga rumsliga relationer av pixlar över rader och kolumner av en bild inte fullt utforskad. Dessa relationer är viktiga för att lära sig semantiska objekt med stark form tidigare men svagt utseende samstämmigheter, såsom trafikleder, som ofta ocluded eller inte ens målade på vägytan som visas i Bild. 1 a.............................................................................. I detta dokument föreslår vi rumsliga CNN (SCNN), som generaliserar traditionella djuplager-för-lager-konvolutioner för att skiva-byslice-konvolutioner inom funktionskartor, vilket möjliggör meddelande som passerar mellan pixlar över rader och kolumner i ett lager. Sådan SCNN är särskilt lämplig för lång kontinuerlig form struktur eller stora objekt, med stark rumslig relation men mindre utseende ledtrådar, såsom körfält, stolpar och vägg. Vi tillämpar SCNN på en nyligen släppt mycket utmanande trafik körfältsdetektering dataset och Cityscapse dataset 1. Resultaten visar att SCNN kunde lära sig det rumsliga förhållandet för strukturutmatning och avsevärt förbättra prestandan. Vi visar att SCNN överträffar det recidiverande neurala nätverket (RNN) baserat ReNet och MRF+CNN (MRFNet) i körfältsdetekteringsdata med 8,7% respektive 4,6%. Dessutom vann vår SCNN första plats på TuSimple Benchmark Lane Detection Challenge, med en noggrannhet på 96,53%. | I Ref föreslogs ett rumsligt CNN för att förbättra CNN:s prestanda när det gäller att upptäcka långa kontinuerliga formstrukturer. | 9,164,115 | Spatial As Deep: Spatial CNN for Traffic Scene Understanding | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 79,222 |
Abstract-Simulators har spelat en avgörande roll i robotforskning som verktyg för snabba och effektiva tester av nya koncept, slategier och algoritmer. Hittills har de flesta simulatorer begränsats till 2D-världar, och få har mognat till den punkt där de är både mycket kapabla och lätt anpassningsbara. Gazebo är utformad för att fylla denna nisch genom att skapa en 3D dynamisk multi-robot miljö som kan återskapa de komplexa världar som kommer att mötas av nästa generation av mobila robotar. Dess öppen källkod stat~ls, finkornig coonlml, och hög trohet plats Gazebo i en unik position för att bli mer än bara B steg sten mellan ritbordet och verklig hårdvara: data visualisering, simulering av fjärrenvlronment, och wen omvänd konstruktion av blackbox @ems är alla möjliga tillämpningar. Gazebo The Player and Stage projekt har varit i utveckling sedan 2001, under vilken tid de har upplevt bred spridning användning i både akademi och industri. Spelaren är en nätverksansluten enhetsserver, och Stage är en simulator för stora populationer av mobila robotar i komplexa 2D-domäner. Ett naNra1-komplement för dessa två projekt är en hög trohet utomhus dynamik simulator; detta har tagit form i Gazebo projektet. Utvecklingen av Gazebo har drivits av den ökande användningen av robotfordon för utomhusbruk. Stage är ganska kapabelt att simulera samspelet mellan robotar i inomhusmiljöer, men behovet av en simulator som kan modellera utomhusmiljöer och ge realistisk sensor återkoppling har blivit uppenbart. Gazebo är därför utformad för att korrekt reproducera de dynamiska miljöer som en robot kan stöta på. Alla simulerade objekt har massa, hastighet, friktion och många andra attribut som gör att de kan bete sig realistiskt när de knuffas, dras, slås över eller transporteras. Dessa åtgärder kan användas som integrerade delar av ett experiment, t.ex. konstruktion eller födosök. Robotarna själva är dynamiska smcmres som består av stela kroppar som är sammankopplade via leder. Krafter, både angula och linjära, kan appliceras på ytor och leder för att generera rörelse och interaktion med en miljö. Själva världen beskrivs av landskap, extruderade byggnader och andra användarskapade objekt Nästan alla aspekter av simuleringen är kontrollerbara, från ljusförhållanden till friktionskoefficienter. Enligt de principer som fastställts av Player and Stage är Gazebo helt öppen källkod och fritt tillgänglig (en stor fördel jämfört med de flesta kommersiellt tillgängliga paket). Som ett resultat av detta har Gazebo en aktiv bas av bidragslämnare som snabbt utvecklar paketet för att möta deras ständigt föränderliga behov. Gazebo erbjuder en rik miljö för att snabbt utveckla och testa multirobotsystem på nya och intressanta sätt. Det är ett effektivt, skalbart och enkelt verktyg som också har potential att öppna robotforskningsområdet för ett bredare samhälle, vilket till exempel Gazebo övervägs för undervisning på grundnivå. Detta dokument beskriver den grundläggande arkitekturen i Gazebo-paketet, och illustrerar dess användning och extensibilitet genom ett antal fallstudier för användare. Vi ägnar också viss uppmärksamhet åt framtida riktlinjer för detta paket. Gazebo bas har utvecklats från grunden upp för att vara fullt kompatibel med Player-enheten server. Hårdvaran simulerad i Gazebo är utformad för att korrekt återspegla beteendet hos dess fysiska motsvarighet. Som ett resultat, ett klientprogram ser ett identiskt gränssnitt till en verklig och simulerad robot. Denna funktion gör det möjligt att sömlöst infoga Gazebo i utvecklingsprocessen för ett robotsystem. Även om det är kompatibelt med Player, Gazebo är inte tänkt som en ersättning för Stage simulator. Komplexiteten i att simulera stel kroppsdynamik i kombination med en 3D-miljö kan kraftigt beskatta även en högpresterande dator. Detta har effekten av att begränsa Gazebo till domänen några robotar, för närvarande i storleksordningen tio. Å andra sidan, Stage ger en robust och effektiv simulator för projekt som kräver stora robotpopulationer eller inte kräver den fulla kapaciteten hos Gazebo. Gazebo är långt ifrån det enda valet för en 3D-dynamiksimulator. Det är dock en av de få som försöker skapa realistiska världar för robotarna snarare än bara mänskliga användare. När mer avancerade sensorer utvecklas och införlivas i Gazebo kommer linjen mellan simulering och verklighet att fortsätta att suddas ut, men noggrannheten när det gäller robotsensorer och ställdon kommer att förbli ett övergripande mål. Några anmärkningsvärda system inkluderar COSIMIR [41, utvecklad vid Festo. Detta är ett kommersiellt paket som främst är utformat 2149 för industriell simulering av arbetsflöden med robotsystem, men är även tillämpligt på robotforskning. COSIMR har avancerade modelleringsmöjligheter och fysiska simuleringar som går långt utöver Gazebos kapacitet. Den innehåller många typer av gripdon, förmågan att programmera rörelser i icke-robotiska modeller såsom monteringslinjer, och har verktyg för analys av de simulerade systemen. Ett annat kommersiellt paket är Wehots (51 skapad av Cyberhotics. Wehots möjliggör skapandet av robotar med hjälp av ett bibliotek med fördefinierade ställdon och sensorer. När systemtester i simulatorn är klara kan en användare överföra sin kod till riktiga robotar. Webots huvudsakliga syfte är forskning och utveckling. Cyberbotics utvecklar också ett Player-gränssnitt för kompatibilitet med ett bredare utbud av enheter. Darwin2K 161 och OpenSim 171 representerar två robotsimulatorer med öppen källkod som utvecklats längs liknande linjer som Gazebo. Darwin 2K skapades av Chris Leger vid Camegie Mellon University som ett verktyg för sitt arbete med evolutionsrobotar. Denna simulator modellerar noggrant motor- och växelhuvuden i detalj samtidigt som den ger beräkningar av belastningen på strukturella kroppar. Darwin2K har ett starkt fokus på evolutionär syntes, design och optimering och är fortfarande en kapabel allmän simulator för dynamiska system. OpenSim, under utveckling av David lung, är en allmän öppen källkod robot simulator liknande i design ett syfte till Gazebo. Denna simulator använder sig av samma dud party-programpaket som Gazebo. och har några attraktiva funktioner för att bygga och debugging anikulerade ledkedjor. I.8 Förnyelse av bilaga I till förordning (EU) nr 1094/2010 och bilaga II till förordning (EU) nr 1094/2010, bilaga III till förordning (EU) nr 1094/2010, bilaga III till förordning (EU) nr 1094/2010, bilaga III till förordning (EU) nr 1094/2010, bilaga III till förordning (EU) nr 1094/2010 och bilaga III till den här förordningen. ARCHITECTURE Gazebos arkitektur har utvecklats genom ett par iterationer där vi lärde oss att på bästa sätt skapa ett enkelt verktyg för både utvecklare och slutanvändare. Vi insåg redan från början att ett viktigt inslag i Gazebo bör vara förmågan att enkelt skapa nya robotar, ställdon, sensorer och godtyckliga objekt. Som ett resultat, Gazebo upprätthåller en enkel API för tillägg av dessa objekt, som vi kallar modeller, och nödvändiga krokar för interaktion med klientprogram. Ett lager under detta API finns de thnd parti bibliotek som hanterar både fysik simulering och vlsualization. De särskilda bibliotek som användes valdes utifrån deras status med öppen källkod, aktiva användarbas och mognad. Denna arkitektur är grafiskt avbildad i figur 1. Världen representerar uppsättningen av alla modeller och miljöfaktorer såsom gravitation och belysning. Varje modell består av minst en kropp och ett antal leder och senson. Den lhird parti bibliotek gränssnitt med Gazebo på den lägsta nivån. Detta hindrar modeller från att bli beroende av specifika verktyg som kan förändras i framtiden. Slutligen, klientkommandon tas emot och data retumeras genom ett delat minne gränssnitt. En modell kan ha många gränssnitt för funktioner som exempelvis omfattar kontroll av leder och överföring av kamerabilder. Open Dynamics Engine [8], skapad av Russel Smith, är en allmänt använd fysikmotor i öppen källkodsgemenskapen. Den är utformad för att simulera dynamiken och kinematiken i samband med ledade stela kroppar. Denna motor innehåller många funktioner såsom många leder, kollisionsdetektering, massa och rotationsfunktioner, och många geometrier inklusive godtyckliga triangelmaskor (Figur 6 ). Gazebo använder dessa funktioner genom att tillhandahålla ett lager av abstraktion belägen mellan ODE och Gazebo modeller. Detta lager gör det enkelt att skapa både normala och abstrakta objekt som laserstrålar och markplan samtidigt som alla funktioner som ODE tillhandahåller. Med denna interna slutmodell -abstraktion, är det möjligt att ersätta den underliggande fysikmotorn, om ett bättre alternativ blir tillgängligt. En väl utformad simulator ger vanligtvis någon form av användargränssnitt, och Gazebo kräver en som är både sofistikerad och snabb. Hjärtat i Gazebo ligger i dess förmåga att simulera dynamik, och detta kräver betydande arbete för användarens dator. Ett långsamt och besvärligt användargränssnitt skulle bara minska simulatorns primära syfte. För att ta hänsyn till detta valdes OpenGL och GLUT (OpenGL Utility Toolkit) [9] som standardverktyg för visualisering. OpenGL är ett standardbibliotek för skapande av interaktiva 2D- och 3D-tillämpningar. Den är plattformsoberoende, mycket skalbar, stabil och ständigt utvecklande. Viktigare, många funktioner i OpenCL har varit | Det är en multi-robot simulator för utomhusmiljöer REF och kan simulera en population av robotar, sensorer och objekt, men gör det i en tredimensionell värld. | 206,941,306 | Design and use paradigms for Gazebo, an open-source multi-robot simulator | {'venue': '2004 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS) (IEEE Cat. No.04CH37566)', 'journal': '2004 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS) (IEEE Cat. No.04CH37566)', 'mag_field_of_study': ['Computer Science']} | 79,223 |
I detta dokument är vi intresserade av att människan utgör ett estimeringsproblem med fokus på att lära sig tillförlitliga högupplösta representationer. De flesta befintliga metoder återvinner högupplösta representationer från lågupplösta representationer som produceras av ett nätverk med hög till låg upplösning. Istället upprätthåller vårt föreslagna nätverk högupplösta representationer genom hela processen. Vi börjar från ett högupplöst undernätverk som det första steget, gradvis lägga till hög-till-låg upplösning undernätverk en efter en för att bilda fler steg, och ansluta mutalresolution subnätverk parallellt. Vi genomför upprepade flerskaliga fusioner så att var och en av de hög-till-låg upplösning representationer får information från andra parallella representationer om och om igen, vilket leder till rika högupplösning representationer. Som ett resultat, den förutsagda keypoint värmekartan är potentiellt mer exakt och rumsligt mer exakt. Vi demonstrerar empiriskt effektiviteten i vårt nätverk genom den överlägsna pose estimeringsresultat över två referensdatauppsättningar: COCO keypoint detection dataset och MPII Human Pose dataset. Dessutom visar vi överlägsenheten av vårt nätverk i pose tracking på PoseTrack dataset. Koden och modellerna har varit tillgängliga för allmänheten på https: // github.com/ leoxiaobin/ deep- high- resolution- net.pytorch. | High-Resolution Network (HRNet) REF omfattar både hög- och lågupplösningsrepresentationer. | 67,856,425 | Deep High-Resolution Representation Learning for Human Pose Estimation | {'venue': '2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 79,224 |
Abstrakt. Detta papper beskriver ett system som kallas ComicDiary som automatiskt skapar en personlig dagbok i en seriestil. ComicDiary är byggt som ett undersystem för vårt pågående projekt (C-MAP) för att utveckla ett personligt styrsystem för utställningstur på museer, mässor, akademiska konferenser, städer och så vidare. Syftet med C-MAP-systemet är att ge användarna personlig vägledning enligt tids- och rumsliga situationer samt individuella intressen. ComicDiary är utformad som ett tillfälligt verktyg för att öka en enskild användares minne samt för att uppmuntra samhällen av användare att utbyta personliga minnen. I detta dokument presenteras de preliminära resultaten av användningen av ComicDiary-systemet som en digital assistenttjänst för konferensdeltagare. | Sakamoto m.fl. REF föreslog systemet "ComicDiary" som skapar en serieserie baserad på arkiven från visningen av en utställning. | 13,802,467 | ComicDiary: Representing Individual Experiences in a Comics Style | {'venue': 'Ubicomp', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,225 |
Vi studerar konvergerande påverkan nätverk, där varje nod ändrar sitt tillstånd enligt majoriteten av sina grannar. Vårt huvudsakliga resultat är en ny "n 2 / log 2 n") bunden på konvergenstiden i synkron modell, lösa den klassiska "Demokrater och republikaner" problemet. Dessutom ger vi en gräns för till (n 2 ) för den sekventiella modellen i vilken sekvensen av steg ges av en motståndare och en gräns för (n) för den sekventiella modellen i vilken sekvensen av steg ges genom en välvillig process. | Nyligen har REF visat att stabiliseringstiden i majoritetsprocesser kan vara superlinjär både i synkronmodellen och i den sekventiella modellen om ordern väljs av en motståndare. | 18,989,237 | Convergence in (Social) Influence Networks | {'venue': 'DISC', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,226 |
Vi studerar Plurality Consensus i GOSSIP Model över ett nätverk av n anonyma agenter. Varje agent stöder en inledande åsikt eller färg. Vi antar att vid början, antalet agenter som stöder plurality färg överstiger den av de agenter som stöder någon annan färg med en tillräckligt stor fördomar, även om den ursprungliga pluraliteten i sig kan vara mycket långt ifrån absolut majoritet. Målet är att ge ett protokoll som med stor sannolikhet för in systemet i konfigurationen där alla agenter stöder den (ursprungliga) pluralitetsfärgen. Vi anser att Obeslutade-State Dynamics, ett välkänt protokoll som använder bara en mer tillstånd (den obeslutsamma) än de som krävs för att lagra färger. Vi visar att konvergenshastigheten för detta protokoll beror på den ursprungliga färgkonfigurationen som helhet, inte bara på klyftan mellan pluraliteten och den näst största färggemenskapen. Detta beroende fångas bäst av ett nytt begrepp som vi introducerar, nämligen det monokroma avståndet md(c) som mäter avståndet till den ursprungliga färgkonfigurationen c från närmaste monokroma. I den fullständiga grafen visar vi att för ett brett spektrum av indataparametrar konvergerar denna dynamik inom O(md(c) log n) rundor. Vi bevisar att denna övre gräns är nästan tight i den starka bemärkelsen: Med början från alla färger konfigurationc, konvergenstiden är och (md(c)). Slutligen anpassar vi Obeslutade-State Dynamics för att få ett snabbt, slumpmässigt walk-baserat protokoll för plurality konsensus om regelbundna expanderare. Detta protokoll konvergerar i O(md(c) polylog(n) rundor med endast polylog(n) lokalt minne. En nyckel-ingredient för att uppnå ovanstående gränser är en ny analys av den maximala nod trängsel som är resultatet av att utföra n parallella slumpmässiga promenader på regelbundna expanders. Alla våra gränser håller med stor sannolikhet. | Fortfarande i den enhetliga push-modellen har den obeslutsamma tillståndsdynamiken analyserats i fallet med ett godtyckligt stort antal yttranden, som till och med kan vara en funktion av antalet agenter i systemet REF. | 14,983,050 | Plurality Consensus in the Gossip Model | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 79,227 |
Abstract-mammogram är röntgenbilder av bröstet som används för att upptäcka bröstcancer. När mammogram analyseras med hjälp av dator bör bröstmuskeln helst uteslutas från behandling som är avsedd för bröstvävnaden. Av detta och andra skäl är det viktigt att identifiera och segmentera ut bröstmuskeln. I detta papper, en ny, adaptiv algoritm föreslås att automatiskt extrahera bröstmuskeln på digitaliserade mammografier; den använder kunskap om position och form av bröstmuskeln på mediolaterala sneda vyer. Pectoralkanten uppskattas först av en rak linje som är validerad för korrekt placering och orientering. Denna uppskattning förfinas sedan med hjälp av iterativ "cliff detection" för att avgränsa pectoral marginalen mer exakt. Slutligen, en sluten region, som representerar bröstmuskeln, genereras som en segmentering mask. Algoritmen befanns vara robust till de stora variationerna i utseendet av bröst kanter, till tät överlappande körtelvävnad, och till artefakter som klibbiga tejp. Algoritmen har tillämpats på hela Mammographic Image Analysis Society (MIAS) databas av 322 bilder. Segmenteringsresultaten utvärderades av två experter på mammografiska radiologer, som bedömde 83,9 % av kurvsegmenteringarna som lämpliga eller bättre. | För att klara av denna obekväma REF först uppskattade rät linje avgränsa pectoral muskel med iterativa trösklar och sedan raffinerad denna linje genom klippa upptäckt att vara i linje med pectoral muskelgräns krökning. | 8,352,915 | Automatic pectoral muscle segmentation on mediolateral oblique view mammograms | {'venue': 'IEEE Transactions on Medical Imaging', 'journal': 'IEEE Transactions on Medical Imaging', 'mag_field_of_study': ['Medicine', 'Mathematics', 'Computer Science']} | 79,228 |
Abstract-I många scenarier nätverk design upprätthålls inte av en central myndighet, men uppstår från interaktioner mellan flera egenintresserade agenter. Detta är fallet med Internet, där konnektivitet beror på autonoma systems val, men också på overlay-nätverk, där varje kund kan bestämma vilken uppsättning anslutningar som ska upprättas. Nya verk har använt spelteori, och i synnerhet begreppet Nash Equilibrium, för att karakterisera stabila nätverk som skapats av en uppsättning själviska agenter. Majoriteten av dessa verk förutsätter att användarna är helt icke-kooperativa, vilket i de flesta fall leder till ineffektiv jämvikt. För att förbättra effektiviteten föreslår vi i detta dokument två nya socialt medvetna nätverksdesignspel. I det första spelet införlivar vi en socialt medveten komponent i användarnas allmännyttiga funktioner, medan vi i det andra spelet dessutom använder en Stackelberg (ledare-följare) strategi, där en ledare (t.ex., nätverksadministratören) arkitekter den önskade nätverket köpa en lämplig delmängd av nätverkets länkar, kör på detta sätt användarna till övergripande effektiva Nash Equilibria. Vi tillhandahåller gränser för priset på anarki och andra effektivitetsåtgärder, och studera resultaten av de föreslagna systemen i flera nätverksscenarier, inklusive realistiska topologier där spelarna bygger en overlay på toppen av verkliga Internet Service Provider nätverk. Numeriska resultat visar att (1) att införa vissa incitament för att göra användarna mer socialt medvetna är en effektiv lösning för att uppnå stabila och effektiva nätverk på ett distribuerat sätt, och (2) den föreslagna Stackelberg metoden tillåter att uppnå dramatiska prestandaförbättringar, designa nästan alltid det socialt optimala nätverket. | I REF, är Shapley nätverksdesign spel utökad, lägga till en socialt medveten komponent till användarnas allmännyttiga funktioner. | 8,101,701 | Socially-Aware Network Design Games | {'venue': '2010 Proceedings IEEE INFOCOM', 'journal': '2010 Proceedings IEEE INFOCOM', 'mag_field_of_study': ['Computer Science']} | 79,229 |
Många dataanalysapplikationer hanterar stora matriser och innebär att tillnärma matrisen med hjälp av ett litet antal "komponenter". Vanligtvis är dessa komponenter linjära kombinationer av raderna och kolumnerna i matrisen, och är därför svåra att tolka i termer av de ursprungliga egenskaperna hos indata. I detta dokument föreslår vi och studerar matris approximationer som uttryckligen uttrycks i termer av ett litet antal kolumner och / eller rader av datamatrisen, och därmed mer mottaglig för tolkning i termer av de ursprungliga uppgifterna. Våra viktigaste algoritmiska resultat är två randomiserade algoritmer som tar som ingång en m × n matris A och en rank parameter k. I vår första algoritm, C väljs, och vi låter A ′ = CC + A, där C + är Moore-Penrose generaliserade invers av C. I vår andra algoritm C, U, R väljs, och vi låter A ′ = CU R. (C och R är matriser som består av faktiska kolumner och rader, respektive A, och U är en generaliserad invers av deras skärningspunkt.) För varje algoritm, visar vi att med sannolikhet minst 1 − δ där A k är den "bästa" rank-k approximationen som tillhandahålls genom att trunkera singular value decomposition (SVD) av A, och där X F är Frobenius norm av matrisen X. Antalet kolumner i C och raderna R är ett låggradigt polynom i k, 1/ och log(1/δ). Både Numerical Linear Algebra community och Theoretic Computer Science community har studerat varianter av dessa matris sönderdelningar under de senaste tio åren. Men, våra två algoritmer är de första polynom tid algoritmer för sådana låg-rankade matris approximationer som kommer med relativa-terror garantier; tidigare, i vissa fall, var det inte ens känt om sådana matris sönderdelningar finns. Båda våra algoritmer är enkla och de tar tid på den ordning som behövs för att ungefär beräkna de översta k singular vektorer av A. Den tekniska grunden för vår analys är en ny, intuitiv provtagningsmetod som vi introducerar i detta papper som kallas "subrymdsprovtagning". Vid subrymdsprovtagning beror sannolikheten för provtagning på de euklideiska normerna i raderna på de översta enskilda vektorerna. Detta gör att vi kan få bevisbara relativa-terror garantier genom att dekonvolvera "subrymd" information och "storlek på-A" information i inmatningsmatrisen. Denna teknik är sannolikt att vara användbar för andra matris approximation och data analys problem. * En preliminär version av detta papper framträdde i manuskript och teknisk rapportformat som "Polynomisk Tid Algoritm för Column-Row-Based Relativ-Error Low-Rank Matrix Caimation" [27, 28]. Preliminära versioner av delar av detta dokument har också framträtt som konferensförfaranden [29, 30, 31]. Stora m × n matriser är vanliga i tillämpningar eftersom data ofta består av m objekt, som var och en beskrivs av n funktioner. Exempel på objekt-feature par inkluderar: dokument och ord som ingår i dessa dokument; genom och miljöförhållanden under vilka gensvar mäts; lager och deras tillhörande tidsupplösning; hyperspektral bilder och frekvensupplösning; och webbgrupper och enskilda användare. Inom vart och ett av dessa tillämpningsområden tillbringar utövare mycket tid med att analysera data för att förstå, tolka och i slutändan använda dessa data för någon applikationsspecifik uppgift. Säg att A är m × n datamatrisen. I många fall är ett viktigt steg i dataanalys att konstruera en komprimerad representation av A som kan vara lättare att analysera och tolka. Den vanligaste sådan representation erhålls genom att trunkera Singular Value Decomposition (SVD) med ett visst antal k på min {m, n} termer, i stor del eftersom detta ger den "bästa" rank-k approximation till A när det mäts med avseende på någon unitally invariant matris norm. Tyvärr är de basvektorer (de så kallade eigencolumns och eigenrows) som tillhandahålls genom denna approximation (och med avseende på vilka varje kolumn och rad i den ursprungliga datamatrisen uttrycks) notoriskt svåra att tolka i termer av de underliggande data och processer som genererar dessa data. Till exempel vektorn [(1/2) ålder -(1/ ε 2) höjd + (1/2) inkomst], som är en av de betydande okorrelerade "faktorer" från en datauppsättning av människors egenskaper är inte särskilt informativ. Det skulle vara mycket bättre att ha en låg rank approximation som är nästan lika bra som den som tillhandahålls av SVD men som uttrycks i form av ett litet antal faktiska kolumner och / eller faktiska rader av en matris, snarare än linjära kombinationer av dessa kolumner och rader. Det viktigaste bidraget i detta dokument är att tillhandahålla sådana nedbrytningar. I synnerhet tillhandahåller vi vad vi kallar en relativ-terror CUR matris nedbrytning: med tanke på en m × n matris A, vi sönderdela den som en produkt av tre matriser, C, U och R, där C består av ett litet antal faktiska kolumner av A, R består av ett litet antal faktiska rader av A, och U är en liten noggrant konstruerade matris som garanterar att produkten CU R är "nära" till A. I själva verket kommer CU R att vara nästan lika bra som den bästa låg-ranking approximation till A som traditionellt används och som erhålls genom trunkering SVD. Därför kan kolumnerna A som ingår i C, liksom raderna A som ingår i R, användas i stället för eigencolumns och eigenrows, med den ytterligare fördelen av förbättrad tolkningsbarhet när det gäller de ursprungliga uppgifterna. Innan vi beskriver våra huvudsakliga resultat i nästa underavsnitt vill vi betona att två forskningsgemenskaper, Numerical Linear Algebra (NLA) community och Theoretic Computer Science (TCS) community, har gett betydande praktisk och teoretisk motivation för att studera varianter av dessa matris sönderdelningar under de senaste tio åren. I avsnitt 3 ger vi en detaljerad behandling av relevant tidigare arbete i både NLA och TCS litteratur. De två algoritmer som presenteras i detta dokument är de första polynom tid algoritmer för sådana låg-rankade matris approximationer som kommer med relativa-terror garantier; tidigare, i vissa fall var det inte ens känt om sådana matris sönderdelningar finns. Som ett exempel på denna preferens för att ha datamatrisen uttryckt i ett litet antal faktiska kolumner och rader av den ursprungliga matrisen, i motsats till ett litet antal eigencolumns och eigenrows, anser nyligen dataanalys arbete i DNA mikroarray och DNA Single Nucleotide Polymorphism (SNP) analys [44, 47, 52]. DNA-SNP-data modelleras ofta som en m × n-matris A, där m är antalet individer i studien, n är antalet SNP-värden som analyseras, och A ij är en kodning av j-th SNP-värdet för i-th-individen. På liknande sätt för DNA-mikroarray | Specifikt, givet X till R m×n och en mål rank k, den hävstångs- score provtagningsmetod av REF väljer c = O k/ på 2 log k/ på 2 kolumner av A för att bilda en matris C på R m×c för att ge en (1 + på)-relativt fel med sannolikhet minst 1 − δ. | 58,270 | Relative-Error CUR Matrix Decompositions | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 79,230 |
Sammanfattning Att upptäcka kontraster mellan datainsamlingar är en viktig uppgift inom datautvinning. I detta papper introducerar vi en ny typ av kontrastmönster, en så kallad Minimal Distinguishing Subsequence (MDS). En MDS är en minimal undersekvens som förekommer ofta i en klass av sekvenser och sällan i sekvenser av en annan klass. Det är ett naturligt sätt att representera stark och koncis kontrastinformation mellan två sekventiella datauppsättningar och kan vara användbart i tillämpningar som proteinjämförelse, dokumentjämförelse och bygga sekventiella klassificeringsmodeller. Gruv MDS-mönster är en utmanande uppgift och skiljer sig avsevärt från gruvkontrast mellan relations-/transaktionsdata. En särskilt viktig typ av begränsning som kan integreras i gruvprocessen är gaprestriktionen. Vi presenterar en effektiv algoritm som kallas ConSGapMiner (Contrast Sequences with Gap Miner), för att bryta alla MDS som uppfyller en minimal och maximal gaprestriktion, plus en maximal längdrestriktion. Den använder högeffektiv bitset och boolean verksamhet, för kraftfull gap-baserad beskärning inom en prefix tillväxtram. En prestandautvärdering med både glesa och täta dataset, visar skalbarheten hos ConSGapMiner och visar dess förmåga att bryta mönster från högdimensionella dataset vid låga stöd. | I REF, en minimal särskiljande undersekvens som förekommer ofta i de positiva sekvenser och sällan i de negativa sekvenser föreslås, där den maximala gap restriktion definieras. | 15,880,739 | Mining minimal distinguishing subsequence patterns with gap constraints | {'venue': 'Knowledge and Information Systems', 'journal': 'Knowledge and Information Systems', 'mag_field_of_study': ['Computer Science']} | 79,231 |
Vi är intresserade av att spåra förändringar i storskaliga data genom att periodvis skapa en agglomerativ klusterbildning och undersöka utvecklingen av kluster (kommuner) över tiden. Vi undersöker en stor verklig datauppsättning: NEC CiteSeer databas, ett länkat nätverk av > 250 000 papper. För att spåra förändringar över tid krävs en klusteralgoritm som producerar kluster stabila under små perturbationer av indata. Små störningar av CiteSeer-data leder dock till betydande förändringar i de flesta kluster. Ett skäl till detta är att den ordning i vilken handlingar i samhällen kombineras är något godtycklig. Emellertid, vissa undergrupper av papper, som kallas naturliga samhällen, motsvarar verklig struktur i CiteSeer databasen och därmed visas i någon klusterbildning. Genom att identifiera den delmängd av kluster som förblir stabila under flera klusterkörningar, får vi den uppsättning naturliga samhällen som vi kan spåra över tiden. Vi visar att sådana naturliga samhällen gör det möjligt för oss att identifiera framväxande samhällen och spåra tidsmässiga förändringar i den underliggande strukturen av våra nätverksdata. E sammanslagning av egenskaper hos stora sammankopplade nätverk har nyligen blivit fokus för intensiva studier. Denna forskning drivs av den ökande komplexiteten och betydelsen av stora nätverk, såsom World Wide Web, elnätet, och stora sociala nätverk som fångar relationer mellan individer. Realworld-nätverk uppvisar i allmänhet egenskaper som ligger någonstans mellan dem i mycket strukturerade nätverk och rent slumpmässiga (1-4). Hittills har de flesta forskningen fokuserat på att använda statiska egenskaper, såsom anslutning av noderna i nätverket och det genomsnittliga avståndet mellan två noder, för att förklara den komplexa strukturen. Dessa nätverk utvecklas dock i allmänhet över tiden och därför är tidsbundna egenskaper en viktig källa till intresse. Vårt mål i detta dokument är att tillhandahålla tekniker för att studera utvecklingen av stora sammankopplade nätverk. I vår strategi använder vi agglomerativa kluster av det länkade nätverket. Genom att samla nätverket vid olika tidpunkter studerar vi dess tidsutveckling. Detta tillvägagångssätt lägger en ny börda på den underliggande klustermetoden. Klustermetoder kan vara förvånansvärt känsliga för mindre ändringar av indata. För att få en statisk bild av uppgifternas struktur på högre nivå, kan sådana instabiliteter vara godtagbara eftersom den resulterande hierarkin ofta redan avslöjar intressant struktur. När det gäller att spåra förändringar över tid måste vi dock kunna hitta motsvarande gemenskaper i kluster som tagits från data vid olika tidpunkter. Om klustren är mycket känsliga för små störningar av indata, blir det svårt, om inte omöjligt, att skilja mellan "verkliga" förändringar jämfört med "oavsiktliga" förändringar i strukturen på högre nivå. I klustren av våra länkade nätverksdata fann vi att det finns ett stort antal relativt slumpmässiga kluster som inte motsvarar verkliga samhällsstrukturer. Dessa slumpmässiga kluster skymmer de verkliga temporalförändringarna. Lyckligtvis fann vi att när man utför en serie agglomerativa klusterkörningar, varje körning på något perturbed indata, kan man identifiera en stabil uppsättning kluster som förekommer i en betydande andel av kluster. Dessutom förefaller dessa stabila kluster motsvara nätverkets verkliga underliggande samhällsstruktur. Vi hänvisar till sådana stabila kluster som naturliga samhällen. Vi använder begreppet naturliga samhällen för att visa att vi kan spåra dessa naturliga samhällen effektivt över tiden, och kan därför karakterisera den timliga utvecklingen av nätverket. | I arbetet med REF upptäcktes till exempel naturliga samhällen som var stabila till små störningar av dataunderlaget. | 870,548 | Tracking evolving communities in large linked networks | {'venue': 'Proceedings of the National Academy of Sciences of the United States of America', 'journal': 'Proceedings of the National Academy of Sciences of the United States of America', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 79,232 |
Den dominerande inställningen till visuellt frågesvar (VQA) kräver att modellen inom sina vikter representerar all information som krävs för att svara på alla frågor om någon bild. Att lära sig denna information från någon verklig träningsset verkar osannolikt, och representerar den i ett rimligt antal vikter dubbelt så. Vi föreslår istället att närma oss VQA som en metainlärning uppgift och därmed skilja frågan svarsmetod från den information som krävs. Vid provtillfället förses metoden med en uppsättning exempelfrågor/svar, över vilka den motiverar att lösa den givna frågan. Stödet är inte fast och kan förlängas utan omskolning, vilket utökar modellens kapacitet. För att utnyttja denna dynamiska information anpassar vi en toppmodern VQA-modell med två tekniker från den senaste metainlärningslitteraturen, nämligen prototypiska nätverk och metanätverk. Experiment visar systemets förmåga att lära sig att producera helt nya svar (dvs. aldrig sett under träning) från exempel som ges vid provtillfället. I jämförelse med den nuvarande tekniken producerar den föreslagna metoden kvalitativt distinkta resultat med högre återkallande av sällsynta svar, och en bättre proveffektivitet som möjliggör utbildning med lite inledande data. Ännu viktigare är att det utgör ett viktigt steg mot visions- och språkmetoder som kan lära sig och resonera i farten. | I REF, Teney et al. föreslog en metainlärningsstrategi för VQA som förbättrade återkallandet av sällsynta svar. | 24,688,669 | Visual Question Answering as a Meta Learning Task | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 79,233 |
Vi presenterar en oövervakad visuell funktion lärande algoritm drivs av kontextbaserade pixel förutsägelse. Genom analogi med auto-kodare föreslår vi Context Encoders -ett konvolutionellt neuralt nätverk utbildat för att generera innehållet i en godtycklig bild region som är beroende av dess omgivning. För att lyckas med denna uppgift, måste sammanhangskodare både förstå innehållet i hela bilden, samt producera en rimlig hypotes för saknade delar. När vi tränar sammanhangskodare, har vi experimenterat med både en standard pixel-wise rekonstruktion förlust, samt en rekonstruktion plus en kontradiktorisk förlust. Det senare ger mycket skarpare resultat eftersom det kan bättre hantera flera lägen i produktionen. Vi fann att en sammanhangskodare lär sig en representation som fångar inte bara utseende utan också semantik av visuella strukturer. Vi visar kvantitativt effektiviteten av våra lärda funktioner för CNN förutbildning om klassificering, detektion och segmentering uppgifter. Dessutom kan sammanhangskodare användas för semantiska målningsuppgifter, antingen fristående eller som initiering för icke-parametriska metoder. | I arbetet med REF utbildas ett CNN för att skapa innehåll i en bild som saknas med hjälp av dess omgivande information. | 2,202,933 | Context Encoders: Feature Learning by Inpainting | {'venue': 'CVPR 2016', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,234 |
Abstract-Med den senaste utvecklingen av infrastrukturen för smarta mätare och smarta elnät, mer elkraft data är tillgänglig och möjliggör i realtid enkel dataåtkomst. Modellering av enskilda hushållsapparater laster är viktigt för uppgifter som icke-inträngande belastning disaggregering, belastning prognos och efterfrågerespons stöd. Tidigare metoder kräver vanligtvis undermätning av enskilda apparater i ett hem separat för att bestämma apparaternas modeller, vilket kanske inte är praktiskt, eftersom vi kanske bara kan observera aggregerade verkliga strömsignaler för hela hemmet genom smarta mätare utplacerade i fältet. I detta dokument föreslår vi en modell, kallad Explicit-Duration Hidden Markov Model med differentialobservationer (EDHMM-diff), för att upptäcka och uppskatta enskilda hushållsapparaters belastningar från aggregerade effektsignaler som samlas in med vanliga smarta mätare. Experiment på syntetiska data och verkliga data visar att EDHMM-diff-modellen och den specialiserade framåt-bakåt algoritmen effektivt kan modellera stora hushållsapparater laster. Index Terms-Disaggregering, explicit varaktighet dold Markov modell (HMM), framåt-bakåt, last modellering. | Guo Z m.fl. REF presenterade en modell med namnet Explicit-Duration Hidden Markov Modell med differentialobservationer (EDHMM-diff) för att upptäcka och uppskatta statusen för enskilda hushållsapparater genom signalen för den totala övervakningsbelastningen, och lösa det överlappande fenomenet med de aktiva signalerna, som ligger mellan den elektriska målapparaten och annan elektrisk utrustning. | 679,177 | Home Appliance Load Modeling From Aggregated Smart Meter Data | {'venue': 'IEEE Transactions on Power Systems', 'journal': 'IEEE Transactions on Power Systems', 'mag_field_of_study': ['Engineering']} | 79,235 |
Abstract-This paper överväga gemensamt optimal design av tvärskikts överbelastning kontroll, routing och schemaläggning för ad hoc trådlösa nätverk. Vi formulerar först hastighetsbegränsning och schemaläggning begränsning med hjälp av multicommodity flödesvariabler, och formulera resursfördelning i nätverk med fasta trådlösa kanaler (eller en-rate trådlösa enheter som kan maskera kanalvariationer) som ett verktyg maximization problem med dessa begränsningar. Genom dubbel nedbrytning sönderdelas problemet med resurstilldelning naturligt i tre underproblem: trängselkontroll, routing och schemaläggning som samverkar genom trängselpris. Den globala konvergens egenskapen hos denna algoritm bevisas. Vi utökar sedan den dubbla algoritmen för att hantera nätverk med tidsvarierande kanaler och adaptiva multi-rate-enheter. Stabiliteten i det resulterande systemet är etablerad, och dess prestanda kännetecknas med avseende på ett idealiskt referenssystem som har den bästa möjliga hastighet regionen på länkskiktet. Vi generaliserar sedan de ovan nämnda resultaten till en allmän modell av könätverk som betjänas av en uppsättning av ömsesidigt beroende parallella servrar med tidsvarierande servicefunktioner, som modellerar många designproblem i kommunikationsnät. Vi visar att för en allmän konvex optimering problem där en delmängd av variabler ligger i en polytop och resten i en konvex uppsättning, den dubbla-baserade algoritmen förblir stabil och optimal när restriktionen uppsättningen moduleras av en irreducible finit-state Markov kedja. Detta papper utgör således ett steg mot ett systematiskt sätt att utföra cross-layer-design inom ramen för "layering as optimering decomposition" för tidsvarierande kanalmodeller. | Chen och Al. Ref överväga gemensamt optimera trängsel kontroll, routing, och schemaläggning för nätverk med en kanal och parvis interferens, och utforma en approximation algoritm. | 9,943,297 | Cross-Layer Congestion Control, Routing and Scheduling Design in Ad Hoc Wireless Networks | {'venue': 'Proceedings IEEE INFOCOM 2006. 25TH IEEE International Conference on Computer Communications', 'journal': 'Proceedings IEEE INFOCOM 2006. 25TH IEEE International Conference on Computer Communications', 'mag_field_of_study': ['Computer Science']} | 79,236 |
Vi presenterar PIDGIN, ett programanalys- och förståelseverktyg som möjliggör specifikation och tillämpning av exakta tillämpningsspecifika informationssäkerhetsgarantier. PIDGIN gör det också möjligt för utvecklare att interaktivt utforska informationsflödena i sina tillämpningar för att utveckla policyer och undersöka motexempel. PIDGIN kombinerar programberoende grafer (PDGs), som exakt fångar informationsflöden i en hel ansökan, med en anpassad PDG frågespråk. Frågor uttrycker egenskaper om sökvägarna i PDG; eftersom sökvägar i PDG motsvarar informationsflöden i ansökan, kan frågor användas för att specificera globala säkerhetsstrategier. PIDGIN är skalbart. Skapa en PDG för en 330k linje Java ansökan tar 90 sekunder, och kontrollera en policy om att PDG tar under 14 sekunder. Frågespråket är uttrycksfullt och stöder en stor klass av exakta, tillämpningsspecifika säkerhetsgarantier. Policyer är åtskilda från koden och stör inte testning eller utveckling, och kan användas för säkerhetsregressionstestning. Vi beskriver utformningen och genomförandet av PIDGIN och rapporterar om användningen av den: (1) att utforska informationssäkerhetsgarantier i äldre program; (2) att utveckla och ändra säkerhetspolitik samtidigt med applikationsutveckling; och (3) att utveckla policyer baserade på kända sårbarheter. | En annan metod för informationsflöde analys är via användning av programberoende grafer, som i Pidgin REF. | 18,245,166 | Exploring and enforcing security guarantees via program dependence graphs | {'venue': 'PLDI 2015', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,237 |
Abstract-Facial retuschering används i stor utsträckning inom medie- och underhållningsindustrin. Professionell programvara kräver vanligtvis en miniminivå av användarexpertis för att uppnå de önskvärda resultaten. I den här artikeln presenterar vi en algoritm för att upptäcka ansikts rynkor/imperfektion. Vi tror att alla sådana algoritmer skulle vara mottagliga för ansiktsretuscherande applikationer. Upptäckten av rynkor/imperfektioner kan göra att dessa hudfunktioner kan bearbetas annorlunda än den omgivande huden utan mycket användarinteraktion. För detektion används Gabor-filtersvar tillsammans med strukturorienteringsfält som bildfunktioner. En dubbelmodal Gaussian blandningsmodell (GMM) representerar distributioner av Gabor funktioner av normal hud kontra hud defekter. Sedan används en Markov slumpmässig fältmodell för att införliva de rumsliga sambanden mellan angränsande pixlar för deras GMM-fördelningar och texturorienteringar. En algoritm för förväntan-maximering klassificerar sedan hud kontra hud rynkor/imperfektioner. När det upptäcks automatiskt tas rynkor/imperfektioner bort helt istället för att blandas eller suddas ut. Vi föreslår en exemplar-baserad begränsad textursyntes algoritm för att färga oregelbundet formade luckor kvar genom avlägsnande av upptäckta rynkor/imperfektioner. Vi presenterar resultat utförda på bilder nedladdade från Internet för att visa effektiviteten av våra algoritmer. Index Terms-Facial rynkor, hudbrister, Markov slumpmässiga fält, Gaussian blandning modell, Gabor funktioner, textur orientering fält. | I experimentet, en bimodal Gaussian Blandning Modell (GMM) beskrev fördelningen av normal hud vers hud ofullkomlighet av Gabor funktioner REF. | 13,524,936 | Detection and Inpainting of Facial Wrinkles Using Texture Orientation Fields and Markov Random Field Modeling | {'venue': 'IEEE Transactions on Image Processing', 'journal': 'IEEE Transactions on Image Processing', 'mag_field_of_study': ['Medicine', 'Computer Science', 'Mathematics']} | 79,238 |
Abstract-Recent utvecklingen inom processor, minne och radioteknik har gjort det möjligt för trådlösa sensornätverk som är utplacerade för att samla in användbar information från ett område av intresse. De sensed data måste samlas in och överföras till en basstation där den vidarebehandlas för slutanvändarens frågor. Eftersom nätverket består av lågkostnadsnoder med begränsad batterieffekt måste energieffektiva metoder användas för datainsamling och aggregering för att uppnå långa nätverkslivslängder. I en miljö där var och en av sensornoderna i en kommunikationsrunda har data att skicka till en basstation är det viktigt att minimera den totala energi som förbrukas av systemet i en omgång så att systemets livslängd maximeras. Med hjälp av datafusion och aggregering tekniker, samtidigt minimera den totala energi per runda, om energiförbrukning per nod kan balanseras också, en nära optimal datainsamling och routing system kan uppnås när det gäller nätverkets livslängd. Hittills, förutom det konventionella protokollet för direkt överföring, har två eleganta protokoll som kallas LEACH och PEGASIS föreslagits för att maximera livslängden för ett sensornätverk. I detta dokument föreslår vi två nya algoritmer under namnet PEDAP (Power Efficient Data collection and Aggregation Protocol), som är nära optimal minsta spännvidd trädbaserade routing system, där en av dem är den effekt-medvetna versionen av den andra. Våra simuleringsresultat visar att våra algoritmer fungerar bra både i system där basstationen är långt borta och där den är i centrum av fältet. PEDAP uppnår mellan 4x till 20x förbättring av nätverkets livslängd jämfört med LEACH, och ungefär tre gånger förbättring jämfört med PEGAS. | I REF föreslås en algoritm som heter PEDAP (Power Efficient Data collection and Aggregation Protocol), som genererar minsta spanning Tree (MST) genom att använda Prim algoritm. | 1,665,247 | Power efficient data gathering and aggregation in wireless sensor networks | {'venue': 'SGMD', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,239 |
I detta dokument föreslår vi designstrategier för övertygande teknik som hjälper människor som vill förändra sitt dagliga beteende. Våra strategier använder teori och tidigare arbete för att avsevärt utöka en uppsättning befintliga designmål. Våra utvidgningar tar särskilt hänsyn till sociala särdrag och annan taktik som bör stödjas av övertygande teknik som riktar sig till långsiktig diskretionär användning i hela vardagen. Vi använde dessa strategier för att designa och bygga ett system som uppmuntrar människor att leda en fysiskt aktiv livsstil. Resultat från två fältstudier av systemet – en treveckorsstudie och ett tremånaders experiment – har visat att systemet var framgångsrikt när det gällde att hjälpa människor att upprätthålla en mer fysiskt aktiv livsstil och validera strategiernas användbarhet. | Resultat från preliminära fältstudier har visat UbiFit Gardens effektivitet när det gäller att hjälpa människor att upprätthålla en mer fysiskt aktiv livsstil och tillhandahålla bevis som bekräftar nyttan av interaktiva tekniker såsom notifieringsgränssnitt för att stödja hälsorelaterade beteendeförändringar REF. | 14,837,039 | Theory-driven design strategies for technologies that support behavior change in everyday life | {'venue': 'CHI', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,240 |
Vi presenterar och analyserar en ny algoritm för att etablera delade kryptografiska nycklar i stora, dynamiskt föränderliga grupper. Vår algoritm bygger på en ny tillämpning av enkelriktade funktionsträd. I jämförelse med tidigare publicerade metoder, vår algoritm uppnår ett nytt minimum i antalet bitar som behöver sändas till medlemmar för att ny nyckel efter en medlem läggs till eller vräks. Antalet nycklar som lagras av gruppmedlemmar, antalet nycklar som sänds till gruppen när nya medlemmar läggs till eller vräks och antalet medlemmar i gruppen är logaritmiska i antalet gruppmedlemmar. Vår algoritm ger fullständig säkerhet framåt och bakåt: nyinskrivna gruppmedlemmar kan inte läsa tidigare meddelanden, och vräkta medlemmar kan inte läsa framtida meddelanden, inte ens med maskopi av godtyckligt många vräkta medlemmar. Denna algoritm erbjuder en ny skalbar metod för att upprätta gruppsessionsnycklar för säkra stora gruppapplikationer såsom elektroniska konferenser, multicastsessioner och militär ledning och kontroll. | Under 2003 föreslog Sherman och McGrew ett centralt etableringssystem REF baserat på enkelriktade funktionsträd för hantering av stora dynamiska grupper. | 8,226,262 | Key Establishment in Large Dynamic Groups Using One-Way Function Trees | {'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,241 |
Detta papper undersöker användningen av statistisk maskinöversättning (SMT) metoder för taktisk naturlig språkgenerering. Vi presenterar resultat på att använda frasbaserade SMT för att lära sig att kartlägga mening representationer till naturligt språk. Förbättrade resultat uppnås genom att vända en semantisk parser som använder SMT metoder för att kartlägga meningar i betydelse representationer. Slutligen visar vi att hybridisering av dessa två metoder resulterar i ännu mer exakta genereringssystem. Automatisk och mänsklig utvärdering av genererade meningar presenteras över två domäner och fyra språk. | REF presenterar ett system som lär sig att generera meningar från lambdakalkyl uttryck genom att vända en semantisk parser. | 799,077 | Generation by Inverting a Semantic Parser that Uses Statistical Machine Translation | {'venue': 'Human Language Technologies 2007: The Conference of the North American Chapter of the Association for Computational Linguistics; Proceedings of the Main Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,242 |
Ickelinjära dynamiska system har använts i många discipliner för att modellera komplexa beteenden, inklusive biologisk motorkontroll, robotik, perception, ekonomi, trafikförutsägelse och neurovetenskap. Även om ofta det oväntade framträdande beteendet hos ickelinjära system är fokus för undersökningar, är det lika viktigt att skapa målriktat beteende (t.ex. stabil locomotion från ett system av kopplade oscillatorer under perceptuell vägledning). Modellering målriktat beteende med ickelinjära system är dock ganska svårt på grund av parameterkänsligheten hos dessa system, deras komplexa fasövergångar som svar på subtila parameterförändringar, och svårigheten att analysera och förutsäga deras långsiktiga beteende; intuition och tidskrävande parameterinställning spelar en viktig roll. Detta brev presenterar och granskar dynamiska rörelser primitiva, en linje av forskning för att modellera attraherar beteenden av autonoma icke-linjära dynamiska system med hjälp av statistiska inlärningstekniker. Kärnan i vår strategi är att börja med ett enkelt dynamiskt system, såsom en uppsättning linjära differentialekvationer, och omvandla dem till ett svagt icke-linjärt system med föreskriven dragningskraft dynamik med hjälp av en lärbar autonom tvingarterm. Både point attraherare och limit cykel attraherare av nästan godtycklig komplexitet kan genereras. Vi förklarar designprincipen för vårt arbetssätt och utvärderar dess egenskaper i flera exempelapplikationer inom motorstyrning och robotik. | Dynamiska rörelser primitiva (DMP) har förmågan att modellera dynamiska system med hjälp av en uppsättning icke-linjära differentialekvationer REF. | 2,431,443 | Dynamical Movement Primitives: Learning Attractor Models for Motor Behaviors | {'venue': 'Neural Computation', 'journal': 'Neural Computation', 'mag_field_of_study': ['Computer Science', 'Mathematics', 'Medicine']} | 79,243 |
Trots betydande framsteg på senare tid när det gäller erkännande av ansikte [10, 14, 15, 17] innebär genomförandet av kontroll av ansikte och erkännande på ett effektivt sätt stora utmaningar för de nuvarande strategierna. I detta papper presenterar vi ett system, som heter FaceNet, som direkt lär sig en kartläggning från ansiktsbilder till ett kompakt Euclidean utrymme där avstånden direkt motsvarar ett mått på ansikte likhet. När detta utrymme har producerats, uppgifter som ansiktsigenkänning, verifiering och klusterering kan enkelt genomföras med hjälp av standardtekniker med FaceNet inbäddningar som funktion vektorer. Vår metod använder ett djupt konvolutionsnätverk utbildat för att direkt optimera inbäddningen själv, snarare än en mellanliggande flaskhals lager som i tidigare djupt lärande metoder. För att träna använder vi trioler av ungefär samma matchande / icke-matchande ansiktsfläckar som genereras med hjälp av en ny online triolbrytningsmetod. Fördelarna med vårt tillvägagångssätt är mycket större representationseffektivitet: vi uppnår den senaste ansiktsigenkänningen med endast 128 byte per ansikte. På de allmänt använda Labeled Faces i datasetet Wild (LFW) uppnår vårt system en ny rekordnoggrannhet på 99,63 %. På YouTube Faces DB uppnår den 95.12%. Vårt system sänker felfrekvensen i jämförelse med det bäst publicerade resultatet [15] med 30 % för båda datauppsättningarna. | Schroff m.fl. föreslog ett system för ansiktsigenkänning som kallas "FaceNet", som direkt extraherar en kompakt vektor i Euclidean space REF. | 206,592,766 | FaceNet: A Unified Embedding for Face Recognition and Clustering | {'venue': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 79,244 |
Nätverksinbäddning (NE) spelar en avgörande roll i nätverksanalysen, på grund av dess förmåga att representera hörn med effektiva lågdimensionella inbäddningsvektorer. Befintliga NE-modeller syftar dock till att lära sig en fast sammanhangsfri inbäddning för varje vertex och försumma de olika rollerna när de interagerar med andra hörn. I detta papper antar vi att en vertex vanligtvis visar olika aspekter när interagera med olika grann hörn, och bör äga olika inbäddningar respektive. Därför presenterar vi ContextAware Network Embedding (CANE), en ny NE-modell för att ta itu med denna fråga. CANE lär sig sammanhangsmedvetna inbäddningar för hörn med ömsesidig uppmärksamhet mekanism och förväntas modellera semantiska relationer mellan hörn mer exakt. I experiment jämför vi vår modell med befintliga NE-modeller på tre verkliga datauppsättningar. Experimentella resultat visar att CANE uppnår betydande förbättringar än toppmoderna metoder på länkförutsägelse och jämförbar prestanda på vertex-klassificering. Källkoden och datauppsättningarna kan erhållas från https://github.com/ thunlp/CANE. | CANE REF lär sig två inbäddningsvektorer för varje vertex där den sammanhangsmedvetna texten inbäddas med hjälp av en ömsesidig uppmärksamhetsmekanism. | 6,157,828 | CANE: Context-Aware Network Embedding for Relation Modeling | {'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,245 |
Företagen antar i allt högre grad processmedvetna informationssystem (PAIS), som erbjuder lovande perspektiv på mer flexibla företagsdata. Uppkomsten av olika processstödda paradigm och bristen på metoder för att jämföra befintliga metoder som möjliggör ändringar av PAIS har gjort det svårt att välja lämplig processhanteringsteknik. I detta dokument föreslås 18 förändringsmönster och 7 förändringsstödfunktioner för att främja en systematisk jämförelse av befintlig processhanteringsteknik med avseende på stöd för processförändring. De föreslagna mönstren är alla baserade på empiriska belägg från flera stora fallstudier, men de föreslagna ändringarnas stödfunktioner utgör typiska funktioner som tillhandahålls av flexibla PAIS. Baserat på de föreslagna förändringsmönster och egenskaper, ger vi en detaljerad analys och utvärdering av utvalda strategier från både akademi och industri. Det presenterade arbetet kommer inte bara att underlätta valet av teknik för att förverkliga flexibla PAIS, utan kan också användas som referens för att genomföra flexibla PAIS. | Exempelvis i REF identifierar författarna de viktigaste processförändringsmönstren och förändringsfunktionerna för PAIS (processmedvetna informationssystem). | 673,892 | Change patterns and change support features - Enhancing flexibility in process-aware information systems | {'venue': 'Data Knowl. Eng.', 'journal': 'Data Knowl. Eng.', 'mag_field_of_study': ['Computer Science']} | 79,246 |
Abstract-State-of-the-art objekt detekteringsnätverk är beroende av region förslag algoritmer för att hypothesize objekt platser. Framsteg som SPPnet [1] och Fast R-CNN [2] har minskat drifttiden för dessa detektionsnät, vilket exponerar beräkning av regionförslag som flaskhals. I detta arbete introducerar vi ett regionförslagsnätverk (RPN) som delar fullbildskonvolutionella funktioner med detektionsnätverket, vilket möjliggör nära nog kostnadsfria regionförslag. Ett RPN är ett helt konvolutionellt nätverk som samtidigt förutsäger objektgränser och objektitetspoäng vid varje position. RPN är utbildad end-to-end för att generera högkvalitativa regionförslag, som används av Fast R-CNN för detektion. Vi slår ytterligare samman RPN och Fast R-CNN till ett enda nätverk genom att dela deras konvolutionella funktioner-med hjälp av den nyligen populära terminologin för neurala nätverk med "attention" mekanismer, RPN komponenten talar om för det enhetliga nätverket var man ska leta. För den mycket djupa VGG-16-modellen [3] har vårt detektionssystem en bildhastighet på 5 fps (inklusive alla steg) på en GPU, samtidigt som vi uppnår toppmoderna objektdetektionsnoggrannhet på PASCAL VOC 2007, och MS COCO-datauppsättningar med endast 300 förslag per bild. I ILSVRC och COCO 2015 tävlingar, Snabbare R-CNN och RPN är grunden för den 1: a plats vinnande poster i flera spår. Koden har gjorts tillgänglig för allmänheten. Regionens förslagsmetoder är vanligtvis beroende av billiga funktioner och ekonomiska slutledningssystem. Selektiv sökning [4], en av de mest populära metoderna, sammansmälter girigt superpixel baserat på konstruerade låg nivå funktioner. Ändå jämfört med effektiva detektionsnätverk [2], Selektiv sökning är en storleksordning långsammare, på 2 sekunder per bild i en CPU-implementation. EdgeBoxar [6] ger för närvarande den bästa kompromissen mellan förslagskvalitet och hastighet, med 0,2 sekunder per bild. Trots detta konsumerar regionförslaget lika mycket drifttid som nätverket för upptäckt. Man kan notera att snabba regionbaserade CNN dra nytta av GPU, medan de regionala förslag metoder som används i forskning genomförs på CPU, vilket gör sådana runtime jämförelser ojämförliga. Ett självklart sätt att påskynda beräkningen av förslag är att återinföra det för GPU. Detta kan vara en effektiv teknisk lösning, men omgenomförandet bortser från down-stream detektion nätverk och därför missar viktiga möjligheter att dela beräkningar. I detta dokument visar vi att en algoritmisk förändringskomputerande förslag med en djup konvolutionell neural nätverk-leads till en elegant och effektiv lösning där förslagsberäkning är nästan gratis med tanke på detektionsnätverkets beräkning. I detta syfte introducerar vi nya regionala förslagsnätverk (RPN) som delar konvolutionella skikt med toppmoderna nätverk för objektdetektering [1], [2]. Genom att dela konvolutioner vid testtid är marginalkostnaden för datorförslag liten (t.ex. 10 ms per bild). Vår iakttagelse är att de konvolutionella funktionskartor som används av regionbaserade detektorer, som Fast R-CNN, också kan användas för att generera regionförslag. Ovanpå dessa konvolutionella funktioner konstruerar vi en RPN genom att lägga till några ytterligare konvolutionella lager som samtidigt regresserar regiongränser och objektitet poäng på varje plats på ett vanligt rutnät. RPN är således ett slags fullständigt konvolutionsnätverk [7] och kan utbildas från början till slut särskilt för uppgiften att ta fram förslag på detektering. RPN är utformade för att effektivt förutsäga regionala förslag med ett brett spektrum av skalor och proportioner. I motsats till vanliga metoder [1], [2], [8], [9] som använder pyramider av bilder (Fig. 1a) eller filterpyramider (Fig. 1b), Vi introducerar nya "anchor" rutor som fungerar som referenser på flera skalor och proportioner. Vårt schema kan ses som en pyramid av regressionsreferenser (Fig. 1c), som undviker att räkna upp bilder eller filter av flera skalor eller proportioner. Denna modell fungerar bra när den är tränad och testad med enskaliga bilder och därmed gynnar körhastigheten. För att förena RPNs med snabba R-CNN [2] objektdetekteringsnätverk, föreslår vi ett utbildningsprogram som alternerar S. Ren är med | Snabbare R-CNN REF införlivar slutligen generering av objektförslag i själva nätverket genom att införa ett regionförslagsnätverk (RPN) som fungerar på samma enda funktionskarta över bilden. | 10,328,909 | Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 79,247 |
Förmågan att genomdriva robusta och dynamiska åtkomstkontroller på moln-värdade data samtidigt säkerställa sekretess med avseende på molnet i sig är ett tydligt mål för många användare och organisationer. I detta syfte har det funnits mycket kryptografisk forskning som föreslår användning av (hierarkisk) identitetsbaserad kryptering, attributbaserad kryptering, predikering kryptering, funktionell kryptering och relaterad teknik för att utföra robust och privat åtkomstkontroll på opålitliga molnleverantörer. Det stora flertalet av dessa arbeten studerar dock statiska modeller där tillträdeskontrollpolitiken inte förändras över tid. Detta strider mot behoven hos de flesta praktiska tillämpningar som utnyttjar dynamiska data och/eller strategier. I detta dokument visar vi att den kryptografiska tillämpningen av dynamiska åtkomstkontroller på opålitliga plattformar medför kostnader för beräkning som sannolikt är oöverkomliga i praktiken. Speciellt utvecklar vi lätta konstruktioner för att genomdriva rollbaserade åtkomstkontroller (dvs. RBAC0) över molnvärdiga filer med hjälp av identitetsbaserad och traditionell öppen kryptering. Detta görs under en hotmodell så nära den som antas i den kryptografiska litteraturen som möjligt. Vi bevisar riktigheten i dessa konstruktioner, och utnyttja verkliga RBAC-datauppsättningar och nya tekniker som utvecklats av åtkomstkontrollgemenskapen för att experimentellt analysera, via simulering, deras tillhörande beräkningskostnader. Denna analys visar att stöd för återkallande, filuppdateringar och andra tillstånd förändring funktionalitet sannolikt kommer att medföra oöverkomliga overheads i även minimalt dynamiska, realistiska scenarier. Vi identifierar ett antal flaskhalsar i sådana system, och fruktbara områden för framtida arbete som kommer att leda till mer naturliga och effektiva konstruktioner för kryptografisk tillämpning av dynamiska åtkomstkontroller. Våra resultat sträcker sig naturligtvis till användning av mer uttrycksfulla kryptografiska primitiva (t.ex. HIBE eller ABE) och rikare passerkontrollmodeller (t.ex. RBAC1 eller ABAC). | Garrison m.fl. REF visade att rollbaserad åtkomstkontroll (RBAC$_0$) kan krypteras. | 203,681 | On the Practicality of Cryptographically Enforcing Dynamic Access Control Policies in the Cloud | {'venue': '2016 IEEE Symposium on Security and Privacy (SP)', 'journal': '2016 IEEE Symposium on Security and Privacy (SP)', 'mag_field_of_study': ['Computer Science']} | 79,248 |
Vi beskriver vår metod för att jämföra Semantic Webs kunskapsbassystem med avseende på användning i stora OWL-tillämpningar. Vi presenterar Lehigh University Benchmark (LUBM) som ett exempel på hur man utformar sådana riktmärken. LUBM har en ontologi för universitetsdomänen, syntetiska OWL-data skalbara till en godtycklig storlek, fjorton förlängningsfrågor som representerar en mängd olika egenskaper, och flera prestandamått. LUBM kan användas för att utvärdera system med olika resonemangskapacitet och lagringsmekanismer. Vi visar detta med en utvärdering av två minnesbaserade system och två system med ihållande lagring. | Lehigh University Benchmark Ref ger den nödvändiga ramen för utvärdering och jämförelse av system. | 9,754,025 | LUBM: A benchmark for OWL knowledge base systems | {'venue': 'Semantic Web Journal', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,249 |
Att sluta sig till probabilistiska nätverk från data är en notoriskt svår uppgift. Under olika godhet-of-fit åtgärder, hitta ett optimalt nätverk är NP-hård, även om begränsad till polyträd avgränsade i-grad. Polynom tid algoritmer är kända endast för sällsynta specialfall, kanske mest speciellt för förgreningar, det vill säga polytrees där in-graden av varje nod är som mest en. Här studerar vi komplexiteten i att hitta ett optimalt polytree som kan förvandlas till en förgrening genom att ta bort ett antal bågar eller noder, behandlas som en parameter. Vi visar att problemet kan lösas via en matroid skärningspunkt formulering i polynom tid om antalet raderade bågar begränsas av en konstant. Ordningen av polynomet tid bundet beror på denna konstant, därav algoritmen fastställer inte fast-parameter dragbarhet när parameteriserad av antalet raderade bågar. Vi visar att en begränsad version av problemet tillåter fast-parameter dragbarhet och därmed skalar väl med parametern. Vi kontrasterar detta positiva resultat genom att visa att om vi parameterize av antalet raderade noder, en något mer kraftfull parameter, problemet är inte fast-parameter dragbar, under förutsättning att en komplexitet-teoretisk antagande. | Ett annat arbete finner en optimal polytree som kan omvandlas till ett träd med ett begränsat antal kant eller nod raderingar REF. | 1,681,189 | On Finding Optimal Polytrees | {'venue': "Proc. AAAI'12, pp. 750-756 (AAAI Press 2012)", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 79,250 |
ABSTRACT Interaktionstest kan användas för att effektivt upptäcka fel som annars är svåra att hitta med andra testmetoder. I praktiken utsätts dock programvarusystemens inmatningskonfigurationer för begränsningar, särskilt när det gäller mycket konfigurerbara system. Att hantera begränsningar effektivt och effektivt i kombinatoriska interaktionstester är ett utmanande problem. Trots detta har forskare angripit denna utmaning genom olika tekniker, och stora framsteg har gjorts under det senaste årtiondet. Det är därför lämpligt att reflektera över de nuvarande resultaten och bristerna och att identifiera möjliga områden för förbättringar. I denna rapport presenteras den första omfattande och systematiska litteraturstudien för att strukturera och kategorisera forskningsbidragen för begränsade interaktionstester. I enlighet med riktlinjerna för att genomföra en litteraturstudie, utvinns relevanta data från en uppsättning av 103 forskningsrapporter som hör till begränsad interaktionstestning. De ämnen som behandlas i begränsad interaktionstestningsforskning är indelade i fyra kategorier av begränsningstestgenerering, tillämpning, generering och tillämpning samt modellvalideringsstudier. Dokumenten inom var och en av dessa kategorier granskas ingående. Förutom att svara på flera andra forskningsfrågor, diskuterar denna uppsats också tillämpningar av begränsad interaktion testning i flera domäner, såsom programvara produktlinjer, feldetektering och karakterisering, testval, säkerhet, och grafiskt användargränssnitt testning. Detta dokument avslutas med en diskussion om begränsningar, utmaningar och framtida arbete på området. | En nyligen genomförd systematisk litteraturöversikt om begränsning av interaktionstester listade 103 forskningsdokument som behandlar just detta problem REF. | 21,907,362 | Constrained Interaction Testing: A Systematic Literature Study | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 79,251 |
Vi introducerar variationsdiagram autoencoder (VGAE), ett ramverk för oövervakad inlärning på grafstrukturerade data baserat på variations auto-encoder (VAE) [2, 3]. Denna modell använder latenta variabler och kan lära sig tolka latenta representationer för oriktade grafer (se figur 1). Vi demonstrerar denna modell med hjälp av en graf konvolutional nätverk (GCN) [4] encoder och en enkel inre produkt dekoder. Vår modell uppnår konkurrenskraftiga resultat på en länk förutsägelse uppgift i citeringsnätverk. I motsats till de flesta befintliga modeller för oövervakad inlärning på grafstrukturerade data och länk förutsägelse [5, 6, 7, 8], kan vår modell naturligt införliva nod funktioner, vilket avsevärt förbättrar prediktiva prestanda på ett antal referensdatauppsättningar. Definitioner Vi får en oriktad, oviktad graf G = (V, E) med N = på V. Vi introducerar en adjacensmatris A av G (vi antar diagonala element inställda till 1, dvs.. Varje nod är ansluten till sig själv) och dess gradmatris D. Vi introducerar ytterligare stokastiska latenta variabler z i, sammanfattas i en N × F matris Z. Node funktioner sammanfattas i en N × D matris X. Inferensmodell Vi tar en enkel inferensmodell parameteriserad av en tvålagers GCN: Här, μ = GCN μ (X, A) är matrisen av medelvektorer μ i; liknande log σ = GCN σ (X, A). Den två-lager GCN definieras som GCN(X, A) =Ã ReLU Ã XW 0 W 1, med viktmatriser W i. GCN μ (X, A) och GCN σ (X, A) dela första-lager parametrar W 0. ReLU(·) = max(0, ·) och 2 är den symmetriskt normaliserade adjakensmatrisen. Generativ modell Vår generativa modell ges av en inre produkt mellan latenta variabler: där A ij är elementen i A och σ(·) är den logistiska sigmoidfunktionen. Inlärning Vi optimerar den variationella nedre gränsen L w.r.t. variationsparametrarna W i : | Variativ graf autokodare (VGAE) REF är också en oövervakad inlärningsmetod för oriktade grafer. | 14,249,137 | Variational Graph Auto-Encoders | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 79,252 |
En ensemble är en samling av relaterade dataset. Varje datauppsättning, eller medlem, av en ensemble är normalt stor, flerdimensionell, och spatio-temporal. Ensembler används i stor utsträckning av forskare och matematiker, till exempel genom att utföra en simulering upprepade gånger med något olika indataparametrar och spara resultaten i en ensemble för att se hur parameterval påverkar simuleringen. För att dra slutsatser från en ensemble måste forskare jämföra data både inom och mellan ensemblemedlemmar. Vi föreslår två tekniker för att stödja ensemble prospektering och jämförelse: en parvis sekventiell animation metod som visualiserar lokalt angränsande medlemmar samtidigt, och en skärmdörr färgning metod som visualiserar undergrupper av medlemmar med hjälp av skärmutrymme uppdelning. Vi demonstrerar förmågan hos båda teknikerna, först med hjälp av syntetisk data, sedan med simuleringsdata från tunga jonkollisioner i högenergifysik. Resultaten visar att båda teknikerna kan stödja meningsfulla jämförelser av ensembledata. | Detta beslut träder i kraft dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. föreslagna: (1) parvis sekventiell animering, och (2) skärmdörr färgning för 3D ensemble visualisering REF. | 15,977,096 | Exploring Ensemble Visualization | {'venue': 'Proceedings of SPIE--the International Society for Optical Engineering', 'journal': 'Proceedings of SPIE--the International Society for Optical Engineering', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 79,253 |
Abstrakt. När HPC-gemenskapen försöker nå exaskala prestanda, makt kommer att vara en av de mest kritiska begränsade resurser. Att uppnå praktisk exaskala beräkning kommer därför att förlita sig på att optimera prestanda som är föremål för en effektbegränsning. Denna ytterligare komplikation bör dock inte öka bördan för programutvecklare; optimering av run-time miljö med begränsad kraft kommer i första hand att vara jobbet för högpresterande system programvara. Detta dokument introducerar dirigent, ett run-time system som intelligent distribuerar tillgänglig kraft till noder och kärnor för att förbättra prestanda. De viktigaste teknikerna som används är utforskning av konfigurationsutrymme och adaptiv effektbalansering. Konfigurationsprospektering väljer dynamiskt den optimala trådkonvergensnivån och DVFS-tillståndet med en hårdvaruförstärkt kraftbindning. Adaptive power balance bestämmer effektivt var kritiska vägar sannolikt kommer att uppstå så att mer kraft fördelas till dessa vägar. Större kraft, i sin tur, tillåter ökad trådkonvergens nivåer, DVFS stater, eller båda. Vi beskriver dessa tekniker i detalj och visar att, jämfört med den state-of-the-art tekniken att använda statiskt förutbestämda, per-node power caps, Conductor leder till en bästa-fall prestandaförbättring på upp till 30%, och genomsnittlig förbättring på 19,1%. Den amerikanska regeringen, liksom europeiska och asiatiska organ, har satt som mål att nå exaskala dator på mindre än 10 år. Men om vi skulle bygga en exaskalamaskin av dagens hårdvara, skulle den förbruka en halv gigawatt kraft [21, 13] och i praktiken kräva ett särskilt kraftverk. I verkligheten finns det en praktisk makt bunden, som är mycket hårdare, och en sådan bunden allmänt används av både forskning samt industriella högpresterande dator (HPC) gemenskapen är 20 megawatt [2]. Det är uppenbart att framtida HPC-system kommer att ha en effektbegränsning för hela systemet som kommer att filtrera ner till kraftbegränsningar på jobbnivå. Målet på jobbnivå kommer att vara att optimera prestandan under förutsättning att en föreskriven effekt är bunden. HPC-användare har tillräckligt att hantera med att säkerställa korrekthet och upprätthålla tillräcklig prestanda, så uppgiften att upprätthålla den jobbnivå makt bör lämnas till | Arbetet i REF betonar ledare, vilket är ett runtime system som dynamiskt distribuerar tillgänglig kraft till de olika beräkning noder och kärnor baserat på tillgängliga slack för att maximera prestanda. | 11,885,943 | A Run-Time System for Power-Constrained HPC Applications | {'venue': 'ISC', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,254 |
I detta dokument presenteras uppgiftsdefinitionen, resurser, deltagande system och jämförande resultat för den gemensamma uppgiften om ordanpassning, som organiserades som en del av ACL 2005 Workshop on Building and Using Parallel Texts. Den gemensamma uppgiften omfattade Engelska-Inuktitut, Rumänska-Engelska, och Engelsk-Hindi sub-tasks, och drog deltagande av tio lag från hela världen med totalt 50 system. Uppgiften med ordanpassning består i att hitta korrespondenser mellan ord och fraser i parallella texter. Om man antar att en mening ligger i linje med en tvåspråkig corpus på språken L1 och L2, är uppgiften för ett orduppställningssystem att ange vilket ord i språk L1 som motsvarar vilket ord i språk L2 som används. Årets gemensamma uppgift följer på framgången med det tidigare ordet anpassning utvärdering som organiserades under HLT/NAACL 2003 workshop om "Bygga och använda parallella texter: Data Driven Machine Translation and Beyond" (Mihalcea och Pedersen, 2003). Den nuvarande utgåvan är dock tydlig eftersom den har fokus på språk med knappa resurser. De deltagande grupperna fick tränings- och testdata för tre språkpar, som svarade för olika nivåer av databrist: (1) Engelsk-Inuktitut (2 miljoner ord utbildningsdata), (2) Rumänsk-Engelsk (1 miljon ord) och (3) Engelsk-Hindi (60.000 ord). I likhet med den tidigare utvärderingen av ordanpassning och med de utvärderingar av maskinöversättningar som NIST anordnade definierades två olika deluppgifter: (1) Begränsade resurser, där systemen endast tilläts använda de resurser som tillhandahölls. (2) Obegränsade resurser, där systemen tilläts använda alla resurser utöver de som tillhandahölls. Sådana resurser måste uttryckligen nämnas i beskrivningen av systemet. Testdata släpptes en vecka före tidsfristen för inlämning av resultat. De deltagande lagen ombads att producera ordanpassningar, efter ett gemensamt format som anges nedan, och lämna in sin utdata inom en viss tidsfrist. Resultaten returnerades till varje lag inom tre dagar efter inlämnandet. | Martin och Al. Ref har diskuterat ordanpassning för språk med knappa resurser. | 15,166,874 | Word Alignment For Languages With Scarce Resources | {'venue': 'Workshop On Building And Using Parallel Texts', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,255 |
Abstract-Wireless sensornätverk har i stor utsträckning använts för övervakning i tuffa miljöer. I många sådana tillämpningar avkänns miljödata kontinuerligt, och en servers insamling av data utförs endast då och då. Därför måste sensornoder tillfälligt lagra data, och ge enkel och on-hand åtkomst för de mest uppdaterade data när servern närmar sig. Med tanke på den dyra server-till-sensor-kommunikationen, den stora mängden sensorer och det begränsade lagringsutrymmet vid varje liten sensor, blir kontinuerlig datainsamling ett utmanande problem. I detta dokument presenterar vi partiell nätkodning (PNC) som ett generiskt verktyg för ovanstående applikationer. PNC generaliserar det befintliga nätverkskodningsparadigmet (NC), en elegant lösning för allestädes närvarande datadistribution och insamling. Ändå möjliggör PNC effektiv lagring ersättning för kontinuerliga data, vilket är en stor brist i den konventionella NC. Vi bevisar att prestandan hos PNC är ganska nära NC, förutom en sublinjär overhead på lagring och kommunikation. Vi tar sedan upp en rad praktiska frågor mot PNC-baserad kontinuerlig datainsamling i sensornätverk. Dess genomförbarhet och överlägsenhet demonstreras ytterligare genom simuleringsresultat. | Som en elegant lösning för allestädes närvarande datadistribution och insamling, Wang et al. I REF föreslås teknik för partiell nätkodning för att möjliggöra effektiv utbyte av lagring för distribuerad lagring av sensordata. | 4,618,339 | Partial Network Coding: Theory and Application for Continuous Sensor Data Collection | {'venue': '200614th IEEE International Workshop on Quality of Service', 'journal': '200614th IEEE International Workshop on Quality of Service', 'mag_field_of_study': ['Computer Science']} | 79,256 |
Vi presenterar en metod för att använda tidigare utbildade "lärare" agenter för att kickstarta utbildningen av en ny "student" agent. I detta syfte utnyttjar vi idéer från policydestillation (Rusu et al., 2015; Parisotto et al., 2015) och befolkningsbaserad utbildning (Jaderberg et al., 2017). Vår metod sätter inga begränsningar på lärarens eller studentagenternas arkitektur, och den reglerar sig själv för att låta eleverna överträffa sina lärare i prestanda. Vi visar att, på en utmanande och beräkningsintensiv multi-task-riktmärke (Beattie et al., 2016), kickstartade utbildning förbättrar dataeffektiviteten hos nya agenter, vilket gör det betydligt lättare att iterera på deras design. Vi visar också att samma kickstartande pipeline kan göra det möjligt för en enskild studentagent att utnyttja flera "expert" lärare som specialiserar sig på enskilda uppgifter. I denna inställning kickstart ger förvånansvärt stora vinster, med kickstartade agent matcha prestanda en agent tränas från grunden i nästan 10× färre steg, och överträffar sin slutliga prestanda med 42%. Kickstarting är konceptuellt enkelt och kan enkelt integreras i förstärkande inlärningsexperiment. | Schmitt m.fl. REF bygger också vidare på idén om policydestillering men föreslår dessutom att lärarsignalen ska vara sådan att studenten kan överträffa lärarens prestationer. | 3,883,991 | Kickstarting Deep Reinforcement Learning | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 79,257 |
Likhetssökning i stora tidsseriers databaser har på senare tid väckt stort forskningsintresse. Det är ett svårt problem på grund av datans typiskt höga dimensionalitet. De mest lovande lösningarna är att utföra dimensionalitetsminskning på data och sedan indexera reducerade data med en flerdimensionell indexstruktur. Många dimensionalitetsreduktion tekniker har föreslagits, inklusive Singular Value Decomposition (SVD), Diskrete Fouriertransform (DFT), och Diskrete Wavet Transform (DWT). I den här artikeln introducerar vi en ny dimensionalitetsreduktionsteknik, som vi kallar Adaptive Piecewise Constant Caimation (APCA). Medan tidigare tekniker (t.ex. SVD, DFT och DWT) väljer en gemensam representation för alla objekt i databasen som minimerar det globala återuppbyggnadsfelet, APCA approximerar varje tidsserie med en uppsättning konstanta värdesegment av varierande längder så att deras individuella rekonstruktionsfel är minimala. Vi visar hur APCA kan indexeras med hjälp av en flerdimensionell indexstruktur. Vi föreslår två avståndsmått i indexerade utrymme som utnyttjar den höga troheten hos APCA för snabb sökning: en lägre gränsande Euclidean avstånd approximation, och en icke-lägre-gränsande, men mycket snäv, Euclidean avstånd approximation, och visa hur de kan stödja snabb exakt sökning och ännu snabbare ungefärlig sökning på samma index struktur. Vi jämför teoretiskt och empiriskt APCA med alla andra tekniker och visar dess överlägsenhet. | I REF Keogh et al. införa en ny dimensionalitetsreduktionsteknik som kallas Adaptive Piecewise Constant Caimation (APCA) och som ungefär motsvarar en känd tidsserie med en uppsättning konstanta värdesegment av varierande längd så att deras individuella rekonstruktionsfel är minimala. | 15,192,608 | Locally adaptive dimensionality reduction for indexing large time series databases | {'venue': 'TODS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,258 |
Vi presenterar ett sortiment av metoder för att hitta och räkna enkla cykler av en given längd i riktade och oriktade grafer. De flesta av de gränser som erhålls beror enbart på antalet kanter i diagrammet i fråga, och inte på antalet hörn. De gränser som erhållits förbättras på olika tidigare kända resultat. Nyckelord. Grafiska algoritmer, cykler. 1. Vad är det för fel på dig? Inledning. Problemet med att bestämma huruvida en givengraphG = (V, E) innehåller en enkel cykel av längd k är bland de mest naturliga och lätt angivna algoritmiska grafproblem. Om cykeln längd k är en del av inmatningen, då problemet är helt klart NPfullständig som det inkluderar i synnerhet Hamiltonian cykel problem. För varje fast k, men problemet kan lösas i antingen O(VE) tid [11] där w < 2.376 är exponenten för matris multiplikation. Det viktigaste bidraget av detta papper är en samling nya gränser på komplexiteten av att hitta enkla cykler av längd exakt k, där k > 3 är ett fast heltal, i en riktad eller en oriktad graf G = (V, E). Dessa gränser är av formen O (E ~k ) eller av formen O(E ~k.d(G)• där d(G) är degeneracy av grafen (se nedan). Gränserna förbättras vid tidigare kända gränser när grafen i fråga är relativt gles eller relativt degenererad. Vi lät Ck stå för en enkel cykel av längd k. När man överväger riktade grafer, en Ck antas vara riktad. Vi visar att en Ck i en riktad eller oriktad graf G = (V, E), om en finns, kan hittas i O(E 2-2/k) tid, om k är jämn, och i O(E 2-2/(k+1) tid, om k är udda. För att hitta trianglar (C3's), får vi den något bättre bundet av O(E 2~176 = O(EI41), där w < 2.376 är exponenten för matris multiplikation. Även cykler i oriktade grafer kan hittas ännu snabbare. En C4k-2 i en oriktad graf G = (V, E), om en finns, kan hittas i O(E 2-(l/2k)tl+l/k) tid. En Cak, om en finns, kan hittas i O(E 2-(l/k-t/(2k+~))) tid. I synnerhet kan vi hitta en oriktad Ca i O(E 4/3) tid och en oriktad C6 i O(E 13/8) tid. Degeneracy d(G) i en oriktad graf G---(V, E) är det minsta antal d för vilket det finns en acyklisk orientering av G där alla utgrader är som mest d. Degeneracy d(G) i en graf G är linjärt relaterad till arboricity a(G) i grafen, dvs a(G) = (-) (d(G)), där a(G) är det minsta antal skogar som behövs I | På 1990-talet gjordes stora ansträngningar för att hitta bra algoritmer för att (a) upptäcka förekomsten av cykler av en given längd och/eller (b) räkna cyklerna av en given längd REF. | 725,250 | Finding and counting given length cycles | {'venue': 'Algorithmica', 'journal': 'Algorithmica', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 79,259 |
Abstrakt. Vi anser att potentialen för kanter i lokal funktionsdetektering inte har utnyttjats fullt ut och föreslår därför en detektor som utgår från enskaliga kanter och producerar tillförlitliga och tolkningsbara blob-liknande regioner och grupper av regioner med godtycklig form. Detektorn är baserad på sammanslagning av lokal maxima av avståndet transform styrd av lutningsstyrkan i de omgivande kanterna. Repeterbarhet och matchningspoäng utvärderas och jämförs med toppmoderna detektorer på standardriktmärken. Dessutom demonstrerar vi den potentiella tillämpningen av vår metod på bred baslinje matchning och funktionsdetektering i sekvenser som involverar mänsklig aktivitet. | Rapantzikos m.fl. beräkna binärt avstånd transform av Canny kanter och upptäcka regioner genom att gruppera sin lokala maxima, styrs av lutning styrka närliggande kanter REF. | 5,400,862 | Detecting Regions from Single Scale Edges | {'venue': 'ECCV Workshops', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,260 |
Sociala medier texter är skrivna i en informell stil, vilket hindrar andra naturliga språkbehandling (NLP) tillämpningar såsom maskinöversättning. Text normalisering är därför viktigt för bearbetning av sociala medier text. Tidigare arbete fokuserade främst på att normalisera ord genom att ersätta ett informellt ord med dess formella form. I detta dokument, för att ytterligare förbättra andra nedströms NLP-tillämpningar, hävdar vi att andra normaliseringsåtgärder också bör utföras, t.ex. saknade ord återvinning och interpunktion korrigering. En ny avkodare för strålsökning föreslås för att effektivt integrera olika normaliseringsåtgärder. Empiriska resultat visar att vårt system uppnår statistiskt signifikanta förbättringar över två starka baslinjer i både normaliserings- och översättningsuppgifter, för både kinesiska och engelska. | En strålesökningsavkodare för normalisering av sociala medier presenterades i REF. | 2,853,888 | A Beam-Search Decoder for Normalization of Social Media Text with Application to Machine Translation | {'venue': 'NAACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,261 |
Abstract-Vi presenterar nya nättäckningsstrategier för effektiv övervakning och målplacering i distribuerade sensornätverk. Vi representerar sensorfältet som ett rutnät (två eller tredimensionella) av punkter (koordinater) och använder termen målplats för att hänvisa till problemet med att lokalisera ett mål vid en rutnätspunkt när som helst i tiden. Vi presenterar först ett heltal linjär programmering (ILP) lösning för att minimera kostnaden för sensorer för fullständig täckning av sensorfältet. Vi löser ILP-modellen med hjälp av en representativ offentlig-domänlösare och presenterar en splitter-ochconquer-strategi för att lösa stora problemfall. Vi använder sedan ramverket för att identifiera koder för att bestämma sensorplacering för unik målplats. Vi tillhandahåller kodning-teoretiska gränser på antalet sensorer och presenterar metoder för att bestämma deras placering i sensorfältet. Vi visar också att rutnätsbaserad sensorplacering för enstaka mål ger asymptotiskt komplett (oambikuöst) placering av flera mål i rutnätet. | I REF, Ett heltal programmering formulering används för att minimera kostnaden för att täcka regionen av intresse. | 202,214 | Grid Coverage for Surveillance and Target Location in Distributed Sensor Networks | {'venue': 'IEEE Transactions on Computers', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,262 |
R o g e r M. N e e d h a m a n d M i c h a e l D. S c h r o e d e r X e r o x P a l o A l t o R e s e a r c h C e n t e r Användning av kryptering för att uppnå autentiserad kommunikation i datornätverk diskuteras. Exempel protokoll presenteras för upprättande av autentiserade anslutningar, för hantering av autentiserad post, och för signaturverifikation och dokumentintegritet garanti. Både konventionella och allmänna krypteringsalgoritmer betraktas som grunden för protokoll. Nyckelord och fraser: kryptering, säkerhet, autentisering, nätverk, protokoll, kryptosystem med öppen nyckel, datakrypteringsstandard CR Kategorier: 3.81, 4.31, 4.35 I samband med säker datorkommunikation innebär autentisering att de kommunicerande principernas identitet verifieras till varandra. Ett nätverk i vilket ett stort antal datorer kommunicerar får inte ha någon central maskin eller något system som innehåller upphovsmanBefogenhet att utan avgift kopiera allt eller en del av detta material, förutsatt att kopiorna inte görs eller distribueras för direkt kommersiell fördel, att meddelandet om upphovsrätt till ACM och titeln på publikationen och dess datum visas, och att det meddelas att kopiering sker genom tillstånd från Föreningen för datormaskiner. För att kopiera på annat sätt, eller för att återpublicera, krävs en avgift och/eller ett särskilt tillstånd. itativa beskrivningar av de anslutna datorerna, av de ändamål för vilka de används eller av de personer som använder dem. Vi presenterar protokoll för decentraliserad autentisering i ett sådant nätverk som är integrerat med det allierade ämnet namngivning. Det finns ett minimalt beroende av nätverksomfattande tjänster; i synnerhet finns det inget beroende av en enda nätverksklocka eller en enda förvaltningsmyndighet för nätnamn. Tre funktioner diskuteras: (1) Etablering av autentiserad interaktiv kommunikation mellan två huvudmän på olika maskiner. Med interaktiv kommunikation menar vi en serie meddelanden i båda riktningarna, vanligtvis var och en som svar på en tidigare. (2) Autentiserad enkelriktad kommunikation, t.ex. i postsystem, där det är omöjligt att kräva protokollutbyte mellan avsändaren och mottagaren när en vara skickas, eftersom det inte kan finnas någon garanti för att avsändaren och mottagaren är samtidigt tillgängliga. (3) Undertecknad kommunikation, där ett meddelandes ursprung och innehållets integritet kan bestyrkas för en tredje part. Säker kommunikation i fysiskt utsatta nätverk beror på kryptering av material som passerar mellan maskiner. Vi antar att det är möjligt för varje dator i nätverket att kryptera och dekryptera material effektivt med godtyckliga nycklar, och att dessa nycklar inte är lätt att upptäcka genom uttömmande sökning eller kryptoanalys. Vi betraktar både konventionella krypteringsalgoritmer och allmänna krypteringsalgoritmer som en grund för de protokoll som presenteras. Vi antar att en inkräktare kan koppla in en dator i alla kommunikationsvägar, och därmed kan ändra eller kopiera delar av meddelanden, spela upp meddelanden, eller avge falskt material. Även om detta kan tyckas vara en extrem vy, är det den enda säkra när man utformar autentiseringsprotokoll. Vi antar också att varje huvudansvarig har en säker miljö att beräkna i, såsom tillhandahålls av en persondator eller skulle vara av ett säkert delat operativsystem. Vår syn hela tiden är att tillhandahålla autentiseringstjänster till uppdragsgivare som väljer att kommunicera säkert. Vi har inte övervägt de extra problem som uppstår när vi försöker tvinga all kommunikation att ske på ett säkert sätt eller när vi försöker förhindra kommunikation mellan särskilda uppdragsgivare för att genomdriva begränsningar av informationsflödet. Våra protokoll bör ses som exempel som avslöjar autentiseringsproblemen i stora nätverk snarare än som fullt konstruerade lösningar på de övergripande säkerhetsproblemen i en viss applikation. Samtidigt som vi tillhandahåller en lämplig lösning på de autentiseringsproblem som anges och uppfyller de vanligaste säkerhetsmålen, skulle våra protokoll behöva utarbetas för att uppfylla andra säkerhetsmål som att förhindra trafikanalys, undanhålla alla matchande cleartext-chiffertext par från en avlyssning- December 1978 av volym 21 ACM nummer 12 per, och säkerställa omedelbar upptäckt av manipulering, och även för att maximera effektiviteten i vissa nätverk. Det är möjligt att utarbeta andra protokoll som liknar dem som presenteras och som också uppfyller de fastställda målen. Det finns en blygsam mängd litteratur om vårt ämne, och metoder har föreslagits för flera av de enskilda funktioner som vi beskriver [1, 3, 5, 6], även om inget arbete rapporteras som integrerar dessa tekniker och tillämpar dem i en decentraliserad miljö, eller som ger funktionellt likvärdiga protokoll baserade på både konventionell och öppen kryptering. Den viktiga skillnaden mellan konventionella och allmänna krypteringsalgoritmer är hur nycklar används. Med en konventionell krypteringsalgoritm, såsom NBS Data Encryption Standard [7], används samma nyckel för både kryptering och dekryptering. Autentisering beror på att de två deltagarna i ett samtal är de enda två huvudmän (förutom möjligen betrodda servrar) som känner till nyckeln som används för att kryptera det överförda materialet. Med en öppen krypteringsalgoritm, ett koncept som härrör från Diffie och Hellman [3], är två nycklar nödvändiga: en som används i omvandlingen av cleartext till chiffertext, och en annan som används i omvandlingen av chiffertext till cleartext. Dessutom ger kunskap om en nyckel ingen hjälp att hitta den andra, och de två nycklarna kommer att fungera som inverser för varandra. Eleganta system kan utformas där varje huvudansvarig har en offentlig nyckel och en hemlig nyckel. Vem som helst kan kryptera en kommunikation för A med hjälp av sin öppna nyckel, men bara A kan dekryptera resultatet med hjälp av sin hemliga nyckel. Likaså kan endast A kryptera meddelanden som kommer att dekryptera förnuftigt med A: s öppna nyckel. Det första exemplet på en krypteringsalgoritm med öppen nyckel utformades av Rivest et al. [9], och andra är säkra på att följa. Med båda typerna av kryptering är grunden för autentiserad kommunikation en hemlig nyckel som tillhör varje huvudman som använder nätverket, och det finns behov av en auktoritativ informationskälla om dessa nycklar. Vi använder termen autentiseringsserver för en server som kan leverera identifierande information som beräknas från en begärd huvudansvarigs hemliga nyckel. Eftersom huvuddatabasen för en autentiseringsserver indexeras med namn, är hanteringen av autentiseringsservrar relaterad till hanteringen av namn. I ett utvidgat nätverk är det olämpligt att ha en enda central namnregistreringsmyndighet, så vi antar att det finns flera namngivningsmyndigheter, som vart och ett tilldelar och annullerar namn som det vill. Med denna organisation har rektorerna namn på blanketten "NamingAuthority.SimpleName". Associerad med varje 994 namngivningsmyndighet är en eller flera namnlookup-servrar och en eller flera autentiseringsservrar. 1 En namnlookup server är beredd att ge olika nätverksadresser i samband med ett givet SimpleName, till exempel adressen till den huvudansvariges e-postsystem buffert. En eller flera instanser av en huvudnamn uppslagningsserver kommer att tillhandahålla nätverksadresser för lämpliga namn uppslagnings- och autentiseringsservrar när de ges en namngivande myndighets namn. Autentiseringsservrar utför slående liknande funktioner för de två klasserna av krypteringsalgoritmer; skillnaderna kommer att tas fram när de uppstår. En viktig fråga inom detta studieområde är var krypteringen och dekrypteringen görs. Branstad [2] föreslår att dessa åtgärder sker i en dators nätverksgränssnitt. Det är ett krav i några av våra protokoll att krypteringen görs någon annanstans, eftersom det är nödvändigt att förbereda ett krypterat meddelande utan att faktiskt skicka det ännu eller för att ta emot ett krypterat meddelande utan att veta i nätverksgränssnittet vad nyckeln är. Följaktligen har vi antagit att alla hårdvarukryptering hjälp finns så att man kan säga och fortfarande har X i handen, eller säga Om en konventionell algoritm används då varje huvudansvarig har en hemlig nyckel som är känd endast för sig själv och dess autentisering server, vars innehåll är följaktligen hemliga. Det viktigaste steget för att skapa en säker kommunikation mellan A och B är att initiativtagaren, till exempel A, skapar ett budskap med två egenskaper: a) Det måste vara begripligt endast för B, dvs. Låt endast B använda innehållet för att identifiera sig själv till A. b) Det måste vara uppenbart för B att den har sitt ursprung i A. Användningen av kryptering för att uppnå dessa egenskaper beskrevs först av Feistel [4] och applicerades på ett nätverkskontext av Branstad [1]. Namngivningsmyndigheterna är oberoende av nättopologin; de behöver inte ha något att göra med undernätverk eller med särskilda datorer på nätverket. Flera identiska namnlookup servrar och autentisering servrar för en enda namngivning myndighet kan användas för att se till att dessa tjänster är topologiskt "nära" för dem som behöver använda dem, och för att öka tillförlitligheten. Våra flera autentiseringsservrar måste noga skiljas från de som föreslås av Diffie och Hellman [3], som utför den helt andra funktionen att kontrollera varandra. I så fall registreras varje användare hos varje autentiserare, vars syfte är att försvara sig mot korruption hos vissa autentiker. December 1978 av Volym 21 ACM nummer 12 Förutsatt att A och B är i siktet av samma autentiseringsserver AS, vi nu skissera ett protokoll. Den notation som används kommer att följas i hela: kryptering indikeras av hängslen som är överskripterade med nyckeln som används. Protokollet öppnas med A kommunicera i klartext till A S hans egen påstådda identitet och identiteten på den önskade korrespondenten, B, tillsammans med A: s nonce identifierare för denna transaktion, slapp. ("Nunce" betyder "används endast en gång.") Här måste nonce-identifieraren vara annorlunda än andra som används av A i tidigare meddelanden av samma typ. Det första meddelandet i protokollet är: A, B, lal När du tar emot meddelandet (1.1), AS tittar upp hemligheten, identifierar nycklar för båda parter och beräknar också en ny nyckel CK som kommer att vara nyckeln till samtalet om allt går bra. 2 Nästa transaktion är ett ganska komplicerat meddelande från A S till A: ( 1.2) där KA och KB är A: s och B: s hemlighet, identifiera nycklar. Eftersom (1.2) är krypterad med A:s hemliga nyckel, kan endast A dekryptera den och upptäcka konversationsnyckeln CK. Efter dekryptering kontrollerar A förekomsten av den avsedda mottagarens namn, B, och rätt identifierare, IA, för att verifiera att meddelandet verkligen är ett svar från AS på den aktuella förfrågan. Både namnet på den avsedda mottagaren och transaktionsidentifieraren ska anges i meddelandet (1.2). Om mottagarens namn utelämnas, kan en inkräktare ändra det namnet i meddelandet (1.1), säg till X, innan A S tar emot det, med det efterföljande resultatet att A omedvetet skulle kommunicera med X istället för B. Om identifieraren utelämnas kan en inkräktare ersätta ett tidigare registrerat meddelande (1.2) (från A S till A om B) och tvinga A att återanvända en tidigare konversationsnyckel? En minns CK och skickar delen krypterad med KB till B: Den verkliga B, men ingen annan, kommer att kunna dekryptera meddelandet (1.3) och komma fram med konversationsnyckeln CK, samma som A har. B känner också till den tänkta kontaktpersonens identitet, som autentiserad av A S. Det är värt att i detta skede se över de båda parternas kunskapstillstånd. En nu vet att all kommunikation han tar emot krypterad med CK måste ha sitt ursprung med B, och även att all kommunikation han avger med CK kryptering kommer att förstås endast av B. Båda är kända eftersom de enda meddelanden som innehåller CK som någonsin har skickats är knutna till A: s och B: s hemliga z Den nya nyckeln måste vara oförutsägbar och skulle aldrig ha använts tidigare. 3 Observera också att meddelanden (1.1) och (1.2) tillsammans, och andra i våra protokoll, gör tillgänglig känd klartext krypterad med en huvudansvarigs identifierande nyckel. Om det finns oro för kryptoanalytisk attack baserad på känd klartext som används för att exponera en identifierande nyckel, då en ytterligare tillfällig nyckel TK kan användas där det är lämpligt i hela, så att {X} ra blir {TK}KA{x} TM. Nycklarna. B är i ett liknande tillstånd, i tillämpliga delar. Det är dock viktigt att vara säker på att ingen del av protokollet utbyte eller efterföljande konversation spelas upp av en inkräktare från en inspelning av en tidigare konversation mellan A och B. I samband med denna fråga skiljer sig A:s och B:s ståndpunkter åt. A är medveten om att han inte har använt nyckeln CK tidigare och har därför ingen anledning att frukta att material som krypterats med det är annat än de legitima svaren från B. B: s position är inte så bra; om han inte kommer ihåg obestämd tid nycklar som tidigare används av A för att kontrollera att CK är ny, han är oklart att meddelandet (1.3) och de efterföljande meddelanden som antas från A inte spelas upp igen. För att vara på sin vakt mot denna möjlighet genererar B en nonce identifierare för transaktionen, IB, och skickar den till A under CK: förväntar sig ett relaterat svar, säger en mindre: (Is -1} cK (1.5) Om detta svar tas emot på ett tillfredsställande sätt, då det ömsesidiga förtroendet är tillräckligt för att möjliggöra materiell kommunikation, krypterad med CK, att börja. Det finns fem meddelanden i protokoll 1. Antalet kan minskas till tre av A: s hålla, för regelbundna interaktionspartners, en cache av objekt i formulär B: CK, (CK, A) KB härledd från meddelande (1.2), vilket eliminerar meddelanden (1.1) och (1.2). Observera dock att om sådana autentiker är cachad, krävs ändringar i protokollet. Med caching används samma CK om och om igen, så konversationsidentifierare handslag måste vara tvåvägs, till exempel genom att ersätta steg (1.3) och (1.4) med: {CK, A} KB, {IA2) CK Förändringen ökar inte antalet protokollmeddelanden utan ändrar innehållet något. I praktiken skulle meddelanden (1.3)-(1.5) användas för att starta en dubbelriktad seriation för att säkerställa integriteten i den efterföljande konversationen. Metoder för att säkerställa integritet efter inledande kontakt har studerats av Kent [5]. Vi använder nyckeletiketter som PKA for A's public key och SKA för hans hemliga. Utbytet inleds med att A konsulterar autentiseringsservern i klartext för att hitta B:s öppna nyckel. A, B (2.1) A S svarar med: (PKB, B) SKAS (2.2) där SKA S är autentiseringsserverns hemliga nyckel. A antas känna till larmsystemets öppna nyckel, PKAS, som används för att dekryptera meddelandet. Ett måste skaffa och lagra PKAS på ett tillförlitligt sätt, så han är säker på att det är korrekt. Om en Det finns alltså sju steg i detta protokoll som mot fem med protokoll 1, men fyra av dem (2.1, 2.2, 2.4 och 2.5) kan tas bort av A och B båda har lokala caches av allmänt använda allmänna nycklar. De resulterande tre protokollstegen har mycket liknande syften som de tre återstående efter caching i protokoll 1. Observera att eftersom allmänna nycklar inte är hemliga, dubbel kryptering, d.v.s. ( {meddelande)Sra) eKn, eller någon motsvarande krävs under den efterföljande interaktionen. Om uppgifterna helt enkelt var krypterade med mottagarens allmänna nyckel, då kunde vem som helst annan injicera material i strömmen. Ett likvärdigt skydd är att använda ett godtyckligt tal från ett stort utrymme som bas för seriation av krypteringsblock. Detta nummer kan initieras som la eller 1B enligt riktning. En inkräktare skulle inte ha något sätt att veta vad som var rätt serie att infoga i ett förfalskat paket, även om han hade räknat tidigare paket, eftersom han inte kunde veta rätt bas. Ju fler bitar som ägnas åt denna redundanta seriation desto färre bra databitar får vi per enhet dekryptering ansträngning. Begränsningar är inte nödvändiga, och vi tar nu bort dem. När vi utökar protokollen måste vi komma ihåg att även om en autentiseringsserver måste betraktas som den slutliga auktoriteten för sina kunder, måste den inte ha någon effekt på gott eller ont på kommunikationen mellan kunder på andra autentiseringsservrar. Då kommer vårt system inte att bli helt upprört av uppförandet av en shoddy autentiserare. Naturligtvis kommer utomstående att visa försiktighet på mänsklig nivå i sina kontakter med en shoddy autentiserares klienter. Effekterna på protokollen från flera autentiseringsservrar skiljer sig något mellan de två krypteringsteknikerna. Tänk först på fallet med konventionell kryptering. Kravet är fortfarande att producera en post i formuläret { CK, A } K/~ för A att använda när han gör sin första inställning till B (se steg (1.3)). För att producera denna mängd är båda autentiseringsservrarna (som kommer att kallas A SA och A SB) involverade, eftersom endast A SB kan producera objekt krypterade med KB och endast A SA kan producera objekt krypterade med KA. Vi böjde ytterligare två steg mellan (1.1) och (1.2), som utgör ett utbyte mellan de två servrarna. Vi antar att separata åtgärder har vidtagits för att säkerställa säker kommunikation mellan servrarna - till exempel, deras hemliga nycklar hålls av en huvudserver, och de vanliga servrarna upprätta säkra länkar (genom protokoll 1 redan anges) när de kommer i drift. Vi antar också att namnen vid behov alltid är fullständiga "NamingAuthority.SimpleName", så att rätt autentiseringsserver kan hittas. Som förklarats ovan leder kunskapen om en namngivande myndighets namn till nätverksadressen för den tillhörande autentiseringsservern. (1.11) (1.12) (Ial överförs för att undvika att tillståndet bibehålls i ASa mellan meddelanden (1.11) och (1.12). Efter (1.12) A SA är i stånd att slutföra protokollet. I öppen nyckel lätthet, eftersom inga hemliga nycklar flyttas runt, är det möjligt för A att närma sig ASB direkt ifA vet att serverns öppna nyckel. Vi antar att A redan har denna kunskap, även om det i ett strikt fall av total okunnighet skulle finnas viktiga uppslagssteg, till exempel korrespondens med en master autentiseringsserver, före (2.1). Med kunskap om PKA SB motsvarar A direkt A SB i steg (2.1) och (2.2). Likaså, med kunskap om PKA SA, B motsvarar direkt A Sa i (2.4) och (2.5). I båda fallen kan caching förväntas minska antalet protokollmeddelanden till tre. Implementering Authentication Servers I protokollen just med tanke på att vi antog att A och B var kunder av samma autentiseringsserver. Detta Det finns skillnader i genomförandet av autentiseringsservrar för de två varianterna av kryptering. I det konventionella fallet innehållet i databasen, poster i formulär A:KA, måste hållas hemligt (som kan göras genom att kryptera den med hemligheten, identifiera nyckeln på servern). En säker transaktion sker varje gång servern används: i steg (1.2) måste nycklarna till båda kunderna extraheras för att kunna konstruera meddelandets innehåll. I det allmänna nyckelfallet behöver däremot inte innehållet i databasen vara hemligt, och ingen säker transaktion behöver ske när servern används om serverns databas är inställd för att innehålla objekt i formulär A: {PKA, A} sKAs som krävs i steg (2.2). (Om servern innehöll de allmänna nycklarna direkt, skulle det fortfarande finnas en säker operation vid varje användning, av de skäl som nämns i diskussionen om steg (2.2).) Med autentiseringsservern med öppen nyckel finns det fortfarande ett krav på en säker beräkning, som skapar {PKA, A} sras, men endast när en ny öppen nyckel är registrerad, och denna operation kan göras utanför autentiseringsservern och resultatet läggs till i databasen på ett icke säkert sätt. I praktiken misstänker vi dock att genomförandet av autentiseringsservrar inte skulle skilja sig så mycket som vi har antytt, av skäl som behovet av att förhindra korruption av autentiseringsserverns data för öppna nycklar, vilket skulle kunna förhindra kommunikation även om det inte kommer att leda till felaktig autentisering. Observera att kommunikation med servrar kan ske med båda krypteringsteknikerna utan formaliteterna att fastställa vad som vanligtvis kallas en "anslutning". Servern behöver aldrig behålla information om en pågående transaktion från ett meddelande till nästa, så att upprepning eller förlust av protokollpaket inte spelar någon roll. Endast i steg (1.11) behöver något speciellt göras för att säkerställa avsaknaden av anslutningstillstånd. Om denna enkelhet gick förlorad skulle den totala kostnaden för protokollutbyten bli högre. I ett datoriserat postsystem är det omöjligt att vara beroende av interaktion mellan avsändaren och mottagaren under varje leverans. Posten sätts i händerna på en transportmekanism och kan levereras senare när avsändaren inte längre är tillgänglig. Å andra sidan är dubbelriktad autentisering av avsändare och mottagare lika önskvärd för post som för interaktiv kommunikation. En bra utformning av ett postsystem skulle tyda på att posttransportmekanismen inte är en del av säkerhetssystemet, och förslagen här uppfyller detta mål. Vi antar att de efterföljande enskilda blocken av posten är säkert servad på, till exempel, sättet av Kent. Själva förseningen gör det emellertid nödvändigt att vidta särskilda åtgärder för att säkerställa postens tidsmässiga integritet, dvs. att den inte har registrerats av en inkräktare från en tidigare sändning och upprepats. Vi har undvikit att föreslå användning av tidsstampar på annat håll, eftersom det förutsätter en nätomfattande tillförlitlig tidskälla. Här verkar det inte finnas något alternativ till att använda tidsstampar, men det är möjligt att använda dem här utan att kräva en universell klocka. En lämplig teknik är följande. Varje meddelande har i sin kropp en tidsstämpel som anger tidpunkten för att skicka. (En sådan tidsstämpel är en normal del av de flesta brev ändå.) Resolutionen måste vara tillräckligt fri för att inga två meddelanden från samma källa ska ha samma stämpel. Alla mottagare, säger B, har ett register där en post i formuläret {källa, tidsstämpel} lagras för varje post som tas emot. Ett tidsintervall T är associerat med B. T tas som en övre gräns på klockan asynkrony i nätverket och intervallet mellan tiden som posten skickades och tiden för dess ankomst inom B: s säkerhetskontroll, varefter posten inte kan omdirigeras. Ett postobjekt avvisas om antingen dess {källa, tidsstämpel} finns i registret eller dess tidsstämpel föregår nuvarande tid med mer än T. Registret hålls litet genom att kasta poster äldre än T. T kan variera beroende på B:s verksamhet om ett meddelande endast kan komma i hans säkerhetskontroll när han är närvarande. Metoderna för att säkerställa tidsintegritet är identiska i detta fall och kommer inte att upprepas. Vi har två alternativa kurser. Med den första en rubrik skickas som identifierar A till B utan att använda ett handslag: {.4, L {B}S~} pKB Här betecknar A avsändaren och {B} srA möjliggör autentisering av B av avsändarens identitet med hjälp av protokolltransaktioner som på (2.4) och (2.5) (som naturligtvis kan kortklippas genom caching). Jag är en nonce identifierare som används för att ansluta huvudet med den efterföljande meddelandetext som skickas under skydd av PKB, med en tidsstämpel som ovan och med en säker seriation som diskuterats tidigare. Anslutningen mellan rubrik och meddelande som uttryckligen tillhandahålls av I i detta protokoll tillhandahålls implicit av CK när det gäller en konventionell krypteringsalgoritm. Det andra sättet att hantera e-post med hjälp av den öppna nyckelsystemet uppnår den ytterligare funktionen av signatur och beskrivs i nästa avsnitt. Betrakta ett meddelande som används i ett tidigare protokoll: {CK, A} Kn Det här meddelandet har egenskapen att om det sätts i huvudet på e- post krypterad med CK, då hela är selfautenticating både som mottagare och upphovsman även om B spelade ingen roll alls i inställningsprotokollet. De tidigare protokollen är utformade för att autentisera varje kommuniké till den andra. Det är ibland nödvändigt att lägga fram bevis för en tredje part för att ett visst meddelande är exakt det som mottas från en viss avsändare. Detta krav uppfylls genom underskrifter på pappersdokument. Ett vanligt exempel är instruktioner från en överordnad att göra något; mottagaren måste behålla dem som bevis för att hans handlingar var korrekta. För att framställa analogen av undertecknade dokument med meddelanden, är det neo, ~ssary att mottagaren inte kunde ändra en signerad text oupptäckt och att avsändaren inte på ett trovärdigt sätt förneka det. Förmågan att tillhandahålla digitala signaturer beror på att det finns något som upphovsmannen kan göra som mottagaren inte kan. En metod använder en karakteristisk funktion av klartextmeddelandet som ska signeras. Den karakteristiska funktionen måste ha egenskapen att det, med tanke på klartextmeddelandet, funktionen och det resulterande karakteristiska värdet, är svårt att hitta ett annat förnuftigt klartextmeddelande som ger samma karakteristiska värde. Det är också användbart om det karakteristiska värdet är märkbart mindre än klartextmeddelandet. Svårt att invertera transformationer av det slag som används för att skydda lösenord [8] är en funktionsklass med de egenskaper som krävs. När du skickar texten, säg med hjälp av de interaktiva eller post protokoll som beskrivs tidigare, En beräknar det karakteristiska värdet CS. Han begär sedan ett signaturblock från autentiseringsservern: som servern tillhandahåller: Meddelande 3.2 krypteras med A S:s nyckel och är därför endast tillgängligt för A S. Observera att A inte kan validera meddelandet, men om det har störts, kommer B senare inte att kunna validera signaturen, vilket han sannolikt kommer att göra ändå innan han agerar på meddelandet om den innehåller instruktioner som är värda att signeras. A skickar signaturblocket till B efter den text som ska undertecknas. Vid mottagandet dekrypterar B först texten och beräknar dess karakteristiska värde, CSC. B kommunicerar sedan signaturblocket till autentiseringsservern för dekryptering: B, {A, CS} rAs Servern dekrypterar signaturblocket och returnerar dess innehåll till B: {A, CS} KB (3.4) Om den returnerade CS matchar CSC, är huvudmannen som namnges i (3.4) avsändaren av den undertecknade texten. CSC som inte matchar CS kan innebära att någon av stegen (3.1)-(3.3) eller kopplingen mellan signaturblocket och den undertecknade texten har störts. Tidigare upptäckt av vissa typer av störningar är möjlig genom att använda nonce-identifierare i transaktioner (3.1)-(3.2) och (3.3)-(3.4). Om B vill behålla texten som bevis behöver han bara behålla textblocket 998 och själva texten. Som svar på en utmaning skulle B skapa texten och signaturblocket för en skiljedomare som skulle gå igenom kommunikationen av steg (3.3) och (3.4). Förlängningen av protokoll 3 till fallet med flera autentiseringsservrar är enkel. Det är möjligt att tillhandahålla signerad text med ett offentligt nyckelsystem med hjälp av en karakteristisk funktion enligt ovan. Det allmänna nyckelsystemet ger dock en annan, mer elegant metod som först beskrevs av Diffie och Hellman. De första stegen är för A att t'md ut B: s öppna nyckel från cache eller server, som tidigare. De på varandra följande textblocken, raderade för tidsintegritet, är dubbelt krypterade: { {text- block}SKA} PrB B kan utföra den första dekrypteringen på grund av att du känner SKB, och den andra på grund av att du kan ta reda på PKA genom protokollutbyte eller från en cache. Det finns ett behov av att huvudinformationen på ett säkert sätt förmedlar upphovsmannens identitet så att PKA kan sökas på rätt sätt. B är inte i stånd att ändra innehållet, eftersom SKA inte är tillgänglig för honom. När den utmanas utför B helt enkelt den yttre dekrypteringen på hela texten och skickar resultatet till skiljedomaren som kan använda PKA för att avsluta jobbet. Lägg märke till att en skiljedomares förmåga att utföra sin funktion tycks bero på att A inte ändrar sitt nyckelpar. Eftersom sådana ändringar måste tillåtas som det enda svaret på en nyckel som äventyras, är det nödvändigt att autentiseringsservern behåller en post av de gamla allmänna nycklarna till sina huvudansvariga och tidpunkten för ändringen, och att undertecknade texter innehåller den tid de undertecknades. En fördel med signaturprotokollet för konventionella krypteringsalgoritmer är att en autentiseringsserver bara behöver behålla ett register över ändringar av sin egen nyckel för att garantera korrekt framtida skiljeförfarande. Vi drar slutsatsen från denna studie att protokoll som använder publika kryptosystem och använder konventionella krypteringsalgoritmer är slående lika. Antalet protokollmeddelanden som utbyts är mycket jämförbart, och systemet med allmänna nycklar har en märkbar fördel endast när det gäller undertecknade meddelanden. Liksom i många nätverksapplikationer för datorer är caching viktigt för att minska transaktioner med uppslagsservrar; detta gäller i synnerhet systemet med allmänna nycklar. I det systemet märkte vi också att det fanns ett krav på kryptering av offentliga data (autentiseringsserverns databas) för att säkerställa dess integritet. En konsekvens av likheten mellan protokoll är att alla användbara tricks för det konventionella systemet har analoger i det offentliga nyckelsystemet, även om de kanske inte behövs. På grund av detta kan det finnas utrymme för hybridsystem där en öppen metod från december 1978 av volym 21 ACM nummer 12 kan användas för att fastställa en autentiserad anslutning som ska användas konventionellt. De inneboende säkerhetskraven för en autentiseringsserver med öppen nyckel är lättare att uppfylla än de för en konventionell server, men en fullständig utvärdering av systemproblemen vid genomförandet av en sådan server i ett verkligt system, och behovet av att behålla ett säkert register över gamla offentliga nycklar för att garantera framtida korrekt skiljedom av gamla signaturer kan minimera denna fördel. Vi drar slutsatsen att valet av teknik bör baseras på själva krypteringsteknikens ekonomi och kryptografiska styrka, snarare än på dess effekter på protokollets komplexitet. Slutligen, protokoll som de som utvecklats här är benägna att extremt subtila fel som sannolikt inte kommer att upptäckas i normal drift. Behovet av teknik för att kontrollera att sådana protokoll är korrekta är stort, och vi uppmuntrar dem som är intresserade av sådana problem att överväga detta område. Erkännanden. Vi står i tacksamhetsskuld till ett antal människor som har läst utkast till denna uppsats och gjort noggranna och hjälpsamma kommentarer, särskilt: Peter Denning, Stockton Gaines, Jim Gray, Steve Kent, Gerry Popek, Ron Rivest, Jerry Saltzer och Robin Walker. Jayadev Misra En ny algoritm presenteras för att hitta aH primes mellan 2 och n. Algoritmen utförs i tid proportionell till n (förutsatt att multiplikation av heltal inte större än n kan utföras i enhetstid). Metoden har samma aritmetiska komplexitet som algoritmen som presenterades av Mairson [6], men vår version är kanske enklare och mer elegant. Det är också lätt utökad för att hitta den främsta factorizationen av a / / / heltal mellan 2 och n i tid proportionellt till n. | Needham och Schroeder REF nämnde att säkerhetsprotokoll är benägna att extremt subtila fel, och behovet av tekniker för att verifiera riktigheten av sådana protokoll är stor. | 7,704,786 | Using encryption for authentication in large networks of computers | {'venue': 'CACM', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,263 |
Abstract-Till nyligen, var det allmänt trott att kod randomisering (såsom finkornig ASLR) effektivt kan minska kod återanvändning attacker. Men, en nyligen attack strategi, dubbade just-in-time retur orienterad programmering (JIT-ROP), kringgår kod randomisering genom att avslöja (randomized) innehållet i många minnessidor på runtime. För att avhjälpa denna situation, nya och förbättrade kod randomisering försvar har föreslagits. Bidraget från detta dokument är tvåfaldigt: För det första genomför vi en säkerhetsanalys av ett nyligen föreslaget finkornigt ASLR-system som syftar till att mildra JIT-ROP baserat på att dölja direkta kodreferenser i filialinstruktioner. I synnerhet visar vi sina svagheter genom att konstruera en ny JIT-ROP-attack som enbart bygger på att utnyttja kodreferenser som finns på stacken och högen. Vår attack betonar att utforma kod randomisering system motståndskraftig mot minnesdisclosure är mycket utmanande. För det andra presenterar vi en ny och hybrid försvarsstrategi, dubbade Isomeron, som kombinerar kod randomisering med exekutivväg randomisering för att mildra konventionella ROP och JIT-ROP attacker. Vår referens implementering av Isomeron varken kräver källkod eller en statisk analysfas. Vi utvärderade dess effektivitet baserat på SPEC-riktmärken och diskutera dess effektivitet mot olika typer av kod återanvändning attacker. | Dessa finkorniga randomiseringar har visat sig vara sårbara för minnesutlämningsattacker REF. | 14,639,553 | Isomeron: Code Randomization Resilient to (Just-In-Time) Return-Oriented Programming | {'venue': 'NDSS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,264 |
Abstract-State-of-the-art objekt detekteringsnätverk är beroende av region förslag algoritmer för att hypothesize objekt platser. Framsteg som SPPnet [1] och Fast R-CNN [2] har minskat drifttiden för dessa detektionsnät, vilket exponerar beräkning av regionförslag som flaskhals. I detta arbete introducerar vi ett regionförslagsnätverk (RPN) som delar fullbildskonvolutionella funktioner med detektionsnätverket, vilket möjliggör nära nog kostnadsfria regionförslag. Ett RPN är ett helt konvolutionellt nätverk som samtidigt förutsäger objektgränser och objektitetspoäng vid varje position. RPN är utbildad end-to-end för att generera högkvalitativa regionförslag, som används av Fast R-CNN för detektion. Vi slår ytterligare samman RPN och Fast R-CNN till ett enda nätverk genom att dela deras konvolutionella funktioner-med hjälp av den nyligen populära terminologin för neurala nätverk med "attention" mekanismer, RPN komponenten talar om för det enhetliga nätverket var man ska leta. För den mycket djupa VGG-16-modellen [3] har vårt detektionssystem en bildhastighet på 5 fps (inklusive alla steg) på en GPU, samtidigt som vi uppnår toppmoderna objektdetektionsnoggrannhet på PASCAL VOC 2007, och MS COCO-datauppsättningar med endast 300 förslag per bild. I ILSVRC och COCO 2015 tävlingar, Snabbare R-CNN och RPN är grunden för den 1: a plats vinnande poster i flera spår. Koden har gjorts tillgänglig för allmänheten. Regionens förslagsmetoder är vanligtvis beroende av billiga funktioner och ekonomiska slutledningssystem. Selektiv sökning [4], en av de mest populära metoderna, sammansmälter girigt superpixel baserat på konstruerade låg nivå funktioner. Ändå jämfört med effektiva detektionsnätverk [2], Selektiv sökning är en storleksordning långsammare, på 2 sekunder per bild i en CPU-implementation. EdgeBoxar [6] ger för närvarande den bästa kompromissen mellan förslagskvalitet och hastighet, med 0,2 sekunder per bild. Trots detta konsumerar regionförslaget lika mycket drifttid som nätverket för upptäckt. Man kan notera att snabba regionbaserade CNN dra nytta av GPU, medan de regionala förslag metoder som används i forskning genomförs på CPU, vilket gör sådana runtime jämförelser ojämförliga. Ett självklart sätt att påskynda beräkningen av förslag är att återinföra det för GPU. Detta kan vara en effektiv teknisk lösning, men omgenomförandet bortser från down-stream detektion nätverk och därför missar viktiga möjligheter att dela beräkningar. I detta dokument visar vi att en algoritmisk förändringskomputerande förslag med en djup konvolutionell neural nätverk-leads till en elegant och effektiv lösning där förslagsberäkning är nästan gratis med tanke på detektionsnätverkets beräkning. I detta syfte introducerar vi nya regionala förslagsnätverk (RPN) som delar konvolutionella skikt med toppmoderna nätverk för objektdetektering [1], [2]. Genom att dela konvolutioner vid testtid är marginalkostnaden för datorförslag liten (t.ex. 10 ms per bild). Vår iakttagelse är att de konvolutionella funktionskartor som används av regionbaserade detektorer, som Fast R-CNN, också kan användas för att generera regionförslag. Ovanpå dessa konvolutionella funktioner konstruerar vi en RPN genom att lägga till några ytterligare konvolutionella lager som samtidigt regresserar regiongränser och objektitet poäng på varje plats på ett vanligt rutnät. RPN är således ett slags fullständigt konvolutionsnätverk [7] och kan utbildas från början till slut särskilt för uppgiften att ta fram förslag på detektering. RPN är utformade för att effektivt förutsäga regionala förslag med ett brett spektrum av skalor och proportioner. I motsats till vanliga metoder [1], [2], [8], [9] som använder pyramider av bilder (Fig. 1a) eller filterpyramider (Fig. 1b), Vi introducerar nya "anchor" rutor som fungerar som referenser på flera skalor och proportioner. Vårt schema kan ses som en pyramid av regressionsreferenser (Fig. 1c), som undviker att räkna upp bilder eller filter av flera skalor eller proportioner. Denna modell fungerar bra när den är tränad och testad med enskaliga bilder och därmed gynnar körhastigheten. För att förena RPNs med snabba R-CNN [2] objektdetekteringsnätverk, föreslår vi ett utbildningsprogram som alternerar S. Ren är med | Snabbare R-CNN REF producerar nästan kostnadsfria regionförslag med regionförslagsnätverket. | 10,328,909 | Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 79,265 |
Abstrakt. Ett klassiskt problem i frågeoptimering är att hitta den optimala beställningen av en uppsättning eventuellt korrelerade urval. Vi ger en abstraktion av detta problem som en generalisering av set cover som kallas pipeled set cover, där uppsättningarna tillämpas sekventiellt på de element som ska täckas och de element som omfattas i varje steg kastas. Vi visar att flera naturliga heuristiker för detta NP-hårda problem, såsom den giriga set-cover heuristic och en lokal-search heuristic, kan analyseras med hjälp av en linjär-programmering ram. Dessa heuristik leder till effektiva algoritmer för pipeled set täcker som kan tillämpas på ordning eventuellt korrelerade val i konventionella databassystem samt dataström bearbetningssystem. Vi använder vårt linjära programramverk för att visa att de giriga och lokala sök algoritmerna är 4 approximationer för piped set cover. Vi utökar vår analys för att minimera lp-normen för de kostnader som betalas av uppsättningarna, där p ≥ 2 är ett heltal, för att undersöka förbättringen av prestanda när den totala kostnaden har ökat bidraget från inledande uppsättningar i rörledningen. Slutligen anser vi att online-versionen av piped set cover och presentera en konkurrenskraftig algoritm med en logaritmisk prestandagaranti. Vårt analysramverk kan vara tillämpligt på andra problem i frågeoptimering där det är viktigt att redovisa korrelationer. En vanlig åtgärd i databas frågebehandling är att hitta delmängd poster i ett förhållande som uppfyller en viss uppsättning av urvalskriterier. För att utföra denna operation effektivt, föredrar en frågeprocessor att bestämma den optimala ordningen för att utvärdera de enskilda urvalsvillkoren, så vi kallar denna operation rörledningsfilter [2, 4, 12, 18]. Optimalitet i rörledningar filter är vanligtvis med avseende på att minimera den totala bearbetningstiden [4, 12]. Till exempel, överväga ett relationspaket, där varje post innehåller huvudet och en inledande del av nyttolasten för nätverkspaket som loggas av ett nätverk | Det har förekommit tidigare arbete på online-algoritm för piped set-cover problem REF, där uppsättningarna kommer online. | 14,334,071 | The pipelined set cover problem | {'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,266 |
Abstract-Under de senaste åren Content-Centric Networking, en nätverksmodell där värd-till-innehåll kommunikationsprotokoll införs, har fått mycket uppmärksamhet. En central komponent i en sådan arkitektur är ett storskaligt sammankopplat cachesystem. Hittills är det fortfarande svårt att förstå hur dessa Cache Networks fungerar och fungerar. I detta arbete visar vi att vissa cachenätverk är icke-ergodiska i så måtto att deras steady-state karakterisering beror på systemets ursprungliga tillstånd. Sedan etablerar vi flera viktiga egenskaper hos cachenätverk, i form av tre självständigt tillräckliga förutsättningar för att ett cachenätverk ska bestå av en enda ergodisk komponent. Varje fastighet riktar in sig på en annan aspekt av systemtopologin, antagningskontroll och cacheersättningspolicy. Kanske viktigast av allt visar vi att cacheersättning kan grupperas i likvärdiga klasser, så att ergodiciteten (eller avsaknaden av) av en politik innebär samma egendom innehar för alla policyer i klassen. | I ett nyligen utfört arbete har REF ergodiciteten hos cachenätverk undersökts. | 1,345,008 | On the steady-state of cache networks | {'venue': '2013 Proceedings IEEE INFOCOM', 'journal': '2013 Proceedings IEEE INFOCOM', 'mag_field_of_study': ['Computer Science']} | 79,267 |
Att automatiskt beskriva en video med naturligt språk betraktas som en grundläggande utmaning i datorseendet. Problemet är dock inte trivialt speciellt när en video innehåller flera händelser för att vara värd att nämnas, som ofta händer i verkliga filmer. En giltig fråga är hur man tidsmässigt lokaliserar och sedan beskriver händelser, som kallas "dense videotextning". I detta dokument presenterar vi en ny ram för tät videotext som förenar lokaliseringen av förslag till timliga händelser och skapandet av meningar i varje förslag, genom att gemensamt utbilda dem i en helhet. För att kombinera dessa två världar integrerar vi en ny design, nämligen beskrivande regression, i en enda detekteringsstruktur för att dra slutsatsen den beskrivande komplexiteten hos varje upptäckt förslag via meningsgenerering. Detta i sin tur justerar de tidsmässiga platserna för varje händelseförslag. Vår modell skiljer sig från befintliga täta videotextningsmetoder eftersom vi föreslår en gemensam och global optimering av detektion och bildtextning, och ramverket utnyttjar unikt en attribut-augmenterad videotextning arkitektur. Omfattande experiment utförs på ActivityNet Captions dataset och vårt ramverk visar tydliga förbättringar jämfört med de senaste teknikerna. Mer anmärkningsvärt, vi får ett nytt rekord: ME-TEOR på 12,96% på ActivityNet Captions officiella testuppsättning. * Detta arbete utfördes på Microsoft Research Asia. Hunden tar frisbee tillbaka till mannen. En man och en hund är utomhus och väntar på sin tur att spela på en inhägnad i grön fält. Mannen och hunden springer på fältet och han kastar frisbee en lång sträcka och hunden springer och hämtar den, sedan lämnar tillbaka den till mannen och de upprepar processen 6 gånger. När de är klara, springer en annan man till dem och ger mannen ett koppel och han kopplar sin hund. Hela tiden finns det människor på åskådarplats som tittar på dem och tar bilder. En man och en hund går ut på ett fält. En man kastar en frisbee och hunden jagar efter den. En man leker frisbee med en hund. | REF-tåg gemensamt om enande av det timliga förslaget om lokalisering och generering av meningar för tät videotextning. | 5,046,218 | Jointly Localizing and Describing Events for Dense Video Captioning | {'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 79,268 |
Multi-task lärande i Convolutional Networks har visat anmärkningsvärd framgång inom området erkännande. Denna framgång kan till stor del tillskrivas lärandet om gemensamma representationer från flera tillsynsuppgifter. Befintliga multi-task metoder bygger dock på att räkna upp flera nätverksarkitekturer som är specifika för de uppgifter som finns, som inte generaliseras. I detta dokument föreslår vi en principiell strategi för att lära sig gemensamma representationer i ConvNets med hjälp av lärande med flera uppgifter. I synnerhet föreslår vi en ny delningsenhet: "cross-stitch" enhet. Dessa enheter kombinerar aktiveringarna från flera nätverk och kan tränas end-to-end. Ett nätverk med cross-stitch enheter kan lära sig en optimal kombination av delade och uppgiftsspecifika representationer. Vår föreslagna metod generaliserar över flera uppgifter och visar dramatiskt förbättrad prestanda jämfört med baslinjemetoder för kategorier med få träningsexempel. | Cross-stitching nätverk REF lära sig en optimal delad och uppgiftsspecifika representationer med hjälp av cross-stitch enheter. | 1,923,223 | Cross-Stitch Networks for Multi-task Learning | {'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 79,269 |
Abstract-An adaptive medium-access control (MAC) protokoll för heterogena nätverk med ändlig befolkning föreslås. Med hänvisning till multiqueue service room (MQSR) protokoll, detta system är kapabel att hantera användare med olika kvalitet-av-service (QoS) begränsningar. Genom att utnyttja multipackets mottagningsförmåga (MPR) ger MQSR-protokollet adaptivt tillgång till MPR-kanalen till ett antal användare så att det förväntade antalet framgångsrikt mottagna paket maximeras i varje slot. Det optimala åtkomstprotokollet undviker onödiga tomma platser för lätt trafik och överdrivna kollisioner för tung trafik. Det har överlägsen genomströmning och fördröjning prestanda jämfört med, till exempel, slitsade ALOHA med optimal retransmission sannolikhet. Detta protokoll kan tillämpas på slumpmässiga åtkomstnätverk med multimediatrafik. Index Terms-Medium-access control (MAC), multipacket reception (MPR), slumpmässig åtkomst nätverk. | I REF föreslogs ett multi-queue servicerum (MQSR) MAC-protokoll för nätverk med heterogena användare. | 6,788,422 | A Multiqueue Service Room MAC Protocol for Wireless Networks with Multipacket Reception | {'venue': 'IEEE/ACM Trans. Networking', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,270 |
Nyligen har mycket djupa konvolutionella neurala nätverk (CNN) visat enastående prestanda i objektigenkänning och har också varit det första valet för tät klassificering problem såsom semantisk segmentering. Emellertid, upprepade subsampling operationer som pooling eller convolution striding i djupa CNNs leder till en betydande minskning av den ursprungliga bildupplösningen. Här presenterar vi RafineNet, ett generiskt multi-path förfining nätverk som explicit utnyttjar all information som finns tillgänglig längs down-sampling processen för att möjliggöra högupplöst förutsägelse med långdistans resterande anslutningar. På så sätt kan de djupare skikten som fångar upp semantiska funktioner på hög nivå förfinas direkt med hjälp av finkorniga funktioner från tidigare konvolutioner. De enskilda komponenterna i RafineNet använder restanslutningar efter identitetskartläggningen, vilket möjliggör effektiv end-to-end utbildning. Dessutom introducerar vi kedjad resterande pooling, som fångar rika bakgrundssammanhang på ett effektivt sätt. Vi utför omfattande experiment och sätter nya toppmoderna resultat på sju offentliga datauppsättningar. I synnerhet uppnår vi en skärningspunkt-över-union poäng på 83,4 på den utmanande PASCAL VOC 2012 dataset, vilket är det bästa rapporterade resultatet hittills. | RafineNet REF föreslår ett generiskt multi-path förfining nätverk som säkrar multiupplösning funktioner från olika lager för att generera hög upplösning och högkvalitativa resultat. | 5,696,978 | RefineNet: Multi-path Refinement Networks for High-Resolution Semantic Segmentation | {'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 79,271 |
Vi presenterar grafen uppmärksamhet nätverk (GAT), nya neurala nätverk arkitekturer som fungerar på graf-strukturerade data, utnyttja maskerade självuppmärksamhet lager för att ta itu med bristerna i tidigare metoder baserade på graf konvolutioner eller deras approximationer. Genom att stapla lager i vilka noder kan delta över sina stadsdelars funktioner, möjliggör vi (implicit) ange olika vikter till olika noder i ett område, utan att kräva någon form av dyr matris operation (såsom inversion) eller beroende på att veta grafstrukturen i förskott. På så sätt tar vi itu med flera viktiga utmaningar för spektral-baserade graf neurala nätverk samtidigt, och gör vår modell lätt tillämplig på såväl induktiva som transduktiva problem. Våra GAT modeller har uppnått eller matchat state-of-t heart resultat över fyra etablerade transduktiva och induktiva graf riktmärken: Cora, Citeseer och Pubmed citeringsnätverk dataset, samt en proteinprotein interaktion dataset (där test grafer förblir osedda under träning). | Uppmärksamhet applicerades på graf neurala nätverk av REF. | 3,292,002 | Graph Attention Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 79,272 |
Geo-distribuerade lägesmedvetenhetstillämpningar är storskaliga och kännetecknas av 24/7 datagenerering från mobila och stationära sensorer (såsom kameror och GPS-enheter); latenskänslighet för att omvandla avkännbara data till användbar kunskap; och elastiska och spruckna behov av beräkningsresurser. Fog computing [7] föreställer sig att tillhandahålla beräkningsresurser nära nätets kant, vilket minskar latensen för den sense-process-actuate cykel som finns i dessa tillämpningar. Vi föreslår Fogles, en programmeringsinfrastruktur för den geo-distribuerade beräkningskontinuum som representeras av dimnoder och molnet. Fogulets ger API:er för en spatio-temporal data abstraktion för att lagra och hämta program genererade data på de lokala noderna, och primitiver för kommunikation bland resurserna i beräkningskontinuum. Foglets hanterar programkomponenterna på Fog noderna. Algoritmer presenteras för lansering av applikationskomponenter och hantering av migration av dessa komponenter mellan Fog noder, baserat på sensorernas rörlighetsmönster och de dynamiska beräkningsbehoven i applikationen. Utvärderingsresultaten presenteras för ett Fog-nätverk bestående av 16 noder med hjälp av ett simulerat fordonsnätverk som arbetsbelastning. Vi visar att protokollet för upptäckt och utplacering kan utföras i 0.93 sek, och att gå med i en redan utplacerad ansökan kan vara så snabbt som 65 ms. Dessutom QoS-känslig proaktiv migration kan utföras i 6 ms. | I REF föreslås en Foglet-programmeringsinfrastruktur för Fog-miljöer. | 1,526,368 | Incremental deployment and migration of geo-distributed situation awareness applications in the fog | {'venue': "DEBS '16", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,273 |
Den ökande efterfrågan på storskaliga tillämpningar för datautvinning och dataanalys har lett till att både industrin och den akademiska världen designat nya typer av mycket skalbara dataintensiva datorplattformar. MapReduce har haft särskild framgång. Men MapReduce saknar inbyggt stöd för iterativa program, som uppstår naturligt i många tillämpningar, inklusive datautvinning, webbrankning, grafanalys och modellmontering. Detta papper (Detta är en utökad version av VLDB 2010 papper "HaLoop: effektiv iterativ databehandling på stora kluster" PVLDB 3.1:285-296, 2010.) presenterar HaLoop, en modifierad version av Hadoop MapReduce ramverk, som är utformad för att tjäna dessa applikationer. HaLoop tillåter iterativa applikationer att monteras från befintliga Hadoop-program utan ändring, och avsevärt förbättrar deras effektivitet genom att tillhandahålla inter-iteration caching mekanismer och en loop-aware schemaläggare för att utnyttja dessa caches. HaLoop behåller feltoleransegenskaperna hos MapReduce genom automatisk cacheåterställning och aktivitetsåterställning. Vi utvärderade HaLoop på en mängd olika riktiga applikationer och verkliga dataset. Jämfört med Hadoop förbättrade HaLoop i genomsnitt gångtiderna med en faktor på 1,85 och blandade endast 4 % så mycket data mellan kartare och reduktionsmedel i de applikationer som vi testade. | Haloop REF utökar MapReduce för att tjäna program som behöver iterativa program. | 8,666,642 | The HaLoop approach to large-scale iterative data analysis | {'venue': 'The VLDB Journal', 'journal': 'The VLDB Journal', 'mag_field_of_study': ['Computer Science']} | 79,274 |
.-lhrrroCt - Peering tillåtervs tjänsteleverantörer att hantera trafic uppsving med men over-provisioning. Minska kostnaderna för särskild infrastruktur och utnyttja parinerleverantörernas specialisering och priser. I den här tidningen. Vi utvecklar ett peeringssystem för flera leverantörers innehållsleverans baserat på en kostnadsoptimerad peer valalgoritm. Vi formulerar en kostnadsmodell för att utvärdera konkurrerande peering strategier, och använda metasurement data som samlats in från globalt distribuerade nehvork p r o k stationer, Iargescnk webbplatser, och befintliga tjänsteleverantör infrashuctures för att empiriskt utvärdera propensed peering strategier. Vår analys visar att vår peer valalgoritm är betydligt effektivare än giriga alternatirrs, när det gäller att minimera senice cnst och respektera nehr-ork fördröjning och server kapacitetströsklar. nver en brosd range o f real-wnrld scenarier. Systemdesign, simuleringar, nätverksmätningar, erprimentatitm med röda nätverksbestänger. ISTKODI:CTIOS Att leverera storskaliga nätverkstjänster kräver en distribuerad dator och net\\c,rk infr:istructure som ger en genomgående hög nivå av pcr1irm1; incc. och tillförlitlighet inför ökad efterfrågan, misslyckanden och förändringar i kundernas krav. Tjänsteleverantörer som förvärvar; tillhandahålla och förvalta infrastrukturen mnst balanserar dessa krav mot de höga kostnaderna för att distribuera kundanpassade, överfördelade resurser. Tjänsteleverantörer har tagit itu med detta problem i viss utsträckning hy med hjälp av delade.infrastrukturer till multiplex resurser hetween många kunder; och därmed förbättra utnyttjandet. För att ytterligare sänka kostnaderna är leverantörerna i allt högre grad intresserade av att utnyttja data- eller nätverksinfrastruktur från partner genom peeringsmekanismer som gör det möjligt att tillhandahålla och dela dataresurser: och avveckling och utbyte av de intäkter som blir resultatet. Kundens åsikt är fortfarande att en enda leverantör (som vi kallar priiiiv leverantör), whicti kan i själva verket bestå av poolade resurser från flera leverantörer fördelade över ett antal platser. I detta dokument fokuserar man på användningen av kooperativ för innehållsdelivy-tjänster. I t h s scenario; priman. tjänsteleverantör kan deplo! Ett begränsat innehåll hosting infrastruktur i en enda (eller få) datacenter, och samtidigt. Överenskommelser med andra leverantörer av innehållsdistributionssenice (CDSPs) som samtycker till att s e n e kundinnehåll å primans vägnar? Leverantör för en del av intäkterna. Så länge klienten last kan hanteras av priman? leverantör, reqnests kommer att sederas från ursprunget eftersom detta maximerar intäkterna för prima? leverantör. Om den faktiska eller förväntade arbetsbelastningen överstiger kapaciteten hos primanernas servrar, avlastas de överskjutande förfrågningarna till partnersenerna. Valet av vilka kunder är ofta laddade till vilka partners mav han bygger på leverantörskostnad och capacily, förväntade prestanda levereras till kunden från en viss leverantör, eller policyer som föredrar en leverantör o w r en annan. Figur I visar ett enkelt exempel på hur arbetsbördan kan hanteras från primay leverantörens kunder under normala förhållanden, och delvis avlastas till senice leverantör för att hantera översvämningar utan övertäckning, minska infrastrukturkostnader, och utnyttja priserna och specialisering (t.ex. specifika geografiska regioner) i f andra leverantörer. Medan peering för innehåll deliven är tilltalande av alla dessa skäl; det finns ett antal utmaningar i att utforma en?stam som virtualiserar flera. Leverantörer; och riktar kunder till olika leverantörer har på kostnad, petfbtmance och förväntad belastning. Vårt bidrag ligger i att utforma och genomföra en peering. tem -som minimerar kostnaden samtidigt respektera klienten 0-7803-8355-9/04/$20.00 02034 IEEE. Prestandakrav. Detta är i motsats till pcer val i traditionella peer-to-peer nätverk där fokus främst är på att effektivt hitta en närliggande peer med önskat innehåll. W e utvärdera vår strategi mot altcrnative system med hjälp av verkliga trafiic data från stora webbplatser, begäran-routing data som samlats in från mätningar av operativa CDSPs, och nätverksplacering d a b samlas in från en uppsättning globalt distribuerade sondstationer. Specilically> Vi föreslår lösningar för följande nyckelfrågor: -IP'hen till iffluad? Vi använder ett proaktivt tillvägagångssätt i n h c h klient belastning övervakas kontinuerligt på priman leverantör-s servrar för att förutsäga h t u r e efterfrågan och utlösa offload när belastningen överstiger tillgänglig kapacitet. IF/io till offlood? Vi föreslår och utvärderar en ny klient clustming system som balanserar nätverk prosimity och belastning förutsägelse noggrannhet. Små kluster möjliggör en mer exakt uppskattning av kundens lokalisering, men större kluster genererar mer agpegatetrafik, vilket förbättrar trafikförutsägbarheten. IT, l, io av last till'? När du väljer en partnerleverantör för en p u p av kunder, är det nödvändigt att beakta kostnaden samt den förväntade pelformance. Detta kompliceras av separat NDministration och begränsat informationsutbyte mellan enskilda leverantörer. Vi utnyttjar omdirigeringsmodeller utvecklade i [3] för att förutsäga prestanda för partnrrs. Hur IO avlastas? Vår peering >?stam har på DNS-baserade begäran-routing, rrrich är defacto standard som används av CDSPs. Domännamnet Senice (DNS) ger ett relativt transparent sätt att styra kunder mellan Senice leverantörer, och att återvinna dem när det är lämpligt. I utvärderingen av vår pcenng strategi visar vi att vår föreslagna peer selection algoritm är betydligt effektivare än geed) alternativ, vilket i genomsnitt en faktor på 1,5 gånger högre kostnad. Vi visar att denna prestanda är konsekvent över en rad olika verksamhetsmiljöer, inklusive olika webbplatser, prisstrukturer och förväntade fördröjningströsklar. Resten av detta dokument är organiserat enligt följande. I nästa avsnitt ger vi bakgrundsinformation. I avsnitt 111 ger vi ett mer formellt uttalande om problemet som våra peeringsstrategier tar upp. Vi presenterar vår peer valalgoritlun, experimentell metodik; och datainsamling förfaranden i avsnitten IV och V. Vi fctail resultaten av vår analys i Avsnitt VI. Vi sammanfattar dokumentet i avsnitt VII. 11. Vad är det för fel på dig? B-\CKKKOL~ND Vårt peeringssystem använder toppmoderna tekniker för att uppskatta kundens plats och förutsäga prestanda från partnerleverantörer. I detta avsnitt. Vi ger en översikt över hur vi utnyttjar det befintliga arbetet med att utforma vårt system. I nästa avsnitt. Vi ger ett mer formellt uttalande om det problem som tas upp i detta.papper. använda terminologi och notation inuoduccd i detta avsnitt.. %) beräknas som Euclidean avståndet mellan Vi använder detta schema för att tilldela absoluta koordinater till tusentals IP-adresser. baserat på mätningar från globalt distribuerade sondstationer. Vi kan sedan dra slutsatsen att avståndet mellan kunder och servrar som tillhör partnerleverantörer gör det möjligt för peering tem att styra kunder till leverantörer som förväntas uppfylla prestandakraven. Vi beskriver insamlingen av netvork prohe data, liksom andra datamängder som används i vår studie, i Avsnitt V. Observera att medan \re begränsa vår uppmärksamhet till avstånd som nyckelprestanda metrisk (särskilt för webbinnehåll deliyen) andra mått såsom optimera cache träffhastighet kan också vara användbart [25]. Storskaliga webbplatser ofta senre innehåll från flera, geografiskt distribuerade sener uppsättningar som kan bestå av speglade servrar eller vara en del av ett innehåll deliven. Nätverk (CDN). Den vanligaste metoden för att styra kunder till en specifik server är via DNS begäran routing. DNS-baserade tekniker kan också hc används för att omdirigera kunder från priman provider.s hosting infrastruktur till 3 partner n h o pelforms sitt eget sener urval [6]. Förutsägelse av prestanda en panner s e n e r skt kommer att ge en viss klient kräver viss kunskap om hur partnern väljer servrar € eller olika kunder. De faktiska kriterier för serverurval som används i CDN anses i allmänhet vara propnetaninformation, och kan han ha på komplexa och dynamiska mätvärden [5][17], vilket gör det svårt att förutsäga. 0-7803-8355-9M20.00 02004 LEE. En nyligen genomförd mätningsbaserad studie [3] av 851 kommersiella serveruppsättningar visade dock att dessa system, trots olika urvalskriterier, kan modelleras med rimlig noggrannhet. Studien visade att det var möjligt att förutsäga avståndet mellan kunder och den valda avloppet till inom 20 ms i 90% av fallen med några enkla modeller. Studien föreslog ett avståndsmått som är den genomsnittliga fördröjningen från en klient till varje server i uppsättningen, viktad av probabilif att klienten är riktad till 3 specifika server. De modeller som utvecklats i tidningen inkluderade: -ii välja den närmaste servern till klienten i termer av nätverk dela! " (kallas MIN): iij ett enhetligt val mellan första och andra närmaste (MINZ), iii) belastningsavstängning med enhetligt serverval (LBP), och iv) en policy där 80 % av trafiken riktas till närmaste avlopp medan 20 % fördelas jämnt mellan de återstående servrarna (WGT). Vi använder information såsom antalet servrar; platser för servrar, och omdirigering policies som upptäckts i [3]. för att utvärdera våra peering strategier. Dessutom, när man härleder avståndet mellan kunder och serveruppsättningar; Vi använder samma viktade genomsnittliga avstånd metrisk.. Vår peering strategi beskrivs i Avsnitt IV och den kloakuppsättning data som används för dess eyaluation är detaljerad i Avsnitt V. - Vårt mål är att minimera kostnaden för att vara värd en arbetsbörda på en federerad infrastruktur som omfattar uppsättningar av servrar utplacerade av en priman tjänsteleverantör och dess partners. Den primära tjänsteleverantören väljer bland p r i m q och partner sen-er-uppsättningar: varje serverleverantör utför serverval inom sin egen serveruppsättning. Serveruppsättningar kan vara globalt eller regionalt utplacerade; och serveruppsättning täckning kan vara överlappande eftersom flera leverantörer kan distribuera avlopp i samma nätverk eller,geografisk region. Exempel på semer uppsättningar inkluderar surrogat avlopp utplacerade av CDSPs, mindre servrar utplacerade hy ett innehåll hosting enhet, och caching avlopp. deployed i access nätverk. Vi fokuserar på arbetsbelastningar (såsom webbinnehåll deliver?) Var är priman? Målet är att tillhandahålla kundförfrågningar genom att leverera data till kunden. w e utföra vår analys med hjälp av en avgift som är representativ för innehållet delivev miljön [2 11. På ett picifiskt sätt är kostnaden för service en arbetsbörda summan av de avgifter som tas ut av servern uppsättningar som deltar i service av arbetsbelastningen: plus eventuella påföljder ~ på grund av överträdelser av angivna nätverksfördröjning eller kapacitetströsklar. Serveruppsättningsavgifter är bandbreddsbaserade, dvs. avgiften är en avgift per megabit innehåll som serveras per sekund. Avgifter bedöms enligt 95*' percentilen qf den maximala bandbredd som används under någon mätperiod under tjänstens interna. En measurement period, till exempel, kan han 60 sekunder medan en tjänst i n t e n d är i storleksordningen 1 månad. .beteckna senrice intervallet. Vidare, låt S betecknar uppsättningen av deltagande serveruppsättningar där i E S, och K betecknar uppsättningen av kunder, k E K. Varje kloak set i har en positiv avgift betecknad av klienten förfrågningar som är riktade till en överbelastad semer eller till en semer för vilken nätverksfördröjningen överstiger D sägs vara rnisdiiructed av uppdraget policv. Vi använder c(.Yf, $) för att beteckna den del av arbetsbördan som är felriktad. En leverantör ådrar sig en straffavgift; y, för arbetsbelastning som inte betjänas enligt senvicekriterier (antingen för att det inte var lugnande eller för att det var felriktat). Således totala trängselkostnader C j för en enda leverantör jag är: där flX, är 95" percentilen av en arbetsbelastning X. Termerna i definitionen av C, representerar kostnaden för avlastning av trafiken t o andra leverantörer: (3); de sanktioner som infördes på grund av att de resurser som krävs för att uppfylla målen för servicenivån inte var tillgängliga vid behov (4); och de påföljder som uppstod på grund av att kundförfrågningar felaktigt riktades till en server 'I ekvation (2) använder vi notationen x':= max(x, 0; som inte uppfyllde sy-nivåmålen (5). Observera att kostnaden inkluderar villkor relaterade till prestanda samt bussmessrelaterade överväganden. Vårt mål är att de\.elop en algoritm som kan hitta uppdraget 4 r) för alla I E T som minimerar trängselkostnader (specificerad ahove i termer (3, 4; 5)) som uppstår av en enda leverantör I. Vi anser inte att optimeringar uppnått hy förändringar i kapacitiven (d.v.s.: värdena i I är statiska), eftersom arbetsuppgiftsalgoritmer endast påverkar den faktiska fördelningen av kapaciteten hos i och dess jämlikar. Dessutom antar vi wokload ~Y, (r) och priset som debiteras av leverantören i för att sy.\; (r) båge påverkas inte av tilldelningspolicyn. Detta möjliggör en förenklad kostnadsbaserad formulering (i motsats till en vinstbaserad formulering). Medan lösningen är deterministisk när arbetsbelastningen, S(I), är känd,.Y(I) för hela intervallet T i s inte känd vid den tidpunkt då urvalet görs. Viktigare är att det inte är möjligt att beräkna det optimala uppdraget (eftersom det finns hundratusentals kunder i den miljö vi vill ta itu med). Vårt mål är inte att lösa detta problem analytiskt, utan istället att utveckla ett system som använder heuristik för att approximera den optimala lösningen. Med tanke på den information som fanns tillgänglig vid tidpunkten för urvalet. Vi använder de trängselkostnader som definieras i detta avsnitt för att jämföra vår strategi med giriga alternativ. Vi beskriver också hur vår algoritm införlivas i en morc omfattande peering. Jag vet inte vad jag ska göra. kan hantera arbetsbelastningsuppdrag på en storskalig kommersiell webbplats. I.8 Förnyelse av bilaga I till förordning (EU) nr 1094/2010 och bilaga II till förordning (EU) nr 1094/2010, bilaga III till förordning (EU) nr 1094/2010, bilaga III till förordning (EU) nr 1094/2010, bilaga III till förordning (EU) nr 1094/2010, bilaga III till förordning (EU) nr 1094/2010 och bilaga III till den här förordningen. PEER SELECTIOS ALGORITRISI detta avsnitt; Vi beskriver vår föreslagna algoritm för kostnadsoptimerad peering, som ~e refererar till som COP. Vi börjar med att introducera en norel klient klusterteknik och sedan descnhe hur COP använder det. Vi sammanställer vårt förslag med två alternativa strategier. I senare avsnitt, 15-e kvarn jämföra resultaten av dessa strategier om arbetsbelastning som genereras från två globala sportevenemang webbplatser, med hjälp av kloakuppsättningar som är representativa för kommersiellt utplacerade innehåll deliven infrastruktur, och klient lokaliseringsdata som samlas in från globalt distribuerade nätverk prohe stationer. Kommissionen ska anta delegerade akter i enlighet med artikel 10 i syfte att anta delegerade akter i enlighet med artikel 10 i denna förordning för att se till att de bestämmelser som avses i punkt 1 i den här artikeln efterlevs. IP.Adress Chrsrer?iip COP försöker inte assi-en individuell klient IP-adresser till sener uppsättningar. hyddan fungerar istället på kluster av nätverksproximala kunder. Arbetsbelastningsstatistiken spåras och set-uppdragen pelformas per kluster. Medan klustering förbättrar beräkningseffektiviteten för thc uppdragsalgoritm, använder vi den också för att minska vissa nackdelar med DNS-hased omdirigering. DNS omdirigering är en mycket skalbar, hydda grovkornig mekanism för att styra kunder till nätverk senice punkter. Eftersom DNS-svar kan cachad a1 kunder och lokala DNS (LDNS) serverx flera förfrågningar från potentiellt olika kunder kan använda resultatet från en enda DNS-upplösning. Ställa ut ett DNS-svar till ett litet värde kan begränsa, men inte eliminera, denna effekt. Vi föreslår en traffic clustering teknik som gör det möjligt för kunder att gruppera päls effektiv nätverkslokalisering och trafikuppskattning, och därmed bidrar till att lindra några av de problem som uppstår från grovkorniga klient-till-server uppdrag som är gemensamma för DNS-baserad omdirigering. Vår klusterstrategi kombinerar tekniker från nätverksmedveten klusterbildning, lokaliseringsinferens och rumslig analys. Vi använder nätverksprohe data som beskrivs i Avsnitt V för att tilldela ahsolute koordinater till IP-adresser. IP-adresser som endast skiljer sig från den sista okteten (dvs. > I24-adressundernät) grupperas och tilldelas en enda uppsättning koordinater. Vårt beslut att gruppera IP-adresser enligt I24-adressen baseras på resultat under [2] som anger en liten avvikelse i fördröjningsmätningar till IP-adresser i samma 124 suhnet. Klustret processen hegins genom att välja en representativ uppsättning av stationer koordinater. a s avbildad i figur 2 och tilldelning av IP-adresser till närmaste station. Stationskoordinaterna; som är centroiderna för koordinaterna för IP-adresser i klustret; sys som platsuppskattning för alla IP-adresser\rithin klustret. I avsnitt VI ger vi en jämförande utvärdering av alternativ för val av stationer, inklusive mänsklig befolkning och webbtrafikcentra. Vi utvärderar också COP över en rad klusterstorlekar. COP algoritmen fungerar genom att acceptera tre primaninputs: serveruppsättningsdata, arbetsbelastningsdata och IP-adresskoordinatdata. Det producerar en tilldelning av klient vorkload till olika s e n e r set, inklusive primae leverantör. Uppgifterna för varje s e n r set i är den avtalade kapaciteten. ri, enhet priset för tjänsten; pi; och ahsolute koordinater, V(s,); av IP-adresser för varje semer se i avlopp set I. Den senrer uppsättning IP-adresser kunde antingen tillhandahållas av partnern eller härleds med hjälp av tekniker liknande de som beskrivs i [ 3 ]. Inmatningen av arbetsbelastning är en trafiklogg där euch e nt v representerar en kundförfrågan och innehåller en tidsstämpel: klientens IP-adress och antal byte som skickas som svar på begäran. I'(I)> spåras för varje klientkluster i form av antal förfrågningar och antal byte i svaret. De absoluta koordinaterna för varje klientkluster, V(k), beräknas och lagras också. Utgången från COP är en tilldelning av andelen förfrågningar från varje klientkluster som skulle tilldelas varje s e n e r set. COP algoritmen kastar kloakerna set urvalsproblem som ett minimum kostnad nätverk tlow optimering problem. Mincost flow formuleringar är ett vanligt verktyg för att lösa 0-7803-8355-9/04/S20.00 82004 BEE. 853 Sen-cr Ställer in Bild 3 ; klientkluster är anslutna till sen-er uppsättningar i en bipartit graf. En kant ansluter kluster k till serveruppsättningen i. Om avståndet heterwen X och i (enligt definitionen i avsnitt 11.B) är mindre än tröskeln för nätverksfördröjning, D. Kostnaderna för alla kanter är 0. usccpt de som leder från.serveruppsättningar till si&. Dessa bär den feu som är associerad med serveruppsättningen. Kapaciteten hos w T c r tct lo vask kanter är.set till, avtalad capacih av tenur set. . Kapaciteten av kanter från källa till klient clustci-. - När då? Clicnt kluster till avloppsset är inställd på arbetsbördan gencratcd h! Tlic con-cspunding klientkluster. COP implementerar netirork simplex algoritmen [I] till. Hitta tlo\v-värden, h, för varje (X, ;)-tuple, som uppfyller målet min-kostnad, max-flöde. Vid administrativt definierad avsikt, COP producerar en karta, som anger fraktionen av norkloadfi /.\ * (t) ~ från h-som är att han riktade till i i i intervall 1. Kartan lagras i en utökad trisk datastruktur utformad för snabba IP routing tabell lookups. Vår peering DNS protokoll motor, PDNS, peiforms en uppslagning med klienten IP-adress när en klient begäran tas emot för att avgöra lämplig kloakuppsättning uppdrag. Även om selcction kriterier för flera leverantörer innehåll deliven har föreslagits. ingen tar upp de kriterier som vi vill utvärdera (nämligen. minimerar service leverans?. kostnader samtidigt som målen för servicenivån respekteras). Till exempel innehållsserveringen Utilit). Decrired i [Il l tillåter en administratör att förstoppa primat? proaider auktoritativ DNS-sener att omdirigera kunder till en partner CDN based.on några statiska riktlinjer, men tar inte hänsyn till kostnad eller arbetsbelastning. Ett andra exempel, CDN Brokering systemet [6], implementerar. ett DNS-hased begäran-routing system och en | Medan de ovannämnda forskningsinsatserna inte explicit virtualisera flera CDN leverantörer, ett peering system för innehåll leverans arbetsbelastning i en federerad, multi-provider infrastruktur presenteras av Amini et al. Hoppa över det. | 528,090 | Effective peering for multi-provider content delivery services | {'venue': 'IEEE INFOCOM 2004', 'journal': 'IEEE INFOCOM 2004', 'mag_field_of_study': ['Computer Science']} | 79,275 |
Vi föreslår forwarding-funktion ( ) baserat routing protokoll för undervattenssensornätverk (UWSNs): förbättrad adaptiv rörlighet för kurirnoder i tröskeloptimerad djupbaserad routing (iAMCTD). Till skillnad från befintliga djupbaserade akustiska protokoll utnyttjar det föreslagna protokollet nätverkstätheten för tidskritiska tillämpningar. För att ta itu med översvämningar, banförluster och spridningslatens beräknar vi optimal hålltid ( ) och använda routingmått: localization-free signal-to-bruse ratio (LSNR), signalkvalitetsindex (SQI), energikostnadsfunktion (ECF) och djupberoende funktion (DDF). Vårt förslag ger on-demand routing genom att formulera hård tröskel ( th ), mjuk tröskel ( th ) och primär energi gräns ( prime ). Simuleringsresultat verifierar den föreslagna iAMCTD:s effektivitet och ändamålsenlighet. | Ett annat reaktivt routing protokoll, förbättrad Adaptive Mobility of Courier noder i Threshold-optimized Djup-baserad routing (iAMCTD) REF förbättrar nätverkets genomströmning och minimerar till stor del paketfall förhållandet genom att använda sina formulerade Forwarding Functions FFs. | 38,050,918 | iAMCTD: Improved Adaptive Mobility of Courier Nodes in Threshold-Optimized DBR Protocol for Underwater Wireless Sensor Networks | {'venue': None, 'journal': 'International Journal of Distributed Sensor Networks', 'mag_field_of_study': ['Computer Science']} | 79,276 |
För att ett autonomt system skall vara till nytta för människor och inte utgöra några omotiverade risker, måste det anpassa sina värden till människors värden i sin omgivning på ett sådant sätt att dess handlingar bidrar till att maximera värdet för människorna. Vi föreslår en formell definition av problemet med värdeanpassning som samarbetsvilligt inverst förstärkande lärande (CIRL). Ett CIRL-problem är ett kooperativt, partiellt informationsspel med två agenter, människa och robot; båda belönas enligt människans belöningsfunktion, men roboten vet till en början inte vad detta är. I motsats till klassisk IRL, där människan antas agera optimalt i isolering, producerar optimala CIRL-lösningar beteenden som aktiv undervisning, aktivt lärande och kommunikativa åtgärder som är mer effektiva för att uppnå värdeanpassning. Vi visar att computing optimal gemensam politik i CIRL spel kan reduceras till att lösa en POMDP, bevisa att optimalitet i isolering är suboptimal i CIRL, och härleda en ungefärlig CIRL algoritm. | Nyligen föreslog REF samarbete om omvänd förstärkningsinlärning, där människan och agenten agerar i samma miljö, vilket gör det möjligt för människan att aktivt lösa agentens osäkerhet om belöningsfunktionen. | 6,208,061 | Cooperative Inverse Reinforcement Learning | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 79,277 |
Vi tar upp erkännande och lokalisering av mänskliga handlingar i realistiska scenarier. I motsats till det tidigare arbetet med att studera mänskliga handlingar i kontrollerade miljöer, här tränar och testar vi algoritmer på verkliga filmer med betydande variation av åtgärder i termer av ämnesutseende, rörelse, omgivande scener, tittarvinklar och spatio-temporala omfattningar. Vi introducerar en ny kommenterad human action dataset och använder den för att utvärdera flera befintliga metoder. Vi fokuserar särskilt på förbättrade fönsterklassificerare i rymdtid och introducerar "keyframe priming" som kombinerar diskriminerande modeller av mänsklig rörelse och form i en handling. Nyckelframe priming har visat sig avsevärt förbättra prestandan för åtgärdsdetektering. Vi presenterar detektionsresultat för actionklassen "drickande" utvärderad på två avsnitt av filmen "Coffee och Cigaretter". | Laptev och Perez REF studerar automatiskt erkännande av mänskliga handlingar i scener tagna från verkliga filmer. | 9,689,275 | Retrieving actions in movies | {'venue': '2007 IEEE 11th International Conference on Computer Vision', 'journal': '2007 IEEE 11th International Conference on Computer Vision', 'mag_field_of_study': ['Computer Science']} | 79,278 |
Vi föreslår en algoritm för meta-lärande som är modellagnostisk, i den meningen att den är kompatibel med alla modeller som är utbildade med lutningsnedstigning och kan tillämpas på en mängd olika inlärningsproblem, inklusive klassificering, regression och förstärkningslärande. Målet med meta-lärande är att utbilda en modell på en mängd olika inlärningsuppgifter, så att den kan lösa nya inlärningsuppgifter med bara ett litet antal träningsprover. I vårt tillvägagångssätt tränas modellens parametrar explicit så att ett litet antal gradientsteg med en liten mängd träningsdata från en ny uppgift ger bra generaliseringsprestanda på den uppgiften. I själva verket tränar vår metod modellen för att vara lätt att finjustera. Vi visar att detta tillvägagångssätt leder till state-of-the-art prestanda på två få bilder klassificering riktmärken, ger goda resultat på få-shot regression, och påskyndar finjustering för policy gradient förstärkning lärande med neurala nätverk politik. | Modell-agnostic meta-learning approach REF gör detta genom att simulera få-shot lärande uppgifter under meta-learning fasen för att hitta en bra uppsättning av inledande vikter för ett neuralt nätverk. | 6,719,686 | Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 79,279 |
Enords vektorrymdmodeller har varit mycket framgångsrika när det gäller att lära sig lexisk information. Men de kan inte fånga den kompositionella betydelsen av längre fraser, vilket hindrar dem från en djupare förståelse av språket. Vi introducerar en rekursiv neurala nätverk (RNN) modell som lär sig kompositionella vektor representationer för fraser och meningar av godtycklig syntaktisk typ och längd. Vår modell tilldelar en vektor och en matris till varje nod i ett parsträd: vektorn fångar komponentens inneboende betydelse, medan matrisen fångar hur den ändrar betydelsen av grannord eller fraser. Denna matris-vektor RNN kan lära sig innebörden av operatörer i propositionslogik och naturligt språk. Modellen får state of the art performance på tre olika experiment: förutsäga finkorniga känslofördelningar av adverb-adjektiv par; klassificera känslor etiketter av film recensioner och klassificera semantiska relationer såsom orsak-effekt eller ämne-meddelande mellan substantiv med hjälp av den syntaktiska vägen mellan dem. | REF använder ett rekursivt neuralt nätverk i förhållande extraktion. | 806,709 | Semantic Compositionality through Recursive Matrix-Vector Spaces | {'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,280 |
I det här dokumentet presenterar vi designen av en Constomed Application Protocol (CoAP) proxy som kan koppla samman webbapplikationer baserade på Hypertext Transfer Protocol (HTTP) och WebSocket med CoAP-baserade trådlösa Sensor Networks. Sensornätverk används ofta för att övervaka och kontrollera fysiska objekt eller miljöer. Smarta städer är tillämpningar av detta slag. Trådlösa Sensornätverk samlar in data från sin omgivning och skickar dem till ett fjärrprogram. Detta dataflöde kan vara kort eller långlivat. Den traditionella HTTP långtidspolling som används av webbapplikationer kanske inte är tillräcklig i långsiktig kommunikation. För att övervinna detta problem, vi inkluderar WebSocket-protokollet i utformningen av CoAP proxy. Vi utvärderar prestandan hos CoAP-proxyn i termer av latens och minnesförbrukning. Testerna tar hänsyn till lång och kortlivad kommunikation. I båda fallen utvärderar vi den prestanda som uppnåtts av CoAP-proxyn enligt användningen av WebSocket och HTTP long-polling. | Alessandro och El. REF inkluderar WebSocket-protokollet i utformningen av CoAP-proxyn för HTTP-baserade webbapplikationer. | 2,944,800 | A Proxy Design to Leverage the Interconnection of CoAP Wireless Sensor Networks with Web Applications | {'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']} | 79,281 |
Den dynamiska karaktären hos citeringsnätverk gör uppgiften att rangordna vetenskapliga artiklar svår. Citationsnätverk utvecklas ständigt eftersom artiklar får nya citeringar varje dag. För rankning vetenskapliga artiklar kan vi definiera popularitet eller prestige av ett papper baserat på antalet tidigare citeringar vid användarens frågestund; men vi hävdar att vad som är mest användbart är de förväntade framtida referenser. Vi definierar en ny åtgärd, FutureRank, som är den förväntade framtida PageRank score baserad på citeringar som kommer att erhållas i framtiden. Förutom att använda citeringsnätverket använder FutureRank författarnätverket och artikelns publiceringstid för att förutsäga framtida citeringar. Våra experiment jämför FutureRank med befintliga metoder och visar att FutureRank är korrekt och användbart för att hitta och rangordna publikationer. | Sayyadi och Getoor REF föreslår FutureRank att förutsäga det framtida inflytandet av vetenskapliga artiklar genom att använda sig av det citeringsnätverk som övervägde artikelns publiceringstid. | 5,955,606 | FutureRank: Ranking Scientific Articles by Predicting their Future PageRank | {'venue': 'In Proc. of the 9th SIAM International Conference on Data Mining', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,282 |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.