src
stringlengths 100
134k
| tgt
stringlengths 10
2.25k
| paper_id
int64 141
216M
| title
stringlengths 9
254
| discipline
stringlengths 67
582
| __index_level_0__
int64 0
83.3k
|
---|---|---|---|---|---|
Intel Software Guard Extensions (SGX) ger ett starkt isolerat minne utrymme, känd som en enklav, för en användarprocess, säkerställa sekretess och integritet mot programvara och hårdvaruattacker. Inte ens operativsystemet och hypervisorn kan komma åt enklaven på grund av hårdvarunivåns isolering. Dessutom kan maskinvaruattacker varken avslöja klartextdata från enklaven eftersom dess minne alltid krypteras eller modifieras eftersom dess integritet alltid verifieras med hjälp av ett integritetsträd. När processorn upptäcker någon integritetsintrång låser den sig själv för att förhindra ytterligare skador, det vill säga att ett system behöver startas om. Processorn lås verkar vara en rimlig lösning mot en sådan kraftfull hårdvara angripare; men om en programvara angripare har ett sätt att utlösa integritetsintrång, låset kan resultera i en allvarlig överbelastning (DoS) attack. I denna tidning introducerar vi SGX-Bomb attacken som lanserar Rowhammer attacken mot enklave minne för att utlösa processorn lockdown. SGX-bombattacken är enkel men alarmerande. Inuti en enklav, hittar denna attack först motstridiga radadresser på samma DRAM bank, och sedan upprepade gånger komma åt dem medan förbi cache. Om godtyckliga bit flips har inträffat inuti enklaven på grund av Rowhammer attack, alla läsförsök till enklaven minne resulterar i ett fel i integritetskontroll så att processorn kommer att låsas, och systemet bör startas om. Den SGX-Bomb attacken är ett allvarligt hot särskilt mot den offentliga molnleverantörer som är tänkt att köra okända enklavprogram mottagna från sina kunder, som kan stänga av sina servrar delas med andra kunder. Vi utvärderar effektiviteten av SGX-Bomb attacken i en verklig miljö med DDR4 DRAM; det tar 283 s att hänga hela systemet med standard DRAM uppdateringsfrekvens, 64 ms. | I REF beskriver författarna en attack som kränker enklavens integritet i syfte att utlösa en processorlåsning. | 21,894,127 | SGX-Bomb: Locking Down the Processor via Rowhammer Attack | {'venue': "SysTEX'17", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,783 |
Den senaste tekniken inom maskinvarudesign är användning av hårdvarubeskrivning språk som VHDL (Mycket hög hastighet Integrerad Circuit Hardware Beskrivning Språk). De konstruktioner som ges av VHDL-program återförs till den punkt där det fysiska förverkligandet av den nya kretsen eller brädet kan syntetiseras automatiskt. Mönstren provas genom att simulera dem och jämföra deras utgång med den som föreskrivs i specificationen. En väsentlig del av konstruktionen används för att upptäcka oacceptabla avvikelser från denna specificering och därefter lokalisera källorna till sådana fel. I detta dokument beskriver vi ett tillvägagångssätt för att använda modellbaserad diagnos för feldetektering och lokalisering i mycket stora VHDL-program (flera 100.000 rader kod). För att uppnå tillräcklig prestanda för praktisk tillämpning, har vi utvecklat en representation som tillåter en mycket abstrakt syn på program och fel, men är tillräckligt detaljerad för att ge betydande minskningar i fel lokaliseringskostnader jämfört med den nuvarande arbetsintensiva metoden. Implementeringen i samband med kunskapsrepresentationen är utformad med öppenhet i åtanke för att möjliggöra användning av de högoptimerade simuleringsverktyg som finns tillgängliga. Diskriminering mellan diagnoser uppnås genom användning av flera testfall och val av mätning. Testresultaten visar tillräcklig prestanda för praktisk användning. | I REF användes modellbaserad diagnos för att upptäcka och lokalisera fel i stora VHDL-program. | 917,398 | Model-Based Diagnosis of Hardware Designs | {'venue': 'Artif. Intell.', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,784 |
Abstract-I detta papper presenterar vi en metod som uppskattar reflektans och belysning information från en enda bild som skildrar ett enskilt material speculär objekt från en viss klass under naturlig belysning. Vi följer en datadriven, inlärningsbaserad metod tränad på en mycket stor datauppsättning, men i motsats till tidigare arbete utgår vi inte från att en eller flera komponenter (form, reflektion eller belysning) är kända. Vi föreslår en tvåstegsstrategi, där vi först uppskattar objektets reflexionskarta, och sedan ytterligare sönderdela den till reflexion och belysning. I det första steget introducerar vi ett konvolutionellt neuralt nätverk (CNN) som direkt förutsäger en reflektionskarta från själva inmatningsbilden, samt ett indirekt system som använder extra övervakning, först uppskattar ytorienteringen och därefter sluter sig till reflektionskartan med hjälp av en inlärningsbaserad gles datainterpoleringsteknik. För det andra steget föreslår vi en CNN-arkitektur för att rekonstruera både Phong-reflektionsparametrar och högupplösta sfäriska belysningskartor från reflektanskartan. Vi föreslår också nya dataset för att utbilda dessa CNN. Vi visar effektiviteten i vår strategi för både steg genom omfattande kvantitativ och kvalitativ utvärdering av både syntetiska och verkliga data samt genom många tillämpningar, som visar förbättringar jämfört med den senaste tekniken. | I REF kombineras denna arkitektur med ett CNN som bryter ned reflektanskartan till en miljökarta och ett enda material. | 4,660,201 | Reflectance and Natural Illumination from Single-Material Specular Objects Using Deep Learning | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 4,785 |
Ett centraliserat kodat cachesystem har föreslagits av Maddah-Ali och Niesen för att minska den värsta belastningen av ett nätverk som består av en server med tillgång till N-filer och ansluten via en delad länk till K-användare, var och en utrustad med en cache av storlek M. Detta centraliserade kodade cachesystem kan dock inte dra nytta av en icke-uniform, möjligen mycket skev, fil popularitet distribution. I detta arbete, vi anser att samma nätverksinställning men syftar till att minska den genomsnittliga belastningen under en godtycklig (känd) fil popularitet distribution. För det första anser vi att en klass av centraliserade kodade cachesystem utnyttjar allmän okodad placering och en specifik kodad leveransstrategi, som specificeras av en allmän filpartition parameter. Sedan formulerar vi den kodade caching design optimering problem över den ansedda klassen av system med 2 K · N K variabler för att minimera den genomsnittliga belastningen genom att optimera filen partition parameter under en godtycklig fil popularitet. Dessutom visar vi att optimeringsproblemet är konvext, och den resulterande optimala lösningen förbättras generellt vid kända system. Därefter analyserar vi de strukturella egenskaperna hos optimeringsproblemet för att få designinsikter och minska komplexiteten. Specifikt får vi ett ekvivalent linjärt optimeringsproblem med (K + 1)N variabler under en godtycklig fil popularitet och ett ekvivalent linjärt optimeringsproblem med K + 1 variabler under den enhetliga fil popularitet. Under den enhetliga fil populariteten får vi också den slutna formen optimal lösning, vilket motsvarar Maddah-Ali-Niesens centraliserade kodade cachesystem. Slutligen presenterar vi en informations-teoretisk konversation bunden på den genomsnittliga belastningen under en godtycklig fil popularitet. | Däremot följer REF ett teoretiskt tillvägagångssätt för att hitta strukturella egenskaper i den optimala lösningen på problemet. | 23,049,645 | Structural Properties of Uncoded Placement Optimization for Coded Delivery | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 4,786 |
Abstract-Passive optiska nätverk dominerar accessnät runt om i världen på grund av sin ekonomiska aspekt, bandbredd och penetration. Det är nödvändigt att ta itu med specificeringen av dessa nät. Artikeln behandlar ett överföringskonvergensskikt i ett Gigabit passivt optiskt nätverk, särskilt aktiveringsprocessen för ONES. När blackouten påverkar alla ONUs i nätverket, alla ONUs behöver återsynkroniseras med OLT men den nuvarande algoritmen påverkar det för högre värde av ONUs synkronisering efter ett par minuter. Vi föreslog en ny algoritm för en ONU-aktiveringstid med samma ramstruktur och tillståndsmaskin, som definieras i huvudspecifikationen. Vi verifierade den föreslagna algoritmen genom simulering och jämförde resultaten för aktuella och nya algoritmer. Våra resultat bekräftar att det är möjligt att uppnå bättre tid upp till nitton gånger lägre synkroniseringstid jämfört med den nuvarande algoritmen. | Vi hanterade aktiveringsprocessen i REF för GPON. | 29,638,739 | Novel Algorithm in Activation Process of GPON Networks | {'venue': None, 'journal': 'Journal of communications software and systems', 'mag_field_of_study': ['Computer Science']} | 4,787 |
Med mer än 11.000 valfria och alternativa funktioner är Linuxkärnan en mycket konfigurerbar programvara. Linux uppfattas i allmänhet som ett läroboksexempel för preprocessorbaserad produktderivation, men mer än 65 procent av alla funktioner hanteras faktiskt av byggsystemet. Därför måste variabilitetsmedvetna statiska analysverktyg ta hänsyn till byggsystemet. Det är dock svårt att utvinna variabilitetsinformation från byggsystemet på grund av det deklarativa och urbening-fullständiga MAKE-språket. Befintliga metoder baserade på textbehandling täcker inte dessa utmaningar och tenderar att anpassas till en specifik Linuxversion och arkitektur. Detta gör dem praktiskt taget oanvändbara som grund för stöd för variabilitetsmedvetna verktyg -Linux är ett rörligt mål! Vi beskriver ett robust tillvägagångssätt för att extrahera implementationsvariabilitet från Linux build-systemet. Istället för att extrahera variabilitetsinformationen genom en textbaserad analys av alla byggskript utnyttjar vårt tillvägagångssätt byggsystemet självt för att producera denna information. Som våra resultat visar är vår strategi robust och fungerar för alla versioner och arkitekturer från Linux (git-) historia. | Diettrich m.fl. föreslog ett tillvägagångssätt för att extrahera implementationsvariabilitet från Linux build-systemet, eftersom det innehåller mer än 65% av alla konfigurationsalternativ REF. | 7,382,615 | A robust approach for variability extraction from the Linux build system | {'venue': "SPLC '12", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,788 |
Abstrakt. Terminalens latens, konnektivitet, energi och minne är de viktigaste egenskaperna i dagens mobila miljöer vars prestanda kan förbättras genom caching. I detta dokument presenterar vi ett adaptivt system för mobil webbdatacachelagring, som står för överbelastning av det trådlösa nätet och energibegränsning av mobila terminaler. Vårt huvudsakliga designmål är att minimera energikostnaden för peer-to-peer-kommunikation mellan mobilterminaler för att möjliggöra dyr webbåtkomst när en fast åtkomstpunkt inte är tillgänglig i mobilterminalens kommunikationsområde. Vi föreslår en samarbetsstrategi för hantering av cache mellan mobila terminaler som interagerar via ett ad hoc-nätverk. Vi tillhandahåller vidare en utvärdering av den föreslagna lösningen när det gäller energiförbrukning på mobila enheter. | I REF föreslog författarna en metod som i samarbete lagrar webbdata i ad hoc-nätverk. | 14,707,006 | Cooperative caching in ad hoc networks | {'venue': 'Mobile Data Management', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,789 |
Abstract-The Internet of Things (IoT) är en del av framtidens Internet och kommer att omfatta miljarder av intelligenta kommunicerande "saker" eller Internet Connected Objects (ICO) som kommer att ha avkänning, aktivering och databehandling kapacitet. Varje ICO kommer att ha en eller flera inbyggda sensorer som kommer att fånga potentiellt enorma mängder data. Sensorer och relaterade dataströmmar kan samlas fysiskt eller praktiskt, vilket väcker utmaningen att söka och välja rätt sensorer för en fråga på ett effektivt och effektivt sätt. I detta dokument föreslås en kontextmedveten sensorsökning, urval och rankningsmodell, kallad CASSARAM, för att ta itu med utmaningen att effektivt välja en delmängd av relevanta sensorer av en stor uppsättning sensorer med liknande funktionalitet och kapacitet. CASSARAM tar hänsyn till användarnas önskemål och beaktar ett brett spektrum av sensoregenskaper, såsom tillförlitlighet, noggrannhet, läge, batteritid och många fler. Papperet belyser vikten av sensorsökning, urval och rankning för sakernas internet, identifierar viktiga egenskaper hos både sensorer och datainsamlingsprocesser, och diskuterar hur semantiskt och kvantitativt resonemang kan kombineras. Detta arbete tar också upp utmaningar som effektiv distribuerad sensorsökning och relationsuttrycksbaserad filtrering. CASSARAM-test- och resultatutvärderingar presenteras och diskuteras. Index Terms-Internet of Things, sammanhangsmedvetenhet, sensorer, sökning och urval, indexering och rankning, semantisk frågeställning, kvantitativt resonemang, multidimensionell datafusion. | Perera m.fl. REF presenterar CASSARAM-ramverket för att utföra sensorsökning och val avseende användarkontextegenskaper. | 11,413,328 | Sensor Search Techniques for Sensing as a Service Architecture for The Internet of Things | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 4,790 |
Söka personer i storskaliga bilddatabaser med frågan om naturligt språk beskrivning har viktiga tillämpningar i videoövervakning. Befintliga metoder fokuserade främst på att söka personer med bildbaserade eller attributbaserade frågor, som har stora begränsningar för en praktisk användning. I denna uppsats studerar vi problemet med personsökning med beskrivning av naturligt språk. Med tanke på den textbaserade beskrivningen av en person krävs algoritmen för personsökningen för att rangordna alla prover i persondatabasen och sedan hämta det mest relevanta provet som motsvarar den frågade beskrivningen. Eftersom det inte finns några persondata eller riktmärken med textbeskrivning tillgängliga, samlar vi in en storskalig personbeskrivningsdatauppsättning med detaljerade fysiska språkanteckningar och personprover från olika källor, kallade CUHK Person Description Dataset (CUHK-PEDES). Ett brett spektrum av möjliga modeller och baslinjer har utvärderats och jämförts med riktmärket för personsökning. Ett återkommande neuralt nätverk med gated neural uppmärksamhet mekanism (BNA-RNN) föreslås för att fastställa state-of-the-art prestanda på personsökning. | Löjtnant m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m för m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. REF samlade in en storskalig språkbeskrivningsdatauppsättning CUHK-PEDES med innehållsrika språkanteckningar och genomförde användarstudier. | 515,843 | Person Search with Natural Language Description | {'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 4,791 |
Det senaste arbetet har visat att optisk flödesuppskattning kan formuleras som en övervakad inlärningsuppgift och framgångsrikt kan lösas med konvolutionella nätverk. Utbildning av den så kallade FlowNet möjliggörs av en stor syntetiskt genererade dataset. I detta dokument utvidgas begreppet optisk flödesuppskattning via konvolutionsnät till att omfatta skillnader och scenflödesuppskattning. I detta syfte föreslår vi tre syntetiska stereo videodataset med tillräcklig realism, variation och storlek för att framgångsrikt träna stora nätverk. Våra dataset är de första storskaliga dataseten som möjliggör utbildning och utvärdering av scenflödesmetoder. Förutom datauppsättningarna presenterar vi ett konvolutionsnätverk för bedömning av skillnader i realtid som ger de senaste resultaten. Genom att kombinera ett nätverk för mätning av flöden och skillnader och utbilda det gemensamt, visar vi den första scenflödesberäkningen med ett konvolutionsnätverk. | En stor datauppsättning för att träna Convolutional Networks for Disparity, Optical Flow och Scene Flow Estimation DNET REF är också en CNN-baserad metod som är tränad för att utföra full skillnad estimering uppgift utan att kräva ytterligare matchande algoritmer. | 206,594,275 | A Large Dataset to Train Convolutional Networks for Disparity, Optical Flow, and Scene Flow Estimation | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 4,792 |
Överför lärande hjälper till att bygga ett system för att känna igen och tillämpa kunskap och erfarenhet som lärts i tidigare uppgifter (källuppgift) till nya uppgifter eller nya områden (måluppgift), som delar viss gemensamhet. De två viktiga faktorer som påverkar resultaten av modeller för överföringslärande är: a) storleken på måldatauppsättningen och b) likheten i fördelningen mellan käll- och målområden. Hittills har det inte gjorts någon större undersökning av hur viktiga dessa faktorer är. I detta dokument undersökte vi effekten av måldatauppsättningens storlek och likheten mellan käll- och måldomäner på modellens prestanda genom en rad experiment. Vi fann att mer data alltid är fördelaktigt, och att modellens prestanda förbättrades linjärt med loggen av datastorlek, tills vi var slut på data. Eftersom käll-/måldomäner skiljer sig åt krävs mer data och finjustering kommer att ge bättre prestanda än extrahering av funktioner. När käll-/måldomäner är likartade och datastorleken är liten, ger finjustering och funktionsextraktion likvärdiga prestanda. Vi hoppas att vår studie inspirerar till ytterligare arbete med att överföra lärande, vilket fortsätter att vara en mycket viktig teknik för att utveckla praktiska tillämpningar för maskininlärning inom affärsområden. | Genom en serie experiment på effekten av måldatauppsättning storlek och källa / mål domän likhet, Bernico et al. REF visade att mer data och en liknande distribution alltid är till nytta för överföring av lärande. | 5,766,503 | Investigating the Impact of Data Volume and Domain Similarity on Transfer Learning Applications | {'venue': None, 'journal': 'arXiv: Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 4,793 |
ABSTRACT Enhet-till-enhet (D2D) kanaler tillåter innehållsdelning när två enheter är i närheten, vilket kan bidra till att förbättra resursutnyttjande och nätverkskapacitet. Data caching införs i D2D-nätverk för att möjliggöra snabb dataåtkomst i mobila nät. På grund av den själviska naturen hos användarna, vill de få så mycket replikering som möjligt i de opportunistiska kopplingarna, försöker maximera sina egna vinster. Caching data för andra noder kan dock resultera i extra kostnad för noden fungerar som cache, där kostnaden åberopas av cacheplacering av cache noder och tillgång till kostnader för andra noder. I detta dokument föreslår vi en social-medveten caching spel att uppmuntra noder att cache data för andra. I spelet, anser vi de sociala banden och fysiska avstånd som faktorer för att formulera caching kostnaden. Vi får Nash jämvikt i spelet och föreslår en social-medveten algoritm för att minimera den totala kostnaden för att få objektdata i nätverket. De omfattande simuleringsresultaten visar att vår algoritm får betydande cachefördelar. INDEX TERMS Caching, D2D kommunikation, sociala relationer, spelteori, Nash jämvikt. | Med tanke på den extra energi- och lagringsförbrukningen i caching och avsättning innehåll, ett socialt medveten caching spel föreslås att uppmuntra själviska enheter för att cache innehåll och delta i D2D kommunikation i REF. | 25,744,238 | Social-Aware Incentivized Caching for D2D Communications | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 4,794 |
Vi presenterar en serie experiment om att automatiskt identifiera känslan av implicita samtalsrelationer, d.v.s. relationer som inte är markerade med en diskurs bindväv som "men" eller "för". Vi arbetar med en corpus av implicita relationer som finns i tidningstexten och rapporterar resultat på en testuppsättning som är representativ för den naturligt förekommande distributionen av sinnen. Vi använder flera språkligt informerade funktioner, inklusive polaritetstaggar, Levin verbklasser, längden på verbfraser, modalitet, sammanhang och lexiska funktioner. Dessutom ser vi tillbaka på tidigare tillvägagångssätt med hjälp av lexical par från oannoterad text som funktioner, förklara några av sina brister och föreslå ändringar. Vår bästa kombination av funktioner överträffar baslinjen från dataintensiva metoder med 4% för jämförelse och 16% för oförutsedda händelser. | REF använder flera språkligt informerade funktioner, inklusive polaritetstaggar, Levin verbklasser och verbfrasers längd. | 1,157,793 | Automatic sense prediction for implicit discourse relations in text | {'venue': 'ACL-IJCNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,795 |
Abstract-Vi undersöker hur bandbreddsval påverkar återuppbyggnadskvaliteten på punktbaserade ytor. Även om problemet har fått relativt lite uppmärksamhet i litteraturen, visar vi att lämpligt urval spelar en viktig roll för kvaliteten på rekonstruerade ytor. Vi visar hur man beräknar optimala bandbredder för en klass av rörliga minstskaftsytor genom att formulera det polynomiska monteringssteget som ett kärnregressionsproblem för både ljudlösa och bullriga data. I samband med Levins projektion diskuterar vi också konsekvenserna av projektionen i två steg för valet av bandbredd. Vi visar experimentella jämförelser av vår metod, vilket överträffar heuritiskt valda funktioner och vikter som tidigare föreslagits. Vi visar också bandbreddens inflytande på rekonstruktionskvaliteten hos olika formuleringar av punktbaserade ytor. Vi tillhandahåller, så vitt vi vet, de första kvantitativa jämförelserna mellan olika MLS ytformuleringar och deras optimala bandbredder. Med hjälp av dessa experiment undersöker vi valet av effektiva bandbredder för dessa alternativa formuleringar. Vi avslutar med en diskussion om hur man effektivt kan jämföra de olika MLS formuleringarna i litteraturen. | Wang m.fl. föreslog en automatisk bandbredd urvalsmetod för att flytta minst kvadrater (MLS) ytor REF. | 10,224,186 | Bandwidth Selection and Reconstruction Quality in Point-Based Surfaces | {'venue': 'IEEE Transactions on Visualization and Computer Graphics', 'journal': 'IEEE Transactions on Visualization and Computer Graphics', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 4,796 |
Abstract-This paper föreslår en enkel men effektiv metod för att lära sig visuella funktioner på nätet för att förbättra avskärmning upptäckt och plats erkännande, baserat på påse-of-words ramar. Tillvägagångssättet lär sig ett kodord i säck-of-words modell från ett par matchade funktioner från två på varandra följande ramar, så att kodordet har temporalt härledda perspektiv invarians till kamerarörelse. Lärande algoritmen är effektiv: den binära deskriptorn genereras från den genomsnittliga bild patch, och masken lärs ut baserat på diskriminativ projektion genom att minimera den intraklass avstånd bland den lärda funktionen och de två ursprungliga funktionerna. Ett kodord för bag-of-word modeller genereras genom att packa den lärda deskriptorn och masken, med en maskerad Hamming avstånd definieras för att mäta avståndet mellan två kodord. De geometriska egenskaperna hos de lärda kodorden är sedan matematiskt motiverade. Dessutom införs hypotesbegränsningar genom tidskonsistens i matchade kodord, vilket förbättrar precisionen. Metoden, som är integrerad i ett inkrementellt bag-of-words-system, valideras på flera uppsättningar referensdata och jämförs med de senaste metoderna. Experiment visar förbättrad precision/återkalla outperforming state of the art med liten förlust i körtid. | I en nyare lösning, Zhang et al. REF föreslog en teknik för att lära sig ett visuellt ord från ett par matchade funktioner längs två på varandra följande ramar. | 12,039,024 | Learning Binary Features Online from Motion Dynamics for Incremental Loop-Closure Detection and Place Recognition | {'venue': '2016 IEEE International Conference on Robotics and Automation (ICRA)', 'journal': '2016 IEEE International Conference on Robotics and Automation (ICRA)', 'mag_field_of_study': ['Computer Science']} | 4,797 |
Abstrakt. Relaterade nyckelattacker (RCAs) är kraftfulla kryptoanalytiska attacker där en motståndare kan ändra den hemliga nyckeln och observera effekten av sådana förändringar vid utmatningen. Den senaste tekniken i RKA säkerhet skyddar mot ett a-prioriterat obegränsat antal av vissa algebraiska inducerade nyckelrelationer, t.ex. affin funktioner eller polynom av begränsad grad. I detta arbete visar vi att det är möjligt att gå bortom den algebraiska barriären och uppnå säkerhet mot godtyckliga nyckelrelationer, genom att begränsa antalet manipuleringsförfrågningar motståndaren tillåts begära. Den senare begränsningen är nödvändig i händelse av godtyckliga nyckelrelationer, eftersom det annars är fråga om ett allmänt angrepp av Gennaro m.fl. (TCC 2004) visar hur man återvinner nyckeln till nästan alla kryptografiska primitiva. Vi beskriver våra bidrag mer i detalj nedan. (1) Vi visar att standard-ID- och signatursystem konstruerade av en stor klass av -protokoll (inklusive Okamoto-systemet, till exempel) är säkra även om motståndaren godtyckligt kan manipulera bevisarens tillstånd ett begränsat antal gånger och få en viss begränsad mängd läckage. Intressant nog, för Okamoto systemet kan vi tillåta även oberoende manipulering av de offentliga parametrarna. (2) Vi visar en begränsad manipulering och läckagetålig CCA-säker offentlig nyckel kryptosystem baserat på DDH antagande. Vi definierar först en svagare CCA-liknande säkerhetsbegrepp som vi kan direktiera baserat på DDH, och sedan ger vi en allmän kompilator som ger CCA säkerhet med manipulering och läckage motståndskraft. Detta kräver en offentlig manipuleringssäker gemensam referenssträng. (3) Slutligen förklarar vi hur vi kan öka den begränsade manipuleringen och läckageresistansen [som i (1) och (2) ovan] till kontinuerlig manipulering och läckageresiliens, i den så kallade diskettmodellen där varje användare har en personlig maskinvarusymbol (innehållande läckage- och manipuleringsfri information) som kan användas för att uppdatera den hemliga nyckeln. Vi anser att begränsad manipulering är ett meningsfullt och intressant alternativ för att undvika kända omöjlighetsresultat och kan ge viktiga insikter i säkerheten i befintliga standard kryptografiska system. | Nyligen, Damgård m.fl. REF visade att manipuleringsbeständighet (även i kombination med läckagebeständighet) kan uppnås för godtyckliga nyckelrelationer genom att begränsa antalet motståndares manipuleringsfrågor. | 5,791,791 | Bounded Tamper Resilience: How to Go Beyond the Algebraic Barrier | {'venue': 'Journal of Cryptology', 'journal': 'Journal of Cryptology', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 4,798 |
I detta arbete tar vi upp problemet med gemensam modellering av text och citeringar inom ramen för temamodellering. Vi presenterar två olika modeller som kallas Parwise-Link-LDA och Link-PLSA-LDA-modellerna. Modellen Parwise-Link-LDA kombinerar idéerna från LDA [4] och Mixed Membership Block Stochastic Models [1] och möjliggör modellering av godtycklig länkstruktur. Modellen är dock beräknande dyr, eftersom det innebär att modellera närvaron eller frånvaron av en citering (länk) mellan varje par av dokument. Den andra modellen löser detta problem genom att anta att länkstrukturen är en bipartit graf. Som namnet antyder kombinerar Link-PLSA-LDA-modellen LDA- och PLSA-modellerna till en enda grafisk modell. Våra experiment på en delmängd Citeser data visar att båda dessa modeller kan förutsäga osynliga data bättre än baslinjemodellen Erosheva och Lafferty [8], genom att fånga begreppet aktuell likhet mellan innehållet i de citerade och citerade dokumenten. Våra experiment på två olika datauppsättningar på länkförutsägelseuppgiften visar att Link-PLSA-LDA-modellen utför det bästa på citeringsförutsägelseuppgiften, samtidigt som den förblir mycket skalbar. Dessutom presenterar vi även några intressanta visualiseringar som genereras av var och en av modellerna. | Nallapati m.fl. Ref presenterade två nya ämnesmodeller för att ta itu med problemet med gemensam modellering av länk och text. | 2,191,757 | Joint latent topic models for text and citations | {'venue': 'KDD', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,799 |
Detta papper presenterar en tillämpning av PageRank, en slumpmässig-walk modell som ursprungligen utformats för att ranka Web sökresultat, att ranka WordNet synset i termer av hur starkt de har en given semantisk egendom. De semantiska egenskaper vi använder för att exemplifiera tillvägagångssättet är positivitet och negativitet, två egenskaper av central betydelse i känsloanalys. Tanken härrör från observationen att WordNet kan ses som en graf i vilken synset är anslutna genom det binära förhållandet "en term som tillhör synset s k förekommer i synset s i ", och på hypotesen att detta förhållande kan ses som en sändare av sådana semantiska egenskaper. Data för denna relation kan erhållas från eXtended WordNet, en allmänt tillgänglig sensedisambiguated version av WordNet. Vi hävdar att detta förhållande är strukturellt lik förhållandet mellan hyperlänkade webbsidor, och därmed lämpar sig för PageRank analys. Vi rapporterar experimentella resultat som stödjer våra intuitioner. | De utökar sedan sitt arbete REF genom att tillämpa Page Rank algoritm för att rangordna WordNet sinnen i termer av hur starkt en känsla har en given semantisk egenskap (t.ex., positiv eller negativ). | 1,688,003 | PageRanking WordNet Synsets: An Application to Opinion Mining | {'venue': '45th Annual Meeting of the Association of Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,800 |
Vi presenterar ett system för att träna djupa neurala nätverk för objektdetektering med hjälp av syntetiska bilder. För att hantera variabiliteten i verkliga data, är systemet beroende av tekniken för domän randomisering, där parametrarna i simulatorn-såsom belysning, pose, objekt texturer, etc.- randomiserade på icke-realistiska sätt att tvinga neurala nätverket att lära sig de väsentliga egenskaperna hos objektet av intresse. Vi undersöker betydelsen av dessa parametrar, visar att det är möjligt att producera ett nätverk med övertygande prestanda med endast icke-konstnärligt genererade syntetiska data. Med ytterligare finjustering av verkliga data ger nätverket bättre prestanda än enbart användning av verkliga data. Detta resultat öppnar upp möjligheten att använda billiga syntetiska data för utbildning neurala nätverk samtidigt undvika behovet av att samla in stora mängder handannoterade verkliga data eller att generera hög-fidelity syntetiska världar-av vilka båda förblir flaskhalsar för många tillämpningar. Metoden utvärderas när det gäller detektering av bilar i KITTI-datasetet. | Många syntetiska bilder är orealistiska ur ett globalt perspektiv, som att sätta en bil på bordet REF. | 4,929,980 | Training Deep Networks with Synthetic Data: Bridging the Reality Gap by Domain Randomization | {'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW)', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW)', 'mag_field_of_study': ['Computer Science']} | 4,801 |
I det här dokumentet introducerar vi ett nytt spel för att crowd-source naturliga språk hänvisningsuttryck. Genom att designa ett tvåspel kan vi både samla in och verifiera referensuttryck direkt i spelet. Hittills har spelet producerat en datauppsättning som innehåller 130,525 uttryck, med hänvisning till 96.654 distinkta objekt, i 19.894 fotografier av naturliga scener. Detta dataset är större och mer varierat än tidigare REG-dataset och tillåter oss att studera referensuttryck i verkliga scener. Vi tillhandahåller en djupanalys av den resulterande datauppsättningen. Baserat på våra resultat utformar vi en ny optimeringsbaserad modell för att generera referensuttryck och utföra experimentella utvärderingar på 3 testuppsättningar. | Kazemzadeh m.fl. REF utformade en energioptimeringsmodell för att generera referensuttryck i form av objektattribut. | 6,308,361 | ReferItGame: Referring to Objects in Photographs of Natural Scenes | {'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,802 |
Syfte -Detta dokument syftar till att förstå hur användarna avgör trovärdigheten i internetmiljön från en konceptuell nivå och konsekvenserna av dessa nya metoder för trovärdighetsbestämning på internetverktyg (främst programvara) och tjänster. Design/metodologi/approach -Författaren undersöker först de bakomliggande orsakerna till ett ökat beroende av Internet för information, med hjälp av elektronisk handel som utgångspunkt. Det centrala begreppet "informationssjälvförsörjning" introduceras och undersöks sedan genom linsen i internet- och konversationsteorin. Resultaten -Författaren finner att användarna skiftar från mer traditionella "auktoritet" metoder för trovärdighetsbestämning, där användarna avstår från beslut till betrodda tredje parter, till en "tillförlitlighet" metod där användare söker likheter och samstämmighet mellan flera informationskällor. Detta har lett till ett ökat tryck på deltagande och öppenhet på alla nivåer på Internet. Forskning begränsningar / konsekvenser -Studier om användare och trovärdighet måste bättre redogöra för ofta osynliga tekniska faktorer. Praktiska konsekvenser -Biblioteket måste ta hänsyn till ett större behov av deltagande och teknisk fluens när det handlar om beskyddare, särskilt i informationskunskapsprogram och undervisning. Originalitet / värde - Detta dokument presenterar en storskalig konceptuell strategi för trovärdighet på Internet. Det syftar till att informera aktuella strategier för ämnet inbäddat i kommunikation och undervisning med den unika tekniska miljön på Internet. Inledning: slut på stenar Det har sagts att stenåldern inte tog slut eftersom människan fick slut på stenar. Stone Age-tekniken övervanns istället av nya verktyg och möjligheter. Vid någon tidpunkt i historien blev det helt enkelt mer fördelaktigt att använda nya metoder och verktyg i stället för att försöka lösa problem som är inneboende i äldre metoder. Samhället kan snart befinna sig vid denna inflektionspunkt när det gäller hur människor identifierar trovärdig information och överger traditionella metoder för att fastställa trovärdighet för digitala verktyg och nya nätverksstrategier. I stället för att vara en negativ utveckling kommer dessa nya metoder för att fastställa trovärdigheten och de tillhörande verktygen att återspegla en mer distribuerad och öppen strategi än tidigare. Ett sådant tillvägagångssätt har viktiga konsekvenser för hur bibliotek fungerar, hur vi utbildar våra ungdomar, hur vi utformar politik och hur vi bygger framtida informationssystem. Det aktuella numret och fulltextarkivet för denna tidskrift finns på | I motsats till de metoder som enbart bygger på målinnehåll hävdade Lankes Ref att användarna ofta söker efter likheter och samstämmighet mellan flera informationskällor för att kunna bedöma i vilken utsträckning de kan förlita sig på särskild information. | 7,884,266 | Credibility on the internet: Shifting from authority to reliability | {'venue': 'Journal of Documentation', 'journal': 'Journal of Documentation', 'mag_field_of_study': ['Computer Science']} | 4,803 |
Abstrakt. Det har visats att aktiveringar som åberopas av en bild inom de översta skikten av ett stort konvolutionellt neuralt nätverk ger en hög nivå deskriptor av det visuella innehållet i bilden. I detta dokument undersöker vi användningen av sådana deskriptorer (neurala koder) inom programmet för bildsökning. I experimenten med flera standard hämtning riktmärken, fastställer vi att neurala koder fungerar konkurrenskraftigt även när den konvolutionella neurala nätverket har utbildats för en orelaterad klassificering uppgift (t.ex. Bildnätverk). Vi utvärderar också förbättringen i hämtning prestanda neurala koder, när nätverket omtränas på en datauppsättning av bilder som liknar bilder som påträffas vid testtid. Vi utvärderar vidare prestandan hos de komprimerade neurala koderna och visar att en enkel PCA-komprimering ger mycket bra korta koder som ger toppmodern noggrannhet på ett antal datauppsättningar. I allmänhet, neurala koder visar sig vara mycket mer motståndskraftig mot sådan kompression i jämförelse andra state-of-the-art deskriptorer. Slutligen, Vi visar att diskriminerande dimensionalitet minskning tränas på en datauppsättning av par av matchade fotografier förbättrar prestanda PCA-komprimerade neurala koder ännu mer. Sammantaget, våra kvantitativa experiment visar löftet om neurala koder som visuella deskriptorer för bildhämtning. | I REF omskolas en CNN-modell på en separat landmärkesdatabas som liknar bilderna vid frågestunden. | 5,941,200 | Neural Codes for Image Retrieval | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 4,804 |
Vi föreslår att automatiskt skapa kapsel garderober. Med tanke på en inventering av kandidatplagg och tillbehör, algoritmen måste montera en minimal uppsättning objekt som ger maximal mix-and-match outfits. Vi utgör uppgiften som en delmängd urval problem. För att möjliggöra ett effektivt urval av undergrupper över utrymmet för alla klädkombinationer utvecklar vi submodulära objektiva funktioner som fångar de viktigaste ingredienserna i visuell kompatibilitet, mångsidighet och användarspecifika preferenser. Sedan lägga kläder till en kapsel bara expanderar dess möjliga outfits, vi utformar en iterativ metod för att tillåta nästan optimal submodulär funktion maximering. Slutligen presenterar vi en oövervakad strategi för att lära sig visuell kompatibilitet från "i wild" full body outfit bilder; kompatibiliteten metrisk översätter väl till renare katalog bilder och förbättrar över befintliga metoder. Våra resultat på tusentals plagg från populära mode webbplatser visar att automatisk kapselskapning har potential att efterlikna skickliga fashionistas att montera flexibla garderober, samtidigt som de är betydligt mer skalbara. | I REF fångas den visuella kompatibiliteten av kläder objekt med en korrelerad ämnesmodell för att automatiskt skapa kapsel garderober. | 4,865,281 | Creating Capsule Wardrobes from Fashion Images | {'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 4,805 |
I en proxy re-kryptering schema en semi-tillförlitlig proxy omvandlar en chiffertext för Alice till en chiffertext för Bob utan att se den underliggande klartext. Ett antal lösningar har föreslagits i den allmänna nyckeln. I detta dokument tar vi upp problemet med Identity-Based proxy re-kryptering, där chiffertexts omvandlas från en identitet till en annan. Våra system är kompatibla med nuvarande IBE distributioner och kräver inte något extra arbete från IBE betrodda-part nyckel generera. Dessutom är de icke-interaktiva och en av dem tillåter flera omkrypteringar. Deras säkerhet är baserad på ett standardantagande (DBDH) i den slumpmässiga orakelmodellen. | Green och Ateniese REF föreslog ett PRE-system för identitetsbaserad kryptering (IBE), där CT:erna kan omvandlas från en identitet till en annan. | 1,291,954 | Identity-based proxy re-encryption | {'venue': 'In ACNS ’07', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,806 |
Abstract-Millimeter-våg (mm-våg) frekvensband ger en möjlighet till mycket bredare kanal bandbredd jämfört med det traditionella sub-6- GHz-bandet. Kommunikation vid mm-vågor är dock ganska utmanande på grund av den svåra spridningsvägen som orsakas av konventionella isotropa antenner. För att klara detta problem krävs en riktad strålformning både vid basstationens (BS) sida och vid användarutrustningens (UE) sida för att skapa en stark väg som förmedlar tillräckligt med signalkraft. Att hitta sådana strålformande riktningar kallas stråljustering (BA). I detta dokument presenteras ett nytt system för effektivt BA. Vår plan finner en stark spridningsväg identifierad av en vinkel-av-arrival (AoA) och vinkel-av-av-partiure (AoD) par, genom att utforska AoA-AoD domän genom pseudorandom multi-finger balk mönster och konstruera en uppskattning av den resulterande andra ordningen statistik (nämligen den genomsnittliga mottagna effekten för varje pseudo-random strålkonfiguration). Det resulterande under-definierade ekvationssystemet löses effektivt med hjälp av icke-negativa begränsade minsta-kvartor, vilket naturligt ger en gles icke-negativ vektorlösning vars maximala komponent identifierar den optimala vägen. Som ett resultat av detta är vårt system mycket robust mot variationer i kanaltidsdynamiken jämfört med alternativa samtidiga metoder baserade på uppskattningen av de momentana kanalkoefficienterna, snarare än av deras andra ordningens statistik. I det föreslagna systemet sonderar BS kanalen i nedlänken och tränar samtidigt ett godtyckligt stort antal UE. Således behövs inte "beam förfining", med flera interaktiva rundor av downlink/uplink-överföringar. Detta resulterar i en skalbar BA-protokoll, där protokollet overhead är praktiskt taget oberoende av antalet UE, eftersom alla UE kör BA-proceduren samtidigt. Omfattande simuleringsresultat visar att vår strategi är överlägsen de toppmoderna BA-program som föreslås i litteraturen när det gäller utbildning om overhead i fleranvändarscenarier och robusthet mot variationer i kanaldynamiken. Index Terms-Millimeter-våg, stråluppriktning, komprimerad avkänning, icke-negativa minstkvadrater (NNLS). | I vårt tidigare arbete REF föreslog vi ett nytt effektivt BA-system som tillsammans uppskattar den tvåsidiga AoA-AoD av den starkaste vägen från den andra ordningen statistik av kanalen matrisen. | 49,722,444 | A Scalable and Statistically Robust Beam Alignment Technique for Millimeter-Wave Systems | {'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 4,808 |
Vi anser att problemet med att uppskatta återstående livslängd (RUL) i ett system eller en maskin från sensordata. Många metoder för RUL-uppskattning baserade på sensordata gör antaganden om hur maskiner bryts ned. Dessutom är sensordata från maskiner bullriga och o en su s från saknade värden i många praktiska situationer. Vi föreslår Embed-RUL: en ny metod för RUL-uppskattning från sensordata som inte är beroende av några degraderingstrendantaganden, är robust för buller, och hanterar saknade värden. Embed-RUL använder en sekvens-till-sekvens modell baserad på Recurrent Neural Networks (RNNs) för att generera inbäddningar för multivariat tidsserie subsekvenser. Inbäddningar för normala och nedbrutna maskiner tenderar att vara olika och anses därför vara användbara för RUL-uppskattning. Vi visar att inbäddningar fånga den totala pa ern i tidsserien medan ltering ut buller, så att inbäddningar av två maskiner med liknande operativa beteende är nära varandra, även när deras sensor avläsningar har signi cant och varierande nivåer av bullerinnehåll. Vi utför experiment på offentligt tillgängliga turbofläktmotordataset och en egenutvecklad real-world dataset, och visar att Embed-RUL överträffar tidigare rapporterade [24] toppmoderna på flera mätvärden. | I REF, Gugulothu et al. föreslog en ny RUL-skattningsmetod -Embed-RUL - som använder en sekvens-till-sekvens RNN-baserad modell för att generera inbäddningar för multivariat tidsserier. | 1,387,897 | Predicting Remaining Useful Life using Time Series Embeddings based on Recurrent Neural Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 4,809 |
En ULV nedbrytning av en matris A av ordningen n är en nedbrytning av formen A = ULV H, där U och V är ortogonala matriser och L är en lägre triangulär matris. När A är ungefär av rang k, är nedbrytningen rank avslöjande om den sista n? k rader av L är små. Detta dokument presenterar algoritmer för uppdatering av en rank-avslöjande ULV nedbrytning. Algoritmerna körs i O(n 2 ) tid, och kan implementeras på en linjär uppsättning processorer för att köra i O(n) tid. | Om T är lägre triangulär, är nedbrytningen kallas ULV nedbrytning REF : | 120,905,390 | Updating a Rank-Revealing ULV Decomposition | {'venue': None, 'journal': None, 'mag_field_of_study': ['Mathematics']} | 4,810 |
Webbtjänster – Webbtillgängliga program och enheter – är ett nyckelprogramområde för Semantic Web. Med spridningen av webbtjänster och utvecklingen mot den semantiska webben kommer möjligheten att automatisera olika webbtjänster uppgifter. Vårt mål är att möjliggöra pålägg och automatiserad resonemangsteknik för att beskriva, simulera, komponera, testa och verifiera sammansättningar av webbtjänster. Vi tar som utgångspunkt DAML-S DAML + OIL ontology för att beskriva kapaciteten hos webbtjänster. Vi definierar semantiken för en relevant delmängd av DAML-S i termer av ett första ordningens logiskt språk. Med semantiken i handen kodar vi våra tjänstebeskrivningar i en Petri Net formalism och ger beslutsprocedurer för webbtjänstsimulering, verifiering och komposition. Vi ger också en analys av komplexiteten i dessa uppgifter under olika restriktioner till DAML-S sammansatta tjänster som vi kan beskriva. Slutligen presenterar vi ett genomförande av vår analysteknik. Denna implementation tar som indata en DAML-S beskrivning av en webbtjänst, genererar automatiskt ett Petri Net och utför den önskade analysen. Ett sådant verktyg har bred tillämplighet både som en bakdel till befintliga manuella verktyg för webbtjänstsammansättning, och som ett fristående verktyg för webbtjänstutvecklare. | I REF använder författarna situationsanalys för att representera webbtjänstbeskrivning och Petrinät för att beskriva webbtjänsternas utförandebeteende. | 6,279,134 | Simulation, verification and automated composition of web services | {'venue': "WWW '02", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,811 |
Abstract-Mest frekventa och dyra frågor i sociala nätverk innebär flera användare verksamhet såsom att begära de senaste tweets eller nyhetsflöden av vänner. Resultaten av sådana frågor är i hög grad beroende av de datapartitionerings- och replikeringsmetoder som antagits av de underliggande systemen. Befintliga lösningar för datadistribution i dessa system omfattar hash- eller grafbaserade metoder som ignorerar multivägsrelationerna mellan data. I detta arbete föreslår vi en ny datapartitionering och selektiv replikeringsmetod som använder tidsinformationen i tidigare arbetsbelastningar för att förutsäga framtida frågemönster. Vår metod använder den sociala nätverksstrukturen och tidsrymden hos interaktionen mellan dess användare för att konstruera en hypergraf som korrekt modellerar flera användares verksamhet. Den utför sedan samtidig partitionering och replikering av denna hypergraf för att minska frågerymden samtidigt som belastningsbalansen och I/O belastningsbegränsningarna under replikering respekteras. För att testa vår modell förbättrar vi Cassandra NoSQL-systemet för att stödja selektiv replikering och vi implementerar ett socialt nätverksprogram (en Twitter-klon) som använder vår förbättrade Cassandra. Vi utför experiment på en cloud computing-miljö (Amazon EC2) för att testa de utvecklade systemen. Jämförelse av den föreslagna metoden med hash- och förbättrade grafbaserade system visar att det avsevärt förbättrar latens och genomströmning. | Data partitionering och selektiv replikering används också tillsammans med tidsinformation i tidigare arbetsbelastningar för att förutsäga framtida frågemönster och minska frågespann REF. | 16,998,912 | Temporal Workload-Aware Replicated Partitioning for Social Networks | {'venue': 'IEEE Transactions on Knowledge and Data Engineering', 'journal': 'IEEE Transactions on Knowledge and Data Engineering', 'mag_field_of_study': ['Computer Science']} | 4,813 |
Vi beskriver en algoritm för automatisk klassificering av idiomatiska och bokstavliga uttryck. Vår utgångspunkt är att ord i ett visst textsegment, t.ex. ett stycke, som är högt uppsatta företrädare för ett gemensamt diskussionsämne är mindre benägna att vara en del av ett idiomatiskt uttryck. Vår ytterligare hypotes är att sammanhang där idiom förekommer, typiskt, är mer affektiva och därför, vi införlivar en enkel analys av intensiteten i de känslor som uttrycks av sammanhangen. Vi undersöker påsen med ord ämne representation av en till tre stycken som innehåller ett uttryck som bör klassificeras som idiomatisk eller bokstavlig (en målfras). Vi extraherar ämnen från stycken som innehåller idiom och från stycken som innehåller ordagrant med hjälp av en oövervakad klustermetod, Latent Dirichlet Allocation (LDA) (Blei et al., 2003). Eftersom idiomatiska uttryck uppvisar egenskapen icke-kompositionalitet, antar vi att de vanligtvis presenterar olika semantik än de ord som används i det lokala ämnet. Vi behandlar idiomer som semantiska avvikelser, och identifieringen av ett semantiskt skift som avvikande upptäckt. Den här ämnesrepresentationen gör att vi kan skilja mellan idiom och ordagrant med hjälp av lokala semantiska sammanhang. Våra resultat är uppmuntrande. | För att ta itu med dessa problem undersöker REF påsen med ord ämnesrepresentation och införliva en ytterligare hypotes-kontexter där idiom förekommer är mer affektiv. | 3,549,266 | Classifying Idiomatic and Literal Expressions Using Topic Models and Intensity of Emotions | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 4,814 |
Abstract-Flooding av rutt begäran eller länk stater är en nödvändighet i många routing protokoll för mobila ad hoc-nätverk (MANET), och flera mekanismer har utformats för att göra översvämningar effektivare; men alla översvämningar tillvägagångssätt hittills är sådana att antalet grannar varje nod måste använda för att vidarebefordra ett översvämmat paket växer när noden densiteten ökar. En ny metod, kallad ORCA (On-demand Routing with Coordinates Awareness) introduceras för spridning av ruttförfrågningar i MANETS. Valet av relänoder vid varje nod i ORCA görs genom att beräkna den kortaste Euclidean Avstånd från alla grannar i noden till fyra polära punkter som ligger i överföringsområdet för noden. Vi bevisar att ORCA garanterar täckningen av alla noder i en ansluten MANET, och att antalet reläer för varje nod är högst sex. ORCA jämförs med representativa routingprotokoll, nämligen AODV, OLSR, LAR och THP. Simuleringen resulterar i nätverk av 200 och 250 noder visar att ORCA ådrar sig den minsta routingbelastningen samtidigt som man uppnår genomsnittliga förseningar och paketleveransförhållanden som är jämförbara med eller bättre än de som erhålls med de andra fyra routingprotokollen. | Såvitt vi vet tillåter endast ett tidigare system (ORCA REF ) ruttförfrågningar att föröka sig till alla noder i nätverket samtidigt som det har ett maximalt antal reläer vid varje humle, oberoende av nätets densitet. | 13,807,102 | Using geographical coordinates to attain efficient route signaling in ad hoc networks | {'venue': '2013 IEEE 14th International Symposium on "A World of Wireless, Mobile and Multimedia Networks" (WoWMoM)', 'journal': '2013 IEEE 14th International Symposium on "A World of Wireless, Mobile and Multimedia Networks" (WoWMoM)', 'mag_field_of_study': ['Geography', 'Computer Science']} | 4,815 |
Bakgrund: I tidigare verk beskrev författarna ett programvarupaket för digitalisering av 3D-markmärken för användning i geometriska morphometrier. I detta dokument beskriver vi tillägg till denna programvara som tillåter halvautomatisk lokalisering av 3D landmärken, med tanke på en databas med manuellt kommenterade utbildningsbilder. Flerstegsregistrering tillämpades för att anpassa bildplåster från databasen till en frågebild, och resultaten från flera databasbilder kombinerades med hjälp av en arraybaserad omröstningsplan. Programvaran belyser automatiskt punkter som har lokaliserats med lågt förtroende, vilket möjliggör manuell korrigering. Resultat: Utvärderingen utfördes på mikro-CT-bilder av gnagares skallar för vilka två oberoende uppsättningar av manuella landmärken hade gjorts. Detta gjorde det möjligt att bedöma landmärkesnoggrannheten både i fråga om avståndet mellan manuella och automatiska anmärkningar och repeterbarheten hos manuell och automatisk annotering. Automatisk annotering uppnådd noggrannhet motsvarande dem som kan uppnås genom manuell annotering av en expert för 87,5 % av punkterna, med betydligt högre repeterbarhet. Slutsatser: Även om användarinmatning krävdes för att ta fram utbildningsdata och i ett slutligt felkorrigeringssteg, kunde programvaran minska antalet manuella kommentarer som krävs i en typisk landmärkesidentifieringsprocess med hjälp av 3D-data med en faktor på tio, vilket potentiellt gjorde det möjligt att annotera mycket större datamängder och därmed öka den statistiska kraften hos resultaten från efterföljande behandling, t.ex. Procrustes/huvudkomponentanalys. Programvaran är fritt tillgänglig, under GNU General Public License, från vår webbplats (www.tina-vision.net). | Detta beslut träder i kraft dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. REF beskriver ett halvautomatiskt tillvägagångssätt för att markera en frågebild som bygger på förekomsten av en manuellt kommenterad träningsset. | 14,974,441 | Semi-automatic landmark point annotation for geometric morphometrics | {'venue': 'Frontiers in Zoology', 'journal': 'Frontiers in Zoology', 'mag_field_of_study': ['Biology']} | 4,816 |
Abstract-Två av de grundläggande problemen i peer-to-peer (P2P) streaming är följande: vad är den maximala streaminghastighet som kan upprätthållas för alla mottagare, och vilka peering algoritmer kan uppnå nära detta maximum? Dessa problem med att beräkna och närma sig P2P streaming kapacitet är ofta utmanande på grund av de begränsningar som införts på overlay topologi. I detta dokument fokuserar vi på gränsen för P2P streaming rate under nod grad bundet, dvs antalet anslutningar en nod kan upprätthålla är övre gräns. Vi visar först att streaming kapacitetsproblem under nod grad är NPComplete i allmänhet. Sedan, för fallet med nod ut-grad bunden, genom byggandet av en "Bubble algoritm", visar vi att streaming kapaciteten är minst hälften av den i ett mycket mindre restriktivt och tidigare studerat fall, där vi band nod graden i varje strömmande träd men inte graden över alla träd. Sedan, för fallet med nod total-grad bunden, utvecklar vi en "Cluster-Tree algoritm" som ger en probabilistisk garanti för att uppnå en hastighet nära den maximala hastighet som uppnås under ingen grad bunden begränsning, när nod grad bundet är logaritmisk i nätverksstorlek. Dessa algoritmers effektivitet när det gäller att närma sig kapacitetsgränsen visas i simuleringar med upplänksbandbreddsstatistik över Internetvärdar. Både analyser och numeriska experiment visar att peeling på ett lokalt tätt och globalt glest sätt uppnår en nästan optimal streaminghastighet om graden är minst logaritmisk i nätverksstorlek. Jag. Introduktion P2P-system har möjliggjort skalbar fildelning och videoströmning i nästan ett decennium, men följande grundläggande frågor om dess prestandagränser har bara nyligen besvarats delvis: vad är streaming kapacitet, den maximala streaminghastighet som kan uppnås av alla mottagare av en strömmande session, under olika overlay topologi begränsningar? Vilken typ av peeling-algoritmer uppnår närkapacitetsgrad? Som förklaras i Avsnitt II, P2P streaming kan modelleras som flera multicast träd överlagrade på överliggande graf. Problemet med streamingkapacitet beror på begränsningarna i grafen och trädegenskaperna. Det enklaste fallet är den okonstruerade trädkonstruktionen ovanpå en fullmaskig (fullständig) graf, där streamingkapaciteten härleds i flera papper [1], [8]- [12]. Olika praktiska begränsningar av peeling och overlay graf har sedan dess beaktats. Till exempel, [3] [4] löste problemet med streaming kapacitet under noden per träd grad som är bunden på toppen av en komplett graf. I motsats till nodgradsbegränsningarna i detta dokument begränsar nod per trädgrad individuellt det antal peers som en nod kan ha i vart och ett av de flera träden, | Chen och Al. REF utforskar streamingkapaciteten hos ett streamingsystem med nodgrad. | 8,613,259 | P2P Streaming Capacity under Node Degree Bound | {'venue': '2010 IEEE 30th International Conference on Distributed Computing Systems', 'journal': '2010 IEEE 30th International Conference on Distributed Computing Systems', 'mag_field_of_study': ['Computer Science']} | 4,817 |
Det finns två stora typer av osäkerhet man kan modellera. Aleatorisk osäkerhet fångar buller som ingår i observationerna. Å andra sidan förklarar den epistemiska osäkerheten osäkerheten i modellens osäkerhet som kan förklaras bort med tillräckligt med data. Traditionellt har det varit svårt att modellera epistemisk osäkerhet i datorseendet, men med nya Bayesianska djupinlärningsverktyg är detta nu möjligt. Vi studerar fördelarna med att modellera epistemisk vs. aleatorisk osäkerhet i Bayesian djupt lärande modeller för vision uppgifter. För detta presenterar vi en Bayesiansk ram för djupt lärande som kombinerar input-beroende aleatorisk osäkerhet tillsammans med epistemisk osäkerhet. Vi studerar modeller inom ramen med per-pixel semantiska segmentering och djup regressionsuppgifter. Dessutom leder vår explicita osäkerhetsformulering till nya förlustfunktioner för dessa uppgifter, som kan tolkas som inlärd dämpning. Detta gör förlusten mer robust mot bullriga data, vilket också ger nya state-of-the-art resultat på segmentering och djup regression riktmärken. | Kendall och Gal REF upplöste den prediktiva osäkerheten i två huvudtyper, aleatorisk osäkerhet och epistemisk osäkerhet. | 71,134 | What Uncertainties Do We Need in Bayesian Deep Learning for Computer Vision? | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 4,818 |
Trådlöst nätnät (WMN) är ett innovativt tillvägagångssätt i paketradionät. Routing är en av de viktigaste utmanande frågorna eftersom det oförutsägbara beteendet hos mediet och nätverket topologi. I detta dokument undersöks två statistiska MAC-lagerparametrar: tillgänglig återstående bandbredd och Frame Transmission Efficiency (FTE). En metrisk som kallas Degree of Congestion Control definieras så att routing-algoritmen effektivt kan söka den bättre kvalitetsvägen med minst trängsel mot slutdestinationen. Ett nytt routingprotokoll som kallas Least Congestion QoS-aware Routing (LCQSR) och som bygger på konstruktion i flera lager föreslås för att uppnå en bra avvägning mellan QoS-medveten och nätverksprestanda baserad på DSR. Simuleringsresultaten visar att protokollet effektivt kan förbättra prestandan för överbelastning av nätet när det gäller fördröjning, paketleveransförhållande och genomströmning. | Forskare i REF föreslår en ny algoritm för kontroll av överbelastning vid namn Least Congestion QoS-aware Routing (LCQSR). | 57,050,661 | Routing with congestion control using cross-layer design in wireless mesh network | {'venue': 'IET International Conference on Wireless Mobile and Multimedia Networks Proceedings (ICWMMN 2006)', 'journal': 'IET International Conference on Wireless Mobile and Multimedia Networks Proceedings (ICWMMN 2006)', 'mag_field_of_study': ['Computer Science']} | 4,819 |
Abstract-Neural inspelningar, returer från radarer och ekolod, bilder i astronomi och enkelmolekylisk mikroskopi kan modelleras som en linjär superposition av ett litet antal skalade och fördröjda kopior av en bandbegränsad eller diffraktionsbegränsad punktspridningsfunktion, som antingen bestäms av naturen eller utformas av användarna; med andra ord observerar vi konvolutionen mellan en punktspridningsfunktion och en gles spetssignal med okända amplituder och förseningar. Även om det är av stort intresse att exakt lösa spiksignalen från så få prover som möjligt, men när punkt spridning funktionen inte är känd a priori, detta problem är fruktansvärt illa placerade. Detta dokument föreslår ett konvext optimeringsramverk för att samtidigt uppskatta punktspridningsfunktionen samt spiksignalen, genom att milt begränsa punktspridningsfunktionen till att ligga i en känd lågdimensionell subrymd. Genom att tillämpa lyfttricket får vi ett underdefinierat linjärt system av en ensemble av signaler med ledspektral sparhet, på vilken atomnormminimering tillämpas. Under milda randomiseringsantaganden av den lågdimensionella subrymden samt ett separationstillstånd av spiksignalen, bevisar vi att den föreslagna algoritmen, som kallas AtomicLift, är garanterad att återställa spiksignalen upp till en skalningsfaktor så snart antalet prover är tillräckligt stort. Utvidgningen av AtomicLift till att hantera bullriga mätningar diskuteras också. Numeriska exempel ges för att validera de föreslagna metodernas effektivitet. | Slutligen, en konvex optimering ram för att uppskatta en enda punkt spridning funktion och en spiksignal införs i REF. | 10,096,138 | Guaranteed Blind Sparse Spikes Deconvolution via Lifting and Convex Optimization | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 4,820 |
Kommersiella byggnader har sedan länge varit ett primärt mål för tillämpningar från ett antal områden: från it-fysiska system till att bygga energianvändning till förbättrad mänsklig interaktion i byggda miljöer. Även om tekniska framsteg har gjorts på dessa områden, upplever sådana lösningar sällan ett allmänt införande på grund av avsaknaden av ett gemensamt beskrivande schema som skulle minska den nu riskabla kostnaden för att överföra dessa tillämpningar och system till olika byggnader. Nyligen gjorda försök har försökt att ta itu med denna fråga genom datastandarder och metadatasystem, men misslyckas med att fånga den uppsättning relationer och enheter som krävs av verkliga tillämpningar. Med utgångspunkt i dessa arbeten beskriver denna uppsats Brick, ett enhetligt schema för att representera metadata i byggnader. Vårt schema definierar en betong ontologi för sensorer, delsystem och relationer bland dem, vilket möjliggör bärbara applikationer. Vi demonstrerar fullständigheten och effektiviteten hos Brick genom att använda den för att representera hela leverantörsspecifika sensormetadata från sex olika byggnader på olika campus, omfattande 17 700 datapunkter, och köra åtta komplexa omodifierade applikationer på dessa byggnader. | Brick REF diskuterar ett enhetligt schema för att representera metadata i byggnader. | 207,243,610 | Brick: Towards a Unified Metadata Schema For Buildings | {'venue': "BuildSys '16", 'journal': None, 'mag_field_of_study': ['Engineering', 'Computer Science']} | 4,821 |
I klassiskt handledt lärande tar en inlärningsalgoritm en fast träningsdata från flera klasser för att bygga en klassificerare. I detta dokument föreslår vi att man studerar ett nytt problem, nämligen att bygga upp ett inlärningssystem som lär sig kumulativt. Allteftersom tiden går ser och lär sig systemet allt fler dataklasser och blir mer och mer kunnigt. Vi tror att detta liknar mänskligt lärande. Vi människor lär oss kontinuerligt, behåller den lärda kunskapen, identifierar och lär oss nya saker, och uppdaterar den befintliga kunskapen med nya erfarenheter. Med tiden samlar vi mer och mer kunskap. Ett inlärningssystem bör kunna göra detsamma. Som algoritmiskt lärande mognar, är det dags att ta itu med detta kumulativa maskininlärning (eller helt enkelt kumulativ inlärning) problem, vilket är en typ av livslångt maskininlärning problem. Det innebär två stora utmaningar. För det första måste systemet kunna detektera data från osedda klasser i testsetet. Klassiskt övervakat lärande förutsätter dock att alla klasser i test är kända eller ses vid träningen. För det andra måste systemet selektivt kunna uppdatera sina modeller när en ny dataklass anländer utan att omskola hela systemet med hjälp av hela tidigare och nuvarande utbildningsdata. I detta dokument föreslås ett nytt tillvägagångssätt och system för att ta itu med dessa utmaningar. Experimentella resultat på två dataset med lärande från 2 klasser till upp till 100 klasser visar att det föreslagna tillvägagångssättet är mycket lovande både när det gäller klassificeringsnoggrannhet och beräkningseffektivitet. | Kumulativt lärande utforskas i form av LML som bygger en klassificering för att klassificera alla tidigare och nya klasser genom att uppdatera den gamla klassificeraren REF. | 15,413,240 | Learning Cumulatively to Become More Knowledgeable | {'venue': "KDD '16", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,822 |
Abstract-industrirobotar, automatiserad tillverkning och effektiva logistikprocesser står i centrum för den kommande fjärde industriella revolutionen. Även om det finns seminala studier om sårbarheten hos cyberfysiska system i branschen, har det från och med idag inte gjorts någon systematisk analys av säkerheten för industriella robotstyrenheter. Vi undersöker standardarkitekturen hos en industrirobot och analyserar en betongutbyggnad ur ett systemsäkerhetsperspektiv. Sedan föreslår vi en angriparmodell och konfronterar den med de minimala krav som industrirobotar bör uppfylla: precision i att känna av miljön, korrekthet i utförandet av kontrolllogiken och säkerhet för mänskliga operatörer. Efter ett experimentellt och praktiskt förhållningssätt visar vi sedan hur vår modellerade angripare kan undergräva sådana krav genom utnyttjande av programvarusårbarheter, vilket leder till allvarliga konsekvenser som är unika för robotikdomänen. Vi avslutar med att diskutera säkerhetsstandarder och säkerhetsutmaningar inom industriell robotteknik. | I själva verket har ingen systemanalys av industriell robotsäkerhet utförts REF. | 1,669,523 | An Experimental Security Analysis of an Industrial Robot Controller | {'venue': '2017 IEEE Symposium on Security and Privacy (SP)', 'journal': '2017 IEEE Symposium on Security and Privacy (SP)', 'mag_field_of_study': ['Computer Science']} | 4,823 |
Vi anser att neurala nätverk med ett enda dolt lager och icke-minska homogen aktiveringsfunktioner som de rektifierade linjära enheterna. Genom att låta antalet dolda enheter växa fritt och med hjälp av klassiska icke-Euklidiska legaliseringsverktyg på utgångsvikterna, ger vi en detaljerad teoretisk analys av deras generalisering prestanda, med en studie av både approximation och skattningsfel. Vi visar särskilt att de är anpassningsbara till okända underliggande linjära strukturer, såsom beroendet av projiceringen av indatavariablerna på en lågdimensionell subrymd. Dessutom, när vi använder sparty-inducerande normer på ingångsvikterna, visar vi att högdimensionella icke-linjära variabla val kan uppnås, utan några starka antaganden om data och med ett totalt antal variabler potentiellt exponentiellt i antalet observationer. Dessutom ger vi en enkel geometrisk tolkning av det icke-konvexa problemet med tillägg av en ny enhet, vilket är kärnan i potentiellt svåra beräkningselement inom ramen för lärande från kontinuerligt många basfunktioner. Vi tillhandahåller enkla villkor för konvexa avkopplingar för att uppnå samma generalisering felgränser, även när approximationer med konstant faktor inte kan hittas (t.ex., eftersom det är NP-hård som för noll-homogen aktiveringsfunktion). Vi kunde inte hitta tillräckligt starka konvexa avkopplingar och lämna öppen existensen eller icke-existensen av polynom-tidsalgoritmer. | I REF, författaren studier också en dolda lager neurala nätverk med inmatningsdata på sfären. | 1,474,026 | Breaking the Curse of Dimensionality with Convex Neural Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 4,824 |
Abstract-Mobile ad hoc-nätverk består av noder som ofta är sårbara för fel. Det är därför viktigt att tillhandahålla redundans när det gäller att tillhandahålla flera olika nodvägar från en källa till en destination. Vi föreslår först en modifierad version av det populära AODV-protokollet som gör att vi kan upptäcka flera nod-avvikande vägar från en källa till en destination. Vi finner att mycket få sådana vägar kan hittas. I takt med att avstånden mellan källor och destinationer ökar uppstår det dessutom oundvikligen flaskhalsar, och därmed minskar möjligheterna att hitta flera vägar avsevärt. Vi drar slutsatsen att det är nödvändigt att placera det vi kallar tillförlitliga noder (både robusta för att misslyckas och säkra) i nätverket för effektiv drift. Vi föreslår en installationsstrategi som bestämmer positionerna och banorna för dessa tillförlitliga noder så att vi kan uppnå en ram för tillförlitlig routing information. Vi definierar ett begrepp om en tillförlitlig väg som består av flera segment, där var och en antingen helt består av tillförlitliga noder, eller innehåller ett förinställt antal flera vägar mellan segmentets slutpunkter. Vi visar att sannolikheten att etablera en tillförlitlig väg mellan en slumpmässig källa och destination par ökar avsevärt även med en låg andel tillförlitliga noder när vi styr sina positioner och banor i enlighet med vår algoritm. | Som påpekades i REF, faktiskt mycket begränsat antal nod-differentierade vägar kan hittas när nodtätheten är måttlig och källan är långt borta från destinationen. | 5,784,821 | A framework for reliable routing in mobile ad hoc networks | {'venue': 'IEEE INFOCOM 2003. Twenty-second Annual Joint Conference of the IEEE Computer and Communications Societies (IEEE Cat. No.03CH37428)', 'journal': 'IEEE INFOCOM 2003. Twenty-second Annual Joint Conference of the IEEE Computer and Communications Societies (IEEE Cat. No.03CH37428)', 'mag_field_of_study': ['Computer Science']} | 4,827 |
Datavisionsforskningen har traditionellt fokuserats på utvecklingen av kvantitativa tekniker för att beräkna egenskaperna och relationen mellan de enheter som visas i en videosekvens. De flesta metoder för objektspårning baseras på statistiska metoder, som ofta resulterar i otillräcklig bearbetning av komplexa scenarier. Nyligen har nya tekniker som bygger på utnyttjande av kontextuell information föreslagits för att övervinna de problem som dessa klassiska metoder inte löser. Det här dokumentet är ett bidrag i denna riktning: vi föreslår en Computer Vision-ram som syftar till att bygga upp en symbolisk modell av scenen genom att integrera spårningsdata och kontextuell information. Scenmodellen, som representeras av formella ontologier, stöder genomförandet av resonemangsförfaranden för att i) få en högnivåtolkning av scenariot, ii) ge återkoppling till spårningsförfarandet på låg nivå för att förbättra dess noggrannhet och prestanda. Papperet beskriver den skiktade arkitekturen i ramverket och strukturen i kunskapsmodellen, som har utformats i enlighet med JDL-modellen för informationsfusion. Vi förklarar också hur deduktiva och bortförande resonemang utförs inom modellen för att åstadkomma scentolkning och spårning förbättring. För att visa fördelarna med vårt tillvägagångssätt utvecklar vi ett exempel på användningen av ramverket i en videoövervakningsapplikation. | Mer information om strukturen på den kunskapsmodell som beskrivs i denna uppsats finns i ett tidigare forskningsarbete REF. | 42,044,687 | Ontology-based context representation and reasoning for object tracking and scene interpretation in video | {'venue': 'Expert Syst. Appl.', 'journal': 'Expert Syst. Appl.', 'mag_field_of_study': ['Computer Science']} | 4,828 |
Vi presenterar nya algoritmer för att beräkna medelvärdet av en uppsättning empiriska sannolikhetsmått under det optimala transportmåttet. Detta innebär, känd som Wasserstein barycenter, är den åtgärd som minimerar summan av dess Wasserstein avstånd till varje element i den uppsättningen. Vi föreslår två ursprungliga algoritmer för att beräkna Wasserstein barycenters som bygger på subgradientmetoden. Ett direkt genomförande av dessa algoritmer är dock för kostsamt eftersom det skulle kräva en upprepad lösning av stora primära och dubbla optimala transportproblem för att beräkna subgradienter. Utöka arbetet med Cuturi (2013) föreslår vi att jämna Wasserstein avstånd som används i definitionen av Wasserstein barycenters med entropisk regularizer och återhämta sig genom att göra det ett strikt konvext mål vars lutningar kan beräknas för en betydligt billigare beräkningskostnad med hjälp av matrisskalningsalgoritmer. Vi använder dessa algoritmer för att visualisera en stor familj av bilder och för att lösa ett begränsat klusterproblem. | Cuturi m.fl. REF beräknar Wasserstein barycenters med entropisk legalisering. | 16,786,361 | Fast Computation of Wasserstein Barycenters | {'venue': 'Proceedings of the 31st International Conference on Machine Learning, JMLR W&CP 32 (2) 2014', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 4,829 |
På grund av de begränsade hårdvaruresurserna hos sensornoder har modellering och utformning av energieffektiva routingmetoder för att öka den totala nätverkslivslängden blivit en av de viktigaste strategierna i trådlösa sensornätverk (WSN). Klusterbaserade heterogena routingprotokoll, en populär del av routingteknik, har visat sig vara effektiva i hanteringen av topologi, energiförbrukning, datainsamling eller fusion, tillförlitlighet eller stabilitet i ett distribuerat sensornätverk. I denna artikel föreslås en energieffektiv, heterogen och heterogen klustermetod på tre nivåer (DEEC) baserad på distribuerat, energieffektivt klusterprotokoll kallat TBSDEE (Threshold balanced sampled DEEC). I motsats till de flesta andra studier, denna studie anser effekten av tröskelvärdet balanserad prov i energiförbrukningen modellen. Vår modell jämförs med DEEC, EDEC (Enhanced Distributed Energy Efficient Clustering Protocol) och EDDEE (Enhanced Developed Distributed Energy Efficient Clustering Protocol) med hjälp av MATLAB som två olika scenarier baserade på kvalitetsmått, inklusive levande noder på nätet, näteffektivitet, energiförbrukning, antal paket som mottas av basstationen (BS) och genomsnittlig latens. Efter, vår nya metod jämförs med artificiell bikolonioptimering (ABCO) algoritm och energi skörd WSN (EH-WSN) klustering metod. Simuleringsresultat visar att den föreslagna modellen är effektivare än de andra protokollen och avsevärt ökar sensornätets livslängd. | De central- och östeuropeiska ländernas protokoll är på liknande sätt baserat på LEACH-protokollet REF. | 54,446,866 | Threshold Balanced Sampled DEEC Model for Heterogeneous Wireless Sensor Networks | {'venue': 'Wireless Communications and Mobile Computing', 'journal': 'Wireless Communications and Mobile Computing', 'mag_field_of_study': ['Computer Science']} | 4,830 |
Abstract-För att underlätta den formella kontrollen av feltoleranta distribuerade protokoll föreslår vi en strategi som avsevärt minskar kostnaderna för deras modellkontroll. Dessa protokoll anger ofta atomära, processlokala händelser som förbrukar en uppsättning meddelanden, ändrar tillståndet för en process och skickar noll eller fler meddelanden. Vi kallar sådana händelser för beslutsmässiga övergångar och utnyttjar dem för att optimera utforskningen av staten på två sätt. För det första skapar vi färre tillstånd jämfört med modeller där beslutsmässiga övergångar uttrycks genom övergångar med enstaka meddelanden. För det andra förfinar vi övergången till en uppsättning likvärdiga, finare kornade övergångar som gör det möjligt för delorderalgoritmer att uppnå bättre reduktion. Vi implementerar MP-Baset modellen checker, som stöder förfinade beslutförhet övergångar. Vi modellerar kontrollprotokoll som representerar grundläggande primitiver av utplacerade tillförlitliga distribuerade system, nämligen: Paxos konsensus, regelbunden lagring, och Bysantine-tolerant multicast. Vi uppnår upp till 92% minne och 85% tidsreduktion jämfört med modellkontroll med standard oraffinerad enkel meddelande övergångar. | Formalisering och verifiering av en klass av feltoleranta distribuerade algoritmer har tagits upp i REF. | 636,580 | Efficient model checking of fault-tolerant distributed protocols | {'venue': '2011 IEEE/IFIP 41st International Conference on Dependable Systems & Networks (DSN)', 'journal': '2011 IEEE/IFIP 41st International Conference on Dependable Systems & Networks (DSN)', 'mag_field_of_study': ['Computer Science']} | 4,831 |
Det finns två stora typer av osäkerhet man kan modellera. Aleatorisk osäkerhet fångar buller som ingår i observationerna. Å andra sidan förklarar den epistemiska osäkerheten osäkerheten i modellens osäkerhet som kan förklaras bort med tillräckligt med data. Traditionellt har det varit svårt att modellera epistemisk osäkerhet i datorseendet, men med nya Bayesianska djupinlärningsverktyg är detta nu möjligt. Vi studerar fördelarna med att modellera epistemisk vs. aleatorisk osäkerhet i Bayesian djupt lärande modeller för vision uppgifter. För detta presenterar vi en Bayesiansk ram för djupt lärande som kombinerar input-beroende aleatorisk osäkerhet tillsammans med epistemisk osäkerhet. Vi studerar modeller inom ramen med per-pixel semantiska segmentering och djup regressionsuppgifter. Dessutom leder vår explicita osäkerhetsformulering till nya förlustfunktioner för dessa uppgifter, som kan tolkas som inlärd dämpning. Detta gör förlusten mer robust mot bullriga data, vilket också ger nya state-of-the-art resultat på segmentering och djup regression riktmärken. | Nyligen visade Ref sätt att dessutom lära sig observationsbullerparametern σ, vilket innebär att modellera epistemisk och aleatorisk osäkerhet parallellt. | 71,134 | What Uncertainties Do We Need in Bayesian Deep Learning for Computer Vision? | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 4,832 |
Uppmärksamhet spelar en avgörande roll i människans visuella upplevelse. Dessutom har det nyligen visat sig att uppmärksamhet också kan spela en viktig roll i samband med tillämpningen av artificiella neurala nätverk på en mängd olika uppgifter från områden som datorseende och NLP. I detta arbete visar vi att genom att korrekt definiera uppmärksamhet för konvolutionella neurala nätverk, kan vi faktiskt använda denna typ av information för att avsevärt förbättra prestandan hos ett student CNN-nätverk genom att tvinga det att härma uppmärksamhet kartor av ett kraftfullt lärarnätverk. I detta syfte föreslår vi flera nya metoder för att överföra uppmärksamhet, visar konsekvent förbättring över en mängd olika datauppsättningar och konvolutionella neurala nätverk arkitekturer. Kod och modeller för våra experiment finns på https://github.com/szagoruyko/attention-transfer. | Zagoruyko m.fl. REF föreslog flera sätt att överföra uppmärksamheten från ett lärarnätverk till en student. | 829,159 | Paying More Attention to Attention: Improving the Performance of Convolutional Neural Networks via Attention Transfer | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 4,833 |
Abstract-The smartphone är ett typiskt cyberfysiskt system (CPS). Det måste vara låg energiförbrukning och mycket pålitlig att hantera de enkla men täta interaktioner med molnet, som utgör moln-integrerade CPS. Dynamisk spänningsskalning (DVS) har utvecklats som en kritisk teknik för att utnyttja krafthanteringen genom att sänka matningsspänningen och frekvensen hos processorer. I detta dokument, baserat på DVS-tekniken, föreslår vi en ny Energy-aware Dynamic Task Scheduling (EDTS) algoritm för att minimera den totala energiförbrukningen för smartphones, samtidigt som den uppfyller stränga tidsbegränsningar och sannolikhetsbegränsningar för applikationer. Experimentella resultat indikerar att EDTS-algoritmen avsevärt kan minska energiförbrukningen för CPS, jämfört med den kritiska schemaläggningsmetoden och den parallellismbaserade schemaläggningsalgoritmen. Index Terms-Cloud-integrerade cyberfysiska system (CPS), CPS, dynamisk schemaläggning, dynamisk spänningsskalning (DVS). | Löjtnant m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m för m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. REF föreslog en schemaläggningsalgoritm baserad på tekniken för dynamisk spänningsskalning (DVS), som är en av de typiska strömsparteknikerna i smartphones, för att minska strömförbrukningen. | 27,665,559 | Energy Optimization With Dynamic Task Scheduling Mobile Cloud Computing | {'venue': 'IEEE Systems Journal', 'journal': 'IEEE Systems Journal', 'mag_field_of_study': ['Computer Science']} | 4,834 |
Nyligen finns ett växande intresse för tillämpningar av trådlösa sensornätverk (WSN). En uppsättning sensornoder används för att kollektivt kartlägga ett intresseområde och/eller utföra specifika övervakningsuppgifter i vissa tillämpningar, t.ex. rekognoscering av slagfält. På grund av den hårda utbyggnaden miljöer och begränsad energiförsörjning, noder kan misslyckas, vilket påverkar anslutningen av hela nätet. Eftersom en enda nodfel (cut-vertex) kommer att förstöra anslutningen och dela upp nätverket i separata block, de flesta av de befintliga studierna fokuserar på problemet med enstaka nodfel. Misslyckandet av flera noder skulle dock vara en katastrof för hela nätverket och måste repareras effektivt. Endast ett fåtal studier föreslås för att hantera problemet med flera cut-vertex fel, vilket är ett speciellt fall av flera nodfel. Därför föreslås i detta dokument en övergripande lösning för att ta itu med problemen med nodfel (en och flera). Collaborative Single Node Failure Restoration Algoritm (CSFR) presenteras för att lösa problemet med enstaka nodfel endast med samarbetskommunikation, men CSFR-M, som är utvidgningen av CSFR, hanterar problemet med enstaka nodfel mer effektivt med nodrörelse. Dessutom föreslås Collaborative Connectivity Restoration Algorithm (CCRA) på grundval av samarbetskommunikation och nodmanövrerbarhet för att återställa nätverksanslutning efter flera noder misslyckas. ECSR-M och CCRA är reaktiva metoder som initierar konnektivitetsåterställningen efter det att nodfel har upptäckts. För att ytterligare minimera energiavledningen väljer CCRA att förenkla återvinningsprocessen genom rutnät. Dessutom minskas det avstånd som en enskild nod behöver för att resa under återhämtning genom att välja de närmaste lämpliga kandidaterna. Slutligen validerar omfattande simuleringar prestandan hos CSFR, CSFR-M och CCRA. | ECSR Ref antar samarbetskommunikation för att återställa konnektivitet. | 11,826,437 | Adaptive Connectivity Restoration from Node Failure(s) in Wireless Sensor Networks | {'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Computer Science', 'Medicine']} | 4,835 |
När täta matrisberäkningar är för stora för att passa i cache, tidigare forskning föreslår tiling för att minska eller eliminera kapacitet missar. Detta papper presenterar en ny algoritm för att välja problemstorlek beroende kakelstorlekar baserat på cache storlek och cache linje storlek för en direkt mappade cache. Algoritmen eliminerar både kapacitet och självinblandning missar och minskar korsinblandning missar. Vi mätte simulerade felfrekvenser och utförandetider för vår algoritm och två andra på en. variation av problemstorlekar och cache orgamzations. Vid högre uppsättning associativitet uppnår vår algoritm inte alltid bästa prestanda. Men på direktmappade caches förbättrar vår algoritm simulerade missfrekvenser och uppmätta exekveringstider jämfört med prewous arbete. Senare arbete har tagit upp några av dessa faktorer för 279 | Coleman och McKinley REF presenterade en ny algoritm TSS för att välja problemstorlek beroende kakelstorlek baserat på cachestorlek och cachelinjestorlek för en direktmappad cache. | 12,011,074 | Tile size selection using cache organization and data layout | {'venue': "PLDI '95", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,836 |
Neural nätverk ensemble är ett lärande paradigm där många neurala nätverk används gemensamt för att lösa ett problem. I detta papper analyseras relationen mellan ensemblen och dess komponenters neurala nätverk från sammanhanget av både regression och klassificering, vilket visar att det kan vara bättre att ensemble många istället för alla de neurala nätverk som finns. Detta resultat är intressant eftersom för närvarande, de flesta närmar sig ensemble alla tillgängliga neurala nätverk för förutsägelse. Därefter, för att visa att lämpliga neurala nätverk för att komponera en ensemble kan väljas effektivt från en uppsättning av tillgängliga neurala nätverk, en metod som kallas GASEN presenteras. GASEN tränar till en början ett antal neurala nätverk. Sedan tilldelar den slumpmässiga vikter till dessa nätverk och använder genetisk algoritm för att utveckla vikterna så att de i viss mån kan karakterisera de neurala nätverkens lämplighet i att bilda en ensemble. Slutligen väljer den några neurala nätverk baserade på de utvecklade vikterna för att göra upp ensemblen. En stor empirisk studie visar att GASEN kan generera neurala nätverksensembler med mycket mindre storlekar men starkare generaliseringsförmåga, jämfört med vissa populära ensemblemetoder som Baging och Boosting. För att förstå hur GASEN fungerar anges dessutom att felet bryts ned på grund av partiskhet i detta dokument, vilket visar att GASEN:s framgång kan ligga i att det avsevärt kan minska både fördomarna och variansen. | I REF används en GA för att utveckla röstvikterna hos de enskilda prediktorerna i en ensemble av neurala nätverk. | 15,455,464 | Ensembling Neural Networks: Many Could Be Better Than All | {'venue': 'ARTIFICIAL INTELLIGENCE', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,837 |
Webbtjänster är löst kopplade programvarukomponenter, publicerade, lokaliserade och åberopade över hela webben. Det växande antalet webbtjänster som finns inom en organisation och på webben ger upphov till ett nytt och utmanande sökproblem: lokalisering av önskade webbtjänster. Traditionell sökordssökning är otillräcklig i detta sammanhang: de specifika typer av frågor användare kräver fångas inte, de mycket små textfragment i webbtjänster är olämpliga för sökordssökning, och den underliggande struktur och semantik av webbtjänster inte utnyttjas. Vi beskriver algoritmerna bakom Woogle-sökmotorn för webbtjänster. Woogle stöder likhetssökning för webbtjänster, såsom att hitta liknande webbservice och hitta operationer som komponerar med en given. Vi beskriver nya tekniker för att stödja dessa typer av sökningar, och en experimentell studie av en samling av över 1500 web-service-operationer som visar den höga recallen och precisionen hos våra algoritmer. | Arbetet i REF fokuserar på likhetssökning för webbtjänster och kombinerar flera beviskällor. | 8,564,256 | Similarity search for web services | {'venue': 'In Proc. of VLDB', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,838 |
Abstract-Problemet att dela flera kanaler som ägs av primäranvändare med flera kognitiva användare beaktas. Varje primär användare överför på sin dedikerade kanal, och dess beläggning modelleras av en kontinuerlig tid Markov process. Varje kognitiv användare är kapabel att känna av en kanal i taget och den överför enligt en slitsig struktur. Överföringarna av kognitiva användare på varje kanal är föremål för en föreskriven kollisionsrestriktion. Under snäva kollisionsbegränsningar erhålls den maximala genomströmningsregionen genom en policy som kallas Orthogonalized Periodic Sensing with Memoryless Access (OPS-MA). Karakteriseringar av den maximala genomströmningsregionen ges också när kollisionsbegränsningarna är lösta. Det visas att OPS-MA-policyn uppnår den högsta summan under alla kollisionsbegränsningar när antalet kognitiva användare är lika stort som antalet primära användare. Inre och yttre gränser för den effektiva bandbredd regionen är formulerade som ett par konvexa optimeringar. När det bara finns två kanaler erhålls även hörnpunkter (det enda användarscenariot) i den optimala effektiva bandbreddsregionen. Index termer-Kognitiva radionät, dynamisk spektrumåtkomst, opportunistisk multiaccess, effektiv bandbredd, Konstnärlig POMDP, könätverk. | Optimaliteten hos OPS-MA visas först i REF. | 15,380,444 | Multiuser cognitive access of continuous time Markov channels: Maximum throughput and effective bandwidth regions | {'venue': '2010 Information Theory and Applications Workshop (ITA)', 'journal': '2010 Information Theory and Applications Workshop (ITA)', 'mag_field_of_study': ['Computer Science']} | 4,839 |
I en utökad bildsekvens av en utomhusscen ser man förändringar i färg som framkallas av variationer i dagsljusets spektralsammansättning. Detta papper föreslår en modell för dessa temporal färgförändringar och utforskar dess användning för analys av utomhusscener från time-lapse videodata. Vi visar att de tidsvarierande förändringarna i direkt solljus och omgivande skylight kan återvinnas med denna modell, och att en bildsekvens kan sönderdelas i två motsvarande komponenter. Dekomposition ger tillgång till både radiometrisk och geometrisk information om en scen, och vi visar hur detta kan utnyttjas för en mängd olika visuella uppgifter, inklusive färg-konsistens, bakgrund subtraktion, skuggdetektering, scenrekonstruktion, och kamera geo-lokalisering. | Sunkavalli m.fl. REF fokuserar på färgförändringar och syftar till att separera direkt solljus och omgivande skylight komponenter för återvinning av partiell sceninformation. | 2,720,749 | What do color changes reveal about an outdoor scene? | {'venue': '2008 IEEE Conference on Computer Vision and Pattern Recognition', 'journal': '2008 IEEE Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 4,840 |
Abstrakt. På grund av den höga falska positiva frekvensen i den höga genomströmningen experimentella metoder för att upptäcka proteininteraktioner, beräkningsmetoder är nödvändiga och avgörande för att slutföra interaktionen snabbt. Men när man bygger klassificeringsmodeller för att identifiera putativa proteininteraktioner, jämfört med det uppenbara valet av positiva prover från verkligt interagerande proteinpar, är det oftast mycket svårt att välja negativa prover, eftersom icke-interaktionsprotein par hänvisar till dem för närvarande utan experimentella eller beräkningsunderlag för att stödja en fysisk interaktion eller en funktionell förening, som dock kan interagera i verkligheten. För att ta itu med denna svårighet, istället för att använda heuristik som i många befintliga verk, i detta papper löser vi det på ett principfast sätt genom att formulera proteininteraktionsförutsägelseproblem ur ett nytt matematiskt perspektiv -sparse matriskomplettering, och föreslå en ny Nonnegative Matrix Tri-Factorization (NMTF) baserad matriskompletteringsmetod för att förutsäga nya proteininteraktioner från befintliga proteininteraktionsnätverk. Eftersom matriskomplettering endast kräver positiva prover men inte använder negativa prover, är utmaningen i befintliga klassificeringsbaserade metoder för att förutsäga proteininteraktion kringgås. Genom att använda mångfaldig legalisering utvecklar vi ytterligare vår metod för att integrera olika biologiska datakällor, såsom proteinsekvenser, genuttryck, proteinstrukturinformation, etc. Omfattande experimentella resultat på Saccharomyces cerevisiae genom visar att våra nya metoder överträffar de senaste metoderna för att förutsäga proteininteraktion. | I detta REF-dokument att på grund av den höga falska positiva hastigheten i testrutinerna med hög genomströmning för att hitta proteinkommunikation, är beräkningstekniker nödvändiga och viktiga för att avsluta interaktionen snabbt. | 1,189,671 | Predicting protein-protein interactions from multimodal biological data sources via nonnegative matrix tri-factorization. | {'venue': 'Journal of computational biology : a journal of computational molecular cell biology', 'journal': 'Journal of computational biology : a journal of computational molecular cell biology', 'mag_field_of_study': ['Medicine', 'Computer Science']} | 4,841 |
För att snabbt anpassa och utveckla intelligenta campus Internet of things (ICIOT) system mer effektivt, i detta dokument en strategi baserad på runtime modell för att hantera intelligenta campus trådlösa sensornätverk föreslås. För det första, hanterbarhet av intelligenta campus trådlösa sensorer abstrakteras som runtime modeller som automatiskt och omedelbart sprida alla observerbara runtime förändringar av målresurser till motsvarande arkitektur modeller. Därefter konstrueras en sammansatt modell av intelligenta trådlösa campussensorer genom sammanslagning av deras runtime-modeller för att hantera olika typer av enheter på ett enhetligt sätt. Slutligen är en skräddarsydd modell konstruerad enligt det personliga ledningskravet och synkroniseringen mellan den anpassade modellen och den sammansatta modellen säkerställs genom modellomvandling. Således kan alla förvaltningsuppgifter utföras genom att köra operativa program på den anpassade modellen. I den del av undervisningsområdet genomförde skolor experiment och jämfört med den traditionella metoden, kan denna metod vara mer effektiv förvaltning av campusanläggningar, mer energieffektiv och ordnad, som kan nå en 16,7% energibesparing. | Zhang P, etc. presenterar en körtid modellbaserad metod för att hantera intelligenta campus trådlösa sensor REF. | 56,243,548 | Management of Intelligent Campus Wireless Sensor Networks Based on Runtime Model | {'venue': None, 'journal': 'Journal of Computational Chemistry', 'mag_field_of_study': ['Chemistry']} | 4,842 |
har ännu inte trängt in i mainstream. Ett av de största olösta problemen är hanteringen av den omkonfigurerbara hårdvaran i en flertrådig miljö. Merparten av forskningen inom omkonfigurerbara datorer har antagit en enkelgängad modell, men detta är orealistiskt för persondatorer och många typer av inbäddade datorer. I dessa fall kan det finnas flera olika trådar eller processer som körs samtidigt, var och en vill använda den omkonfigurerbara hårdvaran. Operativsystemet måste bestämma hur hårdvaran ska fördelas vid körning baserat på systemets status. Systemets status skulle också kunna påverka valet av olika implementationer för varje krets baserat på områdes- och hastighetsbyten. I detta dokument undersöks omkonfigurerbar databehandling eftersom den kan användas i vanliga system, med fokus på en föreslagen schemaläggningsalgoritm för att fördela den omkonfigurerbara hårdvaran. Våra inledande tester visar att omkonfigurerbar databehandling med vår schemaläggare enkelt kan uppnå minst 20% systemnivå hastighetshöjning. | På samma sätt presenterar studien i REF resursallokering och schemaläggning heuristisk för den flertrådiga miljön baserat på statusen för det omkonfigurerbara systemet. | 570,371 | An execution environment for reconfigurable computing | {'venue': "13th Annual IEEE Symposium on Field-Programmable Custom Computing Machines (FCCM'05)", 'journal': "13th Annual IEEE Symposium on Field-Programmable Custom Computing Machines (FCCM'05)", 'mag_field_of_study': ['Computer Science']} | 4,843 |
Abstract-Utformningen av moduleringssystem för den fysiska skikt nätverk-kodade tvåvägs återutläggning scenariot beaktas med ett protokoll som använder två faser: multiple access (MA) fas och sändning (BC) fas. Det observerades av Koike-Akino et al. Att adaptivt ändra den nätkodningskarta som används vid reläet i enlighet med kanalförhållandena avsevärt minskar effekterna av MA-interferens som uppstår vid reläet under MA-fasen och att alla dessa nätkodningskartor uppfyller ett krav som kallas exklusiv lag. Vi visar att varje nät kodning karta som uppfyller den exklusiva lagen kan representeras av en Latin Square och omvänt, att detta förhållande kan användas för att få nätverket kodning kartor uppfyller den exklusiva lagen. Kanalen bleknar tillstånd för vilka det minsta avståndet för den effektiva konstellationen vid reläet blir noll kallas det singulära blekningstillståndet. För PSK-modulering (någon effekt på 2) visas det att det finns singular blekningstillstånd. Det visas också att de begränsningar som nätkodningskartorna bör uppfylla så att de skadliga effekterna av singular blekningstillstånd tas bort, kan ses likvärdigt som delvis fyllda Latin Squares (PFLS). Problemet med att hitta alla nödvändiga kartor reduceras till att hitta en liten uppsättning kartor för PSK-konstellationer (någon effekt av E överväga tvåvägs trådlös återutläggning scenariot som visas i Bild. 1, där dubbelriktad dataöverföring sker mellan noderna A och B med hjälp av reläet R. Det antas att alla tre noderna fungerar i halvduplex läge, dvs, de kan inte överföra och ta emot samtidigt i samma frekvensband. Reläprotokollet består av följande två faser: fasen med flera åtkomster (MA), under vilken A och B samtidigt överför till R och den sändningsfas (BC) under vilken R sänder till A och B. Nätverkskodning används vid R på ett sådant sätt att A (B) kan avkoda meddelandet från B (A), med tanke på att A (B) känner till sitt eget meddelande. Begreppet fysisk lagernätverkskodning har rönt stor uppmärksamhet på senare tid. Idén om fysiskt lagernätverk som kodar för tvåvägsreläkanalen introducerades först i [3], där MA-interferensen som sker på reläet utnyttjades så att kommunikationen mellan slutnoderna kan göras med hjälp av ett tvåfasprotokoll. Informationsteoretiska studier av det fysiska skiktnätets kodningsscenario rapporterades under [4] och [5]. Ett differentierat moduleringssystem med analog nätkodning för dubbelriktad återutläggning föreslogs i [6]. De konstruktionsprinciper som styr valet av moduleringssystem som ska användas vid noderna för okodad överföring studerades i [7]. En förlängning för fallet när noderna använder konvolutionskoder gjordes i [8]. Ett kodningssystem på flera nivåer för dubbelriktade återutläggningsscenario föreslogs i [9]. Strategier för maktfördelning och latticebaserade kodningssystem för dubbelriktad återutläggning föreslogs i [10]. Det noterades [7] att för okodad överföring måste den nätkodningskarta som används vid reläet ändras adaptivt enligt kanalens blekningskoefficienter, för att minimera effekterna av MA-interferensen. I detta dokument visas att ett begränsat antal nätkodningskartor, som erhålls genom att delvis fyllda Latin Squares (PFLS), effektivt kan mildra effekten av MA-interferens. Efter att ha erhållit nätkodningskartorna, kvantifieras uppsättningen av alla möjliga kanalrealiseringar till ett begränsat antal regioner, med en specifik nätkodningskarta vald vid R i en viss region. I [7], en kvantisering erhölls med hjälp av uttömmande datorsökning för 4-PSK signal set. I detta dokument får vi en kvantisering analytiskt för alla -PSK signaluppsättning, för någon effekt på 2. | Icke-linjär PNC kartläggning baserad på latin kvadrat föreslogs i REF. | 13,367,992 | Wireless Network-Coded Bidirectional Relaying Using Latin Squares for $M$ -PSK Modulation | {'venue': 'IEEE Transactions on Information Theory', 'journal': 'IEEE Transactions on Information Theory', 'mag_field_of_study': ['Computer Science']} | 4,844 |
När människor beskriver en scen innehåller de ofta information som inte är visuellt synlig, ibland baserad på bakgrundskunskap, ibland för att berätta en historia. Vi strävar efter att separera visuella textbeskrivningar av vad som ses-från icke-visuell text i naturliga bilder och deras beskrivningar. För att göra det definierar vi först konkret vad det innebär att vara visuell, kommentera visuell text och sedan utveckla algoritmer för att automatiskt klassificera substantivfraser som visuella eller icke-visuella. Vi finner att med hjälp av enbart text, kan vi uppnå hög noggrannhet vid denna uppgift, och att införliva funktioner som härrör från datorseende algoritmer förbättrar prestanda. Slutligen visar vi att vi på ett tillförlitligt sätt kan minera visuella substantiv och adjektiv från stora corpora och att vi kan använda dessa effektivt i klassificeringsuppgiften. | För det andra föreslår Ref en metod för att skilja visuell text från icke-visuell text i bildtexter. | 3,570,838 | Detecting Visual Text | {'venue': 'NAACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,845 |
Abstract-I detta dokument anser vi resursallokering för en OFDMA-baserad kognitiv radio point-to-multipoint nätverk med fasta användare. Specifikt antar vi att sekundära användare tillåts att överföra på någon subkanal under förutsättning att den störning som skapas till alla primära användare är under en kritisk tröskel. Vi fokuserar på nedlänken. Vi formulerar det gemensamma subkanal-, kraft- och hastighetsfördelningsproblemet i samband med ändliga köbackloggar med en total effektbegränsning vid basstationen. Därför tilldelas användare med små eftersläpningar endast tillräckliga resurser för att stödja sina eftersläpningar medan användare med stora eftersläpningar delar de återstående resurserna på ett rättvist och effektivt sätt. Specifikt formulerar vi problemet som ett max-min problem som är kö-medveten, dvs., på en ram. Vi maximerar den minsta hastigheten av alla användare vars backlog inte kan överföras fullt ut. Medan problemet är ett stort icke-linjära heltal program, föreslår vi en iterativ metod som kan lösa det exakt som en sekvens av linjära heltal program, som ger ett riktmärke mot vilken man kan jämföra snabb heuristik. Vi överväger två klasser av heuristik. Den första är en anpassning av en klass av flerstegsheuristik som frikopplar problemet med makt och hastighetstilldelning från subkanalallokeringen och finns allmänt i litteraturen. För att göra denna klass av heuristik mer effektiv föreslår vi ytterligare ett (slutligt) steg. Det andra är ett nytt tillvägagångssätt, som kallas selektivt girigt, som inte leder till någon frikoppling. Vi finner att även om den flerstegs heuristiska gör bra ifrån sig i den icke-kognitiva miljön, är detta inte alltid fallet i den kognitiva miljön och den andra heuristiska visar betydande förbättringar vid minskad komplexitet jämfört med den flerstegsstrategi. Slutligen studerar vi också påverkan av systemparametrar såsom antal primära användare och kritiska interferenströskel för sekundära nätverksprestanda och ger några värdefulla insikter om driften av sådana system. | I REF formuleras en maximal-min problembaserad nedlänk resursallokering på ett rättvist och effektivt sätt för en OFDMA-baserad kognitiv radio point-to-multipoint nätverk med fasta användare enligt backlog för varje användare. | 18,906,859 | Queue-Aware Resource Allocation for Downlink OFDMA Cognitive Radio Networks | {'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Computer Science']} | 4,846 |
En programvarumodifieringsuppgift tar ofta upp flera problem. En oro är allt en intressent kan vilja betrakta som en konceptuell enhet, inklusive funktioner, icke-funktionella krav, och design idiomer. I många fall är källkoden som implementerar ett problem inte inkapslad i en enda programmeringsspråkmodul, utan sprids och trasslas in i ett system. Otillräcklig åtskillnad av problem ökar svårigheten att utveckla programvara på ett korrekt och kostnadseffektivt sätt. För att göra det lättare att ändra farhågor som inte är väl modulariserade, föreslår vi en strategi där genomförandet av farhågor dokumenteras i artefakter, kallas oro diagram. Orografer är abstrakta modeller som beskriver vilka delar av källkoden som är relevanta för olika problem. Vi presenterar en formell modell för bekymmersgrafer och det verktygsstöd vi utvecklat för att göra det möjligt för programvaruutvecklare att skapa och använda bekymmersgrafer under programvaruutvecklingsuppgifter. Vi rapporterar om fem empiriska studier, som ger belägg för att grafer stöder åsikter och operationer som underlättar uppgiften att ändra koden för att implementera spridda problem, är kostnadseffektiva för att skapa och använda, och tillräckligt robust för att användas med olika versioner av ett programvarusystem. | FEAT-verktyget REF hjälper utvecklare att skapa beskrivningar av spridda program, så kallade bekymmer. | 6,453,024 | Representing concerns in source code | {'venue': 'TSEM', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,847 |
Abstrakt. För att möjliggöra effektiva gränsöverskridande samarbeten måste processleverantörerna ge synpunkter på sina interna processer till konsumenterna. En processvy döljer detaljer om en intern process som är hemlig för eller irrelevant för konsumenten. I detta dokument beskrivs ett formellt tillvägagångssätt i två steg för att bygga upp skräddarsydda processvyer på strukturerade processmodeller. För det första är en icke-anpassad processvy konstruerad från en intern strukturerad processmodell genom att aggregera interna aktiviteter som leverantören vill dölja. För det andra är en skräddarsydd processvy konstruerad genom att aggregera och utelämna aktiviteter från den icke-customized vy som inte efterfrågas av konsumenten. För att visa att strategin är genomförbar utvidgas den befintliga strukturen för inrättandet av dynamiska virtuella företag. | Grefen och Eshuis REF föreslog ett formellt tillvägagångssätt för att skapa en skräddarsydd processsyn på en affärsprocess. | 14,234,889 | Constructing Customized Process Views | {'venue': 'Data Knowl. Eng.', 'journal': 'Data Knowl. Eng.', 'mag_field_of_study': ['Computer Science']} | 4,848 |
Figur 1: Anisotrop detaljslipning: Från och med en första modell (a) appliceras global skärpning på geometrin för att förbättra detaljerna (b). Genom att anpassa slipningens riktning till krökningarna på olika sätt, realiseras ett rikt utrymme av geometri-medvetna slipfilter (c-e). Även om modellen består av nästan en miljon hörn och ett nytt system konstrueras och löses varje gång filtret ändras, stöder vår metod fortfarande geometrisk bearbetning med interaktiva hastigheter. Vi presenterar en allmän ram för att utföra geometrifiltrering genom lösningen av en avskärmad Poisson ekvation. Vi visar att detta ramverk effektivt kan anpassas till en föränderlig Riemannian metrisk för att stödja krökningsmedveten filtrering och beskriva en parallell och strömmande multigrid implementation för att lösa systemet. Vi visar hur praktiskt vårt tillvägagångssätt är genom att utveckla ett interaktivt system för nätredigering som gör det möjligt att utforska en stor familj av krökningsstyrda, anisotropa filter. | Chuang och Kazhdan REF utvecklade ett ramverk för kröknings-aware meshfiltrering baserat på den avskärmade Poisson ekvationen. | 5,986,384 | Interactive and anisotropic geometry processing using the screened Poisson equation | {'venue': "SIGGRAPH '11", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,849 |
Abstrakt. Redigeringsavståndet (eller Levenshteinavståndet) mellan två ord är det minsta antalet substitutioner, tillägg och raderingar av symboler som kan användas för att omvandla det ena ordet till det andra. I detta dokument överväger vi problemet med att beräkna redigeringsavståndet för ett vanligt språk (även känt som begränsningssystem), det vill säga den uppsättning ord som accepteras av en given ändlig automaton. Denna mängd är det minsta redigeringsavståndet mellan varje par distinkta ord i språket. Vi visar att problemet är polynomisk tids komplexitet. Vi skiljer två fall beroende på om den givna automaten är deterministisk eller icke-deterministisk. I det senare fallet är tids komplexiteten högre. För övrigt får vi också en övre gräns på redigeringsavståndet för ett vanligt språk i termer av automaton acceptera språket. | Problemet med att beräkna det minsta redigeringsavståndet mellan ett par olika strängar på ett vanligt språk har studerats i REF. | 18,257,230 | Computing the edit distance of a regular language | {'venue': 'in Proc. of IEEE Information Theory Workshop on Coding and Complexity, Roturoa, New Zealand, Aug. 29', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 4,850 |
Denna studie undersöker effekten av felbehandlingsreformer på läkarens beteende med hjälp av ett nytt mått på ansvarsrisk och en nationellt representativ, individuell nivå datauppsättning av läkare. Vi utvecklar först en teoretisk modell där läkare inte helt kan försäkra sig mot ansvarsrisk. Vi matchar sedan vår ansvarsmått till data om läkarens beteende från Physician Practice Costs and Income Survey (PPCIS). Uppgifter från PPCIS omfattar en period av omfattande rättsliga reformer på statlig nivå mellan 1983 och 1988, vilket ger en identifiering av variationen i vår ansvarsåtgärd. Vi uppskattar ansvarsreformens inverkan på antalet arbetade timmar. Vi finner en uppskattad elasticitet av arbetade timmar till ansvar exponering av -0,285 för det fullständiga urvalet av läkare. Tolkningen är att en 10 procents ökning av förväntade ansvarskostnader (inte nödvändigtvis felbehandlingspremier) är förknippad med en 2,85 procents minskning av antalet arbetade timmar. Effekten för läkare 55 år eller äldre är mycket större: Vi finner en elasticitet på -1.224 för denna kategori. Vi undersöker också sambandet mellan vår "rena" ansvarsåtgärd och premierna för oegentligheter. Vi finner att en ökning av $ 1 av förväntat ansvar är associerad med en $ 0,699 till $1,05 ökning av felbehandling premier, även om det fortfarande finns betydande oförklarlig variation i premier efter redovisning av förväntat ansvar och observerbara demografiska egenskaper läkare. | Dessutom finner REF bevis för att en ökning av förväntade ansvarskostnader är förknippad med en minskning av en läkares arbetade timmar. | 2,821,165 | The Impact of Liability on the Physician Labor Market | {'venue': None, 'journal': 'The Journal of Law and Economics', 'mag_field_of_study': ['Economics']} | 4,851 |
Vi föreslår ett nytt hierarkiskt tillvägagångssätt för syntes av text till bild genom att sluta semantisk layout. Istället för att lära sig en direkt kartläggning från text till bild, vår algoritm sönderdela generationsprocessen i flera steg, där den först konstruerar en semantisk layout från texten av layoutgeneratorn och omvandlar layouten till en bild av bildgeneratorn. Den föreslagna layoutgeneratorn konstruerar gradvis en semantisk layout på ett grovt-till-fint sätt genom att generera lådor som avgränsar objekt och förfina varje låda genom att uppskatta objektformer inuti lådan. Bildgeneratorn synthesizes en bild betingad på den inferred semantic layouten, som ger en användbar semantisk struktur av en bild som matchar med textbeskrivningen. Vår modell genererar inte bara semantiskt mer meningsfulla bilder, utan möjliggör också automatisk annotering av genererade bilder och användarkontrollerad genereringsprocess genom att ändra den genererade scenlayouten. Vi visar kapaciteten hos den föreslagna modellen på utmanande MS-COCO dataset och visar att modellen kan avsevärt förbättra bildkvaliteten, tolkningen av utdata och semantisk anpassning till indatatext över befintliga metoder. | För att explicit koda den semantiska layouten i generatorn föreslår REF att generationsprocessen bryts ned i två steg, där den först konstruerar en semantisk layout (begränsade rutor och objektformer) från texten och sedan syntetiserar en bild som är konditionerad på layouten och textbeskrivningen. | 21,012,775 | Inferring Semantic Layout for Hierarchical Text-to-Image Synthesis | {'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 4,852 |
Random promenader på en graf reflekterar många av dess topologiska och spektral egenskaper, såsom uppkoppladhet, bipartitet och spektral gap magnitud. I den första delen av detta dokument definierar vi en stokastisk process om simpliala komplex av godtycklig dimension, som på ett analogt sätt återspeglar existensen av högre dimensionell homologi, och omfattningen av den högdimensionella spektralgap som härrör från Eckmanns och Garlands verk. Den andra delen av tidningen ägnas åt oändliga komplex. Vi presenterar en generalisering av Kesten resultat på spektrumet av vanliga träd, och av kopplingen mellan avkastning sannolikheter och spektral radie. Vi studerar analogen av Alon-Boppana teorem på spektral luckor, och uppvisar ett motexempel för dess högdimensionella motsvarighet. Vi visar dock att under vissa antaganden håller teorem - till exempel om codimensionion-ett skelett av komplexen i fråga bildar en familj av expanderare. Vår studie föreslår naturliga generaliseringar av många begrepp från grafteori, såsom amenability, recurrent/transience, och bipartiteness. Vi presenterar några observationer om dessa idéer, och flera öppna frågor. | Den höga ordningen slumpmässig gång av REF är utformad för att avslöja de topologiska egenskaperna hos komplexet. | 42,981,967 | Simplicial complexes: spectrum, homology and random walks | {'venue': 'Random Structures&Algorithms, 50(2): 225-261 (2017)', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 4,853 |
Samförstånd är ett av de grundläggande problemen i multiagentsystem och distribuerade datorer, där agenter eller processnoder krävs för att nå en global överenskommelse om vissa datavärden, beslut, åtgärder eller synkronisering. I avsaknad av centraliserad samordning är det en utmaning att uppnå globalt samförstånd, särskilt i dynamiska och storskaliga distribuerade system med felaktiga processer. I detta dokument presenteras ett fullständigt decentraliserat övergångsprotokoll för att uppnå globalt samförstånd om konvergensen av en underliggande informationsspridningsprocess. Den föreslagna metoden bygger på epidemiska protokoll, som är en randomiserad kommunikation och beräkning paradigm och ger utmärkt skalbarhet och feltoleranta egenskaper. Den experimentella analysen bygger på simuleringar av en storskalig informationsspridningsprocess och resultaten visar att global enighet kan uppnås utan deterministiska och globala kommunikationsmönster, såsom de som bygger på centraliserad samordning. | Protokollet PTP föreslås av REF för att uppnå samförstånd om konvergens av informationsspridning över ett stort antal noder. | 22,758,668 | Agreement in Epidemic Information Dissemination | {'venue': 'IDCS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,854 |
Förstärkning Lärande algoritmer kan lära sig komplexa beteendemönster för sekventiella beslutsfattande uppgifter där en agent interagerar med en miljö och får feedback i form av belöningar som tas från den. Traditionellt, sådana algoritmer fatta beslut, dvs., välja åtgärder för att utföra, varje gång steg av agent-environment interaktioner. I detta dokument föreslår vi en ny ram, Fine Grained Action Reppetition (Figar), som gör det möjligt för agenten att besluta om åtgärden samt tidsskalan för att upprepa den. FiGAR kan användas för att förbättra en algoritm för fördjupande lärande som upprätthåller en explicit policyuppskattning genom att möjliggöra temporal abstraktion i åtgärdsutrymmet. Vi demonstrerar empiriskt effektiviteten i vårt ramverk genom att visa prestandaförbättringar på toppen av tre policysökningsalgoritmer inom olika domäner: Asynkron fördel Aktör Critic i Atari 2600 domän, Trust Region Policy Optimering i Mujoco domän och Deep Deterministic Policy Gradients i TORCS bil racing domän. | REF tillhandahåller en annan intressant agent som använder makroåtgärder som kallas Fine Grained Action Reppetition (FiGAR). | 15,294,098 | Learning to Repeat: Fine Grained Action Repetition for Deep Reinforcement Learning | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 4,855 |
I den här artikeln tar vi upp problemet med 3D-människans förståelse i det fria. En stor utmaning är bristen på träningsdata, dvs. 2D-bilder av människor kommenterade med 3D pose. Sådana uppgifter är nödvändiga för att utbilda toppmoderna CNN-arkitekturer. Här föreslår vi en lösning för att generera en stor uppsättning fotorealistiska syntetiska bilder av människor med 3D pose annotations. Vi introducerar en bildbaserad syntesmotor som artificiellt förstärker en datauppsättning av verkliga bilder och 2D human pose annotations med 3D Motion Capture (MoCap) data. Med tanke på en kandidat 3D pose väljer vår algoritm för varje led en bild vars 2D pose lokalt matchar den projicerade 3D pose. De valda bilderna kombineras sedan för att skapa en ny syntetisk bild genom att sy lokala bildplåster på ett kinematiskt begränsat sätt. De resulterande bilderna används för att träna en end-to-end CNN för fullkroppsuppskattning av 3D-pose. Vi samlar in träningsdata i ett stort antal poseklasser och tar itu med det som ett K-vägsklassificeringsproblem. Ett sådant tillvägagångssätt är endast genomförbart med stora utbildningsset som vårt. Vår metod överträffar state-of-the-art i termer av 3D utgör uppskattning i kontrollerade miljöer (Human3.6M), visar lovande resultat för i-the-vilda bilder (LSP). | Rogez och Schmid REF på konstgjord väg ger 3D-anteckningar till bilder med 2D utgör en anteckning med hjälp av MoCap-data. | 13,401,310 | MoCap-guided Data Augmentation for 3D Pose Estimation in the Wild | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 4,856 |
Att bryta ner komplexa programvarusystem i konceptuellt oberoende delsystem är en viktig programvaruteknisk verksamhet som rönt stor forskning. Merparten av forskningen inom detta område tar hänsyn till källkodens kropp; försöker samla ihop filer som är begreppsmässigt relaterade. I detta dokument diskuteras tekniker för att extrahera begrepp (vi kallar dem "förkortningar") från en mer informell informationskälla: filnamn. Uppgiften är svår eftersom ingenting anger var filnamnen ska delas upp i delsträngar. I allmänhet, hitta förkortningar skulle Mycket av forskningen i filen kluster domän handlar om källkoden; försöker extrahera designkoncept från den. Men vi studerade ett äldre programvarusystem, och lade märke till att programvaruingenjörer organiserade filer enligt några filnamnskonventioner. I detta dokument föreslår vi att denna mer informella informationskälla används för att utvinna delsystem. Vårt övergripande projekt syftar till att bygga en konceptuell webbläsare för äldre mjukvarusystem. En viktig del av detta är en konstruktion återvinningsanläggning där filer är hopsamlade ac-. som anknyter till de begrepp som de hänvisar till. Dessa kluster eller begrepp kan kallas delsystem. kräva domänkunskap för att identifiera de begrepp som avses i ett namn och en intuition för att känna igen sådana begrepp i förkortade former. Vi visar genom experiment att de tekniker vi föreslår gör det möjligt att automatiskt hitta omkring 90 procent av förkortningarna. Merlo [8] har redan föreslagit att samla filer enligt de begrepp som anges i deras kommentarer och de funktionsnamn de innehåller. Ett experiment som vi genomförde [l] visar dock att filnamn i vårt fall är ett mycket bättre klusterkriterium än funktionsnamn eller | I REF föreslogs en metod för att dela upp komplexa programvarusystem i oberoende delsystem av Anquetil och Lethbridge. | 10,633,783 | Extracting concepts from file names; a new file clustering criterion | {'venue': 'Proceedings of the 20th International Conference on Software Engineering', 'journal': 'Proceedings of the 20th International Conference on Software Engineering', 'mag_field_of_study': ['Computer Science']} | 4,857 |
Storskalig dataanalys ligger i kärnan i moderna företag och vetenskaplig forskning. I och med uppkomsten av molntjänster kan användningen av en infrastruktur för analytisk frågebehandling (t.ex. Amazon EC2) direkt kartläggas till penningvärde. MapReduce har varit en populär ram i samband med cloud computing, utformad för att tjäna långsiktiga frågor (jobb) som kan bearbetas i batch-läge. Med tanke på att olika arbeten ofta utför liknande arbete finns det många möjligheter att dela med sig. I princip minskar dela liknande arbete den totala mängden arbete, vilket kan leda till att minska de monetära avgifter som uppstår samtidigt som bearbetningsinfrastrukturen utnyttjas. I detta dokument föreslår vi en delningsram som är anpassad till MapReduce. Vårt ramverk, MRShare, omvandlar ett parti frågor till en ny sats som kommer att utföras mer effektivt, genom att slå samman jobb till grupper och utvärdera varje grupp som en enda fråga. Baserat på vår kostnadsmodell för MapReduce definierar vi ett optimeringsproblem och vi tillhandahåller en lösning som härleder den optimala grupperingen av frågor. Experiment i vår prototyp, byggd ovanpå Hadoop, visar den övergripande effektiviteten i vår strategi och betydande besparingar. | I REF föreslås också en kostnadsmodell för att hitta den optimala planen för sammanslagning av en grupp av frågor som visas i samma sats. | 6,278,516 | MRShare: Sharing Across Multiple Queries in MapReduce | {'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']} | 4,858 |
Neurala nätverksbildklassificeringar är kända för att vara sårbara för kontradiktoriska bilder, d.v.s. naturliga bilder som har modifierats av en kontradiktorisk perturbation som är särskilt utformad för att vara omärklig för människor men som ändå lurar klassifieraren. Inte bara kan kontradiktoriska bilder genereras enkelt, men dessa bilder kommer ofta att vara kontradiktoriska för nätverk som är utbildade på osammanhängande delmängder av data eller med olika arkitekturer. Motståndsbilder representerar en potentiell säkerhetsrisk samt en allvarlig maskininlärning utmaning-det är tydligt att sårbara neurala nätverk uppfattar bilder mycket annorlunda från människor. Med tanke på att praktiskt taget alla bildklassificeringsdata består av JPG-bilder utvärderar vi effekten av JPG-komprimering på klassificeringen av kontradiktoriska bilder. För Fast-Gradient-Sign perturbations av liten magnitud, fann vi att JPG komprimering ofta vänder nedgången i klassificering noggrannhet i stor utsträckning, men inte alltid. Eftersom omfattningen av perturbationer ökar, JPG rekompression ensam är otillräcklig för att vända effekten. | Dziugaite m.fl. REF undersökte effekten av JPEG-komprimering på kontradiktoriska bilder. | 12,189,906 | A study of the effect of JPG compression on adversarial images | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 4,859 |
I detta papper beskriver vi ett sätt att automatiskt bygga mycket stora neurala nätverk (VLNN) från definition texter i maskinläsbara ordböcker, och demonstrera användningen av dessa nätverk för ordförnimmelse disambiguation. Vår metod sammanför två tidigare, oberoende metoder för att uttrycka sense disambiguation: användning av maskinläsbara ordböcker och spridnings- och aktiveringsmodeller. Den automatiska konstruktionen av VLNNs möjliggör verkliga storlek experiment med neurala nätverk för behandling av naturligt språk, vilket i sin tur ger insikt i deras beteende och design och kan leda till möjliga förbättringar. | Veronis m.fl. REF bygger automatiskt ett mycket stort neuralt nätverk från definitionstext i maskinläsbara ordböcker och använde detta nätverk för ordförnimmelse disambigering. | 9,537,399 | Word Sense Disambiguation With Very Large Neural Networks Extracted From Machine Readable Dictionaries | {'venue': 'International Conference On Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,860 |
Generativa kontradiktoriska nätverk (Gans) är en ram för att producera en generativ modell genom ett minimax-spel med två spelare. I detta dokument föreslår vi Generative Multi-Adversarial Network (GMAN), ett ramverk som utvidgar GAN till att omfatta flera olika diskriminatorer. I tidigare arbete kräver den framgångsrika utbildningen av GAN att minimax-målet ändras för att påskynda utbildningen i ett tidigt skede. Däremot kan GMAN utbildas på ett tillförlitligt sätt med det ursprungliga, otämjda målet. Vi utforskar ett antal designperspektiv med diskriminatorrollen som sträcker sig från formidabel motståndare till förlåtande lärare. Bildgenereringsuppgifter som jämför det föreslagna ramverket med standard GAN visar att GMAN producerar prover av högre kvalitet i en bråkdel av iterationerna när de mäts med ett parvis GAM-mått. | En idé att introducera flera discriminatorer vars roll varierar från formidabel motståndare till förlåtande lärare diskuterades av REF. | 16,367,617 | Generative Multi-Adversarial Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 4,861 |
Abstract-Prefetching är en viktig teknik för att minska den genomsnittliga Web access latency. Befintliga förhämtningsmetoder är huvudsakligen baserade på URL-grafer. De använder den grafiska karaktären av HTTP-länkar för att bestämma möjliga vägar genom ett hypertextsystem. Även om URL-grafbaserade tillvägagångssätt är effektiva i förhämtning av ofta åtkomliga dokument, få av dem kan fördefiniera de webbadresser som sällan besöks. I detta dokument presenteras ett nyckelordsbaserat semantiskt förfång för att övervinna begränsningen. Den förutsäger framtida förfrågningar baserade på semantiska preferenser av tidigare hämtade webbdokument. Vi tillämpar denna teknik på Internet nyhetstjänster och implementerar en klient sida personlig prefetching system: NewsAgent. Systemet utnyttjar semantiska preferenser genom att analysera nyckelord i URL-ankare text av tidigare besökta dokument i olika nyhetskategorier. Den använder en neural nätverksmodell över nyckelordet satt för att förutsäga framtida förfrågningar. Systemet har en självlärande förmåga och god anpassningsförmåga till förändringen av klientsurfing intresse. NewsAgent utnyttjar inte nyckelordet synonym för konservativhet. Men det lindrar effekten av nyckelord polysemi genom att ta hänsyn till server-tillhandahållen kategorisk information i beslutsfattandet och därmed fångar mer semantisk kunskap än term-dokument bokstavliga matchningsmetoder. Experimentella resultat från daglig surfning av ABC News, CNN och MSNBC nyhetssajter under en period av tre månader visar en prestation på upp till 60 procent hit ratio på grund av prefetching. | Referens REF använder nyckelordsbaserad semantisk prefetching i Internet News. | 11,190,483 | A keyword-based semantic prefetching approach in Internet news services | {'venue': 'IEEE Transactions on Knowledge and Data Engineering', 'journal': 'IEEE Transactions on Knowledge and Data Engineering', 'mag_field_of_study': ['Computer Science']} | 4,862 |
Abstract-This paper tar upp problemet med synkronisering av två fjärrbaserade datakällor, som är felsynkroniserade på grund av raderingar, tillägg och substitutioner (kollektivt kallade 'editer'). Vi fokuserar på följande modell. Det finns två avlägsna noder, med en med en binär sekvens X, och den andra med Y. Y är en redigerad version av X, där redigeringen innebär slumpmässiga raderingar, tillägg och substitutioner, möjligen i sprickor. Problemet är att synkronisera Y med X med minimalt utbyte av information över en ljudlös länk. Mängden information som utbyts mäts både i fråga om den genomsnittliga kommunikationshastigheten och det genomsnittliga antalet interaktiva kommunikationsrundor. Målet är att synkronisera Y till X, antingen exakt eller inom ett mål Hamming avstånd. Vi bygger på tidigare arbete [1] som introducerade en interaktiv algoritm baserad på Varshamov-Tenengolts koder för att synkronisera från införande och radering redigerar (indels). Antagandet är att antalet redigeringar är litet (o(n) där n är filstorleken). För det första visar vi hur den ursprungliga algoritmen kan modifieras för att fungera med ett begränsat antal rundor, och kvantifiera avvägningen mellan antalet rundor och kommunikationshastigheten. Därefter presenterar vi en förlängning av algoritmen för att hantera det praktiskt taget viktiga fallet där tillägg och raderingar sker i (potentiellt stora) sprickor. Slutligen visar vi hur man synkroniserar källorna till inom ett mål Hamming avstånd. Denna funktion kan användas för att skilja mellan substitution och indelredigeringar. | I REF infördes en interaktiv synkroniseringsalgoritm som korrigerar slumpmässiga tillägg, raderingar och substitutioner i binärt alfabet, där n representerar filstorleken. | 16,150,691 | Efficient interactive algorithms for file synchronization under general edits | {'venue': '2013 51st Annual Allerton Conference on Communication, Control, and Computing (Allerton)', 'journal': '2013 51st Annual Allerton Conference on Communication, Control, and Computing (Allerton)', 'mag_field_of_study': ['Computer Science']} | 4,863 |
Webbbaserade verktyg för analys av sociala data som bygger på offentlig diskussion för att producera hypoteser eller förklaringar av mönster och trender i data ger sällan resultat av hög kvalitet i praktiken. Crowdsourcing erbjuder ett alternativt tillvägagångssätt där en analytiker betalar arbetstagarna för att få fram sådana förklaringar. Men att be arbetare med varierande färdigheter, bakgrunder och motiv att helt enkelt "förklara varför ett diagram är intressant" kan leda till irrelevanta, oklara eller spekulativa förklaringar av variabel kvalitet. För att ta itu med dessa problem bidrar vi med sju strategier för att förbättra kvaliteten och mångfalden i arbetsrelaterade förklaringar. Våra experiment visar att användning av (S1)-funktionsorienterade frågor, som ger (S2) goda exempel, och inklusive (S3) referensinsamling, (S4) diagramläsning, och (S5) annotering subtagg ökar kvaliteten på svaren med 28% för amerikanska arbetstagare och 196% för icke-amerikanska arbetstagare. Feature-orienterade prompts förbättra förklaringskvaliteten med 69% till 236% beroende på prompt. Vi visar också att (S6) föranmälningsdiagram kan fokusera arbetarnas uppmärksamhet på relevanta detaljer och visa att (S7) generera förklaringar iterativt ökar förklaringsmångfalden utan att öka arbetstagarnas attraktion. Vi använde våra tekniker för att generera 910 förklaringar för 16 dataset, och fann att 63% var av hög kvalitet. Dessa resultat visar att betalda crowdarbetare på ett tillförlitligt sätt kan generera olika förklaringar av hög kvalitet som stöder analysen av specifika datauppsättningar. | Willett m.fl. REF har gett principer för att förbättra kvaliteten på arbetstagarnas produktion för analys av sociala data. | 15,986,860 | Strategies for crowdsourcing social data analysis | {'venue': "CHI '12", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,864 |
Den senaste tidens explosiva tillväxt i konvolutionella neurala nätverk (CNN) forskning har producerat en mängd nya arkitekturer för djupt lärande. En spännande ny arkitektur är den bilinjära CNN (B-CNN), som har visat dramatiska resultatvinster på vissa finkorniga igenkänningsproblem [15]. Vi tillämpar detta nya CNN på det utmanande nya riktmärket för ansiktsigenkänning, IARPA Janus Benchmark A (IJB-A) [12]. Det har ansikten från ett stort antal identiteter i utmanande verkliga förhållanden. Eftersom ansiktsbilderna inte identifierades automatiskt med hjälp av ett datoriserat ansiktsdetekteringssystem, har den inte den fördomsfullhet som finns i en sådan databas. Vi demonstrerar prestandan hos B-CNN-modellen från ett AlexNet-liknande nätverk som är förtränat på ImageNet. Vi visar sedan resultat för finjustering med hjälp av en måttlig storlek och offentlig extern databas, FaceScrub [17]. Vi presenterar också resultat med ytterligare finjustering av de begränsade utbildningsdata som tillhandahålls genom protokollet. I varje enskilt fall uppvisar den finjusterade bilinjära modellen betydande förbättringar jämfört med standard CNN. Slutligen visar vi hur en standard CNN förtränad på en stor ansiktsdatabas, den nyligen släppta VGG-Face modell [20], kan omvandlas till en B-CNN utan ytterligare funktionsträning. Detta B-CNN förbättrar CNN-prestandan på IJB-A-riktmärket och uppnår 89,5 % rank-1 recall. | B-CNN REF tillämpar den bilinjära CNN-arkitekturen för ansiktsidentifiering. | 10,319,652 | One-to-many face recognition with bilinear CNNs | {'venue': '2016 IEEE Winter Conference on Applications of Computer Vision (WACV)', 'journal': '2016 IEEE Winter Conference on Applications of Computer Vision (WACV)', 'mag_field_of_study': ['Computer Science']} | 4,865 |
Sammanfattning av denna webbsida: Modellfritt förstärkande lärande har nyligen visat sig vara effektivt när det gäller att lära sig navigeringspolitik från komplexa bildingångar. Men dessa algoritmer tenderar att kräva stora mängder interaktion med miljön, vilket kan vara oöverkomligt kostsamt att få på robotar i den verkliga världen. Vi presenterar en metod för att effektivt lära sig målinriktad navigeringspolicy på en mobil robot, från endast en täcknings traversal av inspelade data. Navigationsagenten lär sig en effektiv politik över ett varierat handlingsutrymme i en stor heterogen miljö som består av mer än 2 km resor, genom byggnader och utomhusregioner som kollektivt uppvisar stora variationer i utseende, självlikhet och konnektivitet. Vi jämför pretränade visuella kodare som gör det möjligt för precomputation av visuella inbäddningar att uppnå en genomströmning av tiotusentals övergångar per sekund vid utbildningstid på en vara stationära dator, så att agenter att lära sig från miljontals banor av erfarenhet på några timmar. Vi föreslår flera former av beräkningseffektiv stokastisk förstärkning för att göra det möjligt för den inlärda politiken att generalisera bortom dessa precomputerade inbäddningar, och visa framgångsrik tillämpning av den inlärda policyn på den verkliga roboten utan finjustering, trots skillnader i miljöutseende vid testtid. Den datauppsättning och kod som krävs för att reproducera dessa resultat och tillämpa tekniken på andra datauppsättningar och robotar görs allmänt tillgänglig på rl-navigation.github.io/deployable. | Bruce på al. REF lär sig navigeringspolitiken av en enda trafikledning av miljön. | 49,869,686 | Learning Deployable Navigation Policies at Kilometer Scale from a Single Traversal | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Engineering']} | 4,866 |
Efter [4] utökar och generaliserar vi den spelteoretiska modellen av distribuerade datorer och identifierar olika allmännyttiga funktioner som omfattar olika potentiella preferenser för spelare i ett distribuerat system. En bra distribuerad algoritm i spelet-teoretiska sammanhang är en som förbjuder agenter (processorer med intressen) från att avvika från protokollet; varje avvikelse skulle resultera i att agenten förlorar, dvs. att minska dess nytta i slutet av algoritmen. Vi skiljer mellan olika allmännyttiga funktioner i samband med distribuerade algoritmer, t.ex. verktyg baserade på kommunikationspreferenser, lösningspreferenser och utdatapreferenser. Med tanke på dessa preferenser konstruerar vi två grundläggande byggstenar för spelteoretiska distribuerade algoritmer, ett uppvaknande byggblock som är motståndskraftigt mot alla preferenser och i synnerhet mot kommunikationspreferensen (som tidigare uppvaknandelösningar inte var motståndskraftiga), och ett kunskapsdelningsbygge som är motståndskraftigt mot alla och i synnerhet mot lösnings- och outputpreferenser. Med hjälp av byggstenarna presenterar vi flera nya algoritmer för konsensus, och namnbyte samt en modulär presentation av ledarens valalgoritm [4]. | I REF fortsätter författarna denna forskningslinje genom att tillhandahålla grundläggande byggstenar för spelteoretiska distribuerade algoritmer, nämligen en väcka upp och kunskapsdelning byggstenar som är i jämvikt, och jämvikt för konsensus, namngivning, och ledare val presenteras med hjälp av dessa byggstenar. | 2,048,291 | Distributed computing building blocks for rational agents | {'venue': "PODC '14", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,867 |
Tidigare studier har rapporterat att vanliga täta linjära algebra operationer inte uppnår hastighet upp genom att använda flera geografiska platser av ett datoriserat rutnät. Eftersom sådan verksamhet är byggstenarna i de flesta vetenskapliga tillämpningar är konventionella superdatorer fortfarande starkt dominerande inom högpresterande datorer och användningen av rutnät för att påskynda storskaliga vetenskapliga problem är begränsad till tillämpningar som uppvisar parallellism på en högre nivå. Vi har identifierat två prestandaflaskhalsar i de distribuerade minnesalgoritmerna som implementerats i Scalapakk, ett toppmodernt tätt linjärt algebrabibliotek. För det första, eftersom Scalapakk antar ett homogent kommunikationsnät saknar genomförandet av Scalapakk-algoritmer lokalitet i sitt kommunikationsmönster. För det andra är antalet meddelanden som skickas i Scalapakk algoritmer betydligt större än andra algoritmer som handlar floppar för kommunikation. I detta dokument presenterar vi en ny metod för att beräkna en QR-faktorisering - en av de viktigaste täta linjära algebrakärnorna - av höga och smala matriser i en rutnätsdatormiljö som övervinner dessa två flaskhalsar. Vårt bidrag är att formulera en nyligen föreslagen algoritm (Kommunikation Undvik QR) med en topologi-medveten middleware (QCG-OMPI) för att begränsa intensiv kommunikation (ScalapACK samtal) inom de olika geografiska platserna. En experimentell studie som genomförts på Grid'5000-plattformen visar att den resulterande prestandan ökar linjärt med antalet geografiska platser på storskaliga problem (och är i synnerhet genomgående högre än Scalapakks). | Inom ramen för nätdata, genom att identifiera flaskhalsar i Scalapack, Agullo m.fl. REF utvecklade en metod för att beräkna QR-faktoriseringen genom att artikulera CAQR-faktoriseringen med en topologi-medveten middleware för att begränsa intensiv kommunikation. | 7,383,376 | QR Factorization of Tall and Skinny Matrices in a Grid Computing Environment | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 4,868 |
Abstract-En av de mest lovande tillvägagångssätten för att övervinna osäkerheten i millimetervåg (mm-våg) kommunikation är att distribuera dual-mode små basstationer (SBS) som integrerar både mm-våg och mikrovåg (μW) frekvenser. I detta dokument föreslås ett nytt tillvägagångssätt för att analysera och hantera rörlighet i gemensamma mmwave-μW-nätverk. Det föreslagna tillvägagångssättet utnyttjar cachelagring på enhetsnivå tillsammans med kapaciteten hos SBS i två lägen för att minimera överlämningsfel och minska energiförbrukningen vid interfrekvensmätning. För det första erhålls grundläggande resultat för cachingkapaciteten för det föreslagna nätverksscenariot i två steg. För det andra analyseras effekten av caching på antalet överlämningar (HO), energiförbrukning och det genomsnittliga överlämningsfelet (HOF). Sedan formuleras det föreslagna problemet med cacheaktiverad mobilitetshantering som ett dynamiskt matchande spel mellan mobila användarutrustningar (MUE) och SBS. Målet med detta spel är att hitta en distribuerad HO mekanism som, under nätverksbegränsningar på HOFs och begränsade cachestorlekar, tillåter varje MUE att välja mellan: 1) utföra en HO till ett mål SBS; 2) vara ansluten till makrocell basstation; eller 3) utföra en transparent HO genom att använda cached innehåll. För att lösa detta dynamiska matchningsproblem föreslås en ny algoritm och dess konvergens till en tvåsidig dynamisk stabil HO-policy för MUES och mål SBS bevisas. Numeriska resultat bekräftar de analytiska härledningarna och visar att den föreslagna lösningen avsevärt kommer att minska både HOF- och energiförbrukningen för MUE, vilket resulterar i en förbättrad mobilitetshantering för heterogena trådlösa nät med mm-vågskapacitet. Index Terms-Millimeter våg kommunikation, spelteori, resursfördelning. O. Semiari är verksam vid institutionen för elektroteknik, Georgia Southern University, Statesboro, GA 30458 USA (e-post: osemiari@ georgiasydern.edu). W. Saad är med Department of Electrical and Computer Engineering, Virginia Tech, Blacksburg, VA 24061 USA (e-post: [email protected]). M. Bennis är verksam vid Centrum för trådlös kommunikation, Uleåborgs universitet, 90014 Uleåborg, Finland och även vid | I REF föreslås ett nytt tillvägagångssätt för att analysera och hantera rörlighet i gemensamma sub-6 GHz-mmWave-nätverk genom att utnyttja cachelagring av enheter tillsammans med kapaciteten hos basstationer med dubbla lägen för att minimera fel i överlämnandet, minska interfrekvensmätningen, minska energiförbrukningen och tillhandahålla sömlös rörlighet i framväxande täta heterogena nätverk. | 1,050,012 | Caching Meets Millimeter Wave Communications for Enhanced Mobility Management in 5G Networks | {'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 4,869 |
I detta dokument behandlas två inbördes relaterade frågor: i) Med tanke på ett trådlöst ad hoc-nätverk och en samling av källdestinationspar {(si, ti)}, vad är nätverkets maximala kapacitet genomströmning, dvs. Hur snabbt data från källorna till motsvarande destinationer kan överföras i nätet? (ii) Kan nätverksprotokoll utformas som tillsammans leder paketen och schemaöverföringarna till hastigheter som ligger nära maximal kapacitet för överföring? Mycket av det tidigare arbetet fokuserade på slumpmässiga fall och visade analytiska lägre och övre gränser för maximal genomströmningskapacitet. Här ser vi däremot godtyckliga trådlösa nätverk. Vidare studerar vi de algoritmiska aspekterna av ovanstående frågor: målet är att utforma bevisligen bra algoritmer för godtyckliga fall. Vi utvecklar analytiska prestandautvärderingsmodeller och distribuerade algoritmer för * Arbetet stöds av Institutionen för energi under routing och schemaläggning som inkluderar rättvisa, energi och dilatation (path-long) krav och ger en enhetlig ram för att utnyttja nätverket nära sin maximala kapacitet. Motiverade av vissa populära trådlösa protokoll som används i praktiken, utforskar vi också "kortaste sökvägen som" strategier för val av sökväg som maximerar nätverkets dataflöde. De teoretiska resultaten tyder naturligtvis på en intressant klass av trängselmedvetna länkmått som kan direkt anslutas till flera befintliga routingprotokoll såsom AODV, DSR, etc. Vi kompletterar den teoretiska analysen med omfattande simuleringar. Resultaten tyder på att de rutter som erhålls med hjälp av våra länkmått som är medvetna om trängsel genomgående ger högre genomströmning än humleräkningsbaserade kortaste vägmått. | Arbetet av REF ger en konstant approximation algoritm för genomströmning maximering problem tillsammans med gemensam schemaläggning och routing. | 14,773,410 | Algorithmic aspects of capacity in wireless networks | {'venue': "SIGMETRICS '05", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,870 |
Vi anser en ändring av kovariansfunktionen i Gaussiska processer för att korrekt redovisa kända linjära operatörsbegränsningar. Genom att modellera målfunktionen som en omvandling av en underliggande funktion, inkorporeras begränsningarna uttryckligen i modellen så att de garanterat kommer att uppfyllas genom varje urval eller förutsägelse som görs. Vi föreslår också ett konstruktivt förfarande för att utforma transformationsoperatören och illustrera resultatet på både simulerade och verkliga dataexempel. Vi anser en ändring av kovariansfunktionen i Gaussiska processer för att korrekt redovisa kända linjära operatörsbegränsningar. Genom att modellera målfunktionen som en omvandling av en underliggande funktion, inkorporeras begränsningarna uttryckligen i modellen så att de garanterat kommer att uppfyllas genom varje urval eller förutsägelse som görs. Vi föreslår också ett konstruktivt förfarande för att utforma transformationsoperatören och illustrera resultatet på både simulerade och verkliga dataexempel. | Nyligen har en ny metod baserad på en ändring av kovariansfunktionen i Gaussiska processer för att korrekt redovisa kända linjära begränsningar utvecklats i REF. | 6,587,313 | Linearly constrained Gaussian processes | {'venue': 'NIPS', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 4,871 |
Kodkloning antas inte bara blåsa upp underhållskostnader utan också anses defekt-bene som inkonsekventa ändringar av kod dubbletter kan leda till oväntat beteende. Följaktligen har identifieringen av duplikat av kod, klondetektering, varit ett mycket aktivt forskningsområde under de senaste åren. Hittills har det dock inte gjorts någon omfattande undersökning av konsekvenserna av kodkloning för programmens korrekthet. För att avhjälpa denna brist presenterar detta dokument resultaten av en omfattande fallstudie som genomfördes för att ta reda på om inkonsekventa ändringar av klonad kod kan tyda på fel. För de analyserade kommersiella och öppna källkodssystem vi inte bara fann att inkonsekventa förändringar av kloner är mycket frekventa men också identifierade ett betydande antal fel som orsakas av sådana förändringar. Klondetekteringsverktyget som används i fallstudien implementerar en ny algoritm för att upptäcka inkonsekventa kloner. Det finns som öppen källkod för att andra forskare ska kunna använda det som grund för ytterligare undersökningar. | Juergens m.fl. REF studerade kloners påverkan på storskaliga kommersiella system och föreslog att inkonsekventa förändringar sker ofta med klonad kod och nästan varannan oavsiktlig inkonsekventa förändring till en klon leder till ett fel. | 6,196,921 | Do Code Clones Matter? | {'venue': "Proc. 31st International Conference on Software Engineering (ICSE '09). IEEE, 2009", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,872 |
Vi föreslår ett hierarkiskt nätverk för dokumentklassificering. Vår modell har två distinkta egenskaper: i) den har en hierarkisk struktur som speglar dokumentens hierarkiska struktur; ii) den har två nivåer av uppmärksamhetsmekanismer som tillämpas på ord- och meningsnivå, vilket gör det möjligt för den att delta på olika sätt till mer och mindre viktigt innehåll när man konstruerar dokumentrepresentationen. Experiment som utförs på sex storskaliga textklassificeringsuppgifter visar att den föreslagna arkitekturen överträffar tidigare metoder med stor marginal. Visualisering av uppmärksamhetsskikten visar att modellen väljer kvalitativt informativa ord och meningar. | En hierarkisk neural arkitektur föreslogs av REF, vars struktur speglar den hierarkiska strukturen av dokument. | 6,857,205 | Hierarchical Attention Networks for Document Classification | {'venue': 'HLT-NAACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,873 |
I detta dokument diskuteras begreppet överföring i samband med förstärkning av inlärningsuppgifter. Sammanhangsöverföring, enligt definitionen i detta dokument, innebär kunskapsöverföring mellan käll- och måluppgifter som delar samma miljödynamik och belöningsfunktion men har olika tillstånd eller handlingsytor. Med andra ord lär sig agenterna samma uppgift samtidigt som de använder olika sensorer och ställdon. Detta kräver att det finns en underliggande gemensam Markov-beslutsprocess (MDP) till vilken alla agenternas MDP kan kartläggas. Detta är formulerat i termer av begreppet MDP homomorfism. Läranderamen är -lärande. För att överföra kunskapen mellan dessa uppgifter används funktionsutrymmet som översättare och uttrycks som en partiell kartläggning mellan stat-aktionsutrymmena för olika uppgifter. De - värden som man lärt sig under inlärningsprocessen av källuppgifterna är kartlagda till uppsättningarna av - värden för måluppgiften. Dessa överförda värden slås samman och används för att initiera inlärningsprocessen av måluppgiften. Ett intervallbaserat tillvägagångssätt används för att representera och sammanföra kunskaperna om källuppgifterna. Empiriska resultat visar att den överförda initieringen kan vara till nytta för inlärningsprocessen av måluppgiften. | Mousavi m.fl. I REF diskuterades begreppet överförande i samband med förstärkning av inlärningsuppgifter. | 11,560,206 | Context Transfer in Reinforcement Learning Using Action-Value Functions | {'venue': 'Computational Intelligence and Neuroscience', 'journal': 'Computational Intelligence and Neuroscience', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 4,874 |
Kritisk för förståelsen av den genetiska grunden för komplexa sjukdomar är modellering av mänsklig variation. De flesta av dessa variationer kan karakteriseras av enstaka nukleotidpolymorfismer (SNPs) som är mutationer på en enda nukleotid position. För att karakterisera den genetiska variationen mellan olika människor måste vi bestämma en individs haplotyp eller vilken nukleotidbas som förekommer vid varje position av dessa gemensamma SNP:er för varje kromosom. I detta dokument presenterar vi resultat för en mycket exakt metod för haplotypeupplösning från genotypdata. Vår metod utnyttjar en ny insikt i den underliggande strukturen av haplotyper som visar att SNPs är organiserade i högt korrelerade "block". I några nyligen genomförda studier (se Daly et al. (2001); Patil m.fl. (2001) ), stora delar av det mänskliga genomet delades upp i block, så att majoriteten av de sekvenserade genotyperna har en av ungefär fyra vanliga haplotyper i varje block. Vår metod partitionerar SNP:erna i block och för varje block förutser vi de vanliga haplotyperna och varje individs haplotyp. Vi utvärderar vår metod över biologiska data. Vår metod förutspår de vanliga haplotyperna perfekt och har en mycket låg felfrekvens (mindre än ¢ ¡ över data från Daly et al. (2001).).)......................................................................................................................... när man tar hänsyn till förutsägelserna för de mindre vanliga haplotyperna. Vår metod är extremt effektiv jämfört med tidigare metoder, såsom PHASE och HAPLOTYPER. Dess effektivitet gör det möjligt för oss att hitta blockpartitionen av haplotyperna, att hantera saknade data och att arbeta med stora datamängder. Tillgänglighet: Algoritmen är tillgänglig via webbserver på | Den ojämna fördelningen av haplotyper i ett block visas i tabell 1 REF. | 9,549,931 | Haplotype reconstruction from genotype data using imperfect phylogeny | {'venue': 'Bioinformatics', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Biology', 'Medicine']} | 4,875 |
Överföringsinlärning är en agents förmåga att tillämpa kunskap som han lärt sig i tidigare uppgifter på nya problem eller domäner. Vi närmar oss detta problem genom att fokusera på modellformulering, d.v.s. hur man går från den ostyriga, breda uppsättning av begrepp som används i vardagen till en koncis, formell vokabulär av abstraktioner som kan användas effektivt för problemlösning. Denna uppsats beskriver hur Companions kognitiva arkitektur använder analogisk modellformulering för att lära sig att lösa AP-fysikproblem. Vårt system börjar med några grundläggande matematiska färdigheter, en bred sunt förnuft ontologi, och några kvalitativa mekanik, men inga ekvationer. Vårt system använder fungerande lösningar för att lära sig att använda ekvationer och modelleringsantaganden för att lösa AP-fysikproblem. Vi visar att denna process av analogisk modellformulering kan underlätta inlärning över en rad olika typer av överföring, i ett experiment som administreras av Educational Testing Service. | REF beskriver ett system som lär sig genom att samla exempel för att lösa AP fysikproblem inom samma domän. | 8,133,445 | Measuring the level of transfer learning by an AP physics problem-solver | {'venue': 'AAAI', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,876 |
ABSTRACT Förutsägelse om lånestatus är ett effektivt verktyg för investeringsbeslut på peer-to-peer (P2P) utlåningsmarknaden. På P2P-lånemarknaden uppfyller de flesta låntagare återbetalningsplanen, men några av dem underlåter att betala tillbaka sina lån. Därför kan en obalanserad klassificeringsmetod användas för att diskriminera sådana förfallna låntagare. I detta sammanhang är syftet med detta dokument att föreslå en modell för investeringsbeslut på P2P:s utlåningsmarknad som består av fullt utbetalda lån som klassificeras via den instansbaserade entropy fuzzy support vektormaskinen (IEFSVM). IEFSVM är en modifierad version av den befintliga entropy fuzzy stödvektorn (EFSVM) i form av ett instansbaserat system. IEFSVM kan återspegla mönstret av närmaste grannar entropi med avseende på förändringen av dess storlek i stället för att fixa den i enhetlig grannskap storlek. Därför, IEFSVM tillåter klassbyte av närmaste grannar i fastställandet av fuzzy medlemskap. Genom att tillämpa modellen på låneklubbens dataset bestämmer vi vilka lån som förväntas vara helt betalda. Sedan tillhandahåller vi också en flergradig regressionsmodell för att generera en investeringsportfölj baserad på icke-standardlån som förväntas ge hög avkastning. Under hela försöket visar de empiriska resultaten att IEFSVM överträffar inte bara EFSVM utan även de sex andra toppmoderna klassificeringarna, inklusive den kostnadskänsliga adaptiva förbättringen, den kostnadskänsliga slumpmässiga skogen, EasyEnsemble, den slumpmässiga undersamplingshöjande, viktade extrema inlärningsmaskinen och den kostnadskänsliga extrema gradienthöjningen när det gäller klassificering av lånestatus. Dessutom är investeringsresultatet för flera regressionsmodeller med hjälp av IEFSVM högre och mer robust än för två andra referensvärden. I detta avseende drar vi slutsatsen att den föreslagna investeringsmodellen är en anständig och praktisk strategi för att stödja beslut på P2P-lånemarknaden. INDEX TERMS Entropy, stöd vektor maskiner, ekonomisk förvaltning, beslutsstöd system, peer-to-peer utlåning. | Som en praktisk tillämpning av IEFSVM, Cho et al. Ref föreslog modellen för investeringsbeslut genom att bygga en portfölj baserad på IEFSVM. | 61,810,541 | Application of Instance-Based Entropy Fuzzy Support Vector Machine in Peer-To-Peer Lending Investment Decision | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 4,877 |
Moderna datorsystem har byggts runt antagandet att ihållande lagring nås via ett långsamt, blockbaserat gränssnitt. Ny byte-adresserbar, ihållande minnesteknik såsom fasändringsminne (PCM) ger dock snabb, finkornig tillgång till ihållande lagring. I det här dokumentet presenterar vi ett filsystem och en maskinvaruarkitektur som är utformad kring egenskaperna hos ihållande, byteadresserbart minne. Vårt filsystem, BPFS, använder en ny teknik som kallas kortslutning skuggsökning för att ge atomära, finkorniga uppdateringar till ihållande lagring. Som ett resultat av detta ger BPFS starka tillförlitlighetsgarantier och ger bättre prestanda än traditionella filsystem, även när båda körs ovanpå byte-adresserbara, ihållande minne. Vår maskinvaruarkitektur upprätthåller atomitet och beställa garantier som krävs av BPFS samtidigt som prestandafördelarna med L1 och L2 caches. Eftersom dessa minnestekniker ännu inte är allmänt tillgängliga, utvärderar vi BPFS på DRAM mot NTFS på både en RAM-disk och en traditionell disk. Sedan använder vi mikroarchitectural simuleringar för att uppskatta BPFS prestanda på PCM. Trots starka säkerhets- och konsekvensgarantier är BPFS på DRAM dubbelt så snabbt som NTFS på en RAM-disk och 4-10 gånger snabbare än NTFS på disk. Vi visar också att BPFS på PCM bör vara betydligt snabbare än ett traditionellt diskbaserat filsystem. | Kondit m.fl. presenterade ett filsystem och en hårdvara arkitektur för att ge atomära, finkorniga uppdateringar för ihållande, byte adresserbara minne REF. | 14,423 | Better I/O through byte-addressable, persistent memory | {'venue': "SOSP '09", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,878 |
Abstrakt. Vi anser att inlärningsproblemet när det gäller att erhålla utbildningsetiketter är kostsamt, vilket vanligtvis tas upp i litteraturen med hjälp av teknik för aktivt lärande. Dessa metoder ger strategier för att välja exempel att märka före eller under utbildningen. Dessa strategier är vanligtvis baserade på heuristik eller till och med teoretiska åtgärder, men är inte lärda eftersom de används direkt under utbildningen. Vi utformar en modell som syftar till att lära sig strategier för aktivt lärande med hjälp av meta-lärande. Mer specifikt överväger vi en pool-baserad inställning, där systemet observerar alla exempel på datauppsättningen av ett problem och måste välja delmängd av exempel för att märka på ett enda skott. Experiment visar uppmuntrande resultat. | Ref kombinerade meta-lärande och aktivt lärande för att lära sig en strategi för aktivt lärande. | 32,258,425 | A Meta-Learning Approach to One-Step Active Learning | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 4,879 |
Batch Normalization (BN) är en milstolpe teknik i utvecklingen av djupt lärande, vilket gör det möjligt för olika nätverk att träna. Men normalisera längs batch dimension introducerar problem -BN fel ökar snabbt när batch storlek blir mindre, orsakas av felaktig batch statistik uppskattning. Detta begränsar BN:s användning för utbildning av större modeller och överföring av funktioner till datorseende uppgifter, inklusive upptäckt, segmentering och video, som kräver små partier som begränsas av minnesförbrukning. I detta dokument presenterar vi Group Normalization (GN) som ett enkelt alternativ till BN. GN delar upp kanalerna i grupper och beräknar inom varje grupp medelvärdet och variansen för normalisering. GN:s beräkning är oberoende av batchstorlekar, och dess noggrannhet är stabil i ett brett spektrum av batchstorlekar. På ResNet-50 tränas i ImageNet, GN har 10,6 % lägre fel än sin BN motsvarighet när man använder en satsstorlek på 2; när man använder typiska satsstorlekar, GN är jämförelsevis bra med BN och överträffar andra normaliseringsvarianter. Dessutom kan GN naturligt överföras från förutbildning till finjustering. GN kan överträffa sina BN-baserade motsvarigheter för objektdetektering och segmentering i COCO, 1 och för videoklassificering i Kinetics, vilket visar att GN effektivt kan ersätta den kraftfulla BN i en mängd olika uppgifter. GN kan enkelt implementeras med några rader kod i moderna bibliotek. | Gruppnormalisering (GN) REF delar kanaldimensionen i grupper och normaliserar funktionerna i varje grupp. | 4,076,251 | Group Normalization | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 4,880 |
Förmågan att planera och utföra målspecifika åtgärder i varierande och osynliga miljöer är ett centralt krav för intelligenta agenter. I detta dokument undersöker vi hur en agent kan utrustas med en intern modell av dynamiken i den yttre världen, och hur den kan använda denna modell för att planera nya åtgärder genom att köra flera interna simuleringar ("visuell fantasi"). Våra modeller bearbetar direkt rå visuell input, och använder en ny objekt-centrerad förutsägelse formulering baserad på visuella glimtar centrerad på objekt (fixeringar) för att genomdriva translationell invarians av de inlärda fysiska lagarna. Agenten tränar sig själv genom slumpmässig interaktion med en samling av olika miljöer, och den resulterande modellen kan sedan användas för att planera målinriktade åtgärder i nya miljöer som agenten tidigare aldrig stött på. Vi visar att vår agent kan exakt planera åtgärder för att spela en simulerad biljard spel, vilket kräver att skjuta en boll i en målposition eller i kollision med en annan boll. | Fragidaki m.fl. REF integrerar modellen för extern dynamik inom agenten för att spela simulerade biljardspel. | 6,981,893 | Learning Visual Predictive Models of Physics for Playing Billiards | {'venue': 'ICLR 2016', 'journal': 'arXiv: Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 4,881 |
Motivering: År 2012, Iqbal et al. införa den färgade de Bruijn grafen, en variant av den klassiska de Bruijn grafen, som syftar till att "detektera och genotypa enkla och komplexa genetiska varianter i en individ eller population". Eftersom de är avsedda att tillämpas på massiva uppgifter på befolkningsnivå är det viktigt att diagrammen representeras på ett effektivt sätt. Tyvärr är aktuella koncisa de Bruijn graf representationer inte direkt tillämpliga på den färgade de Bruijn grafen, som kräver ytterligare information för att kortfattat kodas samt stöd för icke-standard traversala operationer. Resultat: Vår datastruktur minskar dramatiskt mängden minne som krävs för att lagra och använda den färgade de Bruijn-grafen, med en del straff för att köra, vilket gör att den kan tillämpas i mycket större och mer ambitiösa sekvensprojekt än vad som tidigare varit möjligt. Tillgänglighet och genomförande: https://github.com/cosmo-team/cosmo/tree/VARI | Slutligen är Vari REF och Rainbowfish [1] båda minneseffektiva datastrukturer för lagring av den färgade de Bruijn-grafen. | 3,758,860 | Succinct colored de Bruijn graphs | {'venue': None, 'journal': 'Bioinformatics', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 4,882 |
Abstract-Concurrent data strukturer ger möjlighet att flertrådade program för att dela data. Datastrukturer levereras med en uppsättning fördefinierade operationer, som specificeras av semantiken i datastrukturen. I litteraturen och i flera samtida allmänt använda programmeringsmiljöer har begreppet iteration införts för insamling av datastrukturer, som en bulkoperation som förbättrar den inhemska verksamheten. Iterationer i flera av dessa sammanhang har behandlats som sekventiella till sin natur och kan ge svaga konsekvensgarantier när de körs samtidigt med den inhemska verksamheten i datastrukturerna. I detta arbete studerar vi iterationer i samtidiga datastrukturer i samband med samstämmighet med den inhemska verksamheten och de garantier som de ger. Förutom linjärisering föreslår vi en uppsättning konsekventa specifikationer för sådan bulkverksamhet, bland annat genom att bygga vidare på Lamports systematiska definitioner av register. Dessutom, genom att använda köer och sammansatta register som fallstudier av underliggande objekt, tillhandahåller vi en uppsättning konstruktioner av iteration verksamhet, uppfyller egenskaperna och visar inneslutning relationer. Förutom avvägningen mellan överensstämmelse och genomströmning, pekar vi ut och studerar avvägningen mellan overhead av bulkverksamheten och eventuellt stöd (hjälp) av den inhemska verksamheten i datastrukturen. | Nikolakopoulos m.fl. Ref beaktade olika överensstämmelsespecifikationer för iteratorer för samtidiga datastrukturer. | 15,907,128 | A Consistency Framework for Iteration Operations in Concurrent Data Structures | {'venue': '2015 IEEE International Parallel and Distributed Processing Symposium', 'journal': '2015 IEEE International Parallel and Distributed Processing Symposium', 'mag_field_of_study': ['Computer Science']} | 4,883 |
Föreslå en förbättring av IP-tjänsten för bästa möjliga ansträngning, alternativ bästa insats (ABE), som bygger på idén att ge låg fördröjning på bekostnad av kanske mindre genomströmning. Motiveringen till en sådan tjänst är tvåfaldig. För det första finns det nu interaktiva multimediaapplikationer som presterar väl över ett brett spektrum av förlust- och genomströmningsförhållanden [1, 2], men för vilka fördröjningen ofta förblir det största hindret [3]. För det andra, till skillnad från differentierade tjänster, skulle vi vilja utforma en tjänst där det inte krävs att man övervakar hur mycket trafik som använder den låga fördröjningskapaciteten, för att behålla den operativa enkelheten i ett enklassigt nätverk. Artikeln är organiserad enligt följande. Vi definierar ABE-tjänsten och analyserar dess konsekvenser. I synnerhet identifierar vi och diskuterar den centrala frågan, som kallas grönt, skadar inte blått. Vi diskuterar också migreringsfrågor från den traditionella IP-tjänsten (lågt bästa insats) till ABE. Som ett bevis på konceptet beskrivs en routerimplementering, som bygger på kombinationen av en schemaläggare som kallas dubblett schemaläggning med deadlines (DSD) och en traditionell kontrollslinga. Implementeringar gjordes i Linuxkärnan, i Dummynet-nätverkets emulator och i ns-2-simulatorn [4]. Simuleringsresultat från genomförandet av ns-2 visas. Vi granskar relaterat arbete och position ABE med avseende på andra förslag inom differentierade tjänster. ABE definieras enligt följande: • ABE-paketen är märkta antingen gröna eller blå. 1 • Gröna paket får en låg begränsad fördröjning vid varje humle. Realistiska värden av den per-hop-fördröjningen diskuteras senare i detta avsnitt. • Grön skadar inte blått: Om någon källa beslutar att markera några av sina paket grönt snarare än blått, kvaliteten på tjänsten (fördröjning och genomströmning) som mottagits av källor som markerar alla sina paket blått förblir densamma eller blir bättre. Denna definition preciseras senare. • Alla ABE paket tillhör en enda bästa insats klass. Om den totala belastningen är hög, kan varje källa få lite genomströmning. Men helt blå källor upplever mer genomströmning än helt gröna källor som delar samma nätverksresurser. Vi föreslår alternativa bästa insatser (ABE), en ny tjänst för IP-nät, som bygger på idén att ge låg fördröjning på bekostnad av kanske mindre genomströmning. Målet är att behålla enkelheten i den ursprungliga Internet en klass bästa-ansträngning service samtidigt som det ger låg fördröjning till interaktiva adaptiva applikationer. Med ABE markeras varje bästa insatspaket som antingen grönt eller blått. Gröna paket garanteras en låg begränsad fördröjning i varje router. I utbyte är det mer sannolikt att gröna förpackningar släpps (eller märks med hjälp av anmälan om överbelastning) under perioder av trängsel än blå förpackningar. För varje paket, valet av färg görs av programmet baserat på arten av sin trafik och på globala trafikförhållanden. Vanligtvis, ett interaktivt program med realtidsdeadlines, såsom ljud, kommer att markera de flesta av sina paket som gröna, så länge nätverksförhållandena erbjuder tillräckligt stor genomströmning. Däremot, ett program som överför binära data såsom bulk dataöverföring kommer att försöka minimera den totala överföringstiden och skicka blå trafik. Vi föreslår routerkrav som syftar till att genomdriva fördelar för alla typer av trafik, nämligen att grön trafik uppnår låg fördröjning och blå trafik får minst lika mycket genomströmning som det skulle i ett platt (legacy) bästa insatsnätverk. ABE skiljer sig från differentierade eller integrerade tjänster genom att varken paketfärg kan sägas få bättre behandling, vilket innebär att schablonprissättning kan upprätthållas, och det finns inget behov av reservationer eller profiler. I denna artikel definierar vi ABE-tjänsten, dess krav, egenskaper och användning. Vi diskuterar konsekvenserna av att ersätta den befintliga IP-tjänsten med ABE-tjänsten. Vi föreslår och analyserar ett genomförande baserat på en ny schemaläggningsmetod som kallas dubblett schemaläggning med deadlines. Den stöder alla blandningar av TCP, TCP-vänlig och icke-TCP-vänlig trafik. | Den alternativa tjänsten Best-Effort (ABE, REF ) tillhandahåller servicedifferentiering för två trafikklasser. | 11,747,274 | ABE: Providing a Low-Delay Service within Best Effort | {'venue': None, 'journal': 'IEEE Network', 'mag_field_of_study': ['Computer Science']} | 4,884 |
Två framväxande maskinvarutrender kommer att dominera databassystemets teknik inom en snar framtid: att öka den huvudsakliga minneskapaciteten för flera TB per server och massivt parallell flerkärnig bearbetning. Många algoritmiska och styrtekniker inom aktuell databasteknik utformades för diskbaserade system där I/O dominerade prestandan. I detta arbete tar vi en ny titt på den välkända sort-sammanfogning som hittills inte har varit i fokus för forskning i skalbar parallell multi-core databehandling eftersom det ansågs sämre att hash går med. Vi utformar en svit av ny massivt parallell sort-sammanfogning (MPSM) gå algoritmer som är baserade på partiell partition-baserad sortering. I motsats till klassisk sort-sammanslagning går, våra MPSM algoritmer inte förlita sig på en svår att parallellisera slutliga sammanfogning steg för att skapa en komplett sortering ordning. Snarare arbetar de på de självständigt skapade löper parallellt. På så sätt är våra MPSM-algoritmer NUMA-affin eftersom all sortering utförs på lokala minnespartitioner. En omfattande experimentell utvärdering av en modern 32-kärnig maskin med en tbc av huvudminnet bevisar MPSM:s konkurrenskraftiga prestanda på stora huvudminnesdatabaser med miljarder objekt. Det skalar (nästan) linjärt i antalet anställda kärnor och klart överträffar konkurrerande hash gå med i förslag -i synnerhet det överträffar den "skärkant" Vectorwise parallell frågemotor med en faktor av fyra. | Albutiu m.fl. REF utformade MPSM, en NUMAaware sort-sammanfogning gå algoritm. | 1,084,527 | Massively Parallel Sort-Merge Joins in Main Memory Multi-Core Database Systems | {'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']} | 4,885 |
Stilöverföring är en viktig uppgift där stilen på en källbild är kartlagd på en målbild. Metoden är användbar för att syntetisera härledda verk av en viss konstnär eller specifik målning. Detta arbete avser riktad stil överföring, där stilen på en mall bild används för att ändra endast en del av en målbild. En konstnär kan till exempel vilja ändra stilen på endast ett visst objekt i en målbild utan att ändra objektets allmänna morfologi eller omgivning. Detta är användbart, till exempel, i augmented reality program (såsom nyligen släppt Pokémon gå), där man vill ändra utseendet på en enda verklig objekt i en bildram för att få det att visas som en tecknad. Framför allt har återgivningen av verkliga objekt till tecknade karaktärer använts i ett antal filmer och TV-program, såsom den kommande serien Son of Zorn. Vi presenterar en metod för riktad stil överföring som samtidigt segment och stiliserar enstaka objekt som valts av användaren. Metoden använder en Markov slumpmässig fältmodell för att jämna ut och anti-alias yttre pixlar nära objektgränser, så att stiliserade objekt naturligt smälter in i sin omgivning. | Denna teknik är användbar för syntetisering eller överföring av härledda verk av en viss konstnär, specifik målning och bilder REF. | 7,504,701 | Son of Zorn's Lemma: Targeted Style Transfer Using Instance-aware Semantic Segmentation | {'venue': 'ICASSP 2017', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,886 |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.