src
stringlengths 100
134k
| tgt
stringlengths 10
2.25k
| paper_id
int64 141
216M
| title
stringlengths 9
254
| discipline
stringlengths 67
582
| __index_level_0__
int64 0
83.3k
|
---|---|---|---|---|---|
Mobila ad hoc-nätverk (MANET) är en grupp mobila noder som kommunicerar med varandra utan någon stödjande infrastruktur. Routing i MANET är extremt utmanande på grund av MANETS dynamiska funktioner, dess begränsade bandbredd och kraftenergi. Naturinspirerade algoritmer (varm intelligens) såsom myrkolonioptimering (ACO) algoritmer har visat sig vara en bra teknik för att utveckla routing algoritmer för MANETS. Swarm Intelligence är en beräkningsbaserad intelligensteknik som involverar ett kollektivt beteende hos autonoma agenter som lokalt interagerar med varandra i en distribuerad miljö för att lösa ett givet problem i hopp om att hitta en global lösning på problemet. I detta dokument föreslår vi en hybrid routing algoritm för MANETS baserat på ACO och zon routing ram för gränssändning. Algoritmen, HOPNET, baserad på myror hoppar från en zon till nästa, består av den lokala proaktiva rutt upptäckt inom en nod område och reaktiv kommunikation mellan kvarteren. Algoritmen har funktioner extraherade från ZRP och DSR protokoll och simuleras på GlomoSim och jämförs med AODV routing protokoll. Algoritmen jämförs också med den välkända hybrid routing algoritmen, AntHocNet, som inte är baserad på zon routing ram. Resultaten visar att HOPNET är mycket skalbart för stora nätverk jämfört med AntHocNet. Resultaten visar också att valet av zonradie har betydande inverkan på leveranspaket förhållandet och HOPNET presterar betydligt bättre än AntHocNet för hög och låg rörlighet. Algoritmen har jämförts med slumpmässig vägpunktsmodell och slumpmässig full modell och resultaten visar effektiviteten och ineffektiviteten i gränssändning. Slutligen jämförs HOPNET med ZRP och styrkan i naturinspirerad algoritm visas. | Wang m.fl. Markerad routing metod HOPNET REF, baserad på ZRP och DSR, med kombinationen av Ant Colony Optimization. | 13,553,414 | HOPNET: A hybrid ant colony optimization routing algorithm for mobile ad hoc network | {'venue': 'Ad Hoc Networks', 'journal': 'Ad Hoc Networks', 'mag_field_of_study': ['Computer Science']} | 4,378 |
Hur kan vi förklara förutsägelserna om en svart låda modell? I denna uppsats använder vi influensfunktioner - en klassisk teknik från robust statistik - för att spåra en modells förutsägelse genom inlärningsalgoritmen och tillbaka till dess träningsdata och därmed identifiera utbildningspunkter som är mest ansvariga för en given förutsägelse. För att skala upp påverkan funktioner till moderna maskininlärningsinställningar, utvecklar vi en enkel, effektiv implementation som kräver endast oracle tillgång till gradienter och hessiska-vektor produkter. Vi visar att även på icke-konvexa och icke-differentierbara modeller där teorin bryts ner kan approximationer för att påverka funktioner fortfarande ge värdefull information. På linjära modeller och konvolutionella neurala nätverk, visar vi att influensfunktioner är användbara för flera ändamål: att förstå modellbeteende, debugging modeller, upptäcka dataset fel, och även skapa visuellt oskiljaktiga tränings-set attacker. | Koh och Liang REF använder t.ex. andra ordningens approximationer av influensdiagram för att spåra varje modells förutsägelse genom en inlärningsalgoritm tillbaka till träningsdata i 4 för att identifiera utbildningsprover som är mest ansvariga för en viss förutsägelse. | 13,193,974 | Understanding Black-box Predictions via Influence Functions | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 4,379 |
Vi föreslår att använda andra order Reed-Muller (RM) sekvens för användaridentifiering i 5G bidragsfri åtkomst. Fördelarna med RM-sekvenser ligger främst i två veck, (i) stöd för mycket större användarutrymme, därav lägre kollisionsannolikhet och (ii) lägre detektion komplexitet. Dessa två funktioner är viktiga för att uppfylla den massiva anslutning (10 7 länkar/km 2 ), ultra-tillförlitlig och låg-latency krav i 5G, t.ex. en-shot överföring (≤ 1ms) med ≤ 10 −4 paket felfrekvens. Den icke-ortogonalitet som införs under sekvensrymdsexpansion leder dock till sämre detektionsprestanda. I detta dokument föreslår vi en bullertålig detektionsalgoritm tillsammans med en skiktad sekvenskonstruktion för att uppfylla de hårda kraven. Simuleringar på länknivå i både smalbands- och OFDM-baserade scenarier visar att RM-sekvenser är lämpliga för 5G. 1 Index Villkor-5G, Grant-free access, Reed-Muller Sequences, Internet of Things (IoT). | I REF, andra ordningen RM sekvenser åberopas för massiv åtkomst i 5G. | 23,938,059 | Reed-Muller Sequences for 5G Grant-Free Massive Access | {'venue': 'GLOBECOM 2017 - 2017 IEEE Global Communications Conference', 'journal': 'GLOBECOM 2017 - 2017 IEEE Global Communications Conference', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 4,380 |
Vi tar itu med problemet med klassificering i delvis märkta nätverk (alias. klassificering inom nätverket) där observerade klassetiketter är glesa. Tekniker för statistik relationell inlärning har visat sig utföra väl på nätverk klassificering uppgifter genom att utnyttja beroenden mellan klass etiketter av angränsande noder. Relationella klassificeringar kan dock misslyckas när omärkta noder har för få märkta grannar för att stödja lärande (under utbildningsfasen) och/eller slutledning (under testfasen). Denna situation uppstår i verkliga problem när observerade etiketter är glesa. I detta dokument föreslår vi en ny metod för klassificering inom nätverk som kombinerar aspekter av statistiskt relationsbaserat lärande och halvövervakat lärande för att förbättra klassificeringsprestandan i glesa nätverk. Vårt tillvägagångssätt fungerar genom att lägga till "ghost kanter" till ett nätverk, som möjliggör flödet av information från märkta till omärkta noder. Genom experiment på verkliga datamängder visar vi att vårt arbetssätt fungerar bra över en rad olika förhållanden där befintliga metoder, såsom kollektiv klassificering och halvövervakat lärande, misslyckas. På alla uppgifter förbättrar vårt tillvägagångssätt arean under ROC-kurvan (AUC) med upp till 15 poäng över befintliga tillvägagångssätt. Dessutom visar vi att vår strategi löper i tid proportionellt mot L · E, där L är antalet märkta noder och E är antalet kanter. | Den hänvisar, särskilt logForest, en logistisk modell baserad på länkar, wvRN, en relationell granne modell, SSL Gaussian slumpmässiga fältmodell, spökeEdge, kombination av statistisk relations lärande och semi-övervakad lärande för glesa nätverk och deras kollektiva klassificering kompletterar REF. | 1,625,479 | Using ghost edges for classification in sparsely labeled networks | {'venue': 'KDD', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,381 |
Detta papper presenterar en metod för automatisk sensorplacering för modellbaserad robotseende. I ett sådant synsystem behöver sensorn ofta flyttas från en pose till en annan runt föremålet för att observera alla intressanta egenskaper. Detta gör det möjligt att ta flera tredimensionella (3-D) bilder från olika synvinklar. Uppgiften innefattar bestämning av optimala sensorplaceringar och en kortaste väg genom dessa perspektiv. Under sensorplaneringen provtas objektfunktionerna på nytt som enskilda punkter kopplade till ytnormaler. Den optimala sensorplaceringskurvan uppnås genom en genetisk algoritm där ett min-max-kriterium används för utvärderingen. En kortaste väg bestäms av Christofides algoritm. En Viewpoint Planner är utvecklad för att generera planen sensorplacering. Den innehåller många funktioner, såsom 3D-animering av objektgeometrin, sensorspecifikation, initiering av synvinkeltalet och deras fördelning, perspektivutveckling, kortaste vägberäkning, scensimulering av en specifik synvinkel, parameterändring. Experiment utförs också på en riktig robot vision system för att visa effektiviteten av den föreslagna metoden. Index Terms-Christofides algoritm, hierarkisk genetisk algoritm, robotseende, sensorplacering, perspektiv. | REF föreslår automatisk sensorplacering av en genetisk algoritm för modellbaserad robotsyn. | 5,323,596 | Automatic sensor placement for model-based robot vision | {'venue': 'IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics)', 'journal': 'IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics)', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 4,382 |
Vi föreslår flera tekniker för att förbättra den statistiska maskinöversättningen mellan nära relaterade språk med knappa resurser. Vi använder tecken-nivå översättning utbildad på n-gram-tecken-justerade bitexts och stämda med ord-nivå BLEU, som vi ytterligare förstärker med tecken-baserad translitterering på ordnivå och kombinera med en ord-nivå översättningsmodell. Utvärderingen av makedonska-bulgariska filmtexter visar en förbättring av 2,84 BLEU-poäng över en frasbaserad ordnivå. | REF undersöker användningen av teckennivåmodeller i översättningen mellan makedonska och bulgariska filmtexter. | 7,447,330 | Combining Word-Level and Character-Level Models for Machine Translation Between Closely-Related Languages | {'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,383 |
Bayesian Belief Nets (BBNs) har visat sig vara en extremt kraftfull teknik för resonemang under osäkerhet. Vi har använt dem i en rad verkliga applikationer som handlar om att förutsäga egenskaper hos kritiska system. I de flesta av dessa applikationer är vi intresserade av ett enda attribut i systemet såsom säkerhet eller tillförlitlighet. Även om sådana BBNs ger viktigt stöd för beslutsfattande, under många omständigheter måste vi fatta beslut baserade på flera kriterier. Till exempel, en BBN för att förutsäga säkerheten i ett kritiskt system kan inte användas för att fatta ett beslut om huruvida systemet ska användas eller inte. Detta beror på att ett sådant beslut måste grundas på andra kriterier än enbart säkerhet (kostnad, politik och miljöfaktorer är uppenbara exempel). I sådana situationer måste BBN kompletteras med andra beslutstekniker, t.ex. de som gäller beslutsstöd med flera kriterier (MCDA). I denna artikel förklarar vi BBN:s roll i ett sådant beslutsfattande och beskriver ett generiskt beslutsförfarande som använder BBN och MCDA på ett kompletterande sätt. Förfarandet består i att identifiera mål och perspektiv för beslutsproblemet samt intressenterna. Detta leder i sin tur till en rad möjliga åtgärder, en uppsättning kriterier och begränsningar. Vi skiljer mellan osäkra och vissa kriterier. BBN länkar alla kriterier och gör det möjligt för oss att beräkna ett värde (inom vissa sannolikhetsfördelning i fallet med de osäkra kriterierna) för varje kriterium för en viss åtgärd. Detta innebär att vi kan tillämpa traditionella MCDA-tekniker för att kombinera värdena för en viss åtgärd och sedan rangordna uppsättningen åtgärder. De tekniker som beskrivs visas av verkliga exempel, bland annat ett exempel på säkerhetsbedömning som används av en större transportorganisation. | Som en del av sitt beslutsverktyg använde författarna i REF MCDA (flerkriteriebeslutsstöd) för att stödja ett beslut i en ansökan om kärnteknik. | 16,060,411 | Making Decisions: Using Bayesian Nets and MCDA | {'venue': 'Knowledge-Based Systems', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,384 |
Entity Linking (EL) har fått stor uppmärksamhet under de senaste åren. Med många namn som nämns i ett dokument är målet för EL att förutsäga deras referensenheter i en kunskapsbas. Traditionellt har det funnits två olika riktningar för EL-forskning: den ena fokuserar på effekterna av omnämnandets sammanhangskompatibilitet, förutsatt att "den referensenhet som nämns återspeglas i dess sammanhang", den andra handlar om effekterna av dokumentets ämneskonsistens, förutsatt att "ett omnämnandes referensenhet bör vara förenlig med dokumentets huvudämnen". I detta dokument föreslår vi en generativ modell - kallad enhetstopisk modell, för att effektivt förena de ovan nämnda två kompletterande riktningar tillsammans. Genom att gemensamt modellera och utnyttja kontextkompatibiliteten, ämneskonsekvensen och korrelationen mellan dem, kan vår modell på ett korrekt sätt koppla samman alla omnämnanden i ett dokument med hjälp av både den lokala informationen (inklusive orden och omnämnandena i ett dokument) och den globala kunskapen (inklusive ämneskunskapen, enhetens kontextkunskap och enhetens namnkunskap). Experimentella resultat visar hur effektiv den föreslagna modellen är. | Till exempel föreslår Ref en generativ enhet-topic modell som effektivt förenar sammanhangskompatibilitet och ämneskonsistens. | 564,684 | An Entity-Topic Model for Entity Linking | {'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,385 |
Abstract-De mobila WiMAX-systemen baserade på IEEE 802.16e-2005 ger hög datahastighet för det mobila trådlösa nätverket. Kopplingens kvalitet är dock ofta instabil på grund av långdistans- och luftstörningar och påverkar därför applikationer i realtid. Därför krävs att en bandbreddsalgoritm är moduleringsmedveten, samtidigt som den ytterligare uppfyller latency-garantin, servicedifferentiering och rättvisa. I detta arbete föreslås den högsta brådskande algoritmen (HUF) för att övervinna ovanstående utmaningar genom att beakta adaptiv modulering och kodningssystem (MCS) och hur brådskande begäran är. Downlink- och uplink-underramar bestäms genom att reservera bandbredden för de mest brådskande förfrågningarna och proportionera den återstående bandbredden för andra. Sedan, oberoende i nedlänken och upplänken, allokerar HUF bandbredden till varje mobilstation enligt en förberäknad U-faktor som tar hänsyn till brådska, prioritet och rättvisa. Simuleringsresultat visar att HUF är medveten om modulering och uppnår ovanstående tre mål, särskilt noll överträdelsefrekvensen inom systemkapaciteten samt genomströmningen parallellt med det bästa av de befintliga strategierna. | Yi-Neng Lin et al REF har föreslagit den högsta brådskande algoritmen (HUF) för att övervinna utmaningarna med det fysiska skiktet genom att ta hänsyn till adaptiv modulering, kodningssystem (MCS) och brådskande förfrågningar. | 2,890,792 | A Latency and Modulation Aware Bandwidth Allocation Algorithm for WiMAX Base Stations | {'venue': '2008 IEEE Wireless Communications and Networking Conference', 'journal': '2008 IEEE Wireless Communications and Networking Conference', 'mag_field_of_study': ['Computer Science']} | 4,386 |
Använda fokus på uppmärksamhet (FoA) som en perceptuell process i bild och video komprimering tillhör välkända metoder för att öka kodning effektivitet. Det har visat sig att foveated kodning, när komprimering kvalitet varierar mellan bilden beroende på region av intresse, är effektivare än den alternativa kodning, när alla regioner komprimeras på ett liknande sätt. Emellertid, utbredd användning av sådan foveated kompression har förhindrats på grund av två huvudsakliga motstridiga orsaker, nämligen komplexiteten och effektiviteten av algoritmer för FoA-detektion. Ett sätt runt dessa är att använda så mycket information som möjligt från scenen. Eftersom de flesta videosekvenser har ett tillhörande ljud, och dessutom, i många fall finns det en korrelation mellan ljud och visuellt innehåll, audiovisuella FoA kan förbättra effektiviteten i detektionsalgoritmen samtidigt som den förblir av låg komplexitet. I detta dokument diskuteras en enkel men effektiv audiovisuell FoA-algoritm baserad på korrelation av dynamik mellan ljud- och videosignalkomponenter. Resultat av audiovisuell FoA-detektionsalgoritm beaktas därefter för foveated kodning och kompression. Detta tillvägagångssätt genomförs i H.265/HEVC-enkoder som producerar en bitström som är helt kompatibel med alla H.265/HEVC-dekoder. Inverkan av audiovisuellt FoA i den upplevda kvaliteten på audiovisuella sekvenser med hög och ultrahög definition undersöks och mängden vinst i komprimeringseffektivitet analyseras. | Ett liknande tillvägagångssätt tillämpas på HD video komprimering i REF. | 2,511,938 | Audiovisual focus of attention and its application to Ultra High Definition video compression | {'venue': 'Electronic Imaging', 'journal': None, 'mag_field_of_study': ['Engineering', 'Computer Science']} | 4,387 |
Bakgrund: Biomedicinsk händelseextrahering är en av de mest framstående områdena inom biomedicinsk forskning. De två viktigaste deluppgifterna vid extraktion av biomedicinska händelser är identifiering och detektion av argument som båda kan betraktas som klassificeringsproblem. Men traditionella state-of-the-art metoder är baserade på stöd vektor maskin (SVM) med massiva manuellt utformade en-hot representerade funktioner, som kräver enormt arbete men saknar semantiska samband mellan ord. Metoder: I detta dokument föreslår vi en flera distribuerad representationsmetod för biomedicinsk händelseextraktion. Metoden kombinerar sammanhang som består av beroendebaserade ordinläggningar och uppgiftsbaserade funktioner som på ett distribuerat sätt representeras som indata från djupinlärningsmodeller för att utbilda modeller för djupinlärning. Slutligen använde vi softmax classifier för att märka exempelkandidaterna. Resultat: De experimentella resultaten på Multi-Level Event Extraction (MLEE) corpus visar högre F-poäng på 77. 97 % i utlösningsidentifiering och 58,31 % totalt sett jämfört med den senaste SVM-metoden. Slutsatser: Vår distribuerade representationsmetod för biomedicinsk händelseextraktion undviker problemen med semantisk klyfta och dimensionskatastrof från traditionella enhot representationsmetoder. De lovande resultaten visar att vår föreslagna metod är effektiv för biomedicinsk händelseextraktion. | Wang m.fl. REF använde uppgiftsbaserade funktioner som representerades på ett distribuerat sätt som bidrag från CNN-modeller för att utbilda modeller för fördjupat lärande. | 3,371,481 | A multiple distributed representation method based on neural network for biomedical event extraction | {'venue': 'BMC Medical Informatics and Decision Making', 'journal': 'BMC Medical Informatics and Decision Making', 'mag_field_of_study': ['Medicine', 'Computer Science']} | 4,388 |
Vi studerar distribuerad icke-konvex optimering på ett tidsvarierande multi-agent-nätverk. Varje nod har tillgång till sin egen smidiga lokala kostnadsfunktion, och det kollektiva målet är att minimera summan av dessa funktioner. Den perturbed push-sum algoritmen användes tidigare för konvex distribuerad optimering. Vi generaliserar resultatet som erhållits för konvexa fallet till fallet med icke-konvexa funktioner. Under några ytterligare tekniska antaganden om gradienterna bevisar vi konvergensen av den distribuerade push-sum algoritmen till någon kritisk punkt i den objektiva funktionen. Genom att utnyttja perturbationer på uppdateringsprocessen, visar vi den nästan säkra konvergensen av perturbed dynamik till ett lokalt minimum av den globala målfunktionen, om den objektiva funktionen har ingen sadelpoäng. Vår analys visar att denna perturbed procedur konvergerar i en takt av O(1/t). | I REF bevisade författarna konvergensen av perturbed push-sum för nonconvex (1) enligt vissa antaganden om regelbundenhet. | 28,045,514 | Non-Convex Distributed Optimization | {'venue': 'IEEE Transactions on Automatic Control', 'journal': 'IEEE Transactions on Automatic Control', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 4,389 |
Moderna arbetsstationer och servrar litar implicit på att hårddiskar fungerar som väluppfostrade blockenheter. Detta papper analyserar den katastrofala förlusten av säkerhet som uppstår när hårddiskar inte är tillförlitliga. För det första visar vi att det är möjligt att äventyra firmware för en kommersiell off-the-shelf hårddisk, genom att endast använda sig av offentlig information och omvänd teknik. Med hjälp av en sådan komprometterad firmware, presenterar vi en stealth rootkit som ersätter godtyckliga block från disken medan de skrivs, vilket ger en dataersättning bakdörr. Den uppmätta prestandan för den komprometterade diskettenheten är mindre än 1 % jämfört med en normal, ofarlig diskettenhet. Vi visar sedan att en fjärrangripare även kan etablera en kommunikationskanal med en komprometterad disk för att infiltrera kommandon och för att exfiltrera data. I vårt exempel är denna kanal etablerad över Internet till en omodifierad webbserver som förlitar sig på den komprometterade enheten för dess lagring, passerar genom den ursprungliga webbservern, databasserver, databaslagringsmotor, filsystemdrivrutin och blockera enhetsdrivrutin. Ytterligare experiment, utförda i en emulerad diskdrive-miljö, kunde automatiskt extrahera känsliga data som /etc/skugga (eller en hemlig nyckelfil) på mindre än en minut. Detta dokument hävdar att svårigheten att genomföra en sådan attack inte är begränsad till området för statliga cyberkrig; snarare är det väl inom räckhåll för måttligt finansierade brottslingar, botnet herders och akademiska forskare. | Liksom sina föregångare till hårddisken REF är den inbyggda programvaran på SSD:er sårbar för kompromisser oavsett om den är öppen eller stängd. | 4,653,492 | Implementation and implications of a stealth hard-drive backdoor | {'venue': "ACSAC '13", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,390 |
Med framgång för nya beräkningsarkitekturer för visuell bearbetning, såsom konvolutionella neurala nätverk (CNN) och tillgång till bilddatabaser med miljontals märkta exempel (t.ex., ImageNet, Platser), den senaste tekniken i datorseende utvecklas snabbt. En viktig faktor för fortsatta framsteg är att förstå de representationer som de inre skikten av dessa djupa arkitekturer lär sig. Här visar vi att objektdetektorer uppstår från att träna CNN:er för att utföra scenklassificering. Eftersom scener består av föremål, upptäcker CNN för scenklassificering automatiskt meningsfulla objekt detektorer, representativa för de lärda scenkategorierna. Med objektdetektorer som uppstår som ett resultat av att vi lär oss känna igen scener, visar vårt arbete att samma nätverk kan utföra både scenigenkänning och objektlokalisering i ett enda framåtpass, utan att någonsin uttryckligen ha lärt sig begreppet objekt. | Nyligen visade Zhou REF att CNN kan upptäcka meningsfulla objekt i klassificeringsuppgiften. | 8,217,340 | Object Detectors Emerge in Deep Scene CNNs | {'venue': 'ICLR 2015', 'journal': 'arXiv: Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 4,391 |
Undervisning spelar en mycket viktig roll i vårt samhälle, genom att sprida mänsklig kunskap och utbilda våra nästa generationer. En bra lärare kommer att välja lämpliga undervisningsmaterial, påverka lämpliga metoder, och sätta upp riktade examinationer, beroende på elevernas inlärningsbeteenden. Inom området artificiell intelligens har man emellertid inte utforskat lärarrollen fullt ut och ägnar mest uppmärksamhet åt maskininlärning. I detta dokument hävdar vi att lika uppmärksamhet, om inte mer, bör ägnas undervisning, och dessutom bör en optimeringsram (i stället för heuristik) användas för att få fram goda undervisningsstrategier. Vi kallar detta för "lärande att undervisa". I tillvägagångssättet interagerar två intelligenta agenter med varandra: en studentmodell (som motsvarar eleven i traditionella maskininlärningsalgoritmer) och en lärarmodell (som bestämmer lämplig data, förlustfunktion och hypotesutrymme för att underlätta utbildningen av studentmodellen). Lärarmodellen utnyttjar återkopplingen från studentmodellen för att optimera sina egna undervisningsstrategier genom att förstärka lärandet, för att uppnå lärar-evolution. För att visa det praktiska värdet av vårt föreslagna tillvägagångssätt, tar vi utbildningen av djupa neurala nätverk (DNN) som exempel, och visar att genom att använda inlärningen för att undervisa tekniker, kan vi använda mycket mindre träningsdata och färre iterationer för att uppnå nästan samma noggrannhet för olika typer av DNN modeller (t.ex. flera lager perceptron, konvolutionella neurala nätverk och återkommande neurala nätverk) under olika maskininlärning uppgifter (t.ex. bildklassificering och textförståelse). | Nyligen, REF föreslå en djup förstärkning lärande ramar där ett enkelt djupt neurala nätverk används för att adaptivt välja och filtrera viktiga data instanser från träningsdata. | 13,687,188 | Learning to Teach | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 4,392 |
Abstract-Middleboxar eller nätverk apparater som brandväggar, proxies och WAN optimizers har blivit en integrerad del av dagens ISP och företagsnätverk. Middlebox-funktioner används vanligtvis på dyr och egenutvecklad hårdvara som kräver utbildad personal för installation och underhåll. Middleboxar bidrar avsevärt till ett näts kapital- och driftskostnader. Dessutom kräver organisationer ofta att deras trafik passerar genom en specifik sekvens av mellanboxar för att uppfylla säkerhets- och prestationspolicyer. Detta gör installation och underhåll av mellanboxen ännu mer komplicerat. Nätverksfunktion Virtualization (NFV) är en framväxande och lovande teknik som är tänkt att övervinna dessa utmaningar. Den föreslår att pakethantering flyttas från dedikerade maskinvarumiddleboxar till programvara som körs på råvaruservrar. I NFV terminologi kallas programcentralboxar för Virtualized Network Functions (VNF). Det är ett utmanande problem att fastställa erforderligt antal och placering av VNF som optimerar nätdriftskostnader och utnyttjande, utan att bryta servicenivåavtal. Vi kallar detta VNF Orkestrering Problem (VNF-OP) och ge en Integer Linear Programmering (ILP) formulering med genomförande i CPLEX. Vi tillhandahåller också en dynamisk programmeringsbaserad heuristisk för att lösa större fall av VNF-OP. Spårdrivna simuleringar på verkliga nätverkstopologier visar att heurismen kan erbjuda lösningar som ligger inom 1,3 gånger den optimala lösningen. Våra experiment tyder på att en VNF-baserad metod kan ge mer än 4× minskning av driftskostnaderna för ett nätverk. | I REF bestämmer författarna antalet VNF som krävs och deras placering för att optimera OPEX samtidigt som man håller fast vid SLA med hjälp av en ILP, medan heuristik baserad på dynamisk programmering används för att lösa större fall av problemet. | 14,332,285 | On Orchestrating Virtual Network Functions in NFV | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 4,393 |
Abstrakt. Eftersom webbarbetsbelastningen är känd för att variera dynamiskt med tiden, hävdar vi i detta dokument att dynamiska resursfördelningstekniker är nödvändiga för att ge garantier för webbapplikationer som körs på delade datacenter. För att lösa detta problem använder vi en systemarkitektur som kombinerar onlinemätningar med förutsägelser och resursfördelningstekniker. För att fånga det övergående beteendet hos applikationen arbetsbelastningar, modellerar vi en serverresurs med hjälp av en tid-domän beskrivning av en generaliserad processordelning (GPS) server. Denna modell relaterar tillämpningsresurskraven till deras dynamiskt föränderliga arbetsbelastningsegenskaper. Parametrarna för denna modell uppdateras kontinuerligt med hjälp av en online-övervakning och förutsägelseram. Detta ramverk använder tidsserieanalystekniker för att förutsäga förväntade arbetsbelastningsparametrar från uppmätta systemmått. Vi använder sedan en begränsad icke-linjär optimeringsteknik för att dynamiskt fördela serverresurserna baserat på de uppskattade tillämpningskraven. Den största fördelen med våra tekniker är att de fångar det övergående beteendet hos applikationer samtidigt införliva icke-linjäritet i systemmodellen. Vi utvärderar våra tekniker med hjälp av simuleringar med såväl syntetisk som verklig webbarbetsbelastning. Våra resultat visar att dessa tekniker på ett klokt sätt kan fördela systemresurser, särskilt under övergående överbelastningsförhållanden. | REF-modellera en serverresurs som tillhandahåller flera applikationer som GPS-system och presenterar prognoser för arbetsbelastning online och optimeringsbaserade tekniker för dynamisk resursfördelning. | 13,824,382 | Dynamic Resource Allocation for Shared Data Centers Using Online Measurements | {'venue': "IWQoS'03", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,394 |
Konstruktiv Zermelo-Fraenkel set-teori, CZF, kan tolkas i Martin-Löf typteori via den så kallade propositions-as-types-tolkningen. Denna tolkning bekräftar dock mer än vad som kan bevisas i CZF. Vi frågar oss nu: finns det en ganska enkel axiomatisering (av några få axiom schemata säga) av de set-teoretiska formler som valideras i Martin-Löf typteori? Svaret är ja till en stor samling uttalanden som kallas de matematiska formlerna. De validerade matematiska formlerna kan axiomatiseras genom lämpliga former av valets axiom. | Rathjen och Tupailo REF gör en noggrann analys av tolkningen av CZF i Martin-Löf typteori, och frågan om vilka generella klasser av set-teoretiska påståenden som valideras i typteori. | 18,370,384 | Characterizing the interpretation of set theory in Martin-Löf type theory | {'venue': 'Ann. Pure Appl. Log.', 'journal': 'Ann. Pure Appl. Log.', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 4,395 |
Till skillnad från mänskligt lärande misslyckas maskininlärning ofta med att hantera förändringar mellan utbildning (källa) och test (mål) ingångsdistributioner. Sådana domänskiften, vanliga i praktiska scenarier, allvarligt skadar prestandan hos konventionella maskininlärningsmetoder. Övervakade metoder för domänanpassning har föreslagits för fallet när måldata har etiketter, inklusive några som fungerar mycket bra trots att de är "frustratingly lätt" att genomföra. I praktiken är dock måldomänen ofta omärkt, vilket kräver en oövervakad anpassning. Vi föreslår en enkel, effektiv och effektiv metod för oövervakad domänanpassning som kallas KORRELATION (CORAL). CORAL minimerar domänbytet genom att anpassa den andra ordningens statistik över käll- och målfördelningar, utan att kräva några målmärkningar. Även om det är utomordentligt enkelt-det kan genomföras i fyra rader av Matlab code-CORAL presterar anmärkningsvärt bra i omfattande utvärderingar på standardriktvärden dataset. "Allt ska göras så enkelt som möjligt, men inte enklare." | I REF föreslår författarna en oövervakad domänanpassning genom korrelationsanpassningen. | 16,439,870 | Return of Frustratingly Easy Domain Adaptation | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 4,396 |
Med hjälp av syntetiska data för utbildning av djupa neurala nätverk för robotisk manipulation håller löftet om en nästan obegränsad mängd förmärkta träningsdata, genererade säkert ur skadas väg. En av de viktigaste utmaningarna med syntetiska data har hittills varit att överbrygga den så kallade verklighetsklyftan, så att nätverk som är utbildade på syntetiska data fungerar korrekt när de utsätts för verkliga data. Vi utforskar verklighetsklyftan i samband med 6-DoF utgör uppskattning av kända objekt från en enda RGB-bild. Vi visar att reality gapet för detta problem kan framgångsrikt spännas över av en enkel kombination av domän randomiserade och fotorealistiska data. Med hjälp av syntetiska data som genereras på detta sätt, introducerar vi ett en-shot djupt neurala nätverk som kan utföra konkurrenskraftigt mot ett toppmodernt nätverk tränas på en kombination av verkliga och syntetiska data. Enligt vår kunskap är detta det första djupa nätverket tränas endast på syntetiska data som kan uppnå state-of-theart prestanda på 6-DoF objekt pose uppskattning. Vårt nätverk generaliserar också bättre till nya miljöer, inklusive extrema ljusförhållanden, där vi visar kvalitativa resultat. Med hjälp av detta nätverk demonstrerar vi ett realtidssystem som uppskattar objektet med tillräcklig noggrannhet för verklig semantisk greppning av kända hushållsföremål i röran av en riktig robot. | NVIDIA föreslog en metod REF för att spänna gapet genom en kombination av domän randomiserade och fotorealistiska data, denna datagenerering metod är den första som endast tränas på syntesdata som kan uppnå bra prestanda på pose estimering område. | 52,893,770 | Deep Object Pose Estimation for Semantic Robotic Grasping of Household Objects | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Engineering', 'Computer Science']} | 4,397 |
Denna uppsats presenterar en ny metod för automatiskt generera engelska ordförråd tester med TOEFL ordförrådsfrågor som modell. Engelska ordförrådsfrågor i TOEFL är en flervalsfråga som består av fyra komponenter: ett målord, ett läsavsnitt, ett korrekt svar och distraherare. Med tanke på ett målord skapar vi ett läsavsnitt från webbtexter som hämtas från Internet, och använder sedan det läsavsnittet och WordNet lexical lexical lexical för att generera frågealternativ, både rätt svar och distraktorer. Mänsklig utvärdering visade att 45 % av svaren från engelska lärare felaktigt bedömde de automatiskt genererade frågorna med den föreslagna metoden som mänskliga frågor. Dessutom fick hälften av de maskingenererade frågorna ett genomsnitt på mer än eller lika med 3 i fempunktsskala. Detta tyder på att våra maskingenererade frågor lyckades fånga vissa egenskaper hos de mänskliga frågorna, och hälften av dem kan användas för ett engelskt test. | REF generera distraktorer för TOEFL ordförrådstest med WordNet och ord sense disambigation ges ett målord. | 29,283,128 | Automatic Generation of English Vocabulary Tests | {'venue': 'CSEDU', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,398 |
Vi presenterar en helt automatisk metod för att bygga genomsnittliga anatomiska modeller av den mänskliga hjärnan med hjälp av en uppsättning MR-bilder. Modellerna har två viktiga egenskaper: en genomsnittlig intensitet och en genomsnittlig form. Vi ger resultat som visar konvergens mot Barycenter av den bilduppsättning som används för beräkning av modellen. | Guilmond m.fl. Detta beslut träder i kraft dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. utvecklat en automatisk metod för att bygga genomsnittlig intensitet och form modeller av den mänskliga hjärnan REF. | 17,016,695 | Automatic Computation of Average Brain Models | {'venue': 'Proceedings of the First International Conference on Medical Image Computing and Computer-Assisted Intervention', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,399 |
Vi introducerar exempelmässigt funktionsval som metod för modelltolkning. Vår metod bygger på att lära sig en funktion för att extrahera en delmängd av funktioner som är mest informativa för varje givet exempel. Denna funktionsväljare tränas för att maximera den ömsesidiga informationen mellan valda funktioner och responsvariabeln, där den villkorliga fördelningen av responsvariabeln med tanke på inmatningen är den modell som ska förklaras. Vi utvecklar en effektiv variations approximation till den ömsesidiga informationen, och visar effektiviteten av vår metod på en mängd olika syntetiska och verkliga datamängder med hjälp av både kvantitativa mätvärden och mänsklig utvärdering. | Ett anmärkningsvärt nytt arbete längs denna linje är REF, som föreslår att maximera ömsesidig information mellan utvalda funktioner och klassen. | 3,500,834 | Learning to Explain: An Information-Theoretic Perspective on Model Interpretation | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 4,400 |
Att klassificera tidskrifter eller publikationer inom forskningsområden är en viktig del av många bibliometriska analyser. Klassificering sker vanligen på tidskriftsnivå, där ämneskategorierna Web of Science är det mest populära klassificeringssystemet. Men klassificeringssystem på tidskriftsnivå har två viktiga begränsningar: De erbjuder endast en begränsad mängd detaljer och de har problem med multidisciplinära tidskrifter. För att undvika dessa begränsningar inför vi en ny metod för att konstruera klassificeringssystem på individnivå. I den föreslagna metoden samlas publikationer i forskningsområden baserade på citeringsrelationer. Metoden kan hantera ett mycket stort antal publikationer. Vi presenterar en ansökan där ett klassificeringssystem produceras som omfattar nästan tio miljoner publikationer. Baserat på en omfattande analys av detta klassificeringssystem diskuterar vi styrkan och begränsningarna i den föreslagna metoden. Viktiga styrkor är transparensen och den relativa enkelheten hos metoden och dess tämligen blygsamma krav på databehandling och minne. Den huvudsakliga begränsningen av metoden är dess uteslutande beroende av direkta citeringsförhållanden mellan publikationer. Metodens noggrannhet kan sannolikt ökas genom att man även tar hänsyn till andra typer av relationer, till exempel på grundval av bibliografisk koppling. | Istället för att samla tidskrifter har en alternativ metod utformats för att bygga klassificeringssystem på nivån för enskilda publikationer REF. | 15,589,099 | A new methodology for constructing a publication-level classification system of science | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 4,401 |
En ny bottom-up visuell saliency modell, Graph-Based Visual Saliency (GBVS), föreslås. Den består av två steg: första bildar aktiveringskartor på vissa funktionskanaler, och sedan normalisera dem på ett sätt som belyser synlighet och medger kombination med andra kartor. Modellen är enkel och biologiskt rimlig i den mån den är naturligt parallelliserad. Denna modell förutspår kraftfullt mänskliga xationer på 749 variationer av 108 naturliga bilder och uppnår 98 % av ROC-området med en människobaserad kontroll, medan de klassiska algoritmerna för Itti & Koch ([2], [3], [4]) endast uppnår 84 %. | Graph Based Visual Saliency (GBVS) REF är en annan metod baserad på grafiska modeller. | 629,401 | Graph-based visual saliency | {'venue': 'ADVANCES IN NEURAL INFORMATION PROCESSING SYSTEMS 19', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,402 |
Abstrakt. ASLan är ingångsspråket för verifieringsverktygen för AVANTSSAR-plattformen och en utökning av AVISPA Intermediate Format IF. En av ASLans kärnegenskaper över IF är att integrera ett övergångssystem med Horn-klausuler som utvärderas i varje stat. Detta gör det möjligt att modellera många vanliga situationer i säkerhet, t.ex. samspelet mellan ett systems arbetsflöde och dess policyer för åtkomstkontroll. Även om övergångsförhållandet är obeslutbart för ASLan i allmänhet, visar vi att säkerhetsproblemet är avgörande för ett stort och användbart fragment som vi kallar TASLan, så länge vi band antalet steg av ärliga deltagare. Begränsningen av TASLan är att alla meddelanden och predikat i viss mening måste vara otvetydiga i sin tolkning, med undantag för "typförvirringar" som liknar vissa taggningsresultat för säkerhetsprotokoll. | För vissa fragment kan vi få effektiva modellkontroll metoder, men återigen till priset av att begränsa antalet steg av ärliga agenter REF. | 29,080,273 | Deciding Security for a Fragment of ASLan | {'venue': 'ESORICS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,403 |
I detta arbete presenterar vi en ny intuitiv, end-to-end-strategi för detektering av temporala åtgärder i otrimmade videor. Vi introducerar vår nya arkitektur för Single-Stream Temporal Action Detection (SS-TAD), som effektivt integrerar gemensam åtgärdsdetektering med dess semantiska deluppdrag i en enda enhetlig ram. Vi utvecklar en metod för att träna vår djupa återkommande arkitektur baserad på att upprätthålla semantiska begränsningar på mellanliggande moduler som gradvis avslappnas när lärandet fortskrider. Vi finner att ett sådant dynamiskt inlärningsprogram gör det möjligt för SS-TAD att uppnå högre total detektionsprestanda, med färre träningsperioder. Genom single-pass nätverk är mycket effektiv och kan arbeta på 701 ramar per sekund, samtidigt överträffar de senaste metoderna för temporal åtgärd upptäckt på THUMOS'14. | I REF föreslog författarna en end-to-end djup återkommande arkitektur som matar ut åtgärdsdetekteringer direkt från en enda passage över inmatningsvideoströmmen. | 4,021,276 | End-to-End, Single-Stream Temporal Action Detection in Untrimmed Videos | {'venue': 'BMVC', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,404 |
Abstract-In cloud computing är sökbart krypteringssystem över outsourcade data ett hett forskningsområde. Men de flesta befintliga verk på krypterad sökning över outsourcade molndata följer modellen av "en storlek passar alla" och ignorerar personlig sökning avsikt. Dessutom stöder de flesta av dem endast exakt sökordssökning, vilket i hög grad påverkar data användbarhet och användarupplevelse. Så hur man utformar ett sökbart krypteringssystem som stöder personlig sökning och förbättrar användarens sökupplevelse förblir en mycket utmanande uppgift. I detta papper, för första gången, studerar och lösa problemet med personlig multi-keyword rankad sökning över krypterade data (PRSE) samtidigt som integritet i molndata. Med hjälp av semantisk ontologi WordNet bygger vi en användarintressemodell för enskilda användare genom att analysera användarens sökhistorik och anta en poängsättningsmekanism för att uttrycka användarens intresse på ett smart sätt. För att ta itu med begränsningarna i modellen med "en storlek passar alla" och nyckelord exakt sökning, föreslår vi två PRSE system för olika sökning intentioner. Omfattande experiment på verkliga dataset validerar vår analys och visar att vår föreslagna lösning är mycket effektiv och effektiv. | Senare, Fu et al. REF föreslog ett flernyckelordsanpassat söksystem i krypterade data. | 7,147,132 | Enabling Personalized Search over Encrypted Outsourced Data with Efficiency Improvement | {'venue': 'IEEE Transactions on Parallel and Distributed Systems', 'journal': 'IEEE Transactions on Parallel and Distributed Systems', 'mag_field_of_study': ['Computer Science']} | 4,405 |
Hardware/Software cosimulation är den viktigaste processen för att förkorta designen tur runt tiden. Vi har föreslagit en ny teknik, kallad virtuell synkronisering, för snabb och tid exakt kosimulering som innebär att interagera komponentsimulatorer. I detta dokument utökar vi ytterligare den virtuella synkroniseringstekniken med OS-modellering för det fall där flera programvaruuppgifter utförs under övervakning av ett operativsystem i realtid. OS modeller modellerar RTOS overheads för sammanhangsbyte och fästing avbryta hantering samt preemption beteende. Samtidigt som tidsnoggrannheten bibehålls till en acceptabel nivå under några procent, skulle vi kunna minska simuleringstiden drastiskt jämfört med befintlig konservativ strategi genom att ta bort behovet av tidssynkronisering mellan simulatorer. Det bekräftas med ett preliminärt experiment med ett multimediaexempel som består av fyra verkliga uppgifter. | I REF föreslås en OS-modell för snabb och tidsexakt kosimulering. | 2,961,036 | Virtual synchronization technique with OS modeling for fast and time-accurate cosimulation | {'venue': "CODES+ISSS '03", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,406 |
Sammanfattning av denna webbsida: Sammanhangsmedvetna allmänt förekommande datormiljöer tenderar att vara mycket spridda och heterogena, samtidigt som de har ökad dynamik när element, enheter och mellanprogramskomponenter går samman, lämnar och ändrar sin status. I sådana miljöer härleds och sammansmältes information med många sensorer och sammanhangsmedvetna mellanprogramkomponenter. Som ett resultat, katalog och namngivning tjänster, tillsammans med resonemangsmekanismer, är i centrum för alla icke-triviala allmänt förekommande datorprogram. I detta dokument hävdar vi att semantisk webbteknik kan hantera krav på katalogtjänster i allmänt förekommande datormiljöer, mycket effektivare än det breda utbudet av äldre mekanismer. För att motivera detta påstående inför vi en modell som i hög grad skulle kunna underlätta utveckling, införande och hantering av allmänt förekommande datortillämpningar. Denna modell bygger på semantisk webbteknik (dvs. ontologihantering) och underlättar integrationen av hårdvaru- och mellanprogramelement i ett allmänt datorprogram. Med hjälp av denna modell och dess underliggande ontologihanteringssystem har vi implementerat proof-of-concept-tillämpningar i ett smart utrymme med många sensorer, ställdon och mellanprogramskomponenter. Baserat på implementeringserfarenheten beskriver vi fördelarna med att använda semantisk webbteknik i allestädes närvarande kontextmedvetna datorer och smarta utrymmen. | Dessutom införs i REF en semantisk rymdmodell som använder semantisk webbteknik för att underlätta integrationen av hård- och mellanprodukter i omfattningen av allestädes närvarande datorer. | 16,128,341 | Semantic web technologies for ubiquitous computing resource management in smart spaces | {'venue': 'Int. J. Web Eng. Technol.', 'journal': 'Int. J. Web Eng. Technol.', 'mag_field_of_study': ['Computer Science']} | 4,407 |
Program kalkylblad, artefakter som utvecklats av icke-programmerare, används för en mängd olika viktiga uppgifter och beslut. Men en betydande del av dem har allvarliga kvalitetsproblem. För att ta itu med detta problem presenterade vårt tidigare arbete en intervallbaserad testmetod för kalkylblad. Interval-baserade tester bygger på observationen att kalkylblad huvudsakligen används för numeriska beräkningar. Den innehåller också idéer från symboliska tester och intervallanalys. I detta dokument behandlas frågan om effektiv felsökning av kalkylblad. Baserat på den intervallbaserade testmetoden presenterar detta dokument en teknik för att spåra fel i kalkylprogram. Den föreslagna felspårningstekniken använder dataflödesinformationen och cellmärkena för att identifiera de mest inflytelserika felaktiga cellerna för en given formelcell som innehåller ett förökat fel. | Till exempel, Ayalew och Mittermeir REF presentera en metod för "felspårning" för kalkylblad som använder "interval testing" och skivning. | 619,684 | Spreadsheet Debugging | {'venue': 'Proc. European Spreadsheet Risks Int. Grp. 2003 67-79 ISBN 1 86166 199 1', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,408 |
I detta arbete föreslår vi en regressionsmetod för att förutsäga populariteten av en online-video mätt med dess antal vyer. Vår metod använder Support Vector Regression med Gaussian Radial Basis funktioner. Vi visar att förutsägelse av popularitetsmönster med detta tillvägagångssätt ger mer exakta och stabilare förutsägelseresultat, främst tack vare den föreslagna metodens icke-linjära karaktär samt dess robusthet. Vi bevisar överlägsenheten av vår metod mot den senaste tekniken med hjälp av dataset som innehåller nästan 24 000 videor från YouTube och Facebook. Vi visar också att med hjälp av visuella funktioner, såsom utgångar av djupa neurala nätverk eller scendynamik "mått, kan vara användbart för popularitet förutsägelse innan innehållspublicering. Dessutom visar vi att noggrannheten i popularitetsprognoserna kan förbättras genom att kombinera tidiga distributionsmönster med sociala och visuella funktioner och att sociala funktioner utgör en mycket starkare signal när det gäller video popularitetsprognoser än de visuella. | I REF, populariteten av Youtube och Facebook-videor förutspås med stöd vektor regression med Gaussiska radial bas funktioner. | 6,911,407 | Predicting popularity of online videos using Support Vector Regression | {'venue': 'Transactions on Multimedia, 2017', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,409 |
Abstract-Även om prestandan hos den medium passerkontroll (MAC) av IEEE 802.15.4 har undersökts under antagande av idealisk trådlös kanal, förståelsen av den tvärskiktsdynamiken mellan MAC och fysiskt lager är ett öppet problem när den trådlösa kanalen uppvisar banförlust, multi-path blekning, och skuggning. Analysen av MAC och trådlös kanalinteraktion är avgörande för konsekvent prestandaförutsägelse, korrekt design och optimering av protokollen. I detta dokument föreslås ett nytt tillvägagångssätt för analytisk modellering av dessa interaktioner. Analysen beaktar samtidigt en sammansatt kanal blekning, störningar som genereras av flera terminaler, de effekter som orsakas av dolda terminaler, och MAC minskade bäraravkänning kapacitet. Beroende på MAC-parametrar och fysiska lagertrösklar, visas det att MAC-prestandaindikatorerna över blekningskanaler kan vara långt ifrån de som härleds under idealiska kanalantaganden. Som nya resultat, visar vi i vilken utsträckning förekomsten av blekning kan vara fördelaktigt för den totala nätverksprestanda genom att minska flera åtkomststörningar, och hur denna information kan användas för gemensamt urval av MAC och fysiska lagerparametrar. | Upphovsmän inom REF utformar en flerskiktsmodell av MAC- och fysiska skikt för osloterade IEEE 802.15.4-nätverk. | 13,674,801 | Modeling IEEE 802.15.4 Networks Over Fading Channels | {'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 4,410 |
Abstrakt. GraphAEL tar fram tre typer av evolverande grafer ur grafritningslitteraturen och skapar 2D- och 3D-animeringar av evolutionerna. Vi studerar citeringsgrafer, ämnesgrafer och samarbetsgrafer. Vi skapar också skillnadsdiagram som fångar karaktären av förändring mellan två givna tidsperioder. GraphAEL finns på Internet på http://graphael.cs.arizona.edu. | GraphAEL REF-systemet extraherar tre typer av föränderliga grafer från en specialbyggd grafritningsdatabas och skapar 2D- och 3D-animeringar av evolutionerna. | 9,442,358 | GraphAEL: Graph Animations with Evolving Layouts | {'venue': 'Graph Drawing', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,411 |
Ärendehantering är ett nytt paradigm för att stödja flexibla och kunskapsintensiva affärsprocesser. Det är starkt baserat på data som den typiska produkten av dessa processer. Till skillnad från hantering av arbetsflöden, som använder fördefinierade processstyrningsstrukturer för att avgöra vad som ska göras under en arbetsflödesprocess, fokuserar ärendehanteringen på vad som kan göras för att uppnå ett affärsmål. Vid ärendehantering beslutar den kunskapsarbetare som ansvarar för ett visst ärende aktivt om hur målet med ärendet ska uppnås, och ett ärendehanteringssystems roll hjälper snarare än vägleder henne i detta. I detta dokument införs ärendehantering som ett nytt paradigm för att stödja flexibla affärsprocesser. Den är motiverad genom att jämföra den med arbetsflödeshantering som det traditionella sättet att stödja affärsprocesser. De viktigaste enheterna i system för ärendehantering identifieras och klassificeras i en metamodell. Slutligen illustreras den grundläggande funktionaliteten och användningen av ett ärendehanteringssystem med ett exempel. | Därför van der Aalst et al. införde ärendehantering "som ett nytt paradigm för att stödja flexibla affärsprocesser" REF för att undvika på förhand fastställd processgenomförande. | 16,295,903 | Case handling: a new paradigm for business process support | {'venue': 'Data Knowl. Eng.', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,412 |
Abstrakt. MPI definierar ensidig kommunikation-flöde, få, och ackumulera-tillsammans med tre olika synkroniseringsmekanismer som definierar semantik i samband med initiering och slutförande av dessa operationer. I detta dokument analyserar vi de krav som ställs av MPI-standarden på all implementation av ensidig kommunikation. Vi diskuterar alternativ för att genomföra synkroniseringsmekanismerna och analysera kostnaden i samband med varje. En MPI-implementerare kan använda denna information för att välja den genomförandemetod som är bäst lämpad (har den lägsta kostnaden) för en viss maskinmiljö. Vi rapporterar också om experiment vi körde på ett Linuxkluster och en Sun SMP för att fastställa klyftan mellan den prestanda som kan uppnås och vad som faktiskt uppnås med MPI. | Gropp et al. I REF studerades alternativen och de därmed sammanhängande kostnaderna för att genomföra synkroniseringsmekanismerna för ensidig kommunikation med MPI. | 1,702,274 | An Evaluation of Implementation Options for MPI One-Sided Communication | {'venue': 'PVM/MPI', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,413 |
Undervattenssensornätverk (UWSN) har blivit ett hett forskningsämne på grund av sina olika akvatiska tillämpningar. Eftersom undervattenssensorn noderna drivs av inbyggda batterier som är svåra att ersätta, är en förlängning av nätverkets livslängd ett mycket brådskande behov. På grund av den låga och variabla överföringshastigheten hos ljud är konstruktionen av tillförlitliga routingalgoritmer för UWSNs utmanande. I detta dokument föreslår vi en Q-learning baserad delay-aware routing (QDAR) algoritm för att förlänga livslängden för undervattenssensornätverk. I QDAR är en datainsamlingsfas utformad för att anpassa sig till den dynamiska miljön. Med Q-learning-tekniken kan QDAR bestämma ett globalt optimalt nästa hopp snarare än ett girigt. Vi definierar en verksamhets-nyttofunktion där resterande energi och spridningsfördröjning både beaktas för lämpliga routing beslut. QDAR-algoritmen kan således förlänga nätverkets livslängd genom att jämnt fördela restenergin och ge lägre end-to-end fördröjning. Simuleringsresultaten visar att vårt protokoll kan ge nästan samma nätverkslivslängd, och kan minska den end-to-end fördröjningen med 20-25% jämfört med ett klassiskt livstidsutökat routingprotokoll (QELAR). | Dessutom, Jin et al. REF föreslog en Q-Learning-baserad Delay-Aware Routing (QDAR) Algoritm för att förlänga livslängden för undervattenssensornätverk. | 3,500,449 | A Q-Learning-Based Delay-Aware Routing Algorithm to Extend the Lifetime of Underwater Sensor Networks | {'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']} | 4,414 |
Kognitiva radioapparater känner radiospektrumet i ordning kodningsschema, utbildning eller pilotsignaler, vaktperioder, och att hitta oanvända frekvensband och använda dem på ett smidigt sätt. Signalens effektnivå eller korrelationsegenskaper, bara Överföring av den primära användaren måste detekteras på ett tillförlitligt sätt även för att nämna några. Dessa egenskaper kan användas för att konstruera ett i det låga signal-till-brus-förhållandet (SNR) regim och i ansiktet av skuggning och blekning. Kommunikationssignaler är typiskt deteto på sämreinvy låg SNRer en d hasl cyklostationary, och har många periodiska statistiska egenskaper komplexitet och därmed låg effekt consumpton. Dessa relaterade till symbolfrekvensen, kodning och moduleringssystem är mycket önskvärda egenskaper, särskilt för kognitiva radioapparater och till exempel skyddsperioder. Dessa egenskaper i mobila applikationer. I avsaknad av någon kunskap om kan utnyttjas vid utformningen av en detektor, och för att särskilja signalen, kan man behöva ta till klassiska tekniker mellan primära och sekundära användares signaler. I detta dokument, t.ex. energidetektering [1]. En energidetektor kan behöva en generaliserad sannolikhetskvotsprovning (GLRT) för att upptäcka suct a över lon [1]. Ofene o upptäcka förekomsten av cyklostationaritet med hjälp av flera cykliska frekvenser samla in data under en lång tidsperiod för att upptäcka den primära föreslagna. Fördelat beslutsfattande används genom att kombinera användare på ett tillförlitligt sätt. Dessutom kontrollerar den falska larmfrekvensen i den kvantifierade lokala teststatistiken från många sekundära användare. Mobila tillämpningar är svåra eftersom statistiken över användarsamarbetet gör det möjligt att mildra effekterna av skuggsignaler, buller och störningar kan vara tidsvarierande. En annan och ger ett större fotavtryck för det kognitiva radiosystemet. Simuleringsexempel visar den resulterande prestandan snficant nackdel iS att energi upptäckt inte har några kapacitetsvinster i låg SNR-systemet och fördelarna med kooperativ för att skilja mellan olika typer av transmissioner eller för att upptäcka. dikotomisera mellan primära och sekundära användare av | I REF föreslogs och utvärderades ett generellt sannolikhetsförhållandestest för att upptäcka förekomsten av cyklostationaritet med hjälp av multipla cykliska frekvenser med hjälp av Monte Carlo-simuleringar. | 38,754 | Spectrum Sensing in Cognitive Radios Based on Multiple Cyclic Frequencies | {'venue': '2007 2nd International Conference on Cognitive Radio Oriented Wireless Networks and Communications', 'journal': '2007 2nd International Conference on Cognitive Radio Oriented Wireless Networks and Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 4,415 |
Ett antal nya verk har föreslagit uppmärksamhetsmodeller för visuellt frågesvar (VQA) som genererar rumsliga kartor som belyser bildregioner som är relevanta för att besvara frågan. I detta dokument hävdar vi att det förutom att modellera "där man kan titta" eller visuell uppmärksamhet är lika viktigt att modellera "vilka ord man ska lyssna på" eller ifrågasätta uppmärksamheten. Vi presenterar en ny co-attention modell för VQA som tillsammans resonerar om bild och ifrågasätter uppmärksamhet. Dessutom, vår modell skäl till frågan (och därmed bilden via co-attention mekanism) på ett hierarkiskt sätt via en ny 1-dimensionell konvolution neurala nätverk (CNN) modell. Vår slutliga modell överträffar alla rapporterade metoder och förbättrar den senaste tekniken på VQA-datauppsättningen från 60,4 % till 62,1 %, och från 61,6 % till 65,4 % på COCO-QA-datauppsättningen 1. 1 Källkoden kan laddas ner från https://github.com/jiasenlu/HieCoAttenVQA | Lu m.fl. föreslog en samarbetsram för lärande för att växelvis lära sig bildens uppmärksamhet och ifrågasätta uppmärksamheten REF. | 868,693 | Hierarchical Question-Image Co-Attention for Visual Question Answering | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 4,416 |
I detta dokument behandlas uppgiften att artikulerade mänskliga pose uppskattning av flera människor i verkliga bilder. Vi föreslår ett tillvägagångssätt som tillsammans löser detektionsuppgifterna och ger en uppskattning: det leder till antalet personer i en scen, identifierar tillfångatagna kroppsdelar och disambiguerar kroppsdelar mellan människor i närheten av varandra. Denna gemensamma formulering är i motsats till tidigare strategier, som tar itu med problemet genom att först upptäcka människor och därefter uppskatta deras kropp pose. Vi föreslår en partitionering och märkning formulering av en uppsättning kroppsdelar hypoteser som genereras med CNN-baserade deldetektorer. Vår formulering, ett exempel på ett heltal linjärt program, utför implicit icke-maximal undertryckande på uppsättningen av del kandidater och grupperar dem för att bilda konfigurationer av kroppsdelar som respekterar geometriska och utseende begränsningar. Experiment på fyra olika datauppsättningar visar toppmoderna resultat för både en person och flera personer utgör estimering 1. | Pishchulin och al. REF använder sig av detektion av kroppsdelar och utgör en gemensam uppskattning för att dra en slutsats om antalet personer i en bild, identifiera tillfångatagna kroppsdelar och skilja kroppsdelar mellan människor i närheten av varandra. | 5,264,846 | DeepCut: Joint Subset Partition and Labeling for Multi Person Pose Estimation | {'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 4,417 |
Topologin för ett trådlöst multi-hop nätverk kan styras genom att variera överföringseffekten vid varje nod. I den här artikeln ger vi en detaljerad analys av en konbaserad distribuerad topologikontrollalgoritm. Denna algoritm, som infördes i [16], antar inte att noder har GPS-information tillgänglig; snarare beror det bara på riktningsinformation. Grovt sagt, den grundläggande idén med algoritmen är att en nod u sänder med minsta effekt P~, en som krävs för att säkerställa att i varje kon av grad a runt u, det finns några nod som u kan nå med makt Pma-Vi visar att ta en = 57r/6 är ett nödvändigt och tillräckligt villkor för att garantera att nätverksanslutningen bevaras. Mer exakt, om det finns en väg från a till t när varje nod kommunicerar vid maximal effekt då, om en <_ 5~r/6, finns det fortfarande en väg i den minsta symmetriska grafen Ga som innehåller alla kanter (u, v) sådan att u kan kommunicera med v med hjälp av power p~,a. Å andra sidan, om ~ > 51r/6, konnektivitet inte nödvändigtvis bevaras. Vi föreslår också en uppsättning optimeringar som ytterligare minskar strömförbrukningen och bevisar att de behåller nätverksanslutning. Dynamisk omkonfigurering i närvaro av misslyckanden och rörlighet diskuteras också. Simuleringsresultat presenteras för att visa algoritmens effektivitet och optimeringarna. | Löjtnant m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m för m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. REF föreslog en tvåfasalgoritm, CBTC(α), i vilken varje nod finner den minsta effekt p sådan att överföring med p säkerställer att den kan nå någon nod i varje kon av grad α. | 1,564,877 | Analysis of a cone-based distributed topology control algorithm for wireless multi-hop networks | {'venue': "PODC '01", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,418 |
Abstract-Vi tar itu med problemet med att identifiera strukturen på en oriktad graf från observation av signaler som definieras på dess noder. I grund och botten kodar den okända grafen direkta relationer mellan signalelement, som vi strävar efter att återhämta oss från observerbara indirekta relationer som genereras av en diffusionsprocess på grafen. Det fräscha utseende som förespråkas här utnyttjar begrepp från konvex optimering och stationaritet av grafsignaler, för att identifiera grafskiftaren (en matris representation av grafen) med endast dess eigenvectors. Dessa spektralmallar kan erhållas, t.ex. från provets kovarians av oberoende grafsignaler som sprids på det sökta nätverket. Den nya idén är att hitta en graf förskjutning som, samtidigt som den överensstämmer med den medföljande spektralinformationen, ger nätverket med vissa önskade egenskaper såsom gleshet. I detta syfte utvecklar vi effektiva inferensalgoritmer som härrör från bevisligen trånga konvexa avslappningar av naturliga nonconvex-kriterier, särskilt resultaten för två skift: adjacensmatrisen och den normaliserade Laplacian. Algoritmer och teoretiska återhämtningsförhållanden utvecklas inte bara när mallarna är fullständigt kända, utan också när eigenvektorerna är högljudda eller när endast en delmängd av dem ges. Numeriska tester visar hur effektiva de föreslagna algoritmerna är när det gäller att återvinna syntetiska och verkliga nätverk. | Problemet med att uppskatta en topologi från signalobservationer som leder till särskilda graf skift operatörer studeras i REF. | 1,779,088 | Network Topology Inference from Spectral Templates | {'venue': 'IEEE Transactions on Signal and Information Processing over Networks', 'journal': 'IEEE Transactions on Signal and Information Processing over Networks', 'mag_field_of_study': ['Computer Science', 'Physics']} | 4,419 |
Vi överväger metoder för att kvantifiera likheten mellan hörn i nätverk. Vi föreslår ett mått av likhet baserat på begreppet att två hörn liknar varandra om deras närmaste grannar i nätverket själva är lika. Detta leder till en självkonsistent matris formulering av likhet som kan utvärderas iterativt med endast en kunskap om adjakens matris i nätverket. Vi testar vår likhetsmått på datorgenererade nätverk för vilka de förväntade resultaten är kända, och på ett antal verkliga nätverk. | Det strukturella likhetsmåttet för Ref baseras till exempel på antagandet att liknande noder tenderar att kopplas samman. | 16,314,394 | Vertex similarity in networks. | {'venue': 'Phys. Rev. E 73, 026120 (2006)', 'journal': None, 'mag_field_of_study': ['Medicine', 'Mathematics', 'Physics']} | 4,420 |
Under de senaste åren har användningen av gränsprojektionsteknik för att generera tredimensionell (3D) ytinformation blivit ett av de mest aktiva forskningsområdena inom optisk metrologi. Dess tillämpningar sträcker sig från mätning av 3D-formen av MEMS-komponenter till mätning av platthet hos stora paneler (2,5 m ×.45 m). Tekniken har funnit olika tillämpningar inom olika områden: biomedicinska tillämpningar såsom intraorala 3D-mätningar [1], icke-invasiv 3D-avbildning och övervakning av vaskulära väggdeformationer [2], mätning av kroppsform för formstyrd strålbehandling [3, 4], mätning av nedre ryggdeformation [5], detektering och övervakning av skolios [6], inspektion av sår [7, 8] och mätning av hudtopografi för användning i kosmetologi [9, 10, 11], industriella och vetenskapliga tillämpningar såsom karakterisering av MEMS-komponenter [12, 13], vibrationsanalys [14, 15], refraktometri [16], global mätning av fria ytdeformationer [17, 18], lokal väggtjockleksmätning av påtvingade arkmetaller [19], korrosionsanalys [20, 21], mätning av ythårdhet [22, 23], omvänd teknik [24, 25, 26], kvalitetskontroll av tryckt kretskortstillverkning [27, 28, 29] och värmeflödesvisualisering [30], kinematiska tillämpningar såsom mätning av form och position av ett rörligt föremål/korreaturer etc. En av de enastående egenskaperna hos några av de frans projektion tekniker är deras förmåga att ge hög upplösning, hela fältet 3D rekonstruktion av objekt på ett icke-kontakt sätt vid video bildhastigheter. Denna funktion har backat upp tekniken för att genomsyra nya områden av program som säkerhetssystem, spel och virtuell verklighet. För att få insikter i den serie av bidrag som har hjälpt till att utveckla tekniken för att förvärva denna funktion hänvisas läsaren till granskningsartiklar i detta specialnummer av Song Zhang, och Xianyu Su et al. I bild 1 visas ett typiskt proflometry-system för fransprojicering. Den består av en projektionsenhet, en bildförvärvsenhet och en process-/analysenhet. Mätning av form genom frans projektion tekniker innebär (1) projicering av ett strukturerat mönster (vanligtvis en sinusoidal frans mönster) på objektets yta, (2) registrering av bilden av fransmönstret som fas moduleras av objektets höjdfördelning, (3) beräkning av fasmodulering genom att analysera bilden med en av fransarna analystekniker (såsom Fourier transform Figur 1: Fringe proflometri profilometrisystem metod, fas steg och rumslig fas detektionsmetoder de flesta av dem genererar inlindad fasfördelning) (4) med hjälp av en lämplig fas unwraping algoritm för att få kontinuerlig fasfördelning som är proportionell mot objektets höjdvariationer, och slutligen (5) kalibrering av systemet för att kartlägga den oinlindade fasfördelningen till verkliga världen 3-D co-koordinater. Bilda. 2 visar flödesschemat som avbildar olika steg som är involverade i mätningen av höjdfördelningen av ett objekt med hjälp av fransprojiceringsteknik och roll för varje steg. En bildrepresentation av samma med mer detaljer visas i bild. 3............................................................... Under de senaste tre decennierna, frans projektion tekniker har utvecklats oerhört på grund av bidraget från ett stort antal forskare och utvecklingen kan i stort sett kategoriseras enligt följande: utformning eller struktur av mönstret som används för projektion [40, 41, 42, 43, 44, 45, 46, 47, 48, 49], metod för att generera och projicera mönster [50, 51, 52, 53, 54, 55, 56, 57, 58, 59, 60, 61, 62], studie av fel orsakade av den utrustning som används och föreslå eventuella korrigeringar [63, 64, 65, 66], utveckling av nya ytteranalysmetoder för att extrahera underliggande fasdistribution | Ett framträdande drag i denna frans projektion metod är att det kan ge högupplösning, hela fältet 3D rekonstruktion av objekt REF. | 10,361,527 | Fringe Projection Techniques : Whither we are ? | {'venue': 'ICPR (4)', 'journal': None, 'mag_field_of_study': ['Physics']} | 4,421 |
: Sammanhängande Illumination. Den verkliga scenen består av en actionfigur av Hulken och en leksaksbil. För att visa resultatet av vårt system placerar vi en 3D-scan bredvid den verkliga actionfiguren och visar den med hjälp av Mixed Reality: (vänster) 3D-rekonstruktionen görs utan verklig världsuppskattning av ljus. (höger) Vårt system uppskattar den aktuella belysningen från en enda ingångsbild. Den beräknade belysningen används för att belysa 3D-rekonstruktionen. Observera att vi bara registrerar den verkliga världen belysning och inte överväga några kameraeffekter såsom exponering eller suddig. Detta papper presenterar den första fotometriska registrering pipeline för Mixed Reality baserat på hög kvalitet belysning uppskattning med hjälp av konvolutionella neurala nätverk (CNNs). För enkel anpassning och installation av systemet utbildar vi CNN:erna med enbart syntetiska bilder och tillämpar dem på verkliga bilddata. För att hålla rörledningen korrekt och effektiv, föreslår vi att sammanfoga ljusuppskattningen resultat från flera CNN instanser och visa en strategi för caching uppskattningar över tid. För optimal prestanda utforskar vi dessutom flera strategier för CNN-träningen. Experimentella resultat visar att den föreslagna metoden ger mycket exakta uppskattningar för fotorealistiska förstärkningar. | m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. REF lär sig på liknande sätt belysningen från en enda bild av ett känt objekt. | 3,778,073 | Learning Lightprobes for Mixed Reality Illumination | {'venue': '2017 IEEE International Symposium on Mixed and Augmented Reality (ISMAR)', 'journal': '2017 IEEE International Symposium on Mixed and Augmented Reality (ISMAR)', 'mag_field_of_study': ['Computer Science']} | 4,422 |
En fuzzy c-means klustering metod (FCM) tillämpas på kluster tropiska cyklon (TC) spår. FCM är lämpligt för data där klustergränserna är tvetydiga, t.ex. en grupp TC-spår. Denna studie introducerar genomförbarheten av en enkel mätning för att införliva hela former av alla spår i FCM, det vill säga interpolering av alla spår i lika många segment. Fyra giltighetsåtgärder (t.ex. fördelningskoefficient, partitionsindex, separationsindex och Dunnindex) används objektivt för att bestämma det optimala antalet kluster. Detta resulterar i sju kluster från 855 TC över västra norra Stilla havet (WNP) från juni till oktober under 1965-2006. De sju kluster kännetecknas av 1) TCs som slår Koreahalvön och Japan med nordorienterade spår, 2) TCs påverkar Japan med långa banor, 3) TCs träffar Taiwan och östra Kina med västorienterade spår, 4) TCs passerar östra Japan med tidiga återkommande spår, 5) TCs reser den östligaste regionen över WNP, 6) TCs över Sydkinesiska havet, och 7) TCs rör sig rakt över Filippinerna. Varje kluster uppvisar utmärkande egenskaper under sin livstid, färdavstånd, intensitet, säsongsvariation, landfallsregion och fördelning av TC-inducerad nederbörd. Rollerna för storskaliga miljöer (t.ex. havsytans temperatur, låg relativ virticitet och styrflöden) på klusterberoende generis platser och spår diskuteras också. | REF införde genomförbarheten av en enkel mätmetod för att införliva alla former av alla spår i den luddiga c-means klustermetoden. | 53,485,924 | Pattern Classification of Typhoon Tracks Using the Fuzzyc-Means Clustering Method | {'venue': None, 'journal': 'Journal of Climate', 'mag_field_of_study': ['Geology']} | 4,424 |
Vi föreslår ett helt homomorphic krypteringssystem - dvs. ett system som gör det möjligt att utvärdera kretsar över krypterade data utan att kunna dekryptera. Vår lösning kommer i tre steg. För det första ger vi ett allmänt resultat - att, för att konstruera ett krypteringssystem som tillåter utvärdering av godtyckliga kretsar, räcker det med att konstruera ett krypteringssystem som kan utvärdera (lätt utökade versioner av) sin egen dekrypteringskrets; vi kallar ett system som kan utvärdera dess (augmented) dekrypteringskrets bootstrappable. Därefter beskriver vi en allmän nyckel krypteringssystem med hjälp av idealiska gitter som är nästan bootstrappable. Lattice-baserade kryptosystem har vanligtvis dekrypteringsalgoritmer med låg krets komplexitet, ofta domineras av en inre produktberäkning som är i NC1. Dessutom ger idealiska gitter både additiv och multiplicativ homomorphisms (modulo en offentlig nyckel ideal i en polynomial ring som representeras som en lattice), som behövs för att utvärdera allmänna kretsar. Tyvärr är vårt ursprungliga system inte riktigt bootstrappable - dvs. det djup som systemet kan korrekt utvärdera kan vara logaritmisk i lattice-dimensionen, precis som djupet av dekrypteringskretsen, men den senare är större än den förra. I det sista steget visar vi hur man ändrar systemet för att minska djupet på dekrypteringskretsen, och därmed få en bootstrappable krypteringsschema, utan att minska det djup som systemet kan utvärdera. Abstractly, vi åstadkommer detta genom att göra det möjligt för encrypter att starta dekrypteringsprocessen, lämnar mindre arbete för decrypter, ungefär som servern lämnar mindre arbete för decrypter i en server-stödd cryptosystem. | Den första konstruktionen av helt homomorfa kryptering föreslogs av Gentry under 2009 under idealiska gitter, som tillåter utvärdering av godtyckliga kretsar över klartext REF. | 947,660 | Fully homomorphic encryption using ideal lattices | {'venue': "STOC '09", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,425 |
Samstämmighetstekniker har studerats i stor utsträckning tidigare som ett sätt o f t a cling restrict tillfredsställelse problem (CSP). I synnerhet har olika arc-consistency algoritmer föreslagits, med ursprung från Waltz ltering algoritm 27] och kulminerar i den optimala algoritmen AC-4 av Mohr och Henderson 16]. AC-4 kör i O(ed 2 ) i n t h e w orst fall, där e är antalet bågar (eller begränsningar) och d är storleken på den största domänen. Eftersom dessa algoritmer är tillämpliga på hela klassen av (binär) CSP, tar dessa algoritmer inte i n för att ta hänsyn till t h e semantics av begränsningar. I detta dokument presenterar vi en ny generisk arc-consistency algoritm AC-5. Denna algoritm parametriseras på två specificerade procedurer och kan omedelbart reduceras till AC-3 och AC-4. Viktigare, AC-5 kan omedelbart producera en O(ed) algoritm för ett antal viktiga klasser av begränsningar: funktionella, anti-funktionella, monotona och deras generalisering till (funktionella, anti-funktionella, och monotona) bitvisa begränsningar. Vi visar också t h a t A C-5 har en viktig tillämpning i begränsning logik programmering över nite domäner 24]. Kärnan i begränsningen s o l v er för ett sådant programmeringsspråk är en arc-consistency algoritm för en uppsättning grundläggande begränsningar. Ett beslutsförfarande för dessa begränsningar pågår i tid O(ed). 1 Detta dokument är en utökad version av 3]. | En generisk arcconsistency-algoritm AC-5 har föreslagits i REF och kan användas för att producera linjära algoritmer för olika klasser av begränsningar såsom funktionella och monotona begränsningar. | 13,511,598 | A generic arc-consistency algorithm and its specializations | {'venue': 'Artificial Intelligence', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 4,426 |
Phishing är en form av identitetsstöld online som syftar till att stjäla känslig information som banklösenord online och kreditkortsinformation från användare. Fishing bedrägerier har fått omfattande pressbevakning eftersom sådana attacker har ökat i antal och sofistikering. Enligt en studie av Gartner har 57 miljoner amerikanska Internetanvändare identifierat mottagandet av e-post kopplad till nätfiske bedrägerier och cirka 2 miljoner av dem beräknas ha lurats att ge bort känslig information. Detta dokument presenterar en ny webbläsartillägg, AntiPhish, som syftar till att skydda användare mot spoofed webbplats-baserade phishing attacker. I detta syfte, AntiPhish spårar känslig information för en användare och genererar varningar när användaren försöker ge bort denna information till en webbplats som anses opålitlig. | En anti-phishing webbläsartillägg (AntiPh) ges i REF. | 5,882,446 | Protecting Users against Phishing Attacks | {'venue': 'Comput. J.', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,427 |
Vi föreslår en allmän ram kallad Network Dissektion för att kvantifiera tolkningen av latenta representationer av CNN genom att utvärdera anpassningen mellan enskilda dolda enheter och en uppsättning semantiska begrepp. Med tanke på alla CNN-modeller bygger den föreslagna metoden på en bred uppsättning visuella begrepp för att poängsätta de dolda enheternas semantik vid varje mellanliggande konvolutionsskikt. Enheterna med semantik ges etiketter över en rad olika objekt, delar, scener, texturer, material och färger. Vi använder den föreslagna metoden för att testa hypotesen att enheters tolkningsförmåga är likvärdig med slumpmässiga linjära kombinationer av enheter, sedan använder vi vår metod för att jämföra latenta representationer av olika nätverk när de utbildas för att lösa olika övervakade och självövervakade utbildningsuppgifter. Vi analyserar vidare effekten av träning iterationer, jämför nätverk tränade med olika initieringar, undersöker effekten av nätverkets djup och bredd, och mäter effekten av dropout och batch normalisering på tolkningen av djupa visuella representationer. Vi visar att den föreslagna metoden kan belysa CNN-modellernas egenskaper och utbildningsmetoder som går utöver mätningar av deras diskriminerande kraft. * anger samma avgift Källkod och uppgifter som finns tillgängliga på http://netdissect. | I REF, Bau et al. introducerade sex typer av semantiska filter för CNN: objekt, delar, scener, texturer, material och färger. | 378,410 | Network Dissection: Quantifying Interpretability of Deep Visual Representations | {'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 4,428 |
Abstract-Bipartite grafer kan modellera många verkliga applikationer, inklusive användare-rating-produkter på online marknadsplatser, användare-klick-webbsidor på World Wide Web och användarerefer-användare i sociala nätverk. I dessa grafer, anomaliteten av noder i en partit beror ofta på den av deras anslutna noder i den andra partiten. Tidigare studier har visat att detta beroende kan vara positivt (onormaliteten av en nod i en partit ökar eller minskar tillsammans med den av dess anslutna noder i den andra parten) eller negativt (onormaliteten av en nod i en partit stiger eller faller i motsatt riktning till den av dess anslutna noder i den andra parten). I detta dokument förenar vi både positiva och negativa ömsesidiga beroendeförhållanden i ett oövervakat ramverk för att upptäcka onormala noder i bipartitdiagram. Detta är det första arbetet som integrerar både ömsesidiga beroendeprinciper för att modellera den fullständiga uppsättningen av avvikande beteenden av noder som inte kan identifieras av någondera principen ensam. Vi formulerar våra principer och utformar en iterativ algoritm för att samtidigt beräkna anomalien poäng av noder i båda partiterna. Dessutom, vi matematiskt bevisa att rangordningen av noder genom anomali poäng i varje partit konvergerar. Vårt ramverk granskas på syntetiska grafer och resultaten visar att vår modell överträffar befintliga modeller med endast positiva eller negativa ömsesidiga beroendeprinciper. Vi tillämpar också vårt ramverk för två verkliga dataset: Goodreads som en användarrankning-bok inställning och Buzzcity som en användare-klickadvertisement inställning. Resultaten visar att vår metod kan upptäcka misstänkta skräppostanvändare och spammade böcker i Goodreads och uppnå högre precision när det gäller att identifiera bedrägliga reklamförlag än befintliga metoder. | I REF presenterade författarna ett oövervakat ramverk för att upptäcka avvikande noder i bipartitdiagram. | 10,369,095 | Detecting Anomalies in Bipartite Graphs with Mutual Dependency Principles | {'venue': '2012 IEEE 12th International Conference on Data Mining', 'journal': '2012 IEEE 12th International Conference on Data Mining', 'mag_field_of_study': ['Computer Science']} | 4,429 |
Abstrakt. Vi föreslår att lära pixel-nivå segmenteringar av objekt från svagt märkta (taggade) internet-videor. Särskilt, med tanke på en stor samling rå YouTube-innehåll, tillsammans med potentiellt bullriga taggar, vårt mål är att automatiskt generera spatiotemporala masker för varje objekt, som "hund", utan att använda några förtränade objekt detektorer. Vi formulerar detta problem som att lära svagt övervakade klassificeringar för en uppsättning oberoende spatio-temporala segment. De objektfrön som erhålls med hjälp av segment-nivå klassificerare är ytterligare förfinas med hjälp av grafcuts för att generera hög precision objekt masker. Våra resultat, som erhållits genom utbildning på en datauppsättning av 20 000 YouTube-videor svagt taggade i 15 klasser, visar automatisk extraktion av pixel-nivå objektmasker. Utvärderas mot en mark-truthed delmängd av 50.000 ramar med pixel-nivå kommentarer, bekräftar vi att våra föreslagna metoder kan lära sig bra objekt masker bara genom att titta på YouTube. | Hartmann m.fl. Ref formulerade först problemet som att lära svagt övervakade klassificeringar för en uppsättning oberoende spatio-temporala segment. | 7,263,254 | Weakly Supervised Learning of Object Segmentations from Web-Scale Video | {'venue': 'ECCV Workshops', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,430 |
Vi presenterar en hierarkisk översättningsmodell, som kan ses som en kompromiss mellan den hierarkiska frasbaserade modellen och den träd-till-sträng-modellen, för att kombinera fördelarna med de två modellerna. Med hjälp av ytlig tolkning lär sig vår modell regler som består av ord och bitar och som under tiden inför syntaxsammanhållning. Under den vägda synkrona kontextfri grammatik som definieras av dessa regler söker vår modell efter den bästa översättningen och ger målöversättning samtidigt. Våra experiment visar att vår modell avsevärt överträffar den hierarkiska frasbaserade modellen och den träd-till-stränga modellen på engelsk-kinesiska översättningsuppgifter. | REF presenterade en hierarkisk översättningsmodell, som är en kompromiss mellan den hierarkiska frasbaserade modellen och den valkrets-till-stränga modellen. | 12,448,591 | Hierarchical Chunk-to-String Translation | {'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,431 |
Inkrementella hierarkiska textdokument kluster algoritmer är viktiga för att organisera dokument som genereras från strömmande on-line källor, såsom, Newswire och Bloggar. Detta är dock ett relativt outforskat område i textdokumentet som samlar litteratur. Populära inkrementella hierarkiska klusteralgoritmer, nämligen Cobweb och Classit, har inte i stor utsträckning använts med textdokumentdata. Vi diskuterar varför dessa algoritmer i den nuvarande formen inte lämpar sig för textklustring och föreslår en alternativ formulering som innehåller ändringar i algoritmens underliggande fördelningsantagande för att överensstämma med data. Både den ursprungliga Classit algoritmen och vår föreslagna algoritm utvärderas med hjälp av Reuters newswire artiklar och Ohsumed dataset. | En inkrementell hierarkisk klusteralgoritm för textdokument som diskuteras i REF. | 2,955,454 | Incremental hierarchical clustering of text documents | {'venue': "CIKM '06", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,432 |
I denna artikel, den effektiva kretsen partitionering tekniker används genom att använda kluster algoritmer. Tekniken använder kretsens nätlista för att samla kretsen i separationssteg och den minimerar också sammanlänkningsavståndet med den nödvändiga iterationsnivån. Klusteralgoritmen som K-Mean, Y-Mean, K-Medoid utförs på standardriktlinjekretsarna. Resultaten visar att den föreslagna tekniken förbättrar tiden och även minimerar området genom att minska sammanlänkningsavståndet. | Den teknik som presenteras i REF använder kretsens nätlista för att samla kretsen i partitionerande steg. | 16,085,744 | Effective Clustering Algorithms for VLSI Circuit Partitioning Problems | {'venue': None, 'journal': 'Contemporary engineering sciences', 'mag_field_of_study': ['Computer Science']} | 4,433 |
En betydande del av den biomedicinska litteraturen representeras på ett sätt som gör det svårt för konsumenterna att hitta eller aggregera innehåll genom en beräkningsfråga. En metod för att underlätta återanvändning av den vetenskapliga litteraturen är att strukturera denna information som länkad data med hjälp av standardiserad webbteknik. I detta dokument presenterar vi den andra versionen av Biotea, en semantisk, länkad dataversion av den open-access delmängd av PubMed Central som har förbättrats med specialiserade annotationspipelines som använder befintlig infrastruktur från National Center for Biomedical Ontology. Vi exponerar våra modeller, tjänster, mjukvara och dataset. Vår infrastruktur möjliggör manuell och halvautomatisk annotering, resulterande data representeras som RDF-baserade länkade data och kan enkelt frågas med hjälp av SPARQL frågespråk. Vi illustrerar nyttan av vårt system med flera användningsfall. Våra datauppsättningar, metoder och tekniker finns tillgängliga på http://biotea.github.io. | Biotea (https ://biote a.githu b.io) REF ) är en RDF-datauppsättning som innehåller information om några av de artiklar som finns i undergruppen Open Access av PubMed Central, som har förbättrats med specialiserade annoteringsrörledningar. | 3,175,790 | Biotea: semantics for Pubmed Central | {'venue': 'PeerJ', 'journal': 'PeerJ', 'mag_field_of_study': ['Biology', 'Medicine']} | 4,434 |
Ab.~tract-I interaktiva röstapplikationer, FEC system är nödvändiga för återvinning från paketförluster. Dessa system måste han enkelt med en ljuskodning och avkodning overhead för att inte påverka interaktiviteten. Syftet med detta dokument är att studera ett välkänt enkelt FEC-system som har föreslagits och genomförts [1], [2], där viss redundautinformation för varje paket n läggs till i några efterföljande paket n + @. Om paket n går förlorat kommer det att rekonstrueras om paket n + @ tas emot väl. Kvaliteten på den rekonstruerade kopian av paket n beror på mängden information på paket n vi lägger till paket n + @ Vi föreslår en detaljerad köanalys baserad på en röstsedel teorem och få enkla uttryck för ljudkvaliteten som en fnnction av mängden redundans och dess relativa position till den ursprungliga informationen. Analysen visar att FEC systemet inte skalas väl och att kvaliteten kommer att sluta genom att försämras för alla belopp av FEC och för alla offset~. | Altman m.fl. REF study simple media-specifik FEC för ljudöverföring och visa att det ger liten förbättring av kvaliteten på ljud under någon mängd FEC. | 6,275,989 | Queueing analysis of simple FEC schemes for IP telephony | {'venue': 'Proceedings IEEE INFOCOM 2001. Conference on Computer Communications. Twentieth Annual Joint Conference of the IEEE Computer and Communications Society (Cat. No.01CH37213)', 'journal': 'Proceedings IEEE INFOCOM 2001. Conference on Computer Communications. Twentieth Annual Joint Conference of the IEEE Computer and Communications Society (Cat. No.01CH37213)', 'mag_field_of_study': ['Computer Science']} | 4,435 |
I detta dokument presenteras en ny teknik för att korrigera för fördomar i en klassisk estimator med hjälp av en inlärningsmetod. Vi tillämpar en inlärd felkorrigering på en rörledning med enbart rörelseuppskattning. Vår teknik tränar en Gaussian process (GP) regression modell med hjälp av data med marksanning. Ingångarna till modellen är högnivåfunktioner som härrör från punktmolnens geometri, och utgångarna är de förutsagda fördomarna mellan poser som beräknas av estimatorn och marksanningen. De förutsagda partiskheterna tillämpas som en korrigering på de poser som beräknas av estimatorn. Vår teknik är utvärderad på över 50 km av lidar data, vilket inkluderar KITTI odometrie riktmärke och lidar dataset samlas runt University of Toronto campus. Efter att ha tillämpat den inlärda partisk korrigeringen, fick vi betydande förbättringar av lidar odometri i alla testade datauppsättningar. Vi uppnådde cirka 10 procents minskning av fel på alla datauppsättningar från en redan korrekt lidar-adometrialgoritm, på bekostnad av endast mindre än 1 procents ökning av beräkningskostnaden vid körtid. | I REF användes en inlärningsmetod för att lösa avdriften av en LiDAR-baserad rörelseuppskattning. | 19,726,167 | Learning a Bias Correction for Lidar-Only Motion Estimation | {'venue': '2018 15th Conference on Computer and Robot Vision (CRV)', 'journal': '2018 15th Conference on Computer and Robot Vision (CRV)', 'mag_field_of_study': ['Computer Science', 'Engineering']} | 4,436 |
Entitetsbilder kan ge viktig visuell information för kunskapsrepresentationsinlärning. De flesta konventionella metoder lär sig kunskap representationer bara från strukturerade tripletter, ignorera rik visuell information extraherad från entitet bilder. I den här artikeln föreslår vi en roman Imageemotional Knowledge Representation Learning modell (IKRL), där kunskap representationer lärs med både trippel fakta och bilder. Mer specifikt, vi först konstruera representationer för alla bilder av en enhet med en neural bild kodare. Dessa bildrepresentationer integreras sedan i en aggregerad bildbaserad representation via en uppmärksamhetsbaserad metod. Vi utvärderar våra ICRL-modeller på kunskapsgrafkomplettering och trippelklassificering. Experimentella resultat visar att våra modeller överträffar alla baslinjer för båda uppgifterna, vilket visar betydelsen av visuell information för kunskapsrepresentationer och våra modellers förmåga att lära sig kunskapsrepresentationer med bilder. | I REF lär man sig kunskapsrepresentationer med både tripletter och bilder från ett gemensamt mål. | 9,909,815 | Image-embodied Knowledge Representation Learning | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 4,437 |
Att testa ett grafiskt gränssnitts visuella beteende kräver vanligtvis mänskliga testare för att interagera med det grafiska gränssnittet och för att observera om de förväntade resultaten av interaktion presenteras. I detta dokument presenteras en ny metod för GUI-testning med hjälp av datorseende för testare att automatisera sina uppgifter. Testare kan skriva ett visuellt testskript som använder bilder för att ange vilka grafiska komponenter som ska interagera med och vilken visuell feedback som ska observeras. Testare kan också generera visuella testskript genom demonstration. Genom att spela in både inmatningshändelser och skärmbilder är det möjligt att extrahera bilder av komponenter interagerade med och visuell feedback sett av demonstrator, och generera ett visuellt testskript automatiskt. Vi visar att en mängd olika GUI beteende kan testas med hjälp av detta tillvägagångssätt. Vi visar också hur detta tillvägagångssätt kan underlätta goda testmetoder såsom enhetstester, regressionstester och testdriven utveckling. | Chang och Al. REF presenterar Sikuli Test i syfte att underlätta för testare att skriva och generera visuella testskript för grafiskt gränssnitt. | 9,870,881 | GUI testing using computer vision | {'venue': 'CHI', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,438 |
Den regulariserade slumpmässiga skogen (RRF) föreslogs nyligen för funktionsval genom att bygga endast en ensemble. I RRF utvärderas funktionerna på en del av träningsdatan vid varje trädknutpunkt. Vi härleder en övre gräns för antalet distinkta Gini information vinna värden i en nod, och visar att många funktioner kan dela samma informationsvinst på en nod med ett litet antal instanser och ett stort antal funktioner. I en nod med ett litet antal fall kommer därför RRF sannolikt att välja en funktion som inte är särskilt relevant. Här föreslås en förbättrad RRF, kallad den vägledande RRF (GRRF). I GRRF används betydelsepoängen från en vanlig slumpmässig skog (RF) för att vägleda urvalsprocessen i RRF. Experiment på 10 gendatauppsättningar visar att noggrannheten hos GRRF i allmänhet är mer robust än RRF när deras parametrar ändras. GRRF är beräkningseffektiv, kan välja kompakta funktionsundergrupper, och har konkurrenskraftig noggrannhet prestanda, jämfört med RRF, varSelRF och LASSO logistisk regression (med utvärderingar från en RF klassificerare). Dessutom, RF tillämpas på de funktioner som väljs av RRF med minimal legalisering outperforms RF tillämpas på alla funktioner för de flesta av de datamängder som beaktas här. Därför, om noggrannhet anses vara viktigare än storleken på funktionen * Denna forskning stöddes delvis av ONR bidrag N00014-09-1-0656. E-postadresser: [email protected] (Houtao Deng), [email protected] (George Rugger) 3 maj 2014 delmängd, RRF med minimal reglering kan övervägas. Vi använder noggrannheten prestanda av RF, en stark klassificering, för att utvärdera funktionen urvalsmetoder, och illustrera att svaga klassificerare är mindre kapabla att fånga informationen i en funktion delmängd. Både RRF och GRRF genomfördes i RRF-paketet som finns tillgängligt på CRAN, det officiella R-paketarkivet. | Deng och Runger REF föreslog en guidad regulariserad RF (GRF), där vikter av betydelse poäng från en vanlig slumpmässig skog (RF) används för att vägleda funktionen urvalsprocessen. | 12,895,825 | Gene selection with guided regularized random forest | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 4,439 |
Abstrakt. Den öppna grop gruvblock sekvensering problem (OPBS) söker en diskret tid produktionsschema som maximerar nettonuvärdet av malmkroppen extraheras från en öppen gruva. Detta heltal program (IP) diskretiserar gruvans volym i block, inför företräde begränsningar mellan block, och begränsar resursförbrukningen i varje tidsperiod. Vi utvecklar en "glidande tidsfönster heuristic" för att lösa denna IP ungefär. Den heuristiska rekursivt definierar, löser och delvis fixar en approximerande modell med: (i) fasta variabler i tidiga tidsperioder, (ii) en exakt undermodell definierad över ett "fönster" av medeltidsperioder, och (iii) en avslappnad undermodell i senare tidsperioder. Den heuristiska producerar nära-optimala lösningar (vanligtvis inom 2% av optimalitet) för modeller som standard optimering programvara misslyckas med att lösa. Dessutom producerar den snabbt dessa lösningar, även om vår OPBS-modell upprätthåller standardbegränsningar för resursförbrukningen med lägre standard, men viktiga begränsningar med lägre begränsningar. | REF beskriver en skjuttid fönster heuristic (STWH) för att lösa en långsiktig, | 9,835,470 | A sliding time window heuristic for open pit mine block sequencing | {'venue': None, 'journal': 'Optimization Letters', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 4,440 |
Att skapa högupplösta, fotorealistiska bilder har varit ett långvarigt mål inom maskininlärning. Nyligen, Nguyen et al. [37] visade ett intressant sätt att syntetisera nya bilder genom att utföra lutningsstigning i det latenta utrymmet i ett generatornätverk för att maximera aktiveringen av en eller flera neuroner i ett separat klassificeringsnätverk. I detta dokument utökar vi denna metod genom att införa ytterligare en tidigare på latent kod, förbättra både provkvalitet och provmångfald, vilket leder till en toppmodern generativ modell som producerar högkvalitativa bilder vid högre upplösning (227 × 227) än tidigare generativa modeller, och gör det för alla 1000 ImageNet kategorier. Dessutom ger vi en enhetlig probabilistisk tolkning av relaterade aktiveringsmaximeringsmetoder och kallar den allmänna klassen av modeller "Plug and Play Generative Networks". PPGNs består av 1) ett generatornätverk G som kan rita ett brett utbud av bildtyper och 2) ett utbytbart "villkor" nätverk C som talar om för generatorn vad man ska rita. Vi demonstrerar generering av bilder betingade på en klass (när C är ett ImageNet eller MIT Places klassificering nätverk) och även betingad på en bildtext (när C är en bildtextning nätverk). Vår metod förbättrar också state of the art of Multifaceted Feature Visualisering [40], som genererar den uppsättning syntetiska ingångar som aktiverar en neuron för att bättre förstå hur djupa neurala nätverk fungerar. Slutligen visar vi att vår modell presterar någorlunda bra på uppgiften att måla bilden. Medan bildmodeller används i detta dokument, metoden är modalitet-agnostic och kan tillämpas på många typer av data. † Detta arbete utfördes mestadels på Geometric Intelligence, som Uber förvärvade för att skapa Uber AI Labs. Figur 1 : Bilder syntetiskt genererade av Plug och Play Generativa Nätverk vid hög upplösning (227x227) för fyra ImageNet klasser. Inte bara är många bilder nästan fotorealistiska, men prover inom en klass är olika. | I REF föreslås en metod som kallas "Plug and Play Generative Networks" som är en förlängning av den tidigare metoden. | 2,023,211 | Plug & Play Generative Networks: Conditional Iterative Generation of Images in Latent Space | {'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 4,441 |
En utmaning med att införa talade dialogsystem för långsiktigt samspel är hur man anpassar dialogen i takt med att användare och system blir mer bekanta. Vi anser att denna utmaning inkluderar evoking och signalerande aspekter av långsiktiga relationer såsom relation. För handledningssystem, kan detta dessutom kräva att veta hur relationer signaleras bland icke-vuxna användare. Vi undersöker därför samtalsstrategier som används av tonåringar i kamrathandledning dialoger, och hur dessa strategier fungerar olika bland vänner eller främlingar. I synnerhet använder vi kommenterade och automatiskt extraherade språkliga enheter för att förutsäga oartighet och positivitet i nästa omgång. För att ta hänsyn till dessa egenskapers glesa natur i verkliga data använder vi modeller som Lasso, åsskattning och elastiskt nät. Vi utvärderar den prediktiva kraften hos våra modeller under olika inställningar och jämför våra glesa modeller med vanliga icke-sparse-lösningar. Våra experiment visar att våra modeller är mer exakta än icke-sparse modeller kvantitativt, och att tonåringar använder oväntade typer av språk för att göra relationsarbete såsom signalerande relation, men vänner och främlingar, handledare och tutees, utför detta arbete på helt olika sätt från varandra. | REF undersökte olika sociala funktioner i språket som används av vänner eller främlingar i peer-tutoring dialoger för tonåringar. | 11,149,335 | Love ya, jerkface: Using Sparse Log-Linear Models to Build Positive and Impolite Relationships with Teens | {'venue': 'Proceedings of the 13th Annual Meeting of the Special Interest Group on Discourse and Dialogue', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,442 |
Abstract-Several Vehicular Ad hoc Network (VANET) studier har fokuserat på kommunikationsmetoder baserade på IEEE 802.11p, som utgör standarden för trådlös åtkomst för vehikulära miljöer (Wave). I de nät där endast IEEE 802.11p används försämras fördröjnings- och leveransförhållandet för spridning av säkerhetsmeddelanden vid höga och låga fordonstätheter. Nyligen, som ett alternativ till IEEE 802.11p-baserade VANET, har användningen av cellulär teknik undersökts på grund av deras låga latens och bred räckvidd kommunikation. En ren cellbaserad VANET-kommunikation är dock inte möjlig på grund av den höga kostnaden för kommunikation mellan fordonen och basstationerna, och ett stort antal händelser vid basstationen med tanke på fordonens höga rörlighet. I detta dokument föreslås en hybridarkitektur, nämligen VMaSC-LTE, som kombinerar IEEE 802.11p-baserad multihopklustring och fjärde generationens cellsystem, Long Term Evolution (LTE), med målet att uppnå hög datapaketleveranskvot och låg fördröjning samtidigt som användningen av den cellulära arkitekturen hålls på lägsta nivå. I VMaSC-LTE är fordon grupperade baserat på en ny metod som heter VMaSC: Vehicular Multi-hop algoritm för Stable Clustering. Egenskaperna hos VMaSC är val av klusterhuvud med hjälp av den relativa mobiliteten metriska beräknas som den genomsnittliga relativa hastigheten med avseende på angränsande fordon, klusteranslutning med minsta overhead genom att införa direkt anslutning till grannen som redan är ett huvud eller medlem av ett kluster i stället för att ansluta till klusterhuvudet i flera humle, sprida klustermedlemsinformation inom periodiska hej-paket, reaktiv klusterbildning för att upprätthålla klusterstruktur utan överdriven förbrukning av nätverksresurser, och effektiv storlek och humle begränsad kluster sammanslagningsmekanism baserad på utbyte av klusterinformation mellan klusterhuvuden. Dessa funktioner minskar antalet kluster huvuden samtidigt öka sin stabilitet därför minimera användningen av den cellulära arkitekturen. Från den klustererade topologin fungerar valda klusterhuvuden som dual-interface noder med funktionaliteten i IEEE 802.11p och LTE-gränssnittet för att länka VANET till LTE-nätverket. Med hjälp av olika nyckelmått av intresse, inklusive datapaketleveransförhållande, fördröjning, kontroll overhead och klusterstabilitet, visar vi överlägsen prestanda hos den föreslagna arkitekturen jämfört med både tidigare föreslagna hybridarkitekturer och alternativa routingmekanismer inklusive översvämningar och klusterbaserad routing via omfattande simuleringar i ns-3 med fordonets mobilitetsinput från simuleringen av urban mobilitet (SUMO). Den föreslagna arkitekturen gör det också möjligt att uppnå en högre tillförlitlighet hos applikationen som kvantifieras av datapaketleveransförhållandet till priset av en högre LTE-användning som bestäms av antalet klusterhuvuden i nätverket. | Fordon är grupperade i en multi-hop-baserad ny metod som heter VMaSC i REF. | 17,739,044 | Multi-Hop Cluster based IEEE 802.11p and LTE Hybrid Architecture for VANET Safety Message Dissemination | {'venue': 'IEEE Transactions on Vehicular Technology', 'journal': 'IEEE Transactions on Vehicular Technology', 'mag_field_of_study': ['Computer Science']} | 4,443 |
Vi föreslår en mycket kompakt tvådelad representation av en given graf G som består av en grafsammanfattning och en uppsättning korrigeringar. Diagramsammanfattningen är en aggregerad graf där varje nod motsvarar en uppsättning noder i G, och varje kant representerar kanterna mellan alla noder i de två uppsättningarna. Å andra sidan anger korrigeringsdelen listan över kantkorrigeringar som ska tillämpas på sammanfattningen för att återskapa G. Våra representationer möjliggör både förlustfri och förlustfri grafkompression med gränser för det införda felet. Dessutom, i kombination med MDL-principen, ger de mycket intuitiva grova-nivå sammanfattningar av ingångsgraf G. Vi utvecklar algoritmer för att konstruera starkt komprimerade graf representationer med små storlekar och garanterad noggrannhet, och validera vår strategi genom en omfattande uppsättning experiment med flera verkliga grafdata. Såvitt vi vet är detta det första arbetet med att beräkna grafsammanfattningar med hjälp av MDL-principen och använda sammanfattningarna (tillsammans med rättelser) för att komprimera grafer med begränsat fel. | Navlakha m.fl. I REF föreslogs en grafsammanfattningsmetod enligt MDL-principen. | 9,558,772 | Graph summarization with bounded error | {'venue': 'SIGMOD Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,444 |
Hur kan vi förklara förutsägelserna om en svart låda modell? I denna uppsats använder vi influensfunktioner - en klassisk teknik från robust statistik - för att spåra en modells förutsägelse genom inlärningsalgoritmen och tillbaka till dess träningsdata och därmed identifiera utbildningspunkter som är mest ansvariga för en given förutsägelse. För att skala upp påverkan funktioner till moderna maskininlärningsinställningar, utvecklar vi en enkel, effektiv implementation som kräver endast oracle tillgång till gradienter och hessiska-vektor produkter. Vi visar att även på icke-konvexa och icke-differentierbara modeller där teorin bryts ner kan approximationer för att påverka funktioner fortfarande ge värdefull information. På linjära modeller och konvolutionella neurala nätverk, visar vi att influensfunktioner är användbara för flera ändamål: att förstå modellbeteende, debugging modeller, upptäcka dataset fel, och även skapa visuellt oskiljaktiga tränings-set attacker. | Slutligen kan påverka funktioner från robust statistik användas för att spåra en viss förutsägelse tillbaka till utbildningsdata som är ansvariga för det REF. | 13,193,974 | Understanding Black-box Predictions via Influence Functions | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 4,445 |
Abstract-Online text maskin översättningssystem används i stor utsträckning över hela världen fritt. De flesta av dessa system använder statistisk maskinöversättning (SMT) som är baserad på en corpus full med översättning exempel för att lära sig av dem hur man översätta korrekt. Online-textmaskin översättningssystem skiljer sig kraftigt i deras effektivitet, och därför måste vi ganska utvärdera deras effektivitet. Generellt är den manuella (mänskliga) utvärderingen av maskinöversättningssystem (MT) bättre än den automatiska utvärderingen, men det är inte möjligt att använda. Avståndet eller likheten mellan MT-kandidatens utdata och en uppsättning referensöversättningar används av många MT-utvärderingsmetoder. Denna studie presenterar en jämförelse av effektiviteten av två gratis online-maskin översättningssystem (Google Translate och Babylon maskin översättningssystem) att översätta arabiska till engelska. Det finns många automatiska metoder som används för att utvärdera olika maskinöversättare, en av dessa metoder; Tvåspråkig utvärdering Understudie (BLEU) metod. BLEU används för att utvärdera översättningskvalitet av två gratis online-maskin översättningssystem under övervägande. En corpus består av mer än 1000 arabiska meningar med två referens engelska översättningar för varje arabisk mening används i denna studie. Denna corpus av arabiska meningar och deras engelska översättningar består av 4169 arabiska ord, där antalet unika arabiska ord är 2539. Denna corpus släpps online för att användas av forskare. Dessa arabiska meningar är fördelade på fyra grundläggande meningsfunktioner (deklarativa, interrogativa, exklusiva och tvingande). De experimentella resultaten visar att Google maskin översättningssystem är bättre än Babylon maskin översättningssystem i termer av precision av översättning från arabiska till engelska. | Hadla, Hailat och Al-Kabi studie REF studie drar slutsatsen att Google Translate system är mer exakt än Babylon MT system i termer av översättning från arabiska till engelska. | 2,356,278 | Evaluating Arabic to English Machine Translation | {'venue': None, 'journal': 'International Journal of Advanced Computer Science and Applications', 'mag_field_of_study': ['Computer Science']} | 4,446 |
Abstrakt. Vi beskriver ett nytt ramverk för klassbullerminimering som ger en vektor av klassmedlemskap sannolikheter till varje träningstillfälle, och använder förtroendet på den nuvarande etiketten som en vikt under utbildningen. Sannolikheten vektor bör beräknas så att rena instanser har ett högt förtroende på sin nuvarande etikett, medan felmärkta fall har ett lågt förtroende på sin nuvarande etikett och ett högt förtroende på sin korrekta etikett. Tidigare forskning fokuserar på tekniker som antingen kasserar eller korrigerar fall. I detta dokument föreslås att kassering och korrigering ska vara specialfall av viktning i instans, och därmed en del av denna ram. Vi föreslår en metod som använder kluster för att beräkna en sannolikhetsfördelning över klassetiketterna för varje instans. Vi visar att vår metod förbättrar klassificeringsnoggrannheten över det ursprungliga träningssetet. Vi visar också att viktning av fall kan överträffa kassering. | REF använder kluster för att uppskatta sannolikheter över klassetiketterna och sedan använda förtroendet på den rapporterade etiketten som en vikt under utbildningen för att minska buller i data. | 16,616,883 | Class Noise Mitigation through Instance Weighting | {'venue': 'ECML', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,447 |
Vi presenterar en omfattande översyn av den senaste tekniken inom videosurfning och hämtningssystem, med särskild tonvikt på gränssnitt och applikationer. Det har skett en betydande ökning av aktiviteten (t.ex. lagring, hämtning och delning) med hjälp av videodata under det senaste årtiondet, både för personligt och professionellt bruk. Den ständigt växande mängden videoinnehåll som är tillgänglig för mänsklig konsumtion och de inneboende egenskaperna hos videodata-som, om de presenteras i sitt råa format, är ganska otymplig och kostsam-har blivit drivkrafter för utvecklingen av effektivare lösningar för att presentera videoinnehåll och tillåta rik användarinteraktion. Som ett resultat, det finns många samtida forskningsinsatser för att utveckla bättre videosurfing lösningar, som vi sammanfattar. Vi granskar mer än 40 olika gränssnitt för videosökning och hämtning och klassificerar dem i tre grupper: applikationer som använder videospelarliknande interaktion, videosökningsprogram och webblösningar baserade på videosurrogat. För varje kategori presenterar vi en sammanfattning av det befintliga arbetet, lyfter fram de tekniska aspekterna av varje lösning och jämför dem med varandra. C 2010 Society of Photo-Optic Instrumentation Ingenjörer. | I Schoeffmann et al REF:s granskning presenteras den senaste tekniken för gränssnitt och applikationer för videobläddring. | 54,625,776 | Video browsing interfaces and applications: a review | {'venue': None, 'journal': 'Spie Reviews', 'mag_field_of_study': ['Physics']} | 4,448 |
Säkerhet är avgörande för ett brett spektrum av trådlösa dataapplikationer och -tjänster. Flera säkerhetsmekanismer och säkerhetsprotokoll har utvecklats i samband med Internet, men många nya utmaningar uppstår på grund av de unika egenskaperna hos batteridrivna inbyggda system. I detta arbete fokuserar vi på en viktig begränsning av sådana apparater - batteriliv - och undersöka hur det påverkas av användningen av säkerhetsprotokoll. Vi presenterar en omfattande analys av energibehovet hos ett brett spektrum av kryptografiska algoritmer som används som byggstenar i säkerhetsprotokoll. Dessutom studerar vi energiförbrukningskraven i det mest populära transport-lager säkerhetsprotokollet SSL (Secure Sockets Layer). Enligt vår kunskap är detta den första omfattande analysen av SSL:s energibehov. För våra studier har vi utvecklat en mätbaserad experimentell testbädd som består av en iPAQ PDA ansluten till ett trådlöst LAN och kör Linux, ett PC-baserat datainhämtningssystem för realtidsströmmätning, OpenSSL-implementationen av SSL-protokollet och parametrizable SSL-klient- och servertestprogram. Vi undersöker effekterna av olika parametrar på protokollnivå (såsom chiffersviter, autentiseringsmekanismer, och transaktionsstorlekar, etc.) och kryptografisk algoritmnivå (chifferlägen, hållfasthet) för den totala energiförbrukningen för säkra datatransaktioner. Baserat på våra resultat diskuterar vi olika möjligheter att förverkliga energieffektiva implementeringar av säkerhetsprotokoll. Vi anser att sådana utredningar är ett viktigt första steg mot att ta itu med utmaningarna med energieffektiv säkerhet för batteridrivna system. | Effekterna av olika parametrar på protokollnivå (t.ex. chiffersviter, autentiseringsmekanismer och transaktionsstorlekar osv.) och kryptografisk algoritmnivå (chifferlägen, styrka) på total energiförbrukning för säkra datatransaktioner har undersökts i REF. | 10,822,484 | Analyzing the energy consumption of security protocols | {'venue': "ISLPED '03", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,449 |
Abstrakt. Vi tar itu med problemet med semantisk segmentering, eller flerklassig pixelmärkning, genom att konstruera en graf av täta överlappande lappkorrespondenser över stora bilduppsättningar. Vi överför sedan kommentarer från märkta bilder till omärkta bilder med hjälp av den etablerade patchkorrespondensen. Till skillnad från tidigare tillvägagångssätt för icke-parametrisk etikettöverföring kräver vårt tillvägagångssätt inte ett initialt bildsökningssteg. Dessutom arbetar vi med en graf för att beräkna kartläggningar mellan bilder, vilket undviker behovet av uttömmande parvisa jämförelser. Följaktligen kan vi utnyttja offline beräkning för att förbättra prestanda vid testtid. Vi utför omfattande experiment för att analysera olika varianter av vår grafkonstruktionsalgoritm och utvärdera multi-klass pixel märkning prestanda på flera utmanande dataset. | I REF istället för att använda en hämtningsuppsättning för att överföra etiketterna konstrueras en graf med täta överlappande lappkorrespondenser, och frågebilden är märkt med hjälp av etablerade patchkorrespondenser. | 6,520,851 | PatchMatchGraph: Building a Graph of Dense Patch Correspondences for Label Transfer | {'venue': 'ECCV', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,450 |
Abstract-Wireless sensor nätverk känner och övervaka realtid händelser. De övervakar ett geografiskt område där ett fenomen ska övervakas. Data i sensornätverk har olika prioritetsnivåer och därför skiljer sig deras kritiska egenskaper åt. För att upprätthålla realtidsåtagandet behöver applikationerna högre överföringshastighet och tillförlitlighet i informationsleveransen. I detta arbete föreslår vi en multipat routingalgoritm som möjliggör tillförlitlig leverans av data. Genom att kontrollera tidtabellen är det möjligt att förhindra överbelastning och paketförluster i nätet. Algoritmen ger ett effektivt sätt att förhindra paketförlust vid varje nod. Detta resulterar i trängselhantering i sensornätverken. Detta protokoll förhindrar paketkluster och ger smidighet till trafiken. Genom övervakning och kontroll av tidtabellshastigheten hanteras flödeskontrollen och trängselkontrollen. Index Termer hastighet, schemaläggningsenhet, trådlösa sensornätverk (WSN) | För att möjliggöra tillförlitlig data leverans en multipat routing algoritm presenteras i REF. | 156,372 | Multipath Routing With Novel Packet Scheduling Approach In Wireless Sensor Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 4,451 |
Bakgrund: Den maximala känsligheten för lokala anpassningar gör Smith-Waterman algoritmen ett populärt val för proteinsekvens databassökning baserat på parvis anpassning. Emellertid, algoritmen är compute-intensiv på grund av en quadratic tid komplexitet. Motsvarande körtider förstärks ytterligare av den snabba tillväxten av sekvensdatabaser. Resultat: Vi presenterar CUDASW++ 3.0, en snabb Smith-Waterman protein databassökning algoritm, som par CPU och GPU SIMD instruktioner och utför samtidiga CPU och GPU beräkningar. För CPU-beräkningen använder denna algoritm SSE-baserade vektorutförandeenheter som acceleratorer. För GPU-beräkningen har vi för första gången undersökt en GPU SIMD-parallalisering, som använder CUDA PTX SIMD-videoinstruktioner för att få mer dataparallalism utöver SIMT-utförandemodellen. Dessutom är sekvens anpassning arbetsbelastningar automatiskt distribueras över processorer och GPU:er baserat på deras respektive beräkningsfunktioner. Utvärdering på Swiss-Prot-databasen visar att CUDASW++ 3.0 får en prestandaförbättring jämfört med CUDASW++ 2.0 upp till 2,9 och 3,2, med en maximal prestanda på 119,0 och 185,6 GCUPS, på en GPU GeForce GTX 680 och en dual-GPU GeForce GTX 690 grafikkort, respektive. Dessutom har vår algoritm visat betydande speedups över andra högpresterande verktyg: SWIPE och BLAST+. Slutsatser: CUDASW++ 3.0 är skrivet på CUDA C++ och PTX monteringsspråk, med inriktning på GPU:er baserade på Kepler arkitektur. Denna algoritm får betydande speedups över sin föregångare: CUDASW++ 2.0, genom att dra nytta av användningen av CPU och GPU SIMD instruktioner samt samtidig körning på CPUs och GPUs. Källkoden och simulerade data finns tillgängliga på http://cudasw.sourceforge.net. | Liu m.fl. REF använder GPU SIMD parallellisering med PTX instruktioner för att få ytterligare data parallellism. | 4,889,656 | CUDASW++ 3.0: accelerating Smith-Waterman protein database search by coupling CPU and GPU SIMD instructions | {'venue': 'BMC Bioinformatics', 'journal': 'BMC Bioinformatics', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 4,452 |
Konstruktiv Induktion är processen att omvandla den ursprungliga representationen av hårda begrepp med komplex interaktion till en representation som belyser regularitet. De flesta Constructive Induction metoder tillämpar en girig strategi för att hitta interagerande attribut och sedan konstruera funktioner över dem. Detta tillvägagångssätt misslyckas när komplex interaktion finns bland attribut och sökytan har hög variation. I detta dokument illustrerar vi vikten av att tillämpa Genetic Algorithms som en global sökstrategi för dessa metoder och presentera MFE2/GA 1, samtidigt som man jämför den med andra GA-baserade Constructive Induction metoder. Vi analyserar empiriskt våra Genetiska Algoritmers operatörer och jämför MFE2/GA med giriga metoder. Vi utförde också experiment för att utvärdera den presenterade metoden när konceptet har attribut som deltar i mer än en komplex interaktion. I experiment som utförs, MFE2/GA framgångsrikt finner interagerande attribut och konstruerar funktioner för att representera interaktioner. Resultat visar fördelen med att använda Genetiska Algoritmer för Constructive Induction jämfört med giriga metoder. | I REF diskuterar författarna vikten av att tillämpa GA som en global sökstrategi för CI-metoder och fördelarna med att använda dessa strategier istället för klassiska giriga metoder. | 2,837,827 | Constructive induction and genetic algorithms for learning concepts with complex interaction | {'venue': "GECCO '05", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,453 |
Abstract-Person återidentifiering i en icke-överlappande multicamera scenario är en öppen utmaning i datorseende på grund av de stora förändringar i utseendet som orsakas av variationer i visningsvinkel, belysning, bakgrund skräp, och ocklusion över flera kameror. Som ett resultat av dessa variationer, funktioner som beskriver samma person förvandlas mellan kameror. För att modellera omvandlingen av funktioner är funktionsutrymmet ickelinjärt förvrängt för att få "varpfunktioner". Varpfunktionerna mellan två instanser av samma mål bildar uppsättningen av möjliga warpfunktioner medan de mellan instanser av olika mål bildar uppsättningen av ogenomförbara warpfunktioner. I detta arbete, bygger vi på observationen att funktioner omvandlingar mellan kameror ligger i en icke-linjär funktion utrymme av alla möjliga funktionsomvandlingar. Utrymmet som består av alla möjliga och ogenomförbara warpfunktioner är warpfunktionsutrymmet (WFS). Vi föreslår att lära oss en särskiljande yta som separerar dessa två uppsättningar warpfunktioner i WFS och att på nytt identifiera personer genom att klassificera en testvarpfunktion som möjlig eller ogenomförbar. Mot detta mål används en kategorisering av Random Forest (RF) som effektivt väljer warpfunktionskomponenterna beroende på deras betydelse för att separera de möjliga och de ogenomförbara warpfunktionerna i WFS. Omfattande experiment på fem datauppsättningar utförs för att visa att det föreslagna tillvägagångssättet är överlägset jämfört med de senaste metoderna för omidentifiering av personer. Vi visar att vårt tillvägagångssätt överträffar alla andra metoder när stora ljusvariationer övervägs. Samtidigt har det visat sig att vår metod når den bästa genomsnittliga prestandan över flera kombinationer av dataseten, vilket visar att vår metod inte bara är utformad för att möta en specifik utmaning som en viss dataset utgör. | I ett nyligen utfört arbete REF föreslog författarna warpfunktionsutrymme (WFS) för att lära sig omvandlingen av funktioner med hjälp av en dynamisk tidsvarningsbaserad algoritm från en uppsättning manuellt märkta data, och använde omvandlingarna i ett diskriminativt ramverk. | 2,835,913 | Re-Identification in the Function Space of Feature Warps | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 4,454 |
Noggrannheten av kardinality uppskattningar är avgörande för att få en bra frågeutförande plan. Dagens optimatorer gör flera enklare antaganden under kardinality uppskattning som kan leda till stora fel och därmed dåliga planer. I ett scenario som frågeoptimeringstest är det mycket önskvärt att få fram den "bästa" planen, dvs. den plan som tagits fram när kardinaliteten för varje relevant uttryck är exakt. En sådan plan fungerar som en baslinje mot vilken planer som produceras med hjälp av den befintliga kardinalitetsberäkningsmodulen i frågeoptimeraren kan jämföras. Men att få alla exakta kardinaler genom att utföra lämpliga underuttryck kan vara oöverkomligt dyrt. I detta papper presenterar vi en uppsättning tekniker som gör exakt kardinalitet frågeoptimering ett genomförbart alternativ för en betydligt större uppsättning frågor än tidigare möjligt. Vi har implementerat denna funktionalitet i Microsoft SQL Server och vi presenterar resultat med hjälp av TPC-H-riktmärke frågor som visar deras effektivitet. | REF presenterar en uppsättning tekniker som gör exakt kardinalitet frågeoptimering ett genomförbart alternativ. | 16,654,823 | Exact Cardinality Query Optimization for Optimizer Testing | {'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']} | 4,455 |
Abstrakt. När semantisk markering blir allestädes närvarande, kommer det att bli viktigt att kunna ställa frågor och få svar, med hjälp av naturligt språk (NL) uttryck, snarare än nyckelordsbaserade hämtningsmekanismer som används av de nuvarande sökmotorerna. AquaLog är ett portabelt frågebesvarande system som tar frågor uttryckta i naturligt språk och en ontologi som indata och returnerar svar hämtade från den tillgängliga semantiska markeringen. Vi säger att AquaLog är portabel, eftersom konfigurationstiden som krävs för att anpassa systemet för en viss ontologi är försumbar. AquaLog kombinerar flera kraftfulla tekniker på ett nytt sätt för att förstå NL-frågor och kartlägga dem till semantisk markup. Dessutom innehåller den också en inlärningskomponent, som säkerställer att systemets prestanda förbättras med tiden, som svar på den särskilda gemenskapsjargong som används av slutanvändarna. I detta dokument beskriver vi den nuvarande versionen av systemet, särskilt genom att diskutera dess portabilitet, dess motiveringsförmåga och dess inlärningsmekanism. | Ett prototypsystem är utvecklat av Lopez, Vanessa, Michele Pasin och Enrico Motta som heter AquaLog REF som är ett portabelt frågesvarssystem som tar frågor uttryckta i naturligt språk och ontologi som indata och returnerar svar hämtade från den tillgängliga semantiska markeringen. | 7,023,605 | AquaLog: An Ontology-Portable Question Answering System for the Semantic Web | {'venue': 'ESWC', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,456 |
Vi presenterar en beräkningsram för konceptuell blandning, en konceptuppfinningsmetod som förespråkas inom kognitiv vetenskap som en grundläggande och unikt mänsklig motor för kreativt tänkande. Vår ram behandlar en avgörande del av blandningsprocessen, nämligen generaliseringen av inmatningskoncept, som ett sökproblem som löses med hjälp av moderna svarsbaserade programmeringsmetoder för att hitta likheter mellan inmatningskoncept. Vi tar också upp problemet med att beskära utrymmet för möjliga blandningar genom att införa mätvärden som fångar upp de flesta av de så kallade optimalitetsprinciperna, som i den kognitiva litteraturen beskrivs som riktlinjer för att producera meningsfulla och serendipitiska blandningar. Som ett bevis på konceptet visar vi hur vårt system uppfinner nya koncept och teorier inom områden där kreativitet är avgörande, nämligen matematik och musik. | Den mest avancerade beräkningsramen för automatiserad konceptuell blandning är Eppe et al. Hoppa över det. | 3,916,894 | A Computational Framework for Conceptual Blending | {'venue': 'Artif. Intell.', 'journal': 'Artif. Intell.', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 4,457 |
Vi anser att problemet med bytespunktsdetektering är att, baserat på bullriga mätningar, avgöra om en okänd signal över en given graf är konstant eller istället bitvis konstant över två anslutna inducerade subgrafer av relativt låg skärstorlek. Vi analyserar motsvarande generaliserade sannolikhetskvot (GLR) statistik och relaterar den till problemet med att hitta en glesaste skär i en graf. Vi utvecklar en dragbar avslappning av GLR statistik baserad på kombinatorial Laplacian av grafen, som vi kallar spektral avsökning statistik, och analysera dess egenskaper. Vi visar hur dess prestanda som testförfarande är direkt beroende av grafens spektrum, och använder detta resultat för att explicit härleda dess asymptotiska egenskaper på få signifikanta graftopologier. Slutligen visar vi både teoretiskt och genom simuleringar att statistiken över spektralskanning kan överträffa naiva testförfaranden baserade på kanttröskel och χ 2-test. | Vi bygger vidare på våra tidigare resultat i REF där Spectral Scan Statistik föreslogs som en konvex spektral avslappning av GLRT och karakteriserar dess statistiska prestanda. | 6,619,780 | Changepoint Detection over Graphs with the Spectral Scan Statistic | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 4,458 |
Abstrakt. Vi presenterar en ny hierarkisk tripletförlust (HTL) som automatiskt kan samla in informativa träningsprover (tripletter) via ett definierat hierarkiskt träd som kodar global kontextinformation. Detta gör att vi kan hantera den huvudsakliga begränsningen av slumpmässig provtagning i utbildning en konventionell triplet förlust, vilket är en central fråga för djup metrisk inlärning. Våra viktigaste bidrag är tvåfaldiga. (i) vi konstruerar ett hierarkiskt klass-nivå träd där angränsande klasser slås samman rekursivt. Den hierarkiska strukturen fångar naturligt den inneboende datadistributionen över hela datauppsättningen. (ii) Vi formulerar problemet med triol insamling genom att införa en ny överträdelse marginal, som beräknas dynamiskt baserat på det utformade hierarkiska trädet. Detta gör det möjligt att automatiskt välja meningsfulla hårda prover med vägledning för globala sammanhang. Det uppmuntrar modellen att lära sig mer diskriminerande egenskaper från visuella liknande klasser, vilket leder till snabbare konvergens och bättre prestanda. Vår metod utvärderas på uppdrag av bildsökning och ansiktsigenkänning, där den överträffar standard trippelförlusten avsevärt med 1%18%. Det uppnår nya toppmoderna resultat på ett antal riktmärken, med mycket färre lärande iterationer. | Ge och al. REF inför en ny kränker marginal, som beräknas dynamiskt över det konstruerade hierarkiska trädet. | 52,956,249 | Deep Metric Learning with Hierarchical Triplet Loss | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 4,459 |
Användningen av obemannade luftfartyg (UAV) som fungerar som flygbasstationer förväntas bli dominerande under det kommande årtiondet. För att denna teknik ska kunna utveckla sin fulla potential är det dock nödvändigt att utveckla en grundläggande förståelse av de utmärkande dragen hos luft-till-mark-förbindelser (A2G). Som ett bidrag i denna riktning föreslås i detta dokument ett generiskt ramverk för analys och optimering av A2G-systemen. I motsats till den befintliga litteraturen innehåller detta ramverk både höjdberoende väg förlust exponent och småskalig blekning, och förenar en allmänt använd mark-till-mark kanal modell med A2G för analys av storskaliga trådlösa nätverk. Vi härleder analytiska uttryck för den optimala UAV-höjden som minimerar sannolikheten för avbrott i en given A2G-länk. Dessutom gör vårt ramverk att vi kan härleda en höjdberoende sluten form uttryck och en snäv lägre gräns för avbrott sannolikheten för ett A2G samarbetsnätverk. Våra resultat tyder på att den optimala placeringen av UAV med avseende på marken noder inte förändras genom att inkludera markreläer. Detta möjliggör intressanta insikter i utbyggnaden av framtida A2G-nätverk, eftersom systemets tillförlitlighet kunde justeras dynamiskt genom att lägga till relänoder utan att kräva ändringar i positionen för motsvarande UAV. Luft till mark (A2G) kommunikation, obemannade luftfartyg (UAV), flygbasstation, avbrottsannolikhet, Rician blekning, omvänd Marcum Q-funktion, samarbetskommunikation, Poisson punkt process (PPP) | Azari et al., i REF, föreslår en ram för analys och optimering av luft till marksystem med hänsyn till höjd och samarbetsmångfald. | 4,992,949 | Ultra Reliable UAV Communication Using Altitude and Cooperation Diversity | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 4,460 |
Metoder för inlärning funktion representationer för offline handskrivna signaturverifiering har framgångsrikt föreslagits i den senaste litteraturen, med hjälp av djupa konvolutionella neurala nätverk för att lära representationer från signatur pixlar. Sådana metoder rapporterade stora prestandaförbättringar jämfört med handgjorda funktionsextraktorer. Men de införde också en viktig begränsning: ingångarna till neurala nätverk måste ha en fast storlek, medan signaturer varierar avsevärt i storlek mellan olika användare. I detta dokument föreslår vi att man tar itu med denna fråga genom att lära sig en fast storleksmässig representation från variableriserade signaturer genom att ändra nätverksarkitekturen med hjälp av spatial pyramidpooling. Vi undersöker också effekterna av upplösningen av de bilder som används för utbildning och effekterna av att anpassa (fine-tuning) representationerna till nya driftsförhållanden (olika förvärvsprotokoll, såsom skrivinstrument och scan-upplösning). På GPDS-datauppsättningen uppnår vi resultat jämförbara med den senaste tekniken, samtidigt som vi tar bort begränsningen att ha en maximal storlek för signaturerna som ska behandlas. Vi visar också att med hjälp av högre upplösning (300 eller 600 dpi) kan förbättra prestandan när kvalificerade förfalskningar från en undergrupp av användare finns tillgängliga för funktionsinlärning, men lägre upplösning (ca 100 dpi) kan användas om endast äkta signaturer används. Slutligen visar vi att finjustering kan förbättra prestandan när driftförhållandena förändras. | Dessutom har Hafemann m.fl. REF svarade på det neurala nätverkets inmatningsrestriktion med fast storlek genom att lära sig en fast representation från variabla signaturbilder med integrering av ett rumsligt pyramidpoolinglager. | 4,565,931 | Fixed-sized representation learning from offline handwritten signatures of different sizes | {'venue': 'International Journal on Document Analysis and Recognition (IJDAR)', 'journal': 'International Journal on Document Analysis and Recognition (IJDAR)', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 4,461 |
ABSTRACT använder olika representationer. Till exempel, överväga flera sensornätverk som mäter samma typ av fysiska fenomen. Varje sensorutplacering kan ha sitt eget sätt att representera semantiskt identisk information, t.ex. "vindhastighet" jämfört med "genomsnittlig vindhastighet", eller "temperatur" jämfört med "termometer". Om en användare vill få de senaste värdena för vindhastighet eller temperaturdata över den region där alla sensornätverk är utplacerade, måste användaren använda en mekanism för att låta systemet förstå semantiskt likvärdiga men olika representationer av data, för att helt svara på frågan. En av lösningarna för att hantera heterogenitet är genom den semantiska annoteringen av sensordata (Sheth, Henson, & Sahoo, 2008), och tillhandahållandet av ontologi-baserad tillgång till det (Calbimonte, Corcho, & Gray, 2010; Taylor & Leidinger, 2011). Det saknas dock bevis för hur detta tillvägagångssätt skalas, särskilt med höga datahastigheter, och i push-baserad leverans av strömmande data. I den här artikeln fokuserar vi på två problem i detta sammanhang: (i) hur man hittar relevanta heterogena sensordatakällor baserade på deras metadata, och (ii) hur man frågar strömmande sensordata från dessa källor. Vi sammanfattar våra bidrag enligt följande: • Vårt huvudsakliga bidrag till det första problemet är användningen av SSN ontology (Compton et al., i press), tillsammans med domänspecifika ordförråd, för modellering av sensormetadata och observationer, förstärkt med kartläggningar till de ursprungliga sensorscheman. I detta syfte använder vi R2RML (Das, Sundara, & Cyganiak, 2012) (RDB-till-RDF-karteringsspråk) för att kartlägga relationsströmmar -istället för tabeller-till ontologier. Således använder vi ontologier som en gemensam modell för att representera sensordata och metadata, för att göra det möjligt att söka efter datakällor och få tillgång till dem genom ontologiska scheman. • För det andra problemet, föreslår vi en frågeskrivning och dataöversättning metod som gör det möjligt att fråga virtuella RDF-strömmar med SPARQL språk med streaming tillägg. Detta tillvägagångssätt utnyttjar R2RML-kartläggningarna för att ge tillgång till sensorns streamingdata, inte bara metadata. Dessutom visar vi att våra frågeskrivande och exekveringsmekanismer är tillämpliga för både pull och push leveranslägen, och även för olika state-of-theart stream processing motorer, såsom SNEE (Galpin, Brenninkmeijer, Jabeen,. Vi tillhandahåller empiriska belägg för prestanda med avseende på provtagningsfrekvens och leveranslatens i både pull- och push-baserade lägen. Som ett belysande exempel visar vi hur GSN-genomförandet av detta tillvägagångssätt användes i ett federerat sensornätverk i SwissExperiment (http://www.swiss-experiment.ch), en samarbetsplattform för att dela realtidssensordata mellan olika institutioner för att förbättra prognoser och varningar om miljörisker. Tidningen är organiserad enligt följande: först introducerar vi de grundläggande begreppen ontologi-baserad tillgång till strömmar. Därefter diskuterar vi modellering av sensordata, metadata och kartläggningar. Vi tillhandahåller också den teoretiska grunden för frågeöversättning och hur den kan implementeras. En experimentell utvärdering presenteras också, före våra slutsatser. Vår strategi bygger på de grundläggande begrepp som beskrivs nedan: streaming data questing, och semantic data access med hjälp av ontology-baserade frågor och kartläggningar. En dataström består av en obunden sekvens av värden som kontinuerligt bifogas, där var och en bär en tidsstämpel som normalt indikerar när den har producerats. | Ett intressant förslag är av Calbimonte et al. REF, som har föreslagit ett ontologibaserat tillvägagångssätt för att tillhandahålla dataåtkomst och sökfunktioner till strömmande datakällor. | 3,903,915 | Enabling Query Technologies for the Semantic Sensor Web | {'venue': 'Int. J. Semantic Web Inf. Syst.', 'journal': 'Int. J. Semantic Web Inf. Syst.', 'mag_field_of_study': ['Computer Science']} | 4,462 |
Merparten av arbetet i analysen av kryptografiska system är koncentrerat till abstrakta kontradiktoriska modeller som inte fångar sidokanalsattacker. Sådana attacker utnyttjar olika former av oavsiktliga informationsläckage, vilket är en naturlig del av nästan alla fysiska genomföranden. Inspirerad av de senaste sidokanalattackerna, särskilt "kallstartsattackerna" från Halderman et al. (USENIX Security '08), Akavia, Goldwasser och Vaikuntanathan (TCC '09) formaliserade en realistisk ram för att modellera säkerheten för krypteringssystem mot en bred klass av sidokanal attacker där adversarially valda funktioner av den hemliga nyckeln läcker. När det gäller kryptering med öppen nyckel, Akavia et al. visade att Regevs latticebaserade system (STOC '05) är motståndskraftigt mot eventuella läckage av L/polylog(L) bitar, där L är längden på den hemliga nyckeln. I detta dokument ser vi över det ovan nämnda ramverket och våra viktigaste resultat är följande: • Vi presenterar en allmän konstruktion av ett offentligt krypteringssystem som är motståndskraftigt mot nyckelläckage från alla hashsäkra system. Konstruktionen är inte beroende av ytterligare beräkningsantaganden, och det resulterande systemet är lika effektivt som det underliggande hashproof-systemet. Befintliga konstruktioner av hashsäkra system innebär att vår konstruktion kan baseras på en mängd olika tal-teoretiska antaganden, inklusive den beslutande Diffie-Hellman antagande (och dess gradvis svagare d-Linear varianter), quadratic residuosity antagande, och Pailliers sammansatta residuosity antagande. • Vi konstruerar ett nytt hashproof system baserat på beslut Diffie-Hellman antagande (och dess d-Linear varianter), och visar att det resulterande systemet är motståndskraftig mot eventuella läckage av L(1 − o(1)) bitar. Dessutom bevisar vi att Boneh et al. (CRYPTO '08), konstruerad för att vara ett "cirkulärt säkert" krypteringssystem, passar vårt allmänna tillvägagångssätt och är också motståndskraftig mot eventuella läckage av L(1 - o(1)) bitar. • Vi utsträcker ramen för nyckelläckage till att fastställa valda-chiffertext attacker. På den teoretiska sidan, vi bevisar att Naor-Yung paradigm är tillämplig i denna miljö också, och få som en corollary krypteringssystem som är CCA2-säkra med eventuella läckage av L(1 - o(1)) bitar. På den praktiska sidan bevisar vi att varianter av CramerShoup cryptosystem (längs linjen av vår generiska konstruktion) är CCA1-säkra med eventuella läckage av L/4 bitar, och CCA2-säkra med eventuella läckage av L/6 bitar. En preliminär version av detta verk publicerades i Forwards in Cryptology -CRYPTO '09, sidorna 18-35, 2009. | Naor och Segev REF presenterar en generisk konstruktion för läckagetåliga kryptosystem med öppen nyckel från universella hashfunktioner. | 2,826,332 | Public-key cryptosystems resilient to key leakage | {'venue': 'In Advances in Cryptology — CRYPTO 2009, volume 5677 of Springer LNCS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,463 |
Vi föreslår det kopplade generativa kontrariska nätverket (CoGAN) ramverk för att generera par av motsvarande bilder i två olika domäner. Den består av ett par generativa kontradiktoriska nätverk, var och en ansvarig för att generera bilder i en domän. Vi visar att genom att genomdriva en enkel vikt-delning begränsning, CoGAN lär sig att generera par av motsvarande bilder utan att det finns några par av motsvarande bilder i de två områdena i träningssetet. Med andra ord, CoGAN lär sig en gemensam distribution av bilder i de två domänerna från bilder som dras separat från marginalfördelningarna av de enskilda domänerna. Detta står i kontrast till de befintliga multimodala generativa modellerna, som kräver motsvarande bilder för utbildning. Vi tillämpar CoGAN på flera par bildgenerering uppgifter. För varje uppgift lär sig GoGAN att generera övertygande par av motsvarande bilder. Vi demonstrerar vidare tillämpningarna av CoGAN-ramverket för domänanpassning och övergripande bildgenereringsuppgifter. | Liu m.fl. REF presenterade ett sammankopplat generativt nätverk (Co-GAN) för att lära sig en gemensam distribution av flerdomänbilder. | 10,627,900 | Coupled Generative Adversarial Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 4,464 |
Trådlös kraftöverföring är en metod för att leverera ström till små elektroniska enheter när det inte finns någon trådbunden anslutning. Ett sätt att öka räckvidden för dessa system är att använda en riktad sändningsantenn, problemet med detta tillvägagångssätt är att kraften endast kan överföras genom en smal stråle och direkt framåt, vilket kräver att sändaren alltid är i linje med sensorn nodposition. Det arbete som beskrivs i denna artikel beskriver utformningen och testningen av ett autonomt radiofrekvensöverföringssystem som kan rotera bastransmittern för att spåra positionen av sensornoder och överföra kraft till den sensorn noden. Systemets basstation övervakar nodens energinivåer och bildar en avgiftskö för att planera laddningsordningen och upprätthålla energinivåerna i noderna. Resultaten visar en radiofrekvensskördkrets med ett uppmätt S11-värde på −31,5 dB och en omvandlingseffektivitet på 39,1 %. Simulering och experiment verifierade nivån på kraftöverföring och effektivitet. Resultaten av detta arbete visar ett litet nätverk av tre noder med olika lagringstyper som drivs av en central bas nod. | Referensreferensreferensen föreslår ett system för kraftöverföring på en autonom radiofrekvens. | 13,337,671 | Supplying the Power Requirements to a Sensor Network Using Radio Frequency Power Transfer | {'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']} | 4,465 |
Abstract-Cellular nätverk är i en stor övergång från en noggrant planerad uppsättning av stora tornmonterade basstationer (BS) till en oregelbunden spridning av heterogen infrastruktur element som ofta dessutom inkluderar mikro, pico, och femtocells, samt distribuerade antenner. I detta dokument utvecklar vi en dragbar, flexibel och exakt modell för ett nedlänk heterogent mobilt nätverk (HCN) bestående av K-nivåer av slumpmässigt placerade BS, där varje nivå kan skilja sig åt i fråga om genomsnittlig sändningseffekt, stödd datahastighet och BS-densitet. Om en mobil användare ansluter till den starkaste kandidaten BS, den resulterande Signal-till-Interference-plus-Noise-Ratio (SINR) är större än 1 när i täckning, Rayleigh bleknar, vi härma ett uttryck för sannolikheten för täckning (likvärdigt avbrott) över hela nätet under både öppet och stängt tillträde, som antar en slående enkel sluten form i den höga SINR-regimen och är korrekt ner till −4 dB även under svagare antaganden. För extern validering jämför vi mot ett verkligt LTE-nätverk (för nivå 1) med de andra K- 1-nivåerna som modelleras som oberoende Poisson Point Processes. Även i detta fall är vår modell exakt inom 1-2 dB. Vi härleder också den genomsnittliga hastighet som uppnås av en slumpmässigt placerad mobil och den genomsnittliga belastningen på varje nivå av BS. En intressant observation för interferensbegränsade open access-nät är att vid en given SINR, lägga till fler nivåer och/eller BS varken ökar eller minskar sannolikheten för täckning eller avbrott när alla nivåer har samma mål-SINR. | Dhillon m.fl. REF föreslog en dragbar och korrekt modell för ett heterogent cellulärt nät med nedlänk som består av K-nivåer av slumpmässigt placerade BS. | 8,857,235 | Modeling and Analysis of K-Tier Downlink Heterogeneous Cellular Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 4,466 |
Deformerbara isoytor, implementerade med nivå-set metoder, har visat en stor potential i visualisering för tillämpningar såsom segmentering, ytbehandling, och ytrekonstruktion. Deras användbarhet har dock begränsats av deras höga beräkningskostnader och beroende av betydande parameterinställning. Detta dokument presenterar en lösning på dessa utmaningar genom att beskriva grafikprocessorbaserade algoritmer (GPU) för att lösa och visualisera levelset-lösningar till interaktiva priser. Vår effektiva GPU-baserade lösning bygger på att paketera nivåuppsättningen isoytans data i ett dynamiskt, glest texturformat. Som nivåuppsättningen flyttar, uppdateras denna glesa datastruktur via en ny GPU till CPU meddelande passerar schema. När den nivåinställda lösaren är integrerad med en volymåtergivare i realtid som arbetar på samma förpackade format kan en användare visualisera och styra den deformerbara nivåinställda ytan när den utvecklas. Dessutom kan den resulterande isoytan fungera som en region av intresse specifier för volymåterförsäljaren. Detta dokument visar kapaciteten hos denna teknik för interaktiv volymvisualisering * | Lefohn m.fl. REF packade in nivåuppsättningen isoytans data i ett dynamiskt strukturformat som användes för att lösa PDE:erna. | 11,756,454 | Interactive deformation and visualization of level set surfaces using graphics hardware | {'venue': 'IEEE Visualization, 2003. VIS 2003.', 'journal': 'IEEE Visualization, 2003. VIS 2003.', 'mag_field_of_study': ['Computer Science']} | 4,467 |
Scentextigenkänning har varit ett hett forskningsämne i datorseende på grund av dess olika tillämpningar. Den senaste tekniken är det uppmärksamhetsbaserade enkoder-dekoder ramverket som lär sig kartläggningen mellan indatabilder och utdatasekvenser på ett rent datadrivet sätt. Vi observerar dock att befintliga uppmärksamhetsbaserade metoder fungerar dåligt på komplicerade bilder och/eller bilder av låg kvalitet. En viktig orsak är att befintliga metoder inte kan få korrekta anpassningar mellan funktionsområden och mål för sådana bilder. Vi kallar detta fenomen "attention drift". För att ta itu med detta problem föreslår vi i detta dokument metoden FAN (förkortningen Focusing Attention Network) som använder en fokuseringsmekanism för att automatiskt dra tillbaka den bortdrivna uppmärksamheten. FAN består av två huvudkomponenter: ett uppmärksamhetsnätverk (AN) som ansvarar för att känna igen karaktärsmål som i de befintliga metoderna, och ett fokuserande nätverk (FN) som ansvarar för att justera uppmärksamheten genom att utvärdera om AN verkligen uppmärksammar målområdena i bilderna. Dessutom, skiljer vi oss från de befintliga metoderna, antar vi ett ResNet-baserat nätverk för att berika djupa representationer av scentextbilder. Omfattande experiment på olika riktmärken, bland annat datauppsättningarna IIIT5k, SVT och ICDAR, visar att FAN-metoden avsevärt överträffar de befintliga metoderna. | På grund av obalansen mellan funktionskartan och uppmärksamhetsregionen använde REF ) ett fokuserande nätverk för att justera "attention drift". | 28,347,739 | Focusing Attention: Towards Accurate Text Recognition in Natural Images | {'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']} | 4,468 |
Nätverksprotokoll för trådlösa flerhopssensornätverk (WSN) krävs för att samtidigt minimera resursanvändning samt optimera prestandamått såsom latens och tillförlitlighet. I detta dokument utforskar man kompromissen mellan energilatens och tillförlitlighet för sändning i WSN-nätverk med flera köpställen, genom att presentera ett nytt protokoll som kallas PBBF (Probability-Based Broadcast Forwarding). PBBF fungerar på MAC-lagret och kan integreras i alla sömnscheman. För en viss tillämpningsdefinierad tillförlitlighetsnivå för sändningar konstateras att den energi som krävs och den latens som erhålls är omvänt relaterad till varandra. Vår analys- och simuleringsstudie kvantifierar detta förhållande vid tillförlitlighetsgränsen, samt prestandatal som förväntas från en installation. PBBF erbjuder i huvudsak en WSN applikationsdesigner stor flexibilitet i valet av önskade driftpunkter. | Ett annat arbete som är relaterat till sannolikhetsbaserade sändningar i WSN är sannolikhetsbaserad vidaresändning (PBF) av Miller et al. REF PBBF arbetar med mediaåtkomstkontroll (MAC) och undersöker avvägningen mellan energilatens och tillförlitlighet. | 1,871,640 | Exploring the Energy-Latency Trade-Off for Broadcasts in Energy-Saving Sensor Networks | {'venue': "25th IEEE International Conference on Distributed Computing Systems (ICDCS'05)", 'journal': "25th IEEE International Conference on Distributed Computing Systems (ICDCS'05)", 'mag_field_of_study': ['Computer Science']} | 4,469 |
Vi studerar problemet med betydande objekt subitering, d.v.s. förutsäga existensen och antalet framträdande objekt i en bild med hjälp av holistiska signaler. Denna uppgift är inspirerad av förmågan hos människor att snabbt och korrekt identifiera antalet objekt inom subiteringsområdet (1-4). I detta syfte presenterar vi ett framträdande objekt subitering bilddatauppsättning på ca 14 K vardagliga bilder som kommenteras med hjälp av en online crowdsourcing marknadsplats. Vi visar att med hjälp av Communicated av Antonio Torralba. En end-to-end tränade konvolutionella neurala nätverk (CNN) modell, vi uppnår förutsägelse noggrannhet jämförbar med mänsklig prestanda för att identifiera bilder med noll eller ett framträdande objekt. För bilder med flera framträdande objekt, vår modell ger också betydligt bättre än slump prestanda utan att kräva någon lokaliseringsprocess. Dessutom föreslår vi en metod för att förbättra utbildningen av CNN subitering modell genom att utnyttja syntetiska bilder. I experiment visar vi exakthet och generalisering av vår CNN subitering modell och dess tillämpningar i framträdande objektdetektering och bildhämtning. | Zhang m.fl. REF studerade problemet med betydande objekt subitering, som känner igen antalet framträdande objekt när bara ett fåtal objekt är närvarande. | 2,057,222 | Salient Object Subitizing | {'venue': 'International Journal of Computer Vision', 'journal': 'International Journal of Computer Vision', 'mag_field_of_study': ['Computer Science']} | 4,470 |
Sammanfattning av denna webbsida: Denna översikt fokuserar på motivet bakom de diagram som har använts som folkhälsoverktyg för att bedöma hälsoriskerna med fetma, med särskild tonvikt på var gränsvärdena placeras. Ett diagram baserat på kroppsmasseindex (BMI) infördes på 1980-talet för att ersätta tabeller med bästa vikter för höjder och detta BMI-diagram (baserat på vuxenvikt för höjd) är fortfarande i stor utsträckning i bruk idag. Även om betydelsen av fördelningen av kroppsfett, i motsats till den totala mängden kroppsfett, för att fastställa hälsorisker med fetma först föreslogs på 1940-talet, var det inte förrän i mitten av 1990-talet som ett diagram baserat på Shape föreslogs. Ashwell ® Shape Chart baserades på användningen av midje-till-höjd-förhållande (WHtR) som en proxy för bukfetma. Diagrammet innehåller tre gränsvärden för WHTR: 0,4, 0,5 och 0,6; ursprungligen satt på pragmatiska beslut. Betydande bevis från en nyligen genomförd systematisk granskning stöder nu det globala gränsvärdet WHTR på 0,5 för Övervägande åtgärd. WHTR på 0,6 har föreslagits för åtgärder. Ett spännande perspektiv är att samma Shape Chart kan användas för att bedöma risker för vuxna och barn i flera etniska grupper. Användning av Shape Chart kan också förbättra effektiviteten för screening för kardiometabolisk risk och kan ge betydande kostnadsbesparingar i form av fetma behandling. Folkhälsan kunde inte vara enklare: "Håll din midja omkrets till mindre än halva din längd". Nyckelord: Kroppsmasseindex, kroppsmasseindex, midje-till-höjd-förhållande, antropometri, kroppsvikt och mått. Folkhälsan för att kommunicera riskerna för fetma var under lång tid fast förankrad i användningen av lämpliga kroppsvikter för längd. Tabeller med lämplig vikt för längd för män och kvinnor, ursprungligen hämtade från Försäkringsbolagets uppgifter [1], användes fram till mitten av 1980-talet. Metropolitan Life Insurance Company:s könsspecifika tabeller var standard; de använde minimi- och maximivikter i samband med den lägsta dödligheten bland män och kvinnor mellan 25 och 59 år, vilket gjorde att de inte var lämpliga för barn. Bordsskaparna försökte använda "ramstorlek" som ett sätt att kompensera för skillnaderna mellan personer med olika skelettmuskelmassa. Men i praktiken var definitionen av ramstorlek för svår att använda, så praktiskt taget ingen använde den som avsett. I stället valde människor subjektivt sina egna kategorier. Dessa tabeller överlevde långt in på 1970- och 80-talen när Quetelet-indexet (QI), senare kallat "Body Mass Index" (BMI), gav möjlighet att visa optimala vikter för män och kvinnor på samma diagram. QI är en formel som används för att uppskatta en hälsosam kroppsvikt baserat på en persons längd. Det definieras som individens kroppsvikt dividerad med kvadraten på hans eller hennes längd; måttenheten uttrycks alltid som kg/m 2. *Address korrespondens till denna författare vid Ashwell Associates (Europe) Ltd, Ashwell Street, Ashwell, Herts, SG7 5PZ, UK; Tel: +44(0)1462742166; E-post: [email protected] Medan Quetelet formel går tillbaka till 1800-talet [2], termen "kroppsmasseindex" för samma förhållande och dess popularitet dateras tillbaka till en 1972 papper av Ancel Keys som fann BMI att vara den bästa proxyn för kroppsfett procent bland förhållandet mellan vikt och längd [3]. Keys angav uttryckligen att BMI var lämpligt för populationsstudier och olämpligt för individuell diagnos. Ändå, på grund av dess enkelhet, kom det att i stor utsträckning användas för individuell diagnos. George Bray började förespråka användningen av BMI omkring 1973 vid Fogarty Center Conference i Washington när han skrev om metoder för att bedöma fetma [4]. Senare förberedde Bray en nomogram för BMI med rekommenderade nivåer baserade på de övre och nedre gränserna för BMI för män och kvinnor (medium ram) i 1959 Metropolitan Life Insurance Tables [5]. BMI-nivåerna var nära 19-24 kg/m 2 för kvinnor och 20-25 kg/m 2 för män. Det första BMI-diagrammet, som visade BMI som en funktion av vikt (horisontell axel) och höjd (vertikal axel) med konturlinjer för olika BMI-värden eller färger för olika BMI-kategorier, dök först upp 1981 i John Garrows bok "Treat obesitacy" [6]. Garrow använde termen Quetelet index, snarare än BMI, och gjorde det tydligt att graderna av fetma hade godtyckliga gränser på 25, 30 och 40 kg/m 2, eftersom olika behandlingar behövs för olika svårighetsgrader. Minimal risk betecknades mellan gränsvärdena för BMI mellan 20 och 25 kg/m 2 eftersom dödligheten var lägst här i det U-formade förhållandet. Risken ökade därför från BMI 25 och framåt och eftersom den ökade risken var linjär, utsågs BMI=30 till nästa gränsvärde för risk, troligen eftersom det var fem | WCHR-gränsvärden för friska, överviktiga och överviktiga kategorier som föreslås av Ashwell REF är 0,4, 0,5 respektive 0,6. | 15,428,084 | Charts Based on Body Mass Index and Waist-to-Height Ratio to Assess the Health Risks of Obesity: A Review | {'venue': None, 'journal': 'The Open Obesity Journal', 'mag_field_of_study': ['Medicine']} | 4,471 |
Abstract-Mobile-edge computing (MEC) har nyligen utvecklats som en framstående teknik för att frigöra mobila enheter från beräkningsintensiva arbetsbelastningar, genom att avlasta dem till den proximate MEC-servern. För att göra avlastningen effektiv måste radio- och beräkningsresurserna hanteras dynamiskt, för att klara de tidsvarierande beräkningskraven och de trådlösa blekningskanalerna. I detta dokument, utvecklar vi en online gemensam radio-och beräkningsresurshanteringsalgoritm för MEC-system med flera användare, med målet att minimera den långsiktiga genomsnittliga viktade totalförbrukningen av de mobila enheterna och MEC-servern, under förutsättning att en uppgift buffert stabilitet begränsning. Specifikt, vid varje tid slits, den optimala CPU-cykel frekvenser för de mobila enheterna erhålls i slutna former, och den optimala sändningseffekt och bandbredd allokering för beräkning offloading bestäms med Gauss-Seidel-metoden; medan för MEC-servern, både den optimala frekvensen av CPU-kärnor och den optimala MEC-server schemaläggning beslut härleds i slutna former. Dessutom föreslås en mekanism för att minska förseningen av genomförandet. Rigorös prestandaanalys utförs för den föreslagna algoritmen och dess delay-förbättrade version, vilket indikerar att den viktade summan effektförbrukning och genomförandefördröjning lyder en [O (1/V ), O (V )] kompromiss med V som en kontrollparameter. Simuleringsresultat tillhandahålls för att validera den teoretiska analysen och visa effekterna av olika parametrar. Index Terms-Mobile-edge beräkning, dynamisk spänning och frekvensskalning, radio och beräkning resurshantering, Lyapunov optimering. | I REF föreslog författarna en gemensam mekanism för förvaltning av radioresurser och användare som avlastar med målet att minimera den långsiktiga strömförbrukningen för både mobila enheter och arXiv:2002.08567v1 [cs. | 14,910,649 | Stochastic Joint Radio and Computational Resource Management for Multi-User Mobile-Edge Computing Systems | {'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 4,472 |
Abstract-Aktuella nätverksinfrastrukturer uppvisar dålig energieffektivitet, kör nätverksenheter med full kapacitet hela tiden oavsett trafikefterfrågan och distribution över nätet. Merparten av forskningen om routereffekthantering sker på komponentnivå eller länknivå, vilket innebär att routrar behandlas som isolerade enheter. Ett kompletterande tillvägagångssätt är att underlätta nätdriften genom att styra trafiken genom olika vägar för att anpassa arbetsbelastningen på enskilda routrar eller länkar. Med tanke på den höga väg redundans och låg länkanvändning i dagens stora nätverk, kan detta tillvägagångssätt potentiellt tillåta fler nätverksenheter eller komponenter att gå in i strömsparläge. I detta dokument föreslås en intradomänsk trafikteknikmekanism, GreenTE, som maximerar antalet länkar som kan läggas i viloläge under givna prestandabegränsningar såsom länkutnyttjande och paketförsening. Med hjälp av nättopologier och trafikdata från flera breda nät visar vår utvärdering att GreenTE kan minska linjekortens strömförbrukning med 27 % till 42 % under begränsningar att det maximala länkutnyttjandet är under 50 % och att nätdiametern förblir densamma som vid kortaste bandragning. | På nätverksnivå, Zhang et al. föreslå en energimedveten trafikteknikmekanism i REF. | 524,778 | GreenTE: Power-aware traffic engineering | {'venue': 'The 18th IEEE International Conference on Network Protocols', 'journal': 'The 18th IEEE International Conference on Network Protocols', 'mag_field_of_study': ['Computer Science']} | 4,473 |
Den maximala volymen j-simplex problem ber att beräkna j-dimensionell simplex av maximal volym inuti konvex skrov av en given uppsättning n punkter i Q d. Vi ger en deterministisk approximation algoritm för detta problem som uppnår en approximation förhållande e j/2+o(j). Problemet är känt för att vara NP-hård till ungefärlig inom en faktor av c j för vissa konstant c > 1. Vår algoritm ger också en faktor e j+o(j) approximation för problemet att hitta huvud j × j submatris av en rank d positiv semidefinit matris med den största determinanten. Vi uppnår vår approximation genom avrundning lösningar till en generalisering av D-optimala design problem, eller, motsvarande, den dubbla av en lämplig minsta inneslutning ellipsoid problem. Våra argument ger ett kort och enkelt bevis på en begränsad invertibilitetsprincip för bestämningsfaktorer. | För att hitta den huvudsakliga k × k submatrisen av en positiv semidefinitmatris med den största bestämningsfaktorn, gav REF en algoritm som får en approximation av e −(k+o(k)). | 15,938,832 | Randomized Rounding for the Largest Simplex Problem | {'venue': "STOC '15", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 4,474 |
Neural textgenerering, inklusive neural maskinöversättning, bildtextning, och summering, har varit ganska framgångsrik nyligen. Under utbildningen beaktas dock vanligtvis endast en referens för varje exempel, även om det ofta finns flera referenser tillgängliga, t.ex. 4 referenser i NIST MT-utvärderingar, och 5 referenser i bildtextdata. Vi undersöker först flera olika sätt att använda flera mänskliga referenser under utbildningen. Men ännu viktigare, vi föreslår sedan en algoritm för att generera exponentiellt många pseudo-referenser genom att först komprimera befintliga mänskliga referenser till lattices och sedan traversera dem för att generera nya pseudo-referenser. Dessa metoder leder till betydande förbättringar jämfört med starka baslinjer för både maskinöversättning (+1,5 BLEU) och bildtext (+3,1 BLEU / +1,17 CIDER). | REF använder flera referenser och genererar ännu fler pseudoreferenser och förbättrar både maskinöversättning och bildtext. | 52,124,999 | Multi-Reference Training with Pseudo-References for Neural Translation and Text Generation | {'venue': 'Published in EMNLP 2018', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,475 |
Vi tar itu med det optimala kontrollproblemet för robotsystem med variabel stelhet (VSA) inklusive växlingsdynamik och icke-kontinuerliga tillståndsövergångar. Vårt fokus i detta dokument är att överväga dynamiska uppgifter som har flera faser av rörelse, kontakter och påverkan med miljön med ett krav på att utnyttja passiv dynamik i systemet. Genom att modellera sådana uppgifter som ett hybriddynamiskt system med tidsbaserat byte utvecklar vi en systematisk metod för att samtidigt optimera styrkommandon, tidsvarierande stelhetsprofiler och temporal aspekt av rörelsen såsom byte av instanser och total rörelselängd för att utnyttja fördelarna med VSA. Numeriska utvärderingar av en brachiating robot driven med VSA och en hopprobot utrustad med variabla styva fjädrar visar effektiviteten i det föreslagna tillvägagångssättet. Dessutom belyser hårdvaruexperiment på en tvålänks brachiating robot med VSA tillämpligheten av det föreslagna ramverket i en utmanande uppgift att brachiation. | En annan tillämpning av optimal kontroll som visar fördelarna med spatiotemporell optimering ges i REF på en brachiating robot. | 540,730 | Spatio-temporal stiffness optimization with switching dynamics | {'venue': None, 'journal': 'Autonomous Robots', 'mag_field_of_study': ['Computer Science']} | 4,476 |
Abstract-State-of-the-art objekt detekteringsnätverk är beroende av region förslag algoritmer för att hypothesize objekt platser. Framsteg som SPPnet [1] och Fast R-CNN [2] har minskat drifttiden för dessa detektionsnät, vilket exponerar beräkning av regionförslag som flaskhals. I detta arbete introducerar vi ett regionförslagsnätverk (RPN) som delar fullbildskonvolutionella funktioner med detektionsnätverket, vilket möjliggör nära nog kostnadsfria regionförslag. Ett RPN är ett helt konvolutionellt nätverk som samtidigt förutsäger objektgränser och objektitetspoäng vid varje position. RPN är utbildad end-to-end för att generera högkvalitativa regionförslag, som används av Fast R-CNN för detektion. Vi slår ytterligare samman RPN och Fast R-CNN till ett enda nätverk genom att dela deras konvolutionella funktioner-med hjälp av den nyligen populära terminologin för neurala nätverk med "attention" mekanismer, RPN komponenten talar om för det enhetliga nätverket var man ska leta. För den mycket djupa VGG-16-modellen [3] har vårt detektionssystem en bildhastighet på 5 fps (inklusive alla steg) på en GPU, samtidigt som vi uppnår toppmoderna objektdetektionsnoggrannhet på PASCAL VOC 2007, och MS COCO-datauppsättningar med endast 300 förslag per bild. I ILSVRC och COCO 2015 tävlingar, Snabbare R-CNN och RPN är grunden för den 1: a plats vinnande poster i flera spår. Koden har gjorts tillgänglig för allmänheten. Regionens förslagsmetoder är vanligtvis beroende av billiga funktioner och ekonomiska slutledningssystem. Selektiv sökning [4], en av de mest populära metoderna, sammansmälter girigt superpixel baserat på konstruerade låg nivå funktioner. Ändå jämfört med effektiva detektionsnätverk [2], Selektiv sökning är en storleksordning långsammare, på 2 sekunder per bild i en CPU-implementation. EdgeBoxar [6] ger för närvarande den bästa kompromissen mellan förslagskvalitet och hastighet, med 0,2 sekunder per bild. Trots detta konsumerar regionförslaget lika mycket drifttid som nätverket för upptäckt. Man kan notera att snabba regionbaserade CNN dra nytta av GPU, medan de regionala förslag metoder som används i forskning genomförs på CPU, vilket gör sådana runtime jämförelser ojämförliga. Ett självklart sätt att påskynda beräkningen av förslag är att återinföra det för GPU. Detta kan vara en effektiv teknisk lösning, men omgenomförandet bortser från down-stream detektion nätverk och därför missar viktiga möjligheter att dela beräkningar. I detta dokument visar vi att en algoritmisk förändringskomputerande förslag med en djup konvolutionell neural nätverk-leads till en elegant och effektiv lösning där förslagsberäkning är nästan gratis med tanke på detektionsnätverkets beräkning. I detta syfte introducerar vi nya regionala förslagsnätverk (RPN) som delar konvolutionella skikt med toppmoderna nätverk för objektdetektering [1], [2]. Genom att dela konvolutioner vid testtid är marginalkostnaden för datorförslag liten (t.ex. 10 ms per bild). Vår iakttagelse är att de konvolutionella funktionskartor som används av regionbaserade detektorer, som Fast R-CNN, också kan användas för att generera regionförslag. Ovanpå dessa konvolutionella funktioner konstruerar vi en RPN genom att lägga till några ytterligare konvolutionella lager som samtidigt regresserar regiongränser och objektitet poäng på varje plats på ett vanligt rutnät. RPN är således ett slags fullständigt konvolutionsnätverk [7] och kan utbildas från början till slut särskilt för uppgiften att ta fram förslag på detektering. RPN är utformade för att effektivt förutsäga regionala förslag med ett brett spektrum av skalor och proportioner. I motsats till vanliga metoder [1], [2], [8], [9] som använder pyramider av bilder (Fig. 1a) eller filterpyramider (Fig. 1b), Vi introducerar nya "anchor" rutor som fungerar som referenser på flera skalor och proportioner. Vårt schema kan ses som en pyramid av regressionsreferenser (Fig. 1c), som undviker att räkna upp bilder eller filter av flera skalor eller proportioner. Denna modell fungerar bra när den är tränad och testad med enskaliga bilder och därmed gynnar körhastigheten. För att förena RPNs med snabba R-CNN [2] objektdetekteringsnätverk, föreslår vi ett utbildningsprogram som alternerar S. Ren är med | Toppmoderna objekthypotesalgoritmer är mycket snabba, och har hög recall REF. | 10,328,909 | Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 4,477 |
Abstract-The Internet of Things (IoT) förebådar en vision av framtidens Internet där alla fysiska saker/enheter är anslutna via ett nätverk för att främja en ökad medvetenhet om vår värld och dramatiskt förbättra vårt dagliga liv. Icke desto mindre kan de flesta trådlösa tekniker i olicensierade band inte tillhandahålla allmänt förekommande och högkvalitativa IoT-tjänster. Mobila nät stöder däremot storskalig, garanterad servicekvalitet och säker kommunikation. Men enorma proximala kommunikationer via lokala basstationer (BS) kommer att leda till allvarliga trafikstockningar och en enorm energiförbrukning i konventionella cellulära nät. Enhet-till-enhet (D2D) kommunikation kan potentiellt avlasta trafiken från och minska energiförbrukningen av BS. För att förverkliga visionen om ett verkligt globalt sakernas internet föreslår vi en ny arkitektur, dvs. överliggande grön relä assisterade D2D-kommunikation med dubbla batterier i heterogena cellulära nätverk. Genom att optimalt fördela nätverksresursen tillhandahåller vår föreslagna resursfördelningsmetod IoT-tjänsterna och minimerar den totala energiförbrukningen hos pico-reläet BS. Genom att balansera rest grön energi bland pico relä BS, har den gröna energianvändningen maximerats; denna längst sparar on-grid energi. Slutligen validerar vi prestandan hos den föreslagna arkitekturen genom omfattande simuleringar. Index Terms-Device-to-device (D2D) kommunikation, dubbla batterier, heterogena nätverk, Internet of Things (IoT), resursfördelning. | Baserat på överliggande spektrumdelning och gröna relä BS föreslår Ref en ny arkitektur för att underlätta D2D-kommunikation för sakernas Internet (IoT) i heterogena cellulära nätverk. | 8,237,520 | Green Relay Assisted D2D Communications With Dual Batteries in Heterogeneous Cellular Networks for IoT | {'venue': 'IEEE Internet of Things Journal', 'journal': 'IEEE Internet of Things Journal', 'mag_field_of_study': ['Computer Science']} | 4,478 |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.