src
stringlengths 100
134k
| tgt
stringlengths 10
2.25k
| paper_id
int64 141
216M
| title
stringlengths 9
254
| discipline
stringlengths 67
582
| __index_level_0__
int64 0
83.3k
|
---|---|---|---|---|---|
I detta dokument undersöks problemet med att tillnärma konjunktiva frågor utan självhjälp på probabilistiska databaser med lägre och övre gränser som kan beräknas mer effektivt. Vi studerar detta problem via en indirektion: Med en propositionell formel 0, hitta formler på ett mer begränsat språk som är störst lägre bundna respektive minst övre bundna, respektive 0. Vi studerar gränser i de språk av läs-en gång formler, där varje variabel förekommer som mest en gång, och av läs-en gång formler i disjunktiv normal form. Vi visar ekvivalenser av syntaktiska och modellteoretiska karakteriseringar av optimala gränser för unika formler, och presenterar algoritmer som kan räkna upp dem med polynomisk fördröjning. Sådana gränser kan beräknas genom frågor som uttrycks med hjälp av första ordningen frågor utökad med transitiv stängning och ett särskilt val konstruktion. Förutom probabilistiska databaser, dessa resultat kan också gynna problemet med ungefärlig frågebedömning i relationsdatabaser, eftersom gränserna uttryckta av frågor kan beräknas i polynom kombinerad komplexitet.
|
En approximationsteknik för konjunktiva frågor om probabilistiska databaser har undersökts i REF.
| 12,250,682 |
On the optimal approximation of queries using tractable propositional languages
|
{'venue': "ICDT '11", 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,156 |
Abstract-Vi presenterar en ny teknik, automatisk inmatning upprätande, och en prototyp implementering, SOAP. SOAP lär sig en uppsättning begränsningar som kännetecknar typiska indata som en ansökan är mycket sannolikt att behandla korrekt. När SOAP ges en atypisk inmatning som inte uppfyller dessa begränsningar korrigerar den automatiskt indatan (dvs. ändrar indatan så att den uppfyller de inlärda begränsningarna). Målet är att automatiskt omvandla potentiellt farliga ingångar till typiska ingångar som programmet är mycket sannolikt att bearbeta korrekt. Våra experimentella resultat visar att, för en uppsättning av referensprogram (Google Picasa, ImageMagick, VLC, Swfdec och Dillo), detta tillvägagångssätt effektivt omvandlar skadliga ingångar (som framgångsrikt utnyttja sårbarheter i programmet) till godartade ingångar som ansökan behandlar korrekt. Dessutom visar en manuell kodanalys att om en insats uppfyller de inlärda begränsningarna är den oförmögen att utnyttja dessa sårbarheter. Vi presenterar också resultaten av en användarstudie som utformats för att utvärdera den subjektiva perceptuella kvaliteten på utgångar från godartade men atypiska ingångar som automatiskt har korrigerats av SOAP för att överensstämma med de inlärda begränsningarna. Särskilt, Vi fick godartade ingångar som bryter mot inlärda begränsningar, använde vår indata likriktare för att få rättade ingångar, sedan betalade Amazon Mekaniska Turk-användare för att ge sin subjektiva kvalitativa uppfattning om skillnaden mellan utdata från de ursprungliga och rättade ingångar. Resultaten visar att korrigering ofta kan bevara mycket, och i många fall alla, av de önskvärda uppgifterna i den ursprungliga inmatningen.
|
SOAP REF är ett automatiskt indata upprätande system som lär sig en uppsättning indata begränsningar från utbildning input och sedan upprätthåller dessa inlärda begränsningar genom att korrigera eventuella indata som bryter mot de inlärda begränsningarna.
| 12,124,887 |
Automatic input rectification
|
{'venue': "ICSE '12", 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,157 |
Sammanfattning Vi utvecklar en mikroprocessordesign som tolererar hårda fel, inklusive fabrikationsfel och in-field Eftersom tekniska trender fortsätter att leda mot mindre enhet och tråddimensioner i integrerade kretsar ökar sannolikheten för hårda (permanenta) fel i mikroprocessorer. Dessa fel kan införas under tillverkning, som defekter, eller de kan uppstå under mikroprocessorns driftstid. Välkända fysiska fenomen som leder till operativa svåra fel är grindoxid nedbrytning, elektromigration, och termisk cykling. Mikroprocessorer blir mer mottagliga för alla dessa fenomen som enhet dimensioner krympa [28], och halvledarindustrins färdplan har identifierat både operativa hårda fel och fabrikationsdefekter (som vi kollektivt kommer att kalla "hårda fel") som kritiska utmaningar [13]. Inom en nära framtid kanske det inte längre är en kostnadseffektiv strategi att kasta bort en mikroprocessor med ett eller flera svåra fel, vilket är vad vi för det mesta gör i dag. Traditionella metoder för att tolerera svåra fel har maskerat dem med hjälp av makroskal redundans, såsom trippel modulär redundans (TMR). TMR är ett effektivt tillvägagångssätt, men det medför en 200% overhead när det gäller hårdvara och strömförbrukning. Det finns några andra, lätta metoder som använder marginella mängder redundans för att skydda specifika delar av mikroprocessorn, såsom cache [36, 18] eller buffertar [5], men ingen av dessa är heltäckande. Vårt mål i detta arbete är att skapa en mikroprocessordesign som tål svåra fel utan att lägga till betydande redundans. Den viktigaste observationen, som också gjorts av tidigare forskning [25, 27, 29], är att moderna superskalar mikroprocessorer, särskilt samtidigt multitrådade (SMT) mikroprocessorer [32], redan innehåller betydande mängder redundans för att utnyttja ILP och förbättra prestanda. Vi vill använda denna redundans för att maskera hårda fel, till priset av en graciös försämring i prestanda för mikroprocessorer med hårda fel. I detta dokument överväger vi inte att lägga till extra redundans strikt för feltolerans, eftersom kostnaden är en så viktig faktor för råvarumikroprocessorer. Livsdugligheten i vår strategi beror endast på om, med tanke på en felaktig mikroprocessor, att kunna använda den med något försämrad prestanda ger någon nytta över att behöva kasta den. För att uppnå vårt mål måste mikroprocessorn kunna göra tre saker medan den körs. • Den måste upptäcka och korrigera fel orsakade av fel (både svåra och övergående). • Den måste diagnostisera var ett hårt fel är, vid granulariteten i fältet dekonfigurerbar enhet (FDU). • Den måste dekonfigurera en felaktig FDU för att förhindra att dess fel utövas. Även om det tidigare arbetet på detta område har undersökt aspekter av detta problem har ingen av dem utvecklat någon integrerad lösning. Vissa arbeten har använt dekonfigurering för att tolerera strikt fabricering defekter och därmed antas pre-shipment testning i stället för online feldetektering och diagnos [25]. Andra arbeten har undersökt dekonfigurering och har lämnat detektion och diagnos som öppna problem [29]. I detta dokument diskuterar vi integrerade designalternativ för mikroprocessorer som uppnår alla dessa tre mål, och vi presenterar en särskild mikroprocessor i detta designutrymme. För det första upptäcker och korrigerar vår mikroprocessor fel, både på grund av övergående fel och svåra fel, med hjälp av tidigare utvecklad DIVA-stil [2] dynamisk verifiering. För det andra använder den en nyutvecklad mekanism för att diagnostisera svåra fel när systemet körs. För det tredje, efter att ha diagnostiserat ett svårt fel, dekonfigurerar mikroprocessorn den felaktiga FDU på ett FDU-specifikt sätt. I detta dokument presenterar och utvärderar vi tidigare utvecklade dekonfigureringssystem för funktionella enheter och delar av arraystrukturer (t.ex. omordningsbuffert, belastnings-/lagerkö osv.).), och vi visar att vårt integrerade tillvägagångssätt också gör det möjligt för mikroprocessorn att dekonfigurera felaktiga DIVA-kontroller. Våra experimentella resultat visar att vår nya diagnosmekanism snabbt och exakt diagnostiserar svåra fel. Dessutom kan vår pålitliga mikroprocessor fungera ganska bra i närvaro av hårda fel, trots att den inte använder redundans utöver vad som redan finns i en modern mikroprocessor. Denna teknik kan förvandla annars värdelösa mikroprocessorer till mikroprocessorer som kan fungera på en graciöst försämrad prestandanivå. Denna förmåga kan förbättra tillförlitligheten genom att tolerera operativa svåra fel. Vi kan förbättra avkastningen genom att frakta mikroprocessorer med defekter som vi har tolererat-det är som om de är vanliga mikroprocessorer som kommer att få "bined" i en lägre prestanda bin. Även om binning är typiskt för klockfrekvens, nyligen förslag har föreslagit mer allmän prestanda binning [25]. Så länge dessa soptunnor inte har så låga prestanda att de är värdelösa, då är vår förbättring av avkastningen en fördel. Vårt system överträffar också i hög grad ett system med endast DIVA eller ett jämförbart återvinningsbaserat system, eftersom kostnaderna för återvinning är ganska höga för svåra fel som används ofta; dessutom kan vårt system tolerera ett hårt fel i en DIVA-kontroll. Bidragen från detta arbete är: • En dynamisk, omfattande hårdvarumekanism för att diagnostisera svåra fel i mikroprocessorer, inklusive fel i DIVA-kontroller. • En mikroprocessorkonstruktion som integrerar vår nya mekanism för feldiagnos med DIVA feldetektering och en blandning av befintliga och nya dekonfigureringssystem. • En experimentell utvärdering som visar att en mikroprocessor med våra förbättringar kan tolerera svåra fel med en graciös försämring i prestanda. I Avsnitt 2 diskuterar vi svåra fel och varför de berör mikroarkitekter. I avsnitten 3, 4 och 5 beskriver vi feldetektering och korrigering, feldiagnos och dekonfigurering av felaktiga komponenter. I avsnitt 6 diskuteras kostnader och begränsningar för vårt specifika genomförande. Avsnitt 7 presenterar vår experimentella utvärdering. Vi diskuterar därmed sammanhängande arbete i Avsnitt 8 och avslutar i Avsnitt 9. I detta avsnitt diskuterar vi de svåra fel som motiverar detta arbete. Vi fokuserar särskilt på de tekniska trender som leder till större förekomster av dessa brister. Med allt mindre mått på apparater och ledningar och högre temperaturer får dessa trender oss att dra slutsatsen att antalet svåra fel kommer att öka. Det har förekommit flera färska studier av operativa hårda fel [28, 14], det vill säga svåra fel som inträffar under mikroprocessorns livstid. Srinivasan m.fl. [28] fastställa att elektromigration [31, 3] och gasoxidnedbrytning [10] sannolikt kommer att vara de två dominerande fenomen som orsakar operativa svåra fel. Elektromigration resulterar i mycket resistiva sammanlänkningar eller kontakter och leder så småningom till öppna kretsar. Elektromigrationen ökar när tråddimensionerna krymper och temperaturen ökar. Nedbrytning av portoxid (OBD) resulterar i fel i en enda transistor på grund av skapandet av en mycket ledande väg mellan dess grind och dess bulk. En nytillverkad oxid innehåller inneboende elektronfällor på grund av brister i tillverkningsprocessen. Under apparatens livstid ökar antalet sådana fällor på grund av elektrisk fältstress och elektrontunnlar. Vid något tillfälle kan elektronfällorna rada upp sig och utgöra en ledande väg mellan grinden och större delen av anordningen, vilket så småningom leder till OBD. OBD-frekvensen ökar när oxidtjockleken krymper och temperaturen ökar. Eftersom OBD ökar växlingsfördröjningen, kan det leda till fördröjningsfel som manifesterar sig som lite flips [6]. Defekter som introduceras under chip tillverkning är en annan källa till svåra fel. Deras orsaker skiljer sig från orsakerna till de svåra felen i verksamheten, men de visar sig ofta på ett liknande sätt. Till exempel, en fabricering defekt kan leda till ett avbrott i en tråd,
|
I REF föreslås en mikroprocessorkonstruktion som är integrerad med en dynamisk verifieringsbaserad feldetekteringsmekanism för att diagnostisera svåra fel i FU.
| 10,301,531 |
A Mechanism for Online Diagnosis of Hard Faults in Microprocessors
|
{'venue': "38th Annual IEEE/ACM International Symposium on Microarchitecture (MICRO'05)", 'journal': "38th Annual IEEE/ACM International Symposium on Microarchitecture (MICRO'05)", 'mag_field_of_study': ['Computer Science']}
| 14,158 |
Vi beskriver en ny utbildningsmetodik för generativa kontradiktoriska nätverk. Den viktigaste idén är att växa både generatorn och diskriminatorn gradvis: från en låg upplösning lägger vi till nya lager som modellen allt finare detaljer i takt med att träningen fortskrider. Detta både påskyndar träningen och stabiliserar den avsevärt, vilket gör att vi kan producera bilder av oöverträffad kvalitet, t.ex., CELEBA bilder på 1024 2. Vi föreslår också ett enkelt sätt att öka variationen i genererade bilder, och uppnå en rekordstart poäng på 8,80 i oövervakade CIFAR10. Dessutom beskriver vi flera genomförandedetaljer som är viktiga för att motverka ohälsosam konkurrens mellan generator och diskriminator. Slutligen föreslår vi en ny mätmetod för att utvärdera GAN-resultaten, både när det gäller bildkvalitet och variation. Som ytterligare ett bidrag konstruerar vi en version av CELEBA-datasetet av högre kvalitet.
|
PG-GAN REF föreslog att både generator- och diskriminatornätverk skulle växa för att öka upplösningen av genererade bilder.
| 3,568,073 |
Progressive Growing of GANs for Improved Quality, Stability, and Variation
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
| 14,159 |
Associativ klassificering är en ny och givande teknik som integrerar föreningsregeln gruvdrift och klassificering till en modell för förutsägelse och uppnår maximal noggrannhet. Associativa klassificeringar är särskilt lämpade för tillämpningar där maximal noggrannhet önskas för en modell för förutsägelse. Det finns många domäner såsom medicinsk där den maximala noggrannheten av modellen önskas. Hjärtsjukdomar är en av de största dödsorsakerna i industriländerna och en av de viktigaste orsakerna till sjukdomsbördan i utvecklingsländerna. Dödlighetsdata från Indiens registrargeneral visar att hjärtsjukdomar är en huvudorsak till dödsfall i Indien, och i Andhra Pradesh orsakar kranskärlssjukdomen ca 30% av dödsfallen på landsbygden. Därför finns det ett behov av att utveckla ett beslutsstödsystem för att förutsäga hjärtsjukdomar hos en patient. I detta dokument föreslår vi effektiv associativ klassificeringsalgoritm med hjälp av genetisk metod för att förutsäga hjärtsjukdomar. Den främsta motivationen för att använda genetisk algoritm i upptäckten av hög nivå förutsägelse regler är att de upptäckta reglerna är mycket begripliga, med hög prediktiv noggrannhet och höga intressanta värden. Experimentella resultat visar att de flesta av klassificeringsreglerna hjälper till med bästa förutsägelse av hjärtsjukdomar som även hjälper läkare i deras diagnosbeslut.
|
I dokumentet REF, Det har återigen föreslagit en förutsägelse metod genom att använda associativ klassificering algoritm med genetisk metod för att få hög noggrannhet.
| 15,807,382 |
Heart Disease Prediction System using Associative Classification and Genetic Algorithm
|
{'venue': 'Vol no1 pp 183-192, Elsevier Dec 2012', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
| 14,160 |
Imitering lärande ger en tilltalande ram för autonom kontroll: i många uppgifter, demonstrationer av föredraget beteende kan lätt erhållas från mänskliga experter, ta bort behovet av dyra och potentiellt farliga online datainsamling i den verkliga världen. Men policyer som man lär sig med imitationslärande har begränsad flexibilitet för att tillgodose olika mål vid provtillfället. Modellbaserat förstärkande lärande (MBRL) ger betydligt mer flexibilitet, eftersom en prediktiv modell som lärts från data kan användas för att uppnå olika mål vid testtillfället. MBRL lider dock av två brister. För det första hjälper inte den prediktiva modellen till att välja önskade eller säkra resultat - det beror bara på vad som är möjligt, inte vad som är att föredra. För det andra kräver MBRL vanligtvis ytterligare datainsamling online för att säkerställa att modellen är korrekt i de situationer som faktiskt uppstår när man försöker uppnå testtidsmålen. Att samla in dessa data med en delvis utbildad modell kan vara farligt och tidskrävande. I detta dokument strävar vi efter att kombinera fördelarna med imitationslärande och MBRL, och föreslår imitativa modeller: probabilistiska prediktiva modeller som kan planera expertliknande banor för att uppnå godtyckliga mål. Vi finner denna metod avsevärt överträffar både direkt imitation och MBRL i en simulerad autonom köruppgift, och kan läras effektivt från en fast uppsättning av expertdemonstrationer utan ytterligare online datainsamling. Vi visar också vår modell kan flexibelt införliva användarrelaterade kostnader som testtid, kan planera för sekvenser av mål, och kan även prestera bra med otydliga mål, inklusive mål på fel sida av vägen.
|
Rheinhart m.fl. Ref kombinerade imitationslärande och modellbaserade förstärkningslärande för att utveckla probabilistiska modeller som kan förutsäga expertliknande fordonsbanor, i detta fall beroende på LiDAR-data, även med hjälp av CARLA för att utarbeta sitt förslag, men utan att inkludera andra fordon och fotgängare.
| 53,114,258 |
Deep Imitative Models for Flexible Inference, Planning, and Control
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
| 14,161 |
Vi introducerar en metod för att träna Binarized Neural Networks (BNN) -neurala nätverk med binära vikter och aktiveringar vid körtid. Vid träningstid används binärvikter och aktiveringar för beräkning av parametrarnas gradienter. Under frampasset minskar BNN drastiskt minnesstorleken och åtkomsterna, och ersätter de flesta aritmetiska operationer med bitvisa operationer, vilket förväntas avsevärt förbättra effekteffektiviteten. För att bekräfta effektiviteten av BNN genomför vi två uppsättningar experiment på Torch7 och Theano ramverk. På båda dessa resultat uppnådde BNN nästan toppmoderna resultat över datauppsättningarna MNIST, CIFAR-10 och SVHN. Sist men inte minst skrev vi en binär matris multiplikation GPU-kärna med vilken det är möjligt att köra vår MNIST BNN 7 gånger snabbare än med en ooptimerad GPU-kärna, utan att lida någon förlust i klassificeringsnoggrannhet. Koden för att träna och köra våra BNNs finns på nätet.
|
Till exempel, binarized neurala nätverk (BNNs) REF använder binära vikter och aktiveringar och därmed minskar MAC till en XNOR operation.
| 14,796,162 |
Binarized Neural Networks: Training Deep Neural Networks with Weights and Activations Constrained to +1 or -1
|
{'venue': None, 'journal': 'arXiv: Learning', 'mag_field_of_study': ['Computer Science']}
| 14,162 |
Vi föreslår Tvåspråkigt-konstruerade Recursive Auto-encoders (BRAE) att lära semantiska fras inbäddningar (kompakta vektor representationer för fraser), som kan skilja fraser med olika semantiska betydelser. BRAE tränas på ett sätt som minimerar det semantiska avståndet mellan översättningsekvivalenter och maximerar det semantiska avståndet för icke-translation par samtidigt. Efter träningen lär sig modellen att inbädda varje fras semantiskt på två språk och lär sig också hur man omvandlar semantiskt inbäddat utrymme på ett språk till det andra. Vi utvärderar vår föreslagna metod på två end-to-end SMT uppgifter (fras tabell beskärning och avkodning med frasal semantiska likheter) som måste mäta semantisk likhet mellan en källfras och dess översättningskandidater. Omfattande experiment visar att BRAE är anmärkningsvärt effektivt i dessa två uppgifter.
|
På frasnivå lär sig också en tvåspråkigt utformad frasinbäddningsmodell (BRAE) källmålsfras inbäddning genom att minimera det semantiska avståndet mellan översättningsekvivalenter och maximera det semantiska avståndet mellan icke-översättningsekvivalenter REF.
| 18,380,505 |
Bilingually-constrained Phrase Embeddings for Machine Translation
|
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,163 |
Medan djupa konvolutionella neurala nätverk (CNN) har visat en stor framgång i single-label bildklassificering, är det viktigt att notera att verkliga bilder i allmänhet innehåller flera etiketter, som kan motsvara olika objekt, scener, handlingar och attribut i en bild. Traditionella metoder för flermärkt bildklassificering lär sig oberoende klassificeringar för varje kategori och använder rankning eller tröskel på klassificeringsresultaten. Dessa tekniker, även om de fungerar bra, misslyckas med att explicit utnyttja märkningen beroenden i en bild. I detta papper använder vi återkommande neurala nätverk (RNN) för att ta itu med detta problem. I kombination med CNN:er lär sig det föreslagna CNN-RNN-ramverket en gemensam bildmärkning för att karakterisera det semantiska beroendet av etiketter samt bildmärkningens relevans, och det kan tränas end-to-end från grunden för att integrera både information i ett enhetligt ramverk. Experimentella resultat från offentliga referensdataset visar att den föreslagna arkitekturen uppnår bättre resultat än de senaste multimärkta klassificeringsmodellerna.
|
I REF används ConvNet och RNN tillsammans för att explicit utnyttja etikettberoenden.
| 206,593,603 |
CNN-RNN: A Unified Framework for Multi-label Image Classification
|
{'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
| 14,164 |
Mycket av den information som ligger till grund för de utmaningar som samhället står inför i dag – såsom terroristverksamhet, globala miljöförändringar och naturkatastrofer – är geospatial till sin natur. Ett vardagligt exempel på viktig geospatial data är platsen för en mobiltelefonanvändare som har ringt 911 i en nödsituation. I terroristsituationer är ursprunget till och destinationerna för telefonsamtal, enskilda personers resemönster, spridningsmönster för luftburna kemikalier, bedömning av riskområden och fördelning av resurser alla geospatiala data. Allteftersom volymen av geospatiala data ökar med flera storleksordningar under de kommande åren, kommer också potentialen för motsvarande framsteg i kunskapen om vår värld och i vår förmåga att reagera på förändringar att äga rum. Denna artikel, som behandlar viktiga forskningsutmaningar inom platsmedveten databehandling, är utdragen från IT-färdplan till en geospatial framtid (SEE NRC RAPPORTS SIDABAR). I rapporten beskrivs en tvärvetenskaplig forskningsfärdplan med fokus på utmaningar inom platsmedveten databehandling, databaser och datautvinning samt interaktionsteknik mellan människa och dator. Konvergensen (SE FIGURE 1.1) av framsteg inom dessa tre områden, kombinerat med en kraftig ökning av kvaliteten och mängden geospatial information, lovar att förändra vår värld. Geospatiala data har blivit av avgörande betydelse på områden som krishantering och folkhälsa, nationell säkerhet och internationell handel. Just-in-Time Mapping Scenario (SEESIDEBAR) illustrerar kommitténs vision om vad som är möjligt med integrativa, tvärvetenskapliga forskningsinsatser. Olika tekniska framsteg kommer att behövas för att uppnå denna fantasifulla framtid. Framsteg i databaser kan förbättra vår förmåga att integrera geospatial data (som ofta är av myriad format, konventioner, och semantik) och att representera objekt, såsom en löpeld, som rör sig och utvecklas över tiden, ibland visas eller försvinner med oregelbundna intervall. Analys och utvärdering av data skulle gynnas av nya metoder för datautvinning som är utformade för att fungera på komplexa, mycket dimensionerade data som representerar objekt som kan genomgå kontinuerliga förändringar. Ny teknik som stöder mänsklig interaktion med geospatiala data skulle göra det möjligt för individer från geospatiala informationsspecialister till beslutsfattare till räddningspersonal att få tillgång till, visuellt utforska och bygga upp kunskap från geospatiala data och tillämpa kunskapen på kritiska problem som både vetenskap och samhälle står inför. En kort översikt från IT-färdplan till en geospatial framtid med viktiga forskningsinriktningar i databaser, datautvinning och människa-datorinteraktion beskrivs i slutet av artikeln. Denna artikel fokuserar på forskningsmöjligheter inom platsmedvetna datorer. Framsteg på detta område kan få viktiga konsekvenser inte bara för hur geospatiala data förvärvas, utan också för hur och med vilken kvalitet de kan levereras, och hur mobila och geografiskt distribuerade system utformas. Sensorer som registrerar deras läge och viss information om den omgivande miljön (t.ex. temperatur och luftfuktighet) används för att övervaka tillståndet för vägar, byggnader, jordbruksgrödor och många andra objekt. Till exempel, Smart Dust sensorer (enheter som kombinerar mikroelektromekaniska sensorer med trådlös kommunikation, bearbetning och batterier i ett paket om en kubikmillimeter i storlek) – för närvarande i sin barndom-kan sättas ut längs avlägsna bergsvägar för att bestämma hastigheten och riktningen för passerande fordon eller kan fästas på djur eller även insekter för att registrera var de reser (Pister, 2002). Data som överförs trådlöst i realtid från dessa sensorer ökar inte bara volymen utan också komplexiteten hos tillgängliga geospatiala data.
|
De stora utmaningarna inom geospatial databehandling togs upp i sammanfattningen av NRC:s senaste IT-färdplan för en geospatial framtida Ref.
| 118,478 |
Challenges in location-aware computing
|
{'venue': 'IEEE Pervasive Computing', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,165 |
I den här artikeln studerar vi cross-domänisk känsloklassificering med neurala nätverksarkitekturer. Vi lånar idén från Structural Correspondence Inlärning och använder två extra uppgifter för att framkalla en mening inbäddning som förmodligen fungerar bra över alla områden för känsloklassificering. Vi föreslår också att vi tillsammans ska lära oss denna mening som inbäddar sig tillsammans med själva känsloklassaren. Experimentella resultat visar att vår föreslagna gemensamma modell överträffar flera toppmoderna metoder på fem referensdatauppsättningar.
|
REF lär mening inbäddningar som är användbara över alla områden genom lärande med flera uppgifter.
| 14,015,791 |
Learning Sentence Embeddings with Auxiliary Tasks for Cross-Domain Sentiment Classification
|
{'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,166 |
I denna uppsats beskriver vi vårt deltagande i TempEval-3-utmaningen. Med vår flerspråkiga temporal tagger HeidelTime, vi behandlade uppgift A, utvinning och normalisering av temporal uttryck för engelska och spanska. Genom att utnyttja HeidelTimes strikta åtskillnad mellan källkod och språkberoende delar har vi justerat HeidelTimes befintliga engelska resurser och utvecklat nya spanska resurser. För båda språken uppnådde vi de bästa resultaten bland alla deltagare för uppgift A, kombinationen av extraktion och normalisering. Både den förbättrade engelskan och de nya spanska resurserna är offentligt tillgängliga med HeidelTime.
|
I TempEval-3 presenterades HeidelTime REF som en flerspråkig temporal tagger för extraktion och normalisering av tidsuttryck som nämns i engelska och spanska texter.
| 186,720 |
HeidelTime: Tuning English and Developing Spanish Resources for TempEval-3
|
{'venue': '*SEM', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,167 |
Den klassiska matris-tree teorem relaterar determinanten av combinatorial Laplacian på en graf till antalet spännande träd. Vi generaliserar detta resultat till Laplacians på en- och tvådimensionella vektorpaket, vilket ger en kombinatorisk tolkning av deras bestämningsfaktorer i termer av så kallade cykelrotade spännande skogar (CRSF). Vi konstruerar naturliga mått på CRSF där kanterna bildar en avgörande process. Denna teori ger en naturlig generalisering av den spännande trädprocessen anpassad till grafer inbäddade på ytor. Vi ger ett antal andra applikationer, till exempel, vi beräknar sannolikheten för att en loop-rad slumpmässig promenad på en planar graf mellan två hörn på den yttre gränsen passerar vänster av två givna ansikten. Denna sannolikhet kan inte beräknas med hjälp av standard Laplacian ensam.
|
I REF användes laplacians på en- och tvådimensionella vektorpaket på grafer för att förstå förhållandet mellan grafer inbäddade på ytor och cykelrotade spännande skogar, vilket generaliserade förhållandet mellan spännande träd och graf Laplacians.
| 115,173,554 |
Spanning forests and the vector bundle Laplacian
|
{'venue': 'Annals of Probability 2011, Vol. 39, No. 5, 1983-2017', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Physics']}
| 14,168 |
Abstract-Inom området för nätverkssäkerhet tolkar vi begreppet förtroende som en relation mellan enheter som deltar i olika protokoll. Förtroenderelationer bygger på bevis som skapats av tidigare interaktioner mellan enheter inom ett protokoll. I detta arbete fokuserar vi på utvärderingen av förtroendebevis i ad hoc-nätverk. På grund av ad hoc-nätverkens dynamiska karaktär kan förtroendebevisen vara osäkra och ofullständiga. Ingen redan etablerad infrastruktur kan heller antas. Utvärderingsprocessen är modellerad som ett vägproblem på en riktad graf, där noder representerar enheter, och kanter representerar förtroenderelationer. Vi ger intuitiva krav och diskuterar designfrågor för alla förtroendeutvärderingsalgoritmer. Med hjälp av teorin om semirings visar vi hur två noder kan etablera en indirekt förtroenderelation utan tidigare direkt interaktion. Vi visar att vårt semiringsramverk är tillräckligt flexibelt för att uttrycka andra förtroendemodeller, framför allt PGP:s Web of Trust. Vår plan visar sig vara robust i närvaro av angripare.
|
Theodorakopoulos och Baras REF utgår från att förtroendet är övergående för att etablera ett förhållande mellan två enheter utan tidigare interaktioner.
| 1,924,030 |
On trust models and trust evaluation metrics for ad hoc networks
|
{'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science']}
| 14,169 |
Abstract-Cloud computing är en typ av parallellt och distribuerat system som består av en samling sammankopplade och virtuella datorer. Med den ökande efterfrågan och fördelarna med molndatainfrastruktur kan olika datortjänster utföras på molnmiljön. En av de grundläggande frågorna i denna miljö har att göra med uppgiftsplanering. Moln uppgift schemaläggning är ett NP-hård optimering problem, och många meta-heuristiska algoritmer har föreslagits för att lösa det. En bra schemaläggare bör anpassa sin schemaläggningsstrategi till den föränderliga miljön och de olika typerna av uppgifter. I detta dokument har en policy för schemaläggning av molnuppgifter baserat på optimering av myrkolonier för lastbalansering jämfört med olika schemaläggningsalgoritmer föreslagits. Ant Colony Optimization (ACO) är slumpmässig optimering sökmetod som kommer att användas för att fördela inkommande jobb till virtuella maskiner. Det viktigaste bidraget från vårt arbete är att balansera systembelastningen samtidigt som vi försöker minimera omfattningen av en given uppgift. Belastningsbalansfaktorn, som är relaterad till avslutandet av arbetet, föreslås göra det möjligt att avsluta arbetet med olika resurser på liknande sätt och att förbättra lastbalanseringens förmåga. Den föreslagna schemaläggningsstrategin simulerades med hjälp av Cloudsim-verktygspaket. Experimentella resultat visade att den föreslagna algoritmen överträffade schemaläggningsalgoritmer som är baserade på grundläggande ACO eller Modified Ant Colony Optimization (MACO).
|
Keshk m.fl. REF presenterar MACOLB för lastbalansering, föreslår lastbalanseringsfaktor relaterad till arbetets avslutningsgrad.
| 37,022,027 |
Cloud Task Scheduling for Load Balancing based on Intelligent Strategy
|
{'venue': None, 'journal': 'International Journal of Intelligent Systems and Applications', 'mag_field_of_study': ['Computer Science']}
| 14,170 |
Abstract-Caching multimediafiler vid nätverkskanten har identifierats som en viktig teknik för att förbättra användarnas kvalitet på tjänsten (QoS), samtidigt som redundant överföring över kapacitetsbegränsade backhauls. I små cellnät beror dock effektiviteten i en cachingpolicy på små basstationers förmåga att förutse efterfrågan från användarutrustningen. I detta dokument föreslår vi en samverkande filtrering (CF) system för att uppskatta den nödvändiga backhaul användning vid varje SBS, genom att bryta cachability av UEs fil begäran. I det föreslagna tillvägagångssättet har varje SBS ett tvåfaldigt mål: uppdatera bandbreddstilldelningen baserat på det uppskattade backhaul-utnyttjandet och, med tanke på den nuvarande bandbreddstillgången, identifiera vilka UE som ska användas. Vi formulerar problemet som ett en-till-många matchande spel mellan SBS och UEs, och vi föreslår en ny cache-medveten användarförening algoritm som minimerar backhaul användning vid varje SBS, med förbehåll för individuella QoS krav. Simuleringsresultat, baserade på realtidsloggar för förfrågningar om tjänster, har visat att den föreslagna CF-baserade lösningen kan ge betydande vinster i form av backhaul effektivitet och cache hit-ratio, nå upp till 25 %, med en maximal lucka på 9 % till en optimal cache-medveten associationsteknik.
|
Pantisano m.fl. REF föreslår en ny cache-medveten användare association och backhaul tilldelningsalgoritm som är en till många matchande spel mellan små basstationer och användare.
| 9,120,502 |
Match to cache: Joint user association and backhaul allocation in cache-aware small cell networks
|
{'venue': '2015 IEEE International Conference on Communications (ICC)', 'journal': '2015 IEEE International Conference on Communications (ICC)', 'mag_field_of_study': ['Computer Science']}
| 14,171 |
Abstract-Vi studerar problemet med interferenshantering för enhet-till-enhet (D2D) kommunikation där flera D2D-användare kan samexistera med en cellulär användare. Problemet är att optimera överföringseffektnivåerna för D2D-användare för att maximera cellgenomströmningen samtidigt som signal-till-brus-plusinterferens (SINR) prestanda för den cellulära användaren bevaras. Detta är det så kallade flerstegskraftregleringsproblemet. Vi undersöker problemet enligt två antaganden, tillgången på ögonblicklig eller genomsnittlig kanaltillståndsinformation (CSI) vid basstationen. I det första fallet anpassar sig D2D-överföringseffektnivåerna till snabb avmattning, medan de i det andra fallet endast anpassar sig till långsam avmattning. I det senare antagandet har den cellulära användaren ett krav på största sannolikhet för avbrott. Med numeriska resultat studerar vi avvägningen mellan signalgivande overhead, det vill säga frekventa CSI-återkopplingar, och den övergripande systemprestandan, det vill säga maximal uppnåelig cellkapacitet, för D2D-kommunikation underliggande cellulära nätverk.
|
Effekten av tillgången på kanalstatsinformation (CSI) på effektstyrning för D2D-kommunikation övervägdes i REF.
| 18,772,601 |
Interference management for multiple device-to-device communications underlaying cellular networks
|
{'venue': '2013 IEEE 24th Annual International Symposium on Personal, Indoor, and Mobile Radio Communications (PIMRC)', 'journal': '2013 IEEE 24th Annual International Symposium on Personal, Indoor, and Mobile Radio Communications (PIMRC)', 'mag_field_of_study': ['Computer Science']}
| 14,172 |
Rekommendationsproblem med ett stort antal diskreta objekt, såsom produkter, webbsidor eller videor, är allmänt förekommande inom teknikindustrin. Djupa neurala nätverk används alltmer för dessa rekommendationsproblem. Dessa modeller använder inbäddningar för att representera diskreta objekt som kontinuerliga vektorer, och ordförrådsstorlekar och inbäddningsmått, även om de i hög grad påverkar modellens noggrannhet, väljs ofta manuellt på ett heuristiskt sätt. Vi presenterar Neural Input Search (NIS), en teknik för att lära sig de optimala ordförrådsstorlekarna och inbädda dimensioner för kategoriska funktioner. Målet är att maximera förutsägelsen noggrannhet föremål för en begränsning av det totala minne som används av alla inbäddningar. Dessutom hävdar vi att det traditionella Single-size Embedding (SE), som använder samma inbäddning dimension för alla värden av en funktion, lider av ineffektiv användning av modellkapacitet och utbildningsdata. Vi föreslår en ny typ av inbäddning, nämligen Multi-size Embedding (ME), som gör att inbäddningsdimensionen kan variera för olika värden av funktionen. Under utbildningen använder vi förstärkningslärande för att hitta den optimala ordförrådsstorleken för varje funktion och inbäddning dimension för varje värde på funktionen. I experiment på två vanliga typer av storskaliga rekommendationsproblem, d.v.s. NIS hittade automatiskt bättre ordförråd och inbäddade storlekar som resulterar i 6,8 % och 1,8 % relativa förbättringar på Recall@1 och ROC-AUC jämfört med manuellt optimerade.
|
Joglekar REF använde först NAS i storskaliga rekommendationsmodeller och föreslog en ny typ av inbäddning som heter Multi-size Embedding (ME).
| 195,874,115 |
Neural Input Search for Large Scale Recommendation Models
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
| 14,173 |
Sammanfattning Elektroniska journaler (EMR) är kritiska, mycket känslig privat information inom hälso- och sjukvården, och måste ofta delas mellan kamrater. Blockchain ger en delad, oföränderlig och transparent historia av alla transaktioner för att bygga program med förtroende, ansvarighet och transparens. Detta ger en unik möjlighet att utveckla en säker och pålitlig EMR-datahantering och delningssystem med hjälp av blockchain. I detta dokument presenterar vi våra perspektiv på blockchainbaserad hantering av hälso- och sjukvårdsdata, särskilt för EMR-datadelning mellan vårdgivare och för forskningsstudier. Vi föreslår en ram för hantering och utbyte av EMR-data för cancerpatientvård. I samarbete med Stony Brook Universitetssjukhuset implementerade vi vårt ramverk i en prototyp som säkerställer integritet, säkerhet, tillgänglighet och finkornig åtkomstkontroll över EMR-data. Det föreslagna arbetet kan avsevärt minska vändningstiden för EMR-delning, förbättra beslutsfattandet för medicinsk vård och minska den totala kostnaden.
|
Under 2017 presenterades ett annat fungerande elektroniskt system för delning av journaler för att ge en säker lösning med hjälp av blockkedjan REF.
| 8,776,796 |
Secure and Trustable Electronic Medical Records Sharing using Blockchain
|
{'venue': 'AMIA ... Annual Symposium proceedings. AMIA Symposium', 'journal': 'AMIA ... Annual Symposium proceedings. AMIA Symposium', 'mag_field_of_study': ['Computer Science', 'Medicine']}
| 14,174 |
På grund av öppenheten i de sociala nätverken online har de blivit de mest populära plattformarna för människor att kommunicera med andra i väntan på att dela med sig av sina åsikter i en pålitlig miljö. Individer utsätts dock ofta för ett brett spektrum av risker från skadliga användare som sprider olika falsk information för att uppnå sina onda mål, vilket gör förtroendebegreppet till en viktig fråga. De flesta av den befintliga forskningen försöker bygga ett förtroendenätverk bland användare, medan endast ett fåtal studier uppmärksammar att analysera sina funktioner. I detta dokument föreslår vi en förtroendeutvärderingsram baserad på maskininlärning för att underlätta mänskligt beslutsfattande genom att i stor utsträckning överväga flera förtroenderelaterade användarfunktioner och kriterier. Vi delar först in användarfunktioner i fyra grupper enligt den empiriska analysen, inklusive profilbaserade funktioner, beteendebaserade funktioner, återkopplingsbaserade funktioner och länkbaserade funktioner. Sedan utformar vi en lättviktig funktionsvalsmetod för att utvärdera effektiviteten hos varje enskild funktion och ta reda på den optimala kombinationen av funktioner från användarnas online-poster. Vi formaliserar förtroendeanalys som ett klassificeringsproblem för att förenkla verifieringsprocessen. Vi jämför prestandan för våra funktioner med fyra andra funktioner som föreslås i den befintliga forskningen. Dessutom används fyra traditionella förtroendeutvärderingsmetoder för att jämföra med våra maskininlärningsbaserade metoder. Experiment som utförs på en verklig datauppsättning visar att den övergripande prestandan hos våra funktioner och metoder är överlägsen de andra befintliga funktionerna och traditionella tillvägagångssätt.
|
Ett liknande arbete har utförts av Chen et al. REF där de föreslog en ram för förtroendeutvärdering baserad på maskininlärning för att underlätta mänskligt beslutsfattande genom att överväga flera förtroenderelaterade användarfunktioner och kriterier.
| 209,382,389 |
A Multidimensional Trust Evaluation Framework for Online Social Networks Based on Machine Learning
|
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
| 14,175 |
Det senaste arbetet har visat att konvolutionella nätverk kan vara betydligt djupare, mer exakta och effektiva att träna om de innehåller kortare anslutningar mellan lager nära ingång och de som är nära utgång. I detta dokument omfamnar vi denna observation och introducerar Dense Convolutional Network (DenseNet), som kopplar varje lager till vartannat lager på ett feed-forward-sätt. Medan traditionella konvolutionsnät med L-lager har L-anslutningar-ett mellan varje lager och dess efterföljande lager-våra nät har L(L+1) 2 direkta anslutningar. För varje lager används funktionskartorna för alla föregående lager som ingångar, och dess egna funktionskartor används som ingångar till alla efterföljande lager. DenseNets har flera övertygande fördelar: de lindrar det försvinnande-gradient problemet, stärka funktionen förökning, uppmuntra funktion återanvändning och avsevärt minska antalet parametrar. Vi utvärderar vår föreslagna arkitektur på fyra mycket konkurrenskraftiga objekt erkännande benchmarking uppgifter SVHN, och ImageNet). DenseNets får betydande förbättringar över state-of-the-art på de flesta av dem, samtidigt som det kräver mindre beräkning för att uppnå hög prestanda. Kod och förträngda modeller finns på https://github.com/liuzhuang13/DenseNet.
|
Tät konnektivitet kan lindra det försvinnande gradienta problemet, uppmuntra olika funktioner återanvändning, och avsevärt minska antalet modellparametrar REF.
| 9,433,631 |
Densely Connected Convolutional Networks
|
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
| 14,176 |
BioMOBY är ett forskningsprojekt med öppen källkod som syftar till att skapa en arkitektur för upptäckt och distribution av biologiska data via webbtjänster; data och tjänster är decentraliserade, men tillgängligheten av dessa resurser, och instruktionerna för interaktion med dem, registreras på en central plats som kallas MOBY Central. BioMOBY kompletterar webbtjänsternas paradigm, vilket exemplifieras av Universal Data Discovery and Integration (UDDI), genom att ha ett objektdrivet registerförfrågningssystem med objekt och service ontologier. Detta gör det möjligt för användare att passera expansiva och olika datamängder där varje möjligt nästa steg presenteras baserat på det dataobjekt som för närvarande finns i handen. Dessutom kunde en sökväg från det aktuella dataobjektet till ett önskat slutdataobjekt automatiskt upptäckas med hjälp av registret. Native BioMOBY objekt är lätt XML, och utgör både frågan och svaret på en enkel objektåtkomst protokoll (SOAP) transaktion.
|
BioMoby REF är ett forskningsprojekt med öppen källkod vars syfte är att införa ett register över webbresurser för att underlätta upptäckt och delning av biologiska data.
| 1,877,179 |
BioMOBY : An open source biological web services proposal
|
{'venue': 'Briefings in bioinformatics', 'journal': 'Briefings in bioinformatics', 'mag_field_of_study': ['Medicine', 'Computer Science']}
| 14,177 |
Intelligent reflekterande yta (IRS) har utvecklats som en lovande lösning för att förbättra trådlösa informationsöverföringar genom adaptiv kontroll av prorogationsmiljön. Nyligen, det helt nya konceptet att använda IRS för att genomföra en passiv sändare drar till sig forskarnas uppmärksamhet eftersom det potentiellt inser låg komplexitet och hårdvara-effektiva sändare av flera input singel / multiple-output (MISO / MIMO) system. I detta dokument undersöker vi problemet med precoder design för en lågupplösande IRS-baserad sändare för att implementera multi-user MISO/MIMO trådlös kommunikation. I synnerhet modulerar IRS informationssymboler genom att variera faserna av dess reflekterande element och överför dem till användare av en enda antenn eller flera antenner. Vi strävar först efter att designa symbolen-nivå precoder för IRS för att realisera moduleringen och minimera den maximala symbol-terror-rate (SER) av en-antenna mottagare. För att ta itu med detta NP-hårda problem, vi först slappna av den låga upplösning fasskift begränsning och lösa detta problem genom Riemannian konjugat gradient (RCG) algoritm. Därefter erhålls lågupplösningssymbol-nivå förkodning vektorn genom direkt kvantisering. Med tanke på det stora kvantifieringsfelet för 1-bitars upplösningsfall, används den gren-och-bundna metoden för att lösa 1-bitars upplösningssymbol-nivå förkodningsvektorn. För multiantenna mottagare föreslår vi att iterativt designa symbolnivå precoder och kombinator genom att dekomponera den ursprungliga storskaliga optimeringsproblem i flera sub-problem. Simuleringsresultat validerar effektiviteten hos våra föreslagna algoritmer. Index Terms-Intelligent reflekterande yta (IRS), symbolnivå förkodning, konstant kuvert förkodning, låg upplösning faser, flera inflöde flera utdata (MIMO).
|
I REF behandlas problemet med förkodningsdesign i ett RIS-baserat MISO- trådlöst system med flera användare, förutsatt att endast diskreta fasskiftsvärden vid RIS är möjliga.
| 202,540,508 |
Symbol-Level Precoding Design for Intelligent Reflecting Surface Assisted Multi-User MIMO Systems
|
{'venue': '2019 11th International Conference on Wireless Communications and Signal Processing (WCSP)', 'journal': '2019 11th International Conference on Wireless Communications and Signal Processing (WCSP)', 'mag_field_of_study': ['Computer Science', 'Engineering']}
| 14,178 |
Abstract-Color Image edge detektion är mycket grundläggande och viktigt steg för många applikationer såsom bildsegmentering, bildanalys, ansiktsanalys, objekt identifiering / spårning och många andra. Den största utmaningen för realtid implementation av färgbild kant detektion är på grund av hög volym av data som ska behandlas (3 gånger jämfört med grå bilder). Detta dokument beskriver realtid implementationen av Sobel operatörsbaserad färgbild kantdetektion med hjälp av FPGA. Sobeloperatör väljs för kantdetektering på grund av sin egenskap för att motverka bullerkänsligheten hos den enkla lutningsoperatören. För att uppnå prestanda i realtid, är en parallell arkitektur utformad, som använder tre bearbetningselement för att beräkna kantkartor över R, G och B färgkomponenter. Arkitekturen kodas med hjälp av VHDL, simulerad i ModelSim, syntetiserad med Xilinx ISE 10.1 och implementerad på Xilinx ML510 (Virtex-5 FX130T) FPGA-plattform. Det kompletta systemet fungerar med 27 MHz klockfrekvens. Den uppmätta prestandan för vårt system för standard PAL (720x576) storleksbilder är 50 fps (ramar per sekund) och CIF (352x288) storleksbilder är 200 fps.
|
Den största utmaningen till realtid färgbild kant detektion är på grund av hög volym av data som ska behandlas REF.
| 52,264,256 |
Real-time FPGA Based Implementation of Color Image Edge Detection
|
{'venue': None, 'journal': 'International Journal of Image, Graphics and Signal Processing', 'mag_field_of_study': ['Computer Science']}
| 14,179 |
Vi anser att problemet med att maximera en (icke-monoton) submodulär funktion är föremål för en kardinalitetsbegränsning. Förutom att fånga välkända kombinatoriska optimeringsproblem, t.ex., Maxk-Coverage och Max-Bisektion, har detta problem tillämpningar i andra mer praktiska miljöer som naturliga språkbehandling, informationssökning och maskininlärning. I detta arbete presenterar vi förbättrade approximationer för två varianter av kardinalitetsbegränsningen för icke-monotonfunktioner. När som mest k element kan väljas, förbättrar vi den nuvarande bäst 1 /e − o(1) approximation till en faktor som är i intervallet [ 1 /e + 0,004, 1 /2], uppnå en snäv approximation av 1 /2 − o(1) för k = n /2 och bryta 1 /e barriären för alla värden av k. När exakt k element måste väljas, våra algoritmer förbättra den nuvarande bäst 1 /4 − o(1) approximation till en faktor som är i intervallet [0.356, 1 /2], återigen uppnå en tight approximation av 1 /2 − o(1) för k = n /2. Dessutom är några av de algoritmer vi tillhandahåller mycket snabba med tidskomplex av O(nk), i motsats till tidigare kända algoritmer som är kontinuerliga i naturen, och därmed, alltför långsam för tillämpningar i de praktiska inställningar som nämns ovan. Våra algoritmer bygger på två nya tekniker. För det första presenterar vi en enkel randomiserad girig strategi där ett slumpmässigt element i varje steg väljs från en uppsättning "rimligt goda" element. Detta tillvägagångssätt kan anses vara en naturlig ersättning för den giriga algoritmen Nemhauser, Wolsey och Fisher [46], eftersom det behåller samma tight garanti på 1 − 1 /e för monotona mål och samtidigt komplexitet av O(nk), samtidigt som en approximation av 1 /e för allmänna icke-monotona mål (samtidigt som den giriga algoritmen Nemhauser et. Detta beslut träder i kraft dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. underlåter att tillhandahålla någon konstant garanti). För det andra utökar vi den dubbelgiriga tekniken, som uppnår en tight 1 /2 approximation för okonstruerad submodulär maximering, till den kontinuerliga inställningen. Detta gör att vi kan manipulera de naturliga hastigheter med vilka element förändras, vilket begränsar det totala antalet valda element.
|
Referensreferensreferensreferensen visade nyligen att för problemet max{ f (S) : tills ≤ k} (som är ett specialfall av en matrisrestriktion) är det möjligt att få ett approximationsförhållande i intervallet [ 1 /e + ε, 1 /2 − o(1)] för vissa små konstant ε > 0 (det exakta approximationsförhållandet i detta område beror på förhållandet k/n).
| 2,897,490 |
Submodular maximization with cardinality constraints
|
{'venue': 'SODA', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,180 |
Abstract-I detta papper, en ny rekursiv data mining metod baserad på den enkla men kraftfulla modellen av kognition kallas en conceptor ;s infördes och tillämpas på datorsäkerhet. Metoden bryter rekursivt en sträng av symboler genom att hitta frekventa mönster, koda dem med unika symboler och skriva om strängen med hjälp av denna nya kodning. Vi tillämpar denna teknik på två relaterade men viktiga problem i datorsäkerhet: (i) maskerad upptäckt för att förhindra en säkerhetsattack där en inkräktare imiterar en legitim användare för att få tillgång till resurserna, och (ii) författare identifiering, där anonyma eller omtvistade datorsessioner måste tillskrivas en av en uppsättning potentiella författare. Många metoder baserade på automatateori, Hidden Markov Modeller, Bayesian modeller eller till och med matchande algoritmer från bioinformatik har föreslagits för att lösa maskerad detektion problem men mindre arbete har gjorts på författaren identifiering. Vi använde rekursiv datautvinning för att karakterisera strukturen och symboler på hög nivå i användarsignaturer och de övervakade sessionerna. Vi använde en klass SVM för att mäta likheten o/dessa två karakteriseringar. Vi tillämpade viktningsprognoser för Guthors identifiering. På SEA-datasetet som vi använde i våra experiment var resultaten mycket lovande.
|
För att hitta frekventa mönster föreslog Szymanski och Zhang REF rekursiv gruvdrift, kodade mönster med unika symboler och skrev om sekvensen med denna nya kodning.
| 1,931,056 |
Recursive data mining for masquerade detection and author identification
|
{'venue': 'Proceedings from the Fifth Annual IEEE SMC Information Assurance Workshop, 2004.', 'journal': 'Proceedings from the Fifth Annual IEEE SMC Information Assurance Workshop, 2004.', 'mag_field_of_study': ['Computer Science']}
| 14,181 |
Eftersom de djupa näten i allt högre grad används i tillämpningar som lämpar sig för mobila enheter blir ett grundläggande dilemma uppenbart: tendensen i det djupa lärandet är att växa modeller för att absorbera allt större datamängder, men mobila enheter är utformade med mycket lite minne och kan inte lagra så stora modeller. Vi presenterar en ny nätverksarkitektur, HashedNets, som utnyttjar inneboende redundans i neurala nätverk för att uppnå drastiska minskningar i modellstorlekar. HashedNets använder en hashfunktion med låg kostnad för att slumpmässigt gruppera anslutningsvikter i hashskopor, och alla anslutningar inom samma hashskopa delar ett enda parametervärde. Dessa parametrar är anpassade för att anpassa sig till HashedNets viktdelningsarkitektur med standard backprop under träningen. Vår hashing procedur inför inga ytterligare minne overhead, och vi visar på flera riktmärkesdata som HashedNets krymper lagringskraven för neurala nätverk avsevärt samtidigt mestadels bevara generalisering prestanda.
|
HashedNets modell som föreslås i REF använde en hashfunktion till låg kostnad för att gruppera vikter i hashskopor för parameterdelning.
| 543,597 |
Compressing Neural Networks with the Hashing Trick
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
| 14,182 |
Neuronkretsen anses ofta vara en ren skiffersten som kan dynamiskt och godtyckligt formas av erfarenhet. Men när vi undersökte synapskonnektivitet i grupper av pyramidala neuroner i neokortex, fann vi att både konnektivitet och synapsvikter var förvånansvärt förutsägbara. Synaptiska vikter följer mycket noga antalet anslutningar i en grupp neuroner, mättnad efter endast 20% av möjliga anslutningar bildas mellan neuroner i en grupp. När vi undersökte nätverkstopologin för konnektivitet mellan neuroner, fann vi att neuronerna samlas i små världsnätverk som inte är skalfria, med mindre än 2 graders separation. Vi hittade en enkel klusterregel där anslutning är direkt proportionell mot antalet gemensamma grannar, som står för dessa små världsnätverk och exakt förutsäger anslutningen sannolikhet mellan två neuroner. Detta pyramidala neuronnätverk samlas i flera grupper av några dussin neuroner vardera. De neuroner som komponerar varje grupp är förvånansvärt fördelade, vanligtvis mer än 100 μm isär, vilket gör att flera grupper att sammanflätas i samma utrymme. Sammanfattningsvis upptäckte vi en synapsisk organisationsprincip som grupperar neuroner på ett sätt som är vanligt mellan djur och därmed oberoende av individuella erfarenheter. Vi spekulerar i att dessa elementära neuronala grupper är ordinerade Lego-liknande byggstenar av perception och att förvärvat minne förlitar sig mer på att kombinera dessa elementära sammansättningar i högre ordning konstruktioner. cellsammankomster på Edelman på Hebb på hjärnans utveckling på att lära sig H ebbs (1) bidrag till teorin om lärande och minne har format psykologiska, filosofiska och neurovetenskapliga teorier för över 60 y. Tre av de begrepp som han lade fram var särskilt viktiga. Den första definierar en korrelationsbaserad inlärningsregel, nämligen att när en neuron ihållande driver en annan, då kommer kopplingen mellan dem att stärkas. Den andra säger att detta leder till bildandet av klusterade synaptiska koppling av neuroner till cellenheter vars nätverk topologier formas av erfarenhet; den tredje tyder på att sådana elementära cellenheter synaptiskt kopplas samman med samma inlärningsregel för att bilda tåg av percepts (en fassekvens), utgör tankar (1-6). Det finns en stor mängd bevis för alla tre begreppen (5, 7-10). Trots detta har teoretiker påpekat att det första postulatet skulle få synapser inom cellenheter att mättas, begränsa deras dynamiska räckvidd och begränsa minneslagringskapaciteten (11) (12) (13) (14) (15) (16) (17) (18) (19) (20). Experimentella studier har bekräftat att mättad långsiktig potentiering (LTP) är ogynnsam för inlärning och minne (21, 22). Även om Hebb (1) hade föreslagit en mekanism för passiv försvagning av oanvända synapsförbindelser, dessa invändningar föreslog behovet av en aktiv depressiv mekanism (16, 17, 23), inspirera upptäckter av långsiktig depression (LTD) (24) och dubbelriktad och spik tidsberoende plasticitet (STDP) (25). Dubbelriktad plasticitet gav en rimlig mekanism för synapsvikter att anta godtyckliga värden beroende på korrelerad aktivitet bland neuroner. I artificiella neurala nätverk som innehåller dessa modifierade hebbian mekanismer, erfarenhet kan forma nätverket topologi av cellenheter, utrusta dem med anmärkningsvärd information bearbetning och minneskapacitet (11-20). Dessa modeller bygger dock på två huvudantaganden. Den första är att minnet lagras i konfigurationen av sammankopplingen av neuroner i en sammansättning och i uppsättningen synaptiska vikter av anslutningar; den andra är att erfarenheten kan fritt forma nätverksanslutningen och synapsvikterna. Vad är känt om nättopologin för kortikala mikrokretsar? Intracellulära inspelningar från flera neuroner har visat att olika typer av neuroner har olika anslutning sannolikheter och olika antal och fördelningar av synapser (26) (27) (28) (29) (30). Sannolikheten för anslutning mellan neokortikala neuroner varierar också beroende på det lager i vilket de bor (31, 32), de hjärnregioner till vilka de projicerar, och de hjärnregioner från vilka de får input (33, 34). Även om dessa fynd ger belägg för synapskluster, är det troligt att dessa former av kluster också innefattar genetiskt bestämda, topografiska och neuronspecifika konnektivitetsprinciper (35-38). Bevis för synapskluster mellan neuroner av samma typ i en mikrokrets började med konstaterandet att skikt 5 pyramidala neuroner är ömsesidigt sammankopplade oftare än förväntat från deras enriktade anslutning sannolikheter (39). En systematisk studie av trioler av samma pyramidala neuroner av Song et al. (40) ledde till upptäckten av trecelliga konnektivitetsmotiv. Det finns betydande bevis för kretsplasticitet mellan neokortikala pyramidala neuroner. När neuroner ligger inom ca 50 μm av varandra (dvs inom dimensionerna av en minikolumn), är axon av varje pyramidal neuron strukturellt ansluten till dendriter av praktiskt taget varje annan pyramidal neuron i omedelbar närhet (41). Denna strukturella tabula rasa erbjuder enorma möjligheter för funktionell omkoppling av neuronanslutningar utan större tillväxt och omorganisation av deras neurala arbors (42-44). Faktum är att synapskretsen i dessa skikt 5 pyramidala neuroner dynamiskt omkopplar efter stimulering (45), vilket tyder på att aktivitet kan påverka synapsanslutningen. Överföring över dessa etablerade synaptiska anslutningar genomgår också bestående förändringar (46) som drivs av den relativa timingen av spikar som avges av pre- och postsynaptiska neuroner (47), vilket ger en mekanism för stimuli för att specifikt forma synapsvikterna. Faktum är att många modeller har visat att tidsberoende dubbelriktade plasticitetsregler har potential att unikt konfigurera cellenheter på sätt som representerar specifika stimuli, vilket gör det möjligt för församlingar att lära sig av erfarenhet (48-52). Vad som inte är känt är dock om sådana plasticitetsmekanismer har fri räckvidd för att godtyckligt forma neuronenheter från en ren skiffer, som föreslås av den strukturella tabula rasa, eller om de måste fungera under begränsningar av vissa föreskrivna Författare bidrag: H.M. utformade 12-pack system och experiment; R.P. byggde 12-packningssystemet; R.P. och T.K.B. Utförda experiment; R.P. och H.M. analyserade data; och H.M. och R.P. skrev tidningen. Författarna förklarar ingen intressekonflikt. Denna artikel är en PNAS Direkt Inlämning. Gratis online via PNAS open access-alternativet.
|
Perin m.fl. visade bevis för synapskluster, där små grupper av neuroner (ett par dussin) bildar småvärldsnätverk utan nav REF.
| 19,025,636 |
A synaptic organizing principle for cortical neuronal groups
|
{'venue': 'Proceedings of the National Academy of Sciences of the United States of America', 'journal': 'Proceedings of the National Academy of Sciences of the United States of America', 'mag_field_of_study': ['Computer Science', 'Medicine']}
| 14,183 |
I detta dokument föreslår vi ett interaktivt matchande nätverk (IMN) för multi-turn response selection-uppgiften. För det första konstruerar IMN ordrepresentationer från tre aspekter för att ta itu med utmaningen med ord utanför vokabulären (OOV). För det andra är en uppmärksam hierarkisk återkommande kodare (AHRE), som kan koda meningar hierarkiskt och generera mer beskrivande representationer genom att aggregera med en uppmärksamhetsmekanism, utformad. Slutligen beräknas de dubbelriktade interaktionerna mellan hela multi-turn sammanhang och svarskandidater för att härleda den matchande informationen mellan dem. Experiment på fyra offentliga datauppsättningar visar att IMN överträffar baslinjemodellerna på alla mätvärden, uppnår en ny toppmodern prestanda och demonstrerar kompatibilitet mellan olika domäner för urval av svar på multi-turn. • Informationssystem → Hämta modeller och rankning.
|
I REF föreslogs det interaktiva matchningsnätverket (IMN) som utförde de globala och dubbelriktade interaktionerna mellan sammanhanget och svaret.
| 57,573,742 |
Interactive Matching Network for Multi-Turn Response Selection in Retrieval-Based Chatbots
|
{'venue': "CIKM '19", 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,184 |
För att kunna föreställa sig den fulla potentialen med allestädes närvarande mobila datorer måste mobila noder kunna röra sig sömlöst över olika nätverk. Dock, platsen d.v.s. IP-adress, av en så kallad mobil noder måste fastställas inom en viss tid, innan tjänsterna blockeras. Med den kommande 3G-, 4G- och trådlös LAN-tekniken är det nödvändigt att ha ett effektivt lokaliseringshanteringssystem som anpassar sig till sådana dynamiska miljöer, och öka problemen som centrumpunkt för fel, fördröjning och brist på tillförlitlighet. En metod är att tillhandahålla decentraliserad lokaliseringshantering, med hjälp av CHORD, vars viktiga vale kartläggning kan effektivt bestämma det namn som krävs för IP-kartläggning. En viktig fråga när det gäller denna teknik är dock förekomsten av instabila ackordnoder, vilket leder till instabilitet i ramverket. Noder med minimal beräkningskapacitet kan sakta ner uppslagningsmekanismen, och därmed avslutar den pågående sessionen. Detta dokument ger en lösning på dessa problem med hjälp av välkända två-tier CHORD arkitektur. Noder med hög beräkningskraft och stabilitet kommer att fungera som Platsservrar, som kommer att ansvara för lagring och distribution av temporära lokaliseringar d.v.s. IP-adresser till den så kallade mobila noden. Det föreslagna ramverkets lämplighet testas med hjälp av analytisk analys i jämförelse med det befintliga ramverket för ackordrörlighet. Ett sådant tillvägagångssätt kan skapa stabilitet i ramverket, med dess decentraliseringsfunktion fortfarande intakt.
|
En två-tier Chord DHT för distribuerad platshantering infördes i REF som använder noderna med hög beräkningskraft och stabilitet som platsservrar.
| 7,638,751 |
Two-Tier CHORD for Decentralized Location Management
|
{'venue': None, 'journal': 'International Journal of Computer Applications', 'mag_field_of_study': ['Computer Science']}
| 14,185 |
Det pågående arbetet med multimodal maskinöversättning (MMT) har visat att den visuella modaliteten antingen är onödig eller endast marginellt fördelaktig. Vi anser att detta är en följd av de mycket enkla, korta och repetitiva meningar som används i den enda tillgängliga datauppsättningen för uppgiften (Multi30K), vilket gör källtexten tillräcklig som sammanhang. I det allmänna fallet anser vi dock att det är möjligt att kombinera visuell och textmässig information för att mala översättningar. I detta dokument undersöker vi den visuella modalitetens bidrag till toppmoderna MMT-modeller genom att genomföra en systematisk analys där vi delvis berövar modellerna källsidans textkontext. Våra resultat visar att modeller under begränsat textsammanhang kan utnyttja den visuella indatan för att generera bättre översättningar. Detta motsäger den nuvarande uppfattningen att MMT-modeller bortser från den visuella modaliteten på grund av antingen kvaliteten på bildegenskaperna eller hur de integreras i modellen.
|
Det senaste arbetet i Multimodal Machine Translation REF tyder på att den visuella modaliteten är särskilt användbar under förhållanden där källsignalen är skadad och därmed otillräcklig för att slutföra uppgiften.
| 84,842,989 |
Probing the Need for Visual Context in Multimodal Machine Translation
|
{'venue': 'Proceedings of the 2019 Conference of the North', 'journal': 'Proceedings of the 2019 Conference of the North', 'mag_field_of_study': ['Computer Science']}
| 14,186 |
ABSTRACT I den här artikeln överväger vi trådlösa multi-hop nätverk med avkoda-och-framåt reläer. Mellanliggande reläer har inga fasta nätaggregat och behöver därför fylla på energi via trådlös energiupptagning från källsignalen. Tekniken för samtidig trådlös information och kraftöverföring (SWIPT) används mellan två angränsande noder för att transportera både information och energi. Tre allmänna protokoll för SWIPT beaktas: power-splitting (PS), time-switching (TS) och hybrid som är en kombination av PS- och TS-protokoll. För varje protokoll formulerar vi optimeringsproblem för att bestämma optimala PS- och TS-förhållanden för att maximera dataflöde från end-to-end under två system. Scheme 1 tillåter olika PS- och TS-förhållanden vid varje relä, och Scheme 2 använder enhetliga PS- och TS-förhållanden för alla reläer. De föreslagna optimeringsproblemen visas vara icke-konvexa. Med en serie transformationer vänder vi de föreslagna icke-konvexa optimeringsproblemen till konvexa. Insiktsfull analys av systemets prestanda presenteras i delen av numeriska resultat. INDEX TERMS Avkoda och framåt relä, energi skörd, multi-hop nätverk, ström-splitting, timeswitching.
|
Ett trådlöst multi-hop-nätverk bestående av DF-reläet övervägdes i REF.
| 44,153,949 |
Throughput Maximization for Multi-Hop Decode-and-Forward Relay Network With Wireless Energy Harvesting
|
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
| 14,187 |
Abstract-Tiling är ett viktigt program omvandling för att uppnå effektiv data återanvändning. Men prestandan av kakelprogram kan variera avsevärt med olika kakelstorlekar. Därför är valet av bra kakelstorlekar avgörande. Även om det har gjorts betydande forskning om analytiska modeller för att välja kakelstorlekar, har de inte visat sig vara effektiva när det gäller att hitta optimala kakelstorlekar inom en rad program och målarkitekturer. Auto-tuning är ett lönsamt alternativ som ofta används i praktiken, och innebär utförande av olika kombinationer av kakelstorlekar på ett systematiskt sätt för att hitta de bästa. Men detta är ibland ogenomförbart -till exempel när programmet ska köras på okända plattformar (t.ex. molnmiljöer). Vi föreslår ett nytt tillvägagångssätt för att generera kod för att möjliggöra dynamiskt val av kakelstorlek, baserat på övervakning av prestanda för några slingor. Urvalet fungerar på körtid på "produktion" kör, utan någon föregående kunskap om utförandet miljön. Vi diskuterar teorin och genomförandet av en parametrisk kakelkod generator som möjliggör körtid kakelstorlek tuning och beskriva en sökstrategi för att bestämma effektiva kakelstorlekar. Experimentella resultat visar hur effektivt tillvägagångssättet är.
|
Tavaragiri m.fl. föreslog en dynamisk autotuning ram som försöker välja den optimala kakelstorleken under produktionskörningen baserat på parameteriserad tiling av koden REF.
| 13,284,237 |
Dynamic selection of tile sizes
|
{'venue': '2011 18th International Conference on High Performance Computing', 'journal': '2011 18th International Conference on High Performance Computing', 'mag_field_of_study': ['Computer Science']}
| 14,188 |
Vi anser att den välstuderade radionätsmodellen: en synkron modell med en graf G = (V, E) med på V = n där varje nod i varje omgång antingen sänder ett paket, med längd B = och (log n) bitar, eller lyssnar. Varje nod får ett paket iff som den lyssnar på och exakt en av sina grannar sänder. Vi anser att problemet med k- meddelandesändning, där k- meddelanden, var och en med B- bitar, placeras i en godtycklig noder av grafen och målet är att leverera alla meddelanden till alla noder. Vi presenterar ett enkelt bevis som visar att det finns ett radionät med radie 2 där för alla k, sändning k meddelanden kräver minst och (k log n) rundor. Det vill säga, i detta nätverk, oavsett algoritm, den maximala möjliga sändningsgenomströmningen är O( 1 log n ). Vi anser att den välstuderade radionätmodellen, först inkränkt av Chlamtac och Kutten [2]. Dessa anslutningar i denna modell presenteras med en graf G = (V, E) med på V = n. Dessutom är modellen synkroniserad, dvs exekveringarna fortsätter i lås-steg-rundor. I varje omgång skickar varje nod antingen ett paket, med längd B = och (log n) bitar, eller lyssnar. Varje nod får ett paket iff den lyssnar och exakt en av sina grannar sänder ett paket. Vi anser att k-meddelandet sänder problem, där k-meddelanden, var och en bestående av på B-bitar, placeras i en godtycklig delmängd av noderna i grafen och målet är att leverera alla dessa meddelanden till alla noder. Vi kräver inte att paketen som noderna överför (över kanalen) är ett av dessa meddelanden. Med andra ord begränsar vi inte algoritmen till att vara en routingalgoritm, och i synnerhet kan det vara en nätverkskodningsalgoritm [4], där vart och ett av de överförda paketen är en kombination av några av meddelandena. Vi visar följande teorem. Teorem 2.1. Det finns ett radionät med radie 2 där det för alla k, sändning k meddelanden kräver minst på (k log n) rundor. Det huvudsakliga tillvägagångssättet för vårt bevis liknar beviset för.log 2 n) nedre gränsen för Alon, Bar-Noy, Linial och Peleg [1] på tiden för att sända ett enda meddelande i radionät med radien 2. Vi noterar att Theorem 2.1 också är en följd av det skvaller som ligger längst ner i Gasienec och Potapov [3], vilket i sig uppnås genom en minskning till och 2 n) nedre gränsen av [1]. Vårt bevis är direkt och betydligt kortare och enklare än beviset på [1]. För att bevisa Theorem 2.1, arbetar vi först med bipartite nätverk G = (V, E) där V = S på R, S på R = ∅, och det finns ingen kant mellan två noder av S, eller mellan två noder av R. Vi kallar noderna i S avsändare och noderna i R mottagare. Vi visar följande teorem om tvåpartsradionät. Det här är Lemma 2.2. Det finns en bipartite nätverk H med mindre än n noder sådan att i varje runda, oavsett vilka noder överföra, högst O( 1 log n ) mottagare får ett paket.
|
Ghaffari m.fl. REF visade en lägre gräns för en (k log n) för detta problem, även när nätverkskodning är tillåten, som håller även för centraliserade algoritmer.
| 1,895,046 |
A Bound on the Throughput of Radio Networks
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
| 14,189 |
Abstract-This paper undersöker maximera kvaliteten på information som omfattas av kostnadsbegränsningar i datafusionssystem. Vi anser att datafusionsapplikationer som försöker uppskatta eller förutsäga något nuvarande eller framtida tillstånd i en komplex fysisk värld. Exempel på detta är målspårning, banplanering och lokalisering av sensornod. I stället för att optimera allmänna mätvärden på nätverksnivå som latency eller throughput uppnår vi en mer resurseffektiv sensornätverksdrift genom att direkt optimera ett kvalitetsbegrepp på applikationsnivå, nämligen förutsägelsefel. Detta görs samtidigt som man tar hänsyn till kostnadsbegränsningarna. Till skillnad från tidigare kostnadskänsliga förutsägelser/regressionsprogram, överväger vår lösning mer komplexa förutsägelser problem som uppstår i sensornätverk där fenomen beter sig annorlunda under olika förhållanden, och där både beställda och oordnade förutsägelser attribut används. Systemet utvärderas genom verkliga sensornätverksapplikationer i lokalisering och vägplanering. Experimentella resultat visar att icke-triviala kostnadsbesparingar kan uppnås genom vårt system jämfört med populära kostnadsokänsliga system, och ett betydligt bättre förutsägelsefel kan uppnås jämfört med kostnadskänsliga linjära regressionssystem.
|
Wang m.fl. REF undersöker maximering av QoI med kostnadsbegränsningar i datafusionssystem.
| 533,938 |
Optimizing quality-of-information in cost-sensitive sensor data fusion
|
{'venue': '2011 International Conference on Distributed Computing in Sensor Systems and Workshops (DCOSS)', 'journal': '2011 International Conference on Distributed Computing in Sensor Systems and Workshops (DCOSS)', 'mag_field_of_study': ['Computer Science']}
| 14,190 |
En av de grundläggande frågorna i Algoritmisk Mechanism Design är om det finns en inneboende konflikt mellan sanning och beräkningsförmåga: i synnerhet, om polynom-tid sanningsenliga mekanismer för kombinatoriska auktioner är bevisligen svagare i fråga om approximation förhållande än icke-sanning. Denna fråga besvarades helt nyligen för allmänt sanningsenliga mekanismer för kombinatoriska auktioner [4] och till och med för mekanismer för sanningsenlig förväntan [12]. Båda dessa resultat grundar sig dock på informationsteoretiska argument för värderingar som ges av ett värde oracle, och lämnar möjligheten öppen för sanningsenliga mekanismer i polynomtid för kortfattat beskrivna värderingsklasser. Detta papper är den första att bevisa beräkning hårdhet resultat för sanningsenliga mekanismer för kombinatoriska auktioner med kortfattat beskrivna värderingar. Vi bevisar att det finns en klass av koncis representerade submodulära värderingar för vilka ingen deterministisk sanningsenlig mekanism ger en m 1/2− - approximation för en konstant > 0, om inte N P = RP (m betecknar antalet objekt). Dessutom bevisar vi att även sanningsenliga-in-expectation mekanismer inte kan approxima kombinatoriska auktioner med vissa kortfattat beskrivna submodulära värderingar bättre än inom n γ, där n är antalet budgivare och γ > 0 några absolut konstant, om inte N P / poly. Dessutom bevisar vi beräkningshårdhet resultat för två relaterade problem.
|
På samma sätt, en stark icke-konstant lägre gräns bevisas även för randomiserade polynom tid sanningsenliga i förväntan mekanismer för CAs med koncist representerade submodulära värderingar REF.
| 149,760 |
The computational complexity of truthfulness in combinatorial auctions
|
{'venue': "EC '12", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
| 14,191 |
Hur ska man sälja en vara till en köpare vars värde för varan kommer att realiseras först nästa vecka? T.ex. Överväg att sälja ett flyg till någon chef som kanske har ett möte med en klient nästa vecka. Antag att både säljaren och köparen bara vet en distribution, F, från vilken köparens värde, v, för objektet kommer att dras. Ett sätt säljaren kan gå till denna försäljning är att göra ett take-it eller leave-it-erbjudande idag. Erbjudandet lyder "betala E [v] idag för att få objektet nästa vecka." En riskneutral köpare skulle anse att detta erbjudande var attraktivt, och därför skulle säljaren ta ut hela överskottet, E [v]. Det oroande inslaget i den förut beskrivna mekanismen är att, för vissa förverkliganden av v, den budgivare slutar med negativ nytta. I synnerhet, medan vår mekanism är tillfällig Individuell Rationell (IR), är det inte i efterhand IR. Hur kan vi fixa det här? Ett sätt är att vänta till nästa vecka när värdet realiseras och göra ett take-it-or-leave-it-erbjudande av objektet till ett optimalt monopolpris, ett pris p maximering p · (1 − F (p)). Den nya mekanismen är tydligt i efterhand IR, men dess intäkter kan vara mycket mindre än den föregående. Ändå utvinner denna triviala mekanism de bästa möjliga intäkterna bland alla IR-mekanismer i efterhand, som ett enkelt argument kan fastställa. Detta argument om optimalitet misslyckas dock när flera produkter ska säljas under på varandra följande perioder. I detta dokument ger vi en karakterisering av de intäkter-optimala, ex-post IR, dynamisk mekanism sälja k poster över k perioder till en budgivare vars värden är oberoende. I synnerhet optimerar vi säljarens intäkter under förutsättning att följande starka individuella rationalitet villkor: vid varje period, etapp nytta agenten, definieras som överskottet från den perioden tilldelning minus agentens betalning, måste vara icke-negativ. I synnerhet innebär icke-negativiteten i scenen verktyg att vid slutet av varje period, agentens realiserade nytta från att delta i mekanismen hittills är icke-negativ. Vi ger förlängningar till flera budgivare och en oändlig horisont med rabattfaktorer. Resultat. Vår karakterisering avslöjar strukturella egenskaper hos optimala mekanismer. Vi visar att det finns en optimal mekanism där, under alla perioder utom möjligen den sista, stadiet nytta av alla realiserade typer av agenten är noll; det vill säga, varje typ uppmanas att betala sitt överskott från tilldelningen. För att uppnå stimulanskompatibilitet upprätthåller mekanismen en skaklar statsvariabel som dikterar framtida tilldelningar och betalningar. Mer exakt visar vi att en optimal mekanism kan beskrivas med två funktioner som endast beror på nuvarande tillstånd av mekanismen och agentens bud (snarare än hela historien om bud): en tilldelningsfunktion
|
Ashlagi m.fl. REF ger karakteriseringar av den optimala IR i efterhand, periodisk IC dynamisk mekanism, med m oberoende stadier och n köpare.
| 8,544,657 |
Sequential Mechanisms with Ex-post Participation Guarantees
|
{'venue': "EC '16", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Economics', 'Computer Science']}
| 14,192 |
AbstractThis paper presents Scribe, en skalbar multicastinfrastruktur på applikationsnivå. Scribe stöder ett stort antal grupper, med ett potentiellt stort antal medlemmar per grupp. Scribe är byggd på toppen av Pastry, en generisk peer-topeer objekt plats och routing substrat överlagrat på Internet, och utnyttjar Pastrys tillförlitlighet, självorganisering, och lokala egenskaper. Pastry används för att skapa och hantera grupper och för att bygga effektiva multicast träd för spridning av meddelanden till varje grupp. Scribe ger garantier för bästa tillförlitlighet, men vi beskriver hur en ansökan kan utöka Scribe för att ge större tillförlitlighet. Simuleringsresultat, baserade på en realistisk topologimodell för nätverk, visar att Scribe skalar över ett brett spektrum av grupper och gruppstorlekar. Dessutom balanserar det belastningen på noderna samtidigt uppnå acceptabel fördröjning och länka stress jämfört med IP multicast.
|
För att ta itu med detta utformade Scribe Ref en skalbar ALM-infrastruktur baserad på Pastry för att stödja tjänsterna med ett stort antal koncernmedlemmar.
| 899,542 |
SCRIBE: A large-scale and decentralized application-level multicast infrastructure
|
{'venue': 'IEEE Journal on Selected Areas in Communications (JSAC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,193 |
Abstract-Efficient nätverk tillhandahållande mekanismer som stöder differentiering av tjänster är avgörande för förverkligandet av Differentierade tjänster (DiffServ) Internet. Med utgångspunkt i vårt tidigare arbete med kantavsättning föreslår vi en uppsättning effektiva dynamiska nod- och kärnavsättningsalgoritmer för interiöra noder respektive stamnät. Den node provisioning algoritm förhindrar övergående överträdelser av servicenivåavtal (SLA) genom att förutsäga uppkomsten av tjänstenivå överträdelser baserat på en multiklass virtuell kö mätningsteknik, och genom att automatiskt justera servicevikterna för viktade rättvisa kö schemaläggare på kärn routrar. Ihållande överträdelser av servicenivån rapporteras till den centrala avsättningsalgoritmen, som dimensionerar trafikaggregat vid nätinbrottskanten. Den centrala avsättningsalgoritmen är utformad för att ta itu med det svåra problemet med att tillhandahålla DiffServs trafikaggregat (dvs. hastighetskontroll kan endast utföras på roten av alla trafikfördelningsträd) genom att ta hänsyn till rättvisa frågor inte bara mellan olika trafikaggregat utan också inom samma aggregat vars paket tar olika vägar genom ett centralt IP-nät. Vi visar genom analys och simulering att den föreslagna dynamiska avsättningsmodellen är överlägsen statisk avsättning för DiffServ när det gäller att tillhandahålla kvantitativa fördröjningsgränser med differentierad förlust mellan per-aggregerade serviceklasser under ihållande överbelastnings- och funktionsfelsförhållanden när de observeras i stamnät.
|
Liao m.fl. studerar frågan om att tillhandahålla kvantitativa differentierade tjänster i DiffServ genom att föreslå en uppsättning dynamiska nod- och kärnalgoritmer för inre noder respektive stamnät, Ref.
| 14,281,570 |
Dynamic core provisioning for quantitative differentiated services
|
{'venue': 'IEEE/ACM Transactions on Networking', 'journal': 'IEEE/ACM Transactions on Networking', 'mag_field_of_study': ['Computer Science']}
| 14,194 |
Abstrakt. -Många verkliga system är gjorda av starkt interagerande nätverk, med djupgående konsekvenser för deras dynamik. Här tar vi hänsyn till två samverkande sociala nätverk och, inom ramen för en enkel modell, tar vi itu med fallet med politiska val. Varje nätverk representerar ett konkurrerande parti och varje representant, på valdagen, kan välja att antingen vara aktiv i ett av de två nätverken (rösta för motsvarande parti) eller att vara inaktiv i båda (inte rösta). Opinionsdynamiken under valkampanjen beskrivs genom en simulerad glödgningsalgoritm. För en stor region av parameterutrymmet finner vi att resultatet av konkurrensen mellan de två parterna möjliggör pluralism i samhället, där båda parter har en ändlig andel av rösterna. Det centrala resultatet är att ett tätt sammankopplat socialt nätverk är nyckeln till ett partis slutliga seger. Små engagerade minoriteter kan dock spela en avgörande roll och till och med vända valresultatet. Inledning. -Interaktiva och ömsesidigt beroende nätverk har nyligen rönt stor uppmärksamhet [1] [2] [3] [4] [5] [6] [7] [8] [9] [10]. Här beror funktionen hos en nod i ett nätverk på den operativa nivån hos de noder som den är beroende av i de andra nätverken. Undersökta exempel sträcker sig från infrastrukturnät som kraftnät och Internet [1] till interaktion med biologiska nätverk inom fysiologi [10]. Att förstå hur kritiska fenomen [11, 12] påverkas av närvaron av interaktioner eller beroende nätverk är avgörande för att kontrollera och övervaka dynamiken i och på komplexa system. I detta sammanhang visade det sig att de inbördes beroende näten är mer ömtåliga än enskilda nät, och att perkoleringsövergången kan vara första ordningen [1].
|
Halu m.fl. Ref överväga två samverkande sociala nätverk, och därmed studera fallet med politiska val med hjälp av simuleringar.
| 15,234,752 |
Connect and win: The role of social networks in political elections
|
{'venue': 'EPL 102 (2013) 16002', 'journal': None, 'mag_field_of_study': ['Physics', 'Computer Science']}
| 14,195 |
Vi presenterar en strategi för att snabbt och enkelt bygga naturliga språkgränssnitt till databaser för nya domäner, vars prestanda förbättras med tiden baserat på användarens feedback, och kräver minimala insatser. För att uppnå detta, vi anpassar neurala sekvens modeller för att kartlägga uttalanden direkt till SQL med sin fulla expressivitet, förbi alla mellanliggande betydelse representationer. Dessa modeller används omedelbart online för att begära feedback från riktiga användare för att flagga felaktiga frågor. Slutligen, populariteten av SQL underlättar samla kommentarer för felaktiga förutsägelser med hjälp av publiken, som används direkt för att förbättra våra modeller. Denna kompletta feedback loop, utan mellanliggande representationer eller databas specifik teknik, öppnar upp nya sätt att bygga högkvalitativa semantiska parsers. Experiment tyder på att detta tillvägagångssätt kan användas snabbt för alla nya måldomäner, som vi visar genom att lära en semantisk parser för en online akademisk databas från grunden.
|
Senaste arbete REF utbildar en online språk-till-SQL-tolk från användarens feedback.
| 497,108 |
Learning a Neural Semantic Parser from User Feedback
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
| 14,196 |
Rekursiv partitionering är inbäddad i den allmänna och väletablerade klassen av parametriska modeller som kan monteras med hjälp av M-type estimatorer (inklusive maximal sannolikhet). En algoritm för modellbaserad rekursiv partitionering föreslås för vilken de grundläggande stegen är: (1) passa en parametrisk modell till en datamängd, (2) testa för parameterinstabilitet över en uppsättning partitionerande variabler, (3) om det finns någon övergripande parameterinstabilitet, dela modellen med avseende på den variabel som är förknippad med den högsta instabiliteten, (4) upprepa förfarandet i var och en av dottern noderna. Algoritmen ger en partitionerad (eller segmenterad) parametrisk modell som effektivt kan visualiseras och att subjekt-materia forskare används för att analysera och tolka.
|
I synnerhet beaktar REF användningen av sådana metoder för modellbaserad rekursiv partitionering.
| 15,225,714 |
Model-based Recursive Partitioning
|
{'venue': None, 'journal': 'Journal of Computational and Graphical Statistics', 'mag_field_of_study': ['Mathematics']}
| 14,197 |
Abstract-Wireless laddning genom riktade radiofrekvensvågor (RF) är en ny teknik som kan användas för att fylla på batteriet i en sensornod, om än på bekostnad av datakommunikation i nätverket. Denna avvägning mellan energiöverförings- och kommunikationsfunktioner kräver ett nytt perspektiv på protokollet för medium åtkomstkontroll (MAC) för lämplig delning av kanalen. Genom en experimentell studie visar vi hur placeringen, den valda frekvensen och antalet RF-energitransmittrar påverkar sensorns laddningstid. Dessa studier används sedan för att utforma ett MAC-protokoll som kallas RF-MAC som optimerar energitillförseln till sensornoder, samtidigt som störningar till datakommunikation minimeras. Under protokollets utformning beskriver vi mekanismer för att (i) fastställa den maximala energiladdningströskeln, (ii) välja specifika sändare baserat på den kollektiva inverkan på laddningstid, (iii) begära och bevilja begäran om energiöverföring, och (iv) utvärdera respektive prioriteringar för datakommunikation och energiöverföring. Såvitt vi vet är detta det första distribuerade MAC-protokollet för RF-energiavskiljare, och genom en kombination av experiment- och simuleringsstudier observerar vi 300% maximal nätverksgenomströmningsförbättring över det klassiska modifierade osloterade CSMA MAC-protokollet.
|
Ett distribuerat medium tillträde protokoll, som heter RF-MAC, för RF energi skörd sensorer föreslås i REF.
| 7,847,207 |
RF-MAC: A Medium Access Control Protocol for Re-Chargeable Sensor Networks Powered by Wireless Energy Harvesting
|
{'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
| 14,198 |
Vi föreslår en konvex-konkav programmeringsmetod för den märkta viktade graf matchning problem. Konvex konkav programmering formulering erhålls genom att skriva om den viktade graf matchning problem som ett minst-kvadrat problem på uppsättningen permutation matriser och koppla den till två olika optimeringsproblem: en kvadratisk konvex och en kvadratisk konkav optimering problem på uppsättningen av doubly stokastiska matriser. Den konkava avkoppling har samma globala minimum som den ursprungliga graf matchning problem, men sökandet efter dess globala minimum är också ett svårt kombinatorial problem. Vi konstruerar därför en approximation av konkav problemlösning genom att följa en lösning väg av ett konvex-konkav problem som erhålls genom linjär interpolering av konvexa och konkav formuleringar, med början från konvex avslappning. Denna metod gör det enkelt att integrera informationen på grafetikett likheter i optimeringsproblem, och därför utföra märkta viktade graf matchning. Algoritmen jämförs med några av de bäst presterande grafmatchningsmetoderna på fyra datauppsättningar: simulerade grafer, QAPLib, bilder av näthinnans kärl och handskrivna kinesiska tecken. I samtliga fall är resultaten konkurrenskraftiga med den senaste tekniken.
|
Detta beslut träder i kraft dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. REF närmade sig IQP från en punkt av en avkoppling av den ursprungliga minst-kvadrat problem till en konvex och konkav optimering problem på uppsättningen av doubly stokastiska matriser.
| 2,747,544 |
A Path Following Algorithm for the Graph Matching Problem
|
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
| 14,199 |
I detta papper definierar vi simuleringar upp till en förbeställning och visar hur vi kan använda dem för att ge en myntledande, simuleringsliknande karakterisering av semantiska förordningar för processer. Resultatet gäller för en bred klass av förbeställningar, särskilt för alla semantiska förordningar som är grövre än den färdiga simuleringsförordningen i det linjära tidsgrensspektrumet. Ett intressant men oväntat resultat är att simuleringen up-to är en kanonisk förordning vars kärna är den givna ekvivalensrelationen när den byggs från en ekvivalensrelation. Dessa kanoniska preorders har flera fina egenskaper, det viktigaste är att eftersom alla av dem definieras på ett homogent sätt, deras egenskaper kan bevisas på ett generiskt sätt. I synnerhet presenterar vi en axiomatic karakterisering av var och en av dessa kanoniska preorder, som erhålls bara genom att lägga till en enda axiom till axiomatizationen av den ursprungliga ekvivalensrelationen. Detta ger oss en alternativ axiomatisering för varje axiomatizable förordning i den linjära tidsgrenar tidsspektrum, vars korrekthet och fullständighet kan bevisas en gång för alla.
|
De genererar denna inekvationella axiomatization genom att helt enkelt lägga till de definiera inekvational axioms för den färdiga simuleringen preorder till axiomatizationen för ekvivalens-see Theorem 5.1 i REF.
| 15,844,303 |
Simulations up-to and Canonical Preorders (extended abstract) Abstract
|
{'venue': 'Electron. Notes Theor. Comput. Sci.', 'journal': 'Electron. Notes Theor. Comput. Sci.', 'mag_field_of_study': ['Computer Science']}
| 14,200 |
Probabilistiska modeller analyserar data genom att förlita sig på en uppsättning antaganden. Uppgifter som uppvisar avvikelser från dessa antaganden kan undergräva slutsatsen och förutsägelsens kvalitet. Robusta modeller ger skydd mot obalans mellan en modells antaganden och verkligheten. Vi föreslår ett sätt att systematiskt upptäcka och minska bristande överensstämmelse mellan en stor klass av probabilistiska modeller. Tanken är att öka sannolikheten för varje observation till en vikt och sedan dra slutsatsen både latenta variabler och vikter från data. Genom att dra slutsatsen att vikterna gör det möjligt för en modell att identifiera observationer som matchar dess antaganden och nedvikta andra. Detta möjliggör en robust slutledning och förbättrar prediktiv noggrannhet. Vi studerar fyra olika former av missmatchning med verkligheten, allt från saknade latenta grupper till strukturfelspecifikation. En Poisson factorization analys av Moviens 1M dataset visar fördelarna med detta tillvägagångssätt i ett praktiskt scenario.
|
Wang et al Ref föreslår ett tillvägagångssätt som ökar sannolikheten för varje observation med vissa vikter och sedan drar slutsatsen både latenta variabler och vikter från skadade data.
| 6,335,393 |
Robust Probabilistic Modeling with Bayesian Data Reweighting
|
{'venue': 'ICML', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
| 14,201 |
I trådlösa nätverk (WBAN) placeras olika sensorer och ställdon på/inom människokroppen och ansluts trådlöst. WBAN har särskilda krav för hälso- och sjukvård och medicinska tillämpningar, varför standardprotokoll som IEEE 802.15.4 inte kan uppfylla alla krav. Följaktligen har många protokoll för medium åtkomstkontroll (MAC), som till största delen härrör från IEEE 802.15.4 superframe-strukturen, studerats. De stöder dock inte en differentierad tjänstekvalitet (QoS) för de olika trafikformer som finns i en WBAN. I synnerhet är ett QoS-aware MAC-protokoll viktigt för WBANs som arbetar i olicensierade industriella, vetenskapliga och medicinska (ISM) band, eftersom olika trådlösa tjänster som Bluetooth, WiFi och Zigbee kan samexistera där och orsaka allvarliga störningar. I detta dokument föreslår vi ett prioritetsbaserat adaptivt MAC-protokoll (PA-MAC) för WBAN i olicensierade band, som tilldelar ankomst- och avgångstider dynamiskt, baserat på trafikprioriteringen. Dessutom används flera kanaler effektivt för att minska åtkomstförseningar i en WBAN, i närvaro av samexisterande system. Våra resultat visar att den föreslagna PA-MAC överträffar IEEE 802.15.4 MAC och den konventionella prioritetsbaserade MAC när det gäller genomsnittlig överföringstid, genomströmning, energiförbrukning och datakollisionsförhållande.
|
I REF, Bhandari et al. tillhandahålla en Prioritetsbaserad adaptiv MAC (PA-MAC) för att minska tviste komplexiteten under kanalåtkomst med låg energiförbrukning.
| 33,688,264 |
A Priority-Based Adaptive MAC Protocol for Wireless Body Area Networks
|
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']}
| 14,202 |
....................................... Förutom extrem variation i artikulationer, många av lederna är knappt synliga. Vi kan gissa platsen för höger arm i vänster bild bara för att vi ser resten av pose och förutse rörelse eller aktivitet av personen. På liknande sätt syns inte den vänstra delen av personen till höger alls. Detta är exempel på behovet av ett holistiskt resonemang. Vi anser att DNN naturligtvis kan ge en sådan typ av resonemang. Vi föreslår en metod för mänsklig pose assessment baserad på Deep Neural Networks (DNN). Pose-uppskattningen är formulerad som ett DNN-baserat regressionsproblem mot kroppsleder. Vi presenterar en kaskad av sådana DNN regressorer som resulterar i höga precision pose uppskattningar. Metoden har fördelen av resonemang om posera på ett holistiskt sätt och har en enkel men ändå kraftfull formulering som kapitaliserar på den senaste tidens framsteg i Deep Learning. Vi presenterar en detaljerad empirisk analys med toppmoderna eller bättre resultat på fyra akademiska riktmärken för olika verkliga bilder.
|
DeepPose REF föreslog att använda djupa neurala nätverk för mänsklig pose uppskattning.
| 206,592,152 |
DeepPose: Human Pose Estimation via Deep Neural Networks
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
| 14,203 |
Discourse tolkning är processen att upptäcka den latenta relationsstrukturen i en lång form bit av text och förblir en betydande öppen utmaning. En av de svåraste uppgifterna i diskurstolkningen är klassificeringen av implicita diskursrelationer. De flesta toppmoderna system utnyttjar inte den stora volymen omärkt text som finns tillgänglig på webben, utan de förlitar sig i stället på human annoterade utbildningsdata. Genom att inkludera en blandning av märkta och omärkta data kan vi förbättra relationsklassificeringens noggrannhet, minska behovet av kommenterade data, samtidigt som vi behåller förmågan att använda märkta data för att säkerställa att specifika önskade relationer lärs. Vi uppnår detta med hjälp av en latent variabel modell som tränas i en reducerad dimensionalitet subrymd med hjälp av spektralmetoder. Vår strategi uppnår en F 1 poäng på 0.485 på implicit relation märkning uppgift för Penn Discourse Treebank.
|
REF innehåller en blandning av märkta och omärkta data för att minska behovet av kommenterade data.
| 18,839,733 |
Spectral Semi-Supervised Discourse Relation Classification
|
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,204 |
Bakgrund: Automatisk sjukdom namngiven enhet erkännande (DNER) är av yttersta vikt för utveckling av mer sofistikerade BioNLP verktyg. De flesta konventionella CRF-baserade DNER-system är dock beroende av väldesignade funktioner vars urval är arbetsintensivt och tidskrävande. Även om de flesta djupt lärande metoder kan lösa NER problem med lite funktionsteknik, de använder ytterligare CRF skikt för att fånga korrelationsinformation mellan etiketter i områden som gör dem mycket komplicerade. Metoder: I detta dokument, föreslår vi en ny multipel etikett convolutional neural network (MCNN) baserad sjukdom NER metod. I detta tillvägagångssätt används istället för CRF-skiktet en strategi med flera etiketter (MLS) som först introducerades av oss. För det första är inbäddning av teckennivå, inbäddning på ordnivå och inbäddning av lexikon inbäddade. Sedan staplas flera konvolutionella lager över den konkatenerade inbäddningen. Slutligen, MLS strategi tillämpas på utdataskiktet för att fånga korrelationsinformation mellan angränsande etiketter. Resultat: Som framgår av de experimentella resultaten kan MCNN uppnå de senaste resultaten på både NCBI- och CDR-korpora.
|
Zhao m.fl. I REF föreslogs en ny multipel etikett CNN (MCNN) för sjukdom NER från den biomedicinska litteraturen, med hjälp av tecken-nivå, ordnivå, och lexikon funktioner inbäddningar.
| 23,065,051 |
Disease named entity recognition from biomedical literature using a novel convolutional neural network
|
{'venue': 'BMC Medical Genomics', 'journal': 'BMC Medical Genomics', 'mag_field_of_study': ['Biology', 'Medicine']}
| 14,205 |
Dataaggregation är ett lovande tillvägagångssätt för att möjliggöra massiv maskin-typ kommunikation. Detta dokument fokuserar på den aggregeringsfas där ett massivt antal maskintyper (MTD) överför till aggregatorer. Genom att använda nonorthogonal multiple access (NOMA) principer, tillåter vi flera MTDs att dela samma ortogonala kanal i vårt föreslagna hybrid access system. Vi utvecklar ett analytiskt ramverk baserat på stokastisk geometri för att undersöka systemets prestanda i termer av genomsnittlig framgång sannolikhet och genomsnittligt antal samtidigt betjänade MTDs, under bristfällig på varandra följande interferens annullering (SIC) vid aggregatorer, för två schemaläggningsscheman: slumpmässig resurs schemaläggning och kanal-medveten resurs schemaläggning (CRS). Vi identifierar kraftbegränsningarna på de MTDs som delar samma kanal för att uppnå en rättvis samexistens med rent ortogonala multiple access (OMA) inställningar. Sedan, effektreglering koefficienter hittas, så att dessa MTDs fungerar med liknande tillförlitlighet. Vi visar att under hög tillgång efterfrågan, hybridsystemet med CRS överträffar OMA setup genom att samtidigt betjäna fler MTDs med minskad strömförbrukning. Från 2013 till 2015 tjänstgjorde han som specialist inom telematik med det kubanska teleföretaget ETECSA. Hans forskningsintressen handlar om trådlös kommunikation, särskilt inom ultra-tillförlitlig, låg latent kommunikation för framtida nätverk, energiskördsinstallationer, och effektiva åtkomsttekniker för massiv maskin-typ kommunikation. Hirley Alves tog emot B.Sc. och M.Sc. examina i elektroteknik från Federal University of Technology-Paraná (UTFPR), Brasilien, 2010 respektive 2011, respektive den dubbla D.Sc. examen från Uleåborgs universitet och UTFPR 2015. Han har varit adjungerad professor i trådlös kommunikation av maskintyp vid Centrum för trådlös kommunikation, Uleåborgs universitet, Uleåborg, Finland, sedan 2017. Han är aktivt involverad i massiv uppkoppling och ultra-tillförlitlig låg latent kommunikation. Hans forskningsintressen inkluderar trådlös och samarbetsbaserad kommunikation, trådlös full-duplex kommunikation, PHY-säkerhet och ultra-tillförlitliga kommunikationsmekanismer för framtida maskintyp trådlösa nätverk. Han har fungerat som arrangör, ordförande, och tjänar en TPC medlem och en handledning föreläsare för flera kända internationella konferenser. och även adjungerad professor (docent) i informationsbehandlings- och kommunikationsstrategier för energisystem med Centrum för trådlös kommunikation, Uleåborgs universitet. Matti Latva-aho föddes 1968 i Kuivaniemi i Finland. Han tog emot M.Sc., Lic.Tech. och Dr. Tech (Hons.) examina i elektroteknik från universitetet
|
Dessutom föreslår och utvärderar författarna i REF NOMA som en massiv-MTC möjliggörande teknik i dataaggregationsnätverk, samtidigt som de identifierar kraftbegränsningarna för de enheter som delar samma kanal för att uppnå en rättvis samexistens med rent OMA-konfigurationer.
| 1,392,727 |
Aggregation and Resource Scheduling in Machine-Type Communication Networks: A Stochastic Geometry Approach
|
{'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
| 14,206 |
ABSTRACT Trådlösa sensornätverk (WSN) har i stor utsträckning tillämpats i olika industriella tillämpningar, vilket innebär att samla in en massiv mängd heterogen sensoriska data. De flesta datainsamlingsstrategierna för WSN kan dock inte undvika problem med hotspot i det lokala eller hela utplaceringsområdet. Hotspot-problemet påverkar nätverksanslutningen och minskar nätverkets livslängd. Därför föreslår vi en träd-kluster-baserad data-samlande algoritm (TCBDGA) för WSNs med en mobil diskho. En ny viktbaserad trädbyggnadsmetod införs. De konstruerade trädens rotnoder definieras som mötesplatser (RP). Dessutom, några speciella noder som kallas subrendezvous punkter (SRP) väljs efter deras trafik belastning och humle till rot noder. RPs och SRPs ses som stopppunkter i den mobila diskbänken för datainsamling, och kan omväljas efter en viss period. Simuleringen och jämförelsen med andra algoritmer visar att vår TCBDGA avsevärt kan balansera hela nätets belastning, minska energiförbrukningen, lindra hotspot-problemet och förlänga nätverkets livslängd. INDEX TERMS Datainsamlingssystem, kluster, mobilsänka, trådlösa sensornätverk.
|
Författarna i REF föreslog en trädklusterbaserad datainsamlingsalgoritm TCBDGA.
| 3,504,717 |
A Tree-Cluster-Based Data-Gathering Algorithm for Industrial WSNs With a Mobile Sink
|
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
| 14,207 |
In-network caching kräver omvandling av centraliserade operationer av traditionella, overlay caching tekniker till en decentraliserad och okoordinerad miljö. Med tanke på att cachekapaciteten hos routrar är relativt liten jämfört med mängden vidarebefordrat innehåll är en viktig aspekt en balanserad fördelning av innehållet mellan tillgängliga cacheminnen. I detta dokument handlar det om decentraliserad distribution i realtid av innehåll i routercache. Vårt mål är att minska caching redundans och i sin tur effektivisera utnyttjandet av tillgängliga cacheresurser längs en leveransväg. Vårt system för cachelagring i nätverk, ProbCache, approximerar cachekapaciteten hos en sökväg och cacheinnehåll probabilistiskt för att: i) lämna cachelagringsutrymme för andra flöden som delar (del av) samma sökväg, och ii) ganska multiplexinnehåll i olika flöden mellan cacheminnen på en delad sökväg. Vi jämför vår algoritm mot universell caching och mot system som tidigare föreslagits för Web-Caching arkitekturer, såsom Leave Copy Down (LCD). Våra resultat visar en minskning på upp till 20 % av serverträffarna, och upp till 10 % av det antal humle som krävs för att träffa cachade innehåll, men, viktigast av allt, en minskning av cach-evictions av en storleksordning i jämförelse med universell caching.
|
Psaras m.fl. REF fokuserar på distribution av innehåll i routrars cache med hjälp av cachekonceptet i nätverket.
| 10,888,750 |
Probabilistic in-network caching for information-centric networks
|
{'venue': "ICN '12", 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,208 |
Vi introducerar begreppet Audio Bubbles -virtuella sfärer fyllda med ljud som är geocentrerade på fysiska landmärken, ger navigeringssökning information för en användare att lättare lokalisera landmärket. Vi hävdar att det sätt på vilket turister navigerar inte är väl stöds av traditionella visuella kartor, och att Audio Bubbles bättre stödja den serendipitiva upptäckt och homing beteenden visas i sådana turistaktiviteter. Vi presenterar en studie som jämför Audio Bubbles med en visuell karta i en verklig navigeringsuppgift. Navigering med Audio Bubbles verkade vara snabbare och föredrogs av de flesta deltagarna. Vi diskuterar resultaten och skisserar våra framtida utvecklingsplaner.
|
McGookin och så vidare. al utvecklat ett system som heter Audio Bubbles REF, "anställa icke-tal ljud för att stödja turist sätt att hitta." Forskarna hävdar att det sätt på vilket turister navigerar inte så väl stöds av traditionella visuella kartor.
| 17,300,505 |
Audio Bubbles: Employing Non-speech Audio to Support Tourist Wayfinding
|
{'venue': 'HAID', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,209 |
Förutsägbara metoder för övervakning av affärsprocesser utnyttjar loggar av avslutade fall av en process för att göra förutsägelser om att köra fall därav. Befintliga metoder i detta utrymme är skräddarsydda för specifika förutsägelser. Dessutom är deras relativa noggrannhet mycket känslig för de data som finns till hands, vilket kräver att användarna engagerar sig i test-andror och stämning när de tillämpar dem i en viss miljö. Detta papper undersöker Long Short-Term Memory (LSTM) neurala nätverk som ett tillvägagångssätt för att bygga konsekvent korrekta modeller för ett brett spektrum av prediktiva processövervakning uppgifter. För det första visar vi att LSTM:er överträffar befintliga tekniker för att förutsäga nästa händelse av ett löpande fall och dess tidsstämpel. Därefter visar vi hur man använder modeller för att förutsäga nästa uppgift för att förutsäga den fullständiga fortsättningen av ett löpande fall. Slutligen tillämpar vi samma metod för att förutsäga den återstående tiden, och visar att detta tillvägagångssätt överträffar befintliga skräddarsydda metoder.
|
Författarna till REF presenterar ett djupt lärande för att förutsäga tidsstämpeln för nästa händelse och använda den för att förutsäga återstående cykeltid.
| 2,192,354 |
Predictive Business Process Monitoring with LSTM Neural Networks
|
{'venue': 'Lecture Notes in Computer Science, 10253 (2017) 477-492', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
| 14,210 |
Snabba krisinsatser kräver realtidsanalys av budskap. Efter en katastrof försöker volontärer klassificera tweets för att fastställa behov, t.ex. förnödenheter, infrastrukturskador osv. Eftersom märkta data, övervakad maskininlärning kan hjälpa till att klassificera dessa meddelanden. Bristfällig märkning av data orsakar dålig prestanda i maskinträning. Kan vi återanvända gamla tweets till att träna klassificerare? Hur kan vi välja märkta tweets för utbildning? Särskilt studerar vi nyttan av märkta data från tidigare händelser. Hjälper etiketterade tweets på olika språk? Vi observerar prestandan hos våra klassificerare utbildade med hjälp av olika kombinationer av utbildningsset som erhållits från tidigare katastrofer. Vi utför omfattande experiment på verkliga krisdataset och visar att tidigare etiketter är användbara när både käll- och målhändelser är av samma typ (t.ex. båda jordbävningarna). För liknande språk (t.ex. italienska och spanska) var anpassning av domäner på flera språk användbar, men när det gäller olika språk (t.ex. italienska och engelska) minskade föreställningen.
|
I REF visar författarna prestanda för ett antal icke-neurala nätverksklassificeringar som är utbildade på märkta data från tidigare krishändelser.
| 2,149,581 |
Cross-Language Domain Adaptation for Classifying Crisis-Related Short Messages
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
| 14,211 |
Abstrakt. Talrelaterade bearbetningsuppgifter har ofta hanterats med hjälp av konstruerade funktioner, även kallade handgjorda deskriptorer. Dessa funktioner har oftast optimerats genom åren av forskarsamhället som ständigt söker efter de mest meningsfulla, robusta och kompakta ljud representationer för den specifika domänen eller uppgiften. Under de senaste åren har ett stort intresse uppstått för att utveckla arkitekturer som kan lära sig av sig själva sådana funktioner, vilket förbigår den nödvändiga ingenjörsinsatsen. I detta arbete utforskar vi möjligheten att använda Convolutional Neural Networks (CNN) direkt på råa ljudsignaler för att automatiskt lära sig meningsfulla funktioner. Dessutom studerar vi hur väl de inlärda dragen generaliserar för en annan uppgift. För det första utbildas en CNN-baserad kontinuerlig konfliktdetektor på ljud som extraheras från televiserade politiska debatter på franska. Sedan, samtidigt som vi behåller tidigare inlärda funktioner, anpassar vi de sista skikten i nätverket för att rikta in sig på ett annat koncept genom att använda helt orelaterade data. Konkret förutspår vi självrapporterad kundnöjdhet genom samtal på spanska. Rapporterade resultat visar att vårt föreslagna tillvägagångssätt, med hjälp av rå ljud, får liknande resultat än ett CNN med hjälp av klassiska Mel-skala filterbanker. Dessutom visar inlärningsöverföringen från uppgiften att upptäcka konflikter till tillfredsställelse förutsägelser en framgångsrik generalisering av de inlärda funktionerna genom den djupa arkitekturen.
|
En Convolutional Neural Network (CNN) baserad end-to-end arkitektur för kundnöjdhet förutsägelse från kontaktcenter telefonsamtal använder konfliktdetektering som en extra uppgift att initiera nätverksvikterna REF.
| 13,056,681 |
Automatic Speech Feature Learning for Continuous Prediction of Customer Satisfaction in Contact Center Phone Calls
|
{'venue': 'IberSPEECH', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,212 |
Webbens överväldigande framgång som en mekanism för att underlätta informationshämtning och för att genomföra affärstransaktioner har lett till en ökad användning av komplexa företagstillämpningar. Dessa program körs vanligtvis på Web Application Servers, som tar på sig bördan av att hantera många uppgifter, såsom samstämmighet, minneshantering, databasåtkomst, etc., som krävs av dessa program. En applikationsservers prestanda beror i hög grad på lämplig konfiguration. Konfiguration är en svår och felbenägen uppgift på grund av det stora antalet konfigurationsparametrar och komplexa interaktioner mellan dem. Vi formulerar problemet med att hitta en optimal konfiguration för en given applikation som ett problem för optimering av svarta lådor. Vi föreslår en Smart Hill-Climbing algoritm med idéer av betydelse provtagning och Latin Hypercube provtagning (LHS). Algoritmen är effektiv i både sökning och slumpmässig provtagning. Den består av att uppskatta en lokal funktion, och sedan, klättring i brantaste nedförsbacke riktning. Algoritmen lär sig också från tidigare sökningar och startar om på ett smart och selektivt sätt med tanke på vikten av provtagning. Vi har genomfört omfattande experiment med en online mäklarapplikation som körs i en WebSphere-miljö. Empiriska resultat visar att vår algoritm är mer effektiv än och överlägsen traditionella heuristiska metoder.
|
För webbapplikationer, Xi et al. REF-modellserver prestanda som en svart-box funktion av parametrar, och använda en smart klättring algoritm med viktad latinsk hyperkub provtagning för att hitta högpresterande konfigurationer offline.
| 979,719 |
A smart hill-climbing algorithm for application server configuration
|
{'venue': "WWW '04", 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,213 |
Neural språk modeller förutsäga nästa token med hjälp av en latent representation av den omedelbara token historia. Nyligen har olika metoder för att förstärka neurala språkmodeller med en uppmärksamhetsmekanism över ett differentialt minne föreslagits. För att förutsäga nästa token, dessa modeller fråga information från ett minne av den senaste historien som kan underlätta lärande mellan-och långdistans beroenden. Men konventionella uppmärksamhetsmekanismer som används i memoryaugmented neural språk modeller producerar en enda utgång vektor per tid steg. Denna vektor används både för att förutsäga nästa token samt för nyckeln och värdet av ett differentiable minne av en token historia. I detta dokument föreslår vi en neural språkmodell med en nyckelvärde uppmärksamhetsmekanism som ger separata representationer för nyckeln och värdet av ett differentiable minne, samt för kodning av nästa ord distribution. Denna modell överträffar befintliga memoryaugmented neural language modeller på två corpora. Ändå fann vi att vår metod huvudsakligen använder ett minne av de fem senaste utdata representationer. Detta ledde till det oväntade huvudsakliga konstaterandet att en mycket enklare modell baserad endast på konkatetering av den senaste produktionen representationer från tidigare steg är på samma nivå som mer sofistikerade minne-augmenterade neurala språk modeller.
|
I REF föreslogs en viktig värdepredikterad uppmärksamhet för att uttryckligen skilja de viktiga adresserings-, värdeavläsnings- och ordpredikteringsfunktionerna åt.
| 3,000,562 |
Frustratingly Short Attention Spans in Neural Language Modeling
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
| 14,214 |
I detta dokument undersöker vi en svagt övervakad ram för upptäckt av föremål. De flesta befintliga ramar fokuserar på att använda statiska bilder för att lära sig objektdetektorer. Men dessa detektorer misslyckas ofta med att generalisera till videor på grund av det befintliga domänskiftet. Därför undersöker vi att lära oss dessa detektorer direkt från tråkiga videor av dagliga aktiviteter. Istället för att använda avgränsande lådor, utforskar vi användningen av handlingsbeskrivningar som övervakning eftersom de är relativt lätta att samla. En vanlig fråga är dock att föremål av intresse som inte är involverade i mänskliga handlingar ofta saknas i globala handlingsbeskrivningar som kallas "missing label". För att ta itu med detta problem föreslår vi en ny tidsdynamisk graf Long Short-Term Memory Network (TD-Graph LSTM). TD-Graph LSTM möjliggör globalt temporalt resonemang genom att konstruera en dynamisk graf som bygger på tidsmässiga korrelationer mellan objektförslag och spänner över hela videon. Den saknade etikettfrågan för varje enskild ram kan därför avsevärt lindras genom att överföra kunskap över korrelerade objekt förslag i hela videon. Omfattande utvärderingar av en storskalig daglig-liv action dataset (d.v.s. Charades) visar överlägsenheten av vår föreslagna metod. Vi släpper också objekt som avgränsar-box annotationer för mer än 5000 ramar i Charades. Vi tror att detta kommenterade data också kan gynna annan forskning om videobaserad objektigenkänning i framtiden.
|
Temporal dynamisk graf Long ShortTerm Memory network (TD-Graph LSTM) REF använder åtgärdsbeskrivningar som övervakning istället för att använda avgränsande rutor för att få föremål av intresse.
| 22,300,809 |
Temporal Dynamic Graph LSTM for Action-Driven Video Object Detection
|
{'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
| 14,215 |
Djupuppskattning och scentolkning är två särskilt viktiga uppgifter i visuell scenförståelse. I detta dokument tar vi itu med problemet med samtidig djupuppskattning och scentolkning i ett gemensamt CNN. Uppgiften kan normalt behandlas som en djup multi-task lärande problem [42]. Detta dokument skiljer sig från tidigare metoder som direkt optimerar flera uppgifter med tanke på input training data, föreslår en ny multi-task guidad förutsägelse-och-destillation nätverk (PAD-Net), som först förutspår en uppsättning mellanliggande extra uppgifter som sträcker sig från låg nivå till hög nivå, och sedan förutsägelserna från dessa mellanliggande extra uppgifter används som multimodal indata via våra föreslagna multimodala destillationsmoduler för de slutliga uppgifterna. Under det gemensamma lärandet fungerar de mellanliggande uppgifterna inte bara som en handledning för att lära sig mer robusta djuprepresentationer utan ger också rik multimodal information för att förbättra de slutliga uppgifterna. Omfattande experiment utförs på två utmanande dataset (dvs. NYUD-v2 och Cityscapes) för både djupuppskattning och scentolkning, vilket visar hur effektivt det föreslagna tillvägagångssättet är.
|
En uppsättning mellanliggande extra uppgifter används för att vägleda den slutliga djup uppskattning och semantiska segmentering REF.
| 21,670,200 |
PAD-Net: Multi-tasks Guided Prediction-and-Distillation Network for Simultaneous Depth Estimation and Scene Parsing
|
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
| 14,216 |
Abstrakt. Interaktion med en webbtjänst möjliggör marknadsplats för att uppnå en komplex uppgift innebär sekvensering av en uppsättning enskilda tjänster verksamhet, samla in information från tjänsterna, och göra val. Vi föreslår att problemet med att utfärda förfrågningar om en sammansättning av webbtjänster kodas som ett restriktionsbaserat problem.
|
En annan lösning på planeringen av tjänstesammansättningen har föreslagits i REF, där problemet med att skapa tjänster för att uppnå ett givet mål uttrycks som ett problem med begränsad tillfredsställelse.
| 6,347,844 |
Encoding Requests to Web Service Compositions as Constraints
|
{'venue': 'CP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,217 |
Input binarization har visat sig vara ett effektivt sätt för nätverksacceleration. Tidigare binariseringssystem kan dock betraktas som enkla pixelvisa tröskeloperationer (dvs. en approximation) och drabbas av en stor noggrannhetsförlust. I detta dokument, föreslår vi en högorder binarization system, som uppnår mer exakt approximation medan fortfarande har fördelen av binär drift. I synnerhet, det föreslagna systemet rekursivt utför resterande kvantisering och ger en serie binära indata bilder med minskande magnitudskalor. Därför föreslår vi högklassiga binära filtrerings- och gradientutbredningsåtgärder för både framåt- och bakåtberäkningar. Teoretisk analys visar att approximation av fel är en garanti för den föreslagna metoden. Omfattande experimentella resultat visar att det föreslagna systemet ger stor igenkänningsnoggrannhet samtidigt som det påskyndas.
|
Dessutom föreslår REF en högorder binarization system som uppnår mer exakt approximation samtidigt som fördelen med binära transaktioner bevaras.
| 20,799,266 |
Performance Guaranteed Network Acceleration via High-Order Residual Quantization
|
{'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
| 14,218 |
Abstract-Efficient system för varningsmeddelandespridning i fordonsspecifika ad hoc-nätverk (VANET) använder kontextinformation som samlats in av fordon om deras grannnoder för att vägleda spridningsprocessen. Baserat på denna information, fordon självständigt besluta om de är de mest lämpliga vidarebefordran noder. Dessa system maximerar sin prestanda när alla fordon annonserar korrekt information om sina positioner, men positionsfel kan drastiskt minska resultatet av spridningsprocessen. Vi presenterar en proaktiv samarbetsvillig granne positionsverifiering protokoll som upptäcker noder annonsera falska platser och väljer optimala skotare för att minska effekten av kontradiktoriska användare. Vi kombinerar vår mekanism med två varningssystem för VANET och visar hur de senare kan dra nytta av användningen av vårt säkerhetssystem i närvaro av skadliga noder som försöker utnyttja kända systemsårbarheter. Index Terms-Neighbor positionsverifiering, säkerhet, fordonsspecifika ad hoc-nätverk (VANET), varningsmeddelande spridning.
|
Ett nytt proaktivt protokoll för positionsbestämning och kontroll (CNPV) lades fram i REF för spridning av varningsmeddelanden.
| 3,560,481 |
Securing Warning Message Dissemination in VANETs Using Cooperative Neighbor Position Verification
|
{'venue': 'IEEE Transactions on Vehicular Technology', 'journal': 'IEEE Transactions on Vehicular Technology', 'mag_field_of_study': ['Computer Science']}
| 14,219 |
Abstract-This paper undersöker en typ av attacker på en kognitiv radio (CR) nätverk, mest aktiva band (MAB) attack, där en angripare eller en skadlig CR-nod sinnen / bestämmer det mest aktiva bandet inom ett multi-band CR nätverk och riktar detta band genom en överbelastning (DoS) attack. Vi föreslår en motåtgärdsstrategi, samordnad doldhetsstrategi (CCS), för att motverka MAB-attacken. Våra resultat visar att CCS avsevärt överträffar CR:s inneboende förmåga att undvika signaler/inblandning under en MAB-attack. Vi inför också kraftkontroll i CCS för att ytterligare förbättra motmätningsprestandan i fråga om procentandelen överlevnadsnoder. Index Terms-kognitiv radio, överbelastningsattack, mest aktiv bandattack, kognitiv störning.
|
I REF, Hu, N, et. Detta beslut träder i kraft dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. föreslår en motåtgärdsstrategi, med en samordnad doldhetsstrategi, för att motverka attacken.
| 10,472,761 |
Most Active Band (MAB) Attack and Countermeasures in a Cognitive Radio Network
|
{'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
| 14,220 |
Vi visar att det finns en enkel (ungefär radial) funktion på R d, uttrycks av en liten 3-lager feedfore neurala nätverk, som inte kan approximeras av något 2-lagers nätverk, till mer än en viss konstant noggrannhet, om inte dess bredd är exponentiellt i dimensionen. Resultatet innehåller praktiskt taget alla kända aktiveringsfunktioner, inklusive rättade linjära enheter, sigmoider och trösklar, och visar formellt att djupet - även om det ökas med 1 - kan vara exponentiellt mer värdefullt än bredden för standard feedfore neurala nätverk. Dessutom, jämfört med relaterade resultat i samband med Booleska funktioner, kräver vårt resultat färre antaganden, och bevistekniker och konstruktion är mycket olika.
|
REF visar ett analogt resultat för ett högdimensionellt 3-lagersnätverk som inte kan approximeras av ett 2-lagers nätverk förutom med en exponentiell uppblåsning i antalet noder.
| 1,485,226 |
The Power of Depth for Feedforward Neural Networks
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
| 14,221 |
I neural maskinöversättning (NMT), generation av ett målord beror på både källa och mål kontexter. Vi finner att källsammanhang har en direkt inverkan på tillräckligheten av en översättning medan målsammanhang påverkar fluensen. Intuitivt bör skapandet av ett innehållsord vara mer beroende av källsammanhanget och skapandet av ett funktionellt ord bör i högre grad förlita sig på målsammanhanget. På grund av bristen på effektiv kontroll över inflytande från källa och mål kontexter, konventionella NMT tenderar att ge flytande men otillräckliga översättningar. För att ta itu med detta problem föreslår vi kontextportar som dynamiskt kontrollerar de proportioner vid vilka käll- och målsammanhang bidrar till att skapa målord. På så sätt kan vi förbättra både NMT:s tillräcklighet och smidighet med mer noggrann kontroll av informationsflödet från sammanhang. Experiment visar att vår strategi avsevärt förbättrar ett standardbaserat NMT-system med +2,3 BLEU-poäng.
|
I REF kontrollerar kontextportarna dynamiskt nyckeltalen, där käll- och målsammanhang bidrar till att skapa målord.
| 1,658,155 |
Context Gates for Neural Machine Translation
|
{'venue': 'Transactions of the Association for Computational Linguistics', 'journal': 'Transactions of the Association for Computational Linguistics', 'mag_field_of_study': ['Computer Science']}
| 14,222 |
Outlier hypotes testning studeras i en universell miljö. Flera sekvenser av observationer samlas in, en liten delmängd av vilka är avvikande. En sekvens betraktas som en avvikelse om observationerna i den sekvensen fördelas enligt en avvikande fördelning, skild från den typiska fördelningen som styr observationerna i alla andra sekvenser. Ingenting är känt om outlier och typiska distributioner förutom att de är distinkta och har fullt stöd. Målet är att konstruera ett universellt test för att bäst urskilja yttersekvenserna. För modeller med exakt en avvikande sekvens visas det generaliserade sannolikhetstestet vara universellt exponentiellt konsekvent. En enbokstav karakterisering av fel exponenten som kan uppnås genom testet härleds, och det visas att testet uppnår den optimala fel exponenten asymptotiskt som antalet sekvenser närmar sig oändlighet. När nollhypotesen utan avvikelse ingår, visas en ändring av det generaliserade sannolikhetstestet för att uppnå samma felexponent under varje icke-null hypotes, och även konsekvens under nollhypotesen. Därefter studeras modeller med mer än en avvikelse i följande inställningar. För inställningen med ett känt antal tydligt fördelade avvikelser, den uppnåeliga fel exponent av den generaliserade sannolikhetstestet kännetecknas. Det begränsande felet exponenten som uppnås genom ett sådant test karakteriseras, och testet visas vara asymptotiskt exponentiellt konsekvent. För inställningen med ett okänt antal identiskt fördelade avvikelser, en ändring av den generaliserade sannolikhetstest visas för att uppnå ett positivt fel exponent under varje icke-null hypotes, och även konsekvens under nollhypotesen. När de avvikande sekvenserna kan fördelas tydligt (med deras totala antal okänt), visas det att ett universellt exponentiellt konsekvent test inte kan existera, inte ens när den typiska fördelningen är känd och nollhypotesen är utesluten.
|
Problemet med universal outlier hypotes testning med en vektor av observationer som innehåller koordinater med en enda outlier fördelning studerades i REF, där varje gång, alla vektorn observeras.
| 11,678,386 |
Universal Outlier Hypothesis Testing
|
{'venue': 'IEEE Transactions on Information Theory', 'journal': 'IEEE Transactions on Information Theory', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
| 14,223 |
Abstrakt. Neurala nätverk har nyligen föreslagits för multi-märkning klassificering eftersom de kan fånga och modellera märkning beroenden i utdataskiktet. I detta arbete undersöker vi begränsningar av BP-MLL, en neural nätverk (NN) arkitektur som syftar till att minimera parvis ranking fel. I stället föreslår vi att man använder en jämförelsevis enkel NN-strategi med nyligen föreslagna inlärningsmetoder för storskaliga flermärkta textklassificeringsuppgifter. I synnerhet visar vi att BP-MLL: s ranking förlustminimering kan effektivt och effektivt ersättas med den allmänt använda korsentropi felfunktion, och visa att flera framsteg i neurala nätverk utbildning som har utvecklats i området för djupt lärande kan användas effektivt i denna miljö. Våra experimentella resultat visar att enkla NN-modeller utrustade med avancerade tekniker som rättade linjära enheter, avhopp och AdaGrad presterar såväl som eller till och med överträffar toppmoderna metoder på sex storskaliga textuppsättningar med olika egenskaper.
|
Ett annat system REF använder cross-entropy felfunktion i back-förökning neurala nätverk för att underlätta multi-märkning lärande.
| 8,727,552 |
Large-scale Multi-label Text Classification - Revisiting Neural Networks
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
| 14,224 |
Vi presenterar en effektiv immuniseringsstrategi för datornät och befolkningar med breda och i synnerhet skalfria gradfördelningar. Den föreslagna strategin, bekant immunisering, kräver immunisering av slumpmässiga bekantskaper av slumpmässiga noder (individer). Strategin kräver ingen kunskap om nodgraderna eller någon annan global kunskap, liksom riktade immuniseringsstrategier. Vi studerar analytiskt den kritiska tröskeln för fullständig immunisering. Vi studerar också strategin med avseende på den epidemiologiska modellen SIR (susceptible-infected-removed). Vi visar att immuniseringströskeln sänks dramatiskt med den föreslagna strategin, för alla undersökta fall. PAC-nummer: 02.50. Cw, 02.10.Ox, 89.20.Hh, 64.60.Ak Det är väl etablerat att slumpmässig immunisering kräver immunisering en mycket stor del av ett datornät, eller befolkning, för att arrestera epidemier som sprider sig vid kontakt mellan infekterade noder (eller individer) [1, 2, 3, 4, 5, 6, 7]. Många sjukdomar kräver 80%-100% immunisering (till exempel, Measles kräver 95% av befolkningen att immuniseras [1] ). Detsamma är korrekt för Internet, där stoppa datorvirus kräver nästan 100% immunisering [5, 6, 7]. Å andra sidan kräver riktad immunisering av de mest uppkopplade individerna [1, 5, 8, 9, 10, 11], medan effektiv, global information om nätverket i fråga, vilket gör det opraktiskt i många fall. Här utvecklar vi en matematisk modell och föreslår en effektiv strategi, baserad på immunisering av en liten bråkdel av slumpmässiga bekantskaper av slumpmässigt utvalda noder. På detta sätt immuniseras de mest uppkopplade noderna, och processen förhindrar epidemier med en liten ändlig immuniseringströskel och utan att kräva specifik kunskap om nätverket. Sociala nätverk är kända för att ha en bred spridning av antalet länkar (kontakter), k, som härrör från en nod (en individ) [12, 13, 14]. Exempel är nätet av sexuella kontakter [15], film-actor nätverk, vetenskapliga citeringar och samarbetsnätverk [16, 17] etc. Datanät, både fysiska (t.ex. Internet [18] ) och logiska (t.ex. WWW [19], och e-post [20] och betrodda nät [21] ) är också kända för att ha omfattande, skalfria distributioner. Studier av perkolering på breda nätverk visar att en stor del f c av noderna måste avlägsnas (immuniseras) innan nätets integritet äventyras. Detta gäller särskilt för skalfria nät, P (k) = ck −λ (k ≥ m), där 2 < λ < 3 - fallet med de flesta kända nätverk [12, 13, 14] -där perkoleringströskeln f c → 1, och nätverket förblir ansluten (kontagiös) även efter avlägsnande av de flesta av sina noder [6]. Med andra ord, med en slumpmässig immunisering strategi nästan alla noder behöver immuniseras
|
Cohen m.fl. REF föreslår ett tillvägagångssätt för immunisering av en befolkning i ett oobserverat nätverk genom att rikta in sig på grannar av slumpmässigt utvalda noder.
| 919,625 |
Efficient Immunization Strategies for Computer Networks and Populations
|
{'venue': 'Phys. Rev. Lett. 91, 247901 (2003)', 'journal': None, 'mag_field_of_study': ['Physics', 'Biology', 'Medicine']}
| 14,225 |
Representation och inlärning av allmängiltig kunskap är ett av de grundläggande problemen i strävan att möjliggöra djup språkförståelse. Denna fråga är särskilt utmanande för att förstå tillfälliga och korrelationella relationer mellan händelser. Även om detta ämne har rönt stort intresse för NLP-samhället har forskningen hindrats av bristen på en lämplig utvärderingsram. I detta dokument försöker man ta itu med detta problem med ett nytt ramverk för att utvärdera sagoförståelse och manusinlärning: "Story Cloze Test". Detta test kräver ett system för att välja rätt slut på en fyra-sentens berättelse. Vi skapade en ny corpus av 50k fem-sentence commonsense berättelser, ROCStories, för att möjliggöra denna utvärdering. Denna corpus är unik på två sätt: (1) den fångar en rik uppsättning av kausala och tidsmässiga allmängiltiga relationer mellan dagliga händelser, och (2) det är en hög kvalitet samling av vardagen berättelser som också kan användas för historia generation. Experimentell utvärdering visar att en mängd baslinjer och toppmoderna modeller baserade på ytlig språkförståelse kämpar för att uppnå en hög poäng på Story Cloze Test. Vi diskuterar dessa implikationer för manus och sagoinlärning, och ger förslag på djupare språkförståelse.
|
Related to automatic story generation, the story cloze test REF ) är uppgiften att välja mellan två givna slut på en berättelse.
| 1,726,501 |
A Corpus and Evaluation Framework for Deeper Understanding of Commonsense Stories
|
{'venue': 'HLT-NAACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,226 |
Abstract-Instance hämtning kräver att man söker efter bilder som innehåller ett visst objekt i en stor corpus. Nya studier visar att användning av bildfunktioner som genereras av pooling convolutional lagerfunktionskartor (CFMs) av en pretrained convolutional neural network (CNN) leder till lovande prestanda för denna uppgift. På grund av den globala pooling strategi som antagits i dessa verk, är den genererade bildfunktionen mindre robust för bild skräp och tenderar att förorenas av irrelevanta bildmönster. I den här artikeln lindrar vi denna nackdel genom att föreslå en ny omklassificeringsalgoritm med hjälp av CFM för att förfina det hämtningsresultat som erhållits genom befintliga metoder. Vår nyckelidé, som kallas frågeadaptiv matchning (QAM), är att först representera CFM för varje bild med en uppsättning basregioner som fritt kan kombineras till större intresseregioner. Då är likheten mellan frågan och en kandidat bild mäts med den bästa likheten poäng som kan uppnås genom att jämföra frågefunktionen och funktionen poolad från en kombinerad region. Vi visar att ovanstående procedur kan gjutas som ett optimeringsproblem och det kan lösas effektivt med en off-the-shälf lösare. Förutom denna allmänna ram föreslår vi också två praktiska sätt att skapa basregionerna. Den ena grundar sig på CFM:s egendom och den andra bygger på ett flerskaligt rumsligt pyramidsystem. Genom omfattande experiment visar vi att våra omplaceringsstrategier ger betydande resultatförbättringar och genom att tillämpa dem kan vi överträffa toppmoderna riktmärken på flera exempel.
|
På liknande sätt, Cao et al. I Ref föreslogs en metod för att härleda en uppsättning basregioner direkt från aktiveringen av det konvolutionella skiktet.
| 15,281,288 |
Where to Focus: Query Adaptive Matching for Instance Retrieval Using Convolutional Feature Maps
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
| 14,227 |
Abstract-Relationen mellan koppling och externa kvalitetsfaktorer för objektorienterad programvara har studerats ingående under de senaste åren. Till exempel har flera studier identifierat tydliga empiriska samband mellan klassnivåkoppling och klassfelbenägenhet. Ett vanligt sätt att definiera och mäta koppling är genom strukturella egenskaper och statisk kodanalys. På grund av polymorfism, dynamisk bindning och den vanliga förekomsten av oanvänd ("död") kod i kommersiell programvara, är de resulterande kopplingsåtgärderna oprecisa eftersom de inte helt återspeglar den faktiska koppling som äger rum mellan klasser vid körtid. När man till exempel använder statisk analys för att mäta koppling är det svårt och ibland omöjligt att avgöra vilka faktiska metoder som kan åberopas från en kundklass om dessa metoder överskrids i serverklassernas underklasser. Kopplingsmätning har traditionellt utförts med hjälp av statisk kodanalys, eftersom det mesta av det befintliga arbetet gjordes på nonobject-orienterad kod och eftersom dynamisk kodanalys är dyrare och mer komplex att utföra. För moderna mjukvarusystem kan dock detta fokus på statisk analys vara problematiskt, eftersom även om dynamisk bindning existerade innan tillkomsten av objektorientering, dess användning har ökat avsevärt under det senaste årtiondet. Detta dokument beskriver hur koppling kan definieras och mätas exakt baserat på dynamisk analys av system. Vi hänvisar till denna typ av koppling som dynamisk koppling. En empirisk utvärdering av de föreslagna dynamiska kopplingsåtgärderna rapporteras där vi studerar sambandet mellan dessa åtgärder och klassernas förändringsbenägenhet. Data från underhållsutgåvor av ett stort Java-system används för detta ändamål. Preliminära resultat tyder på att vissa dynamiska kopplingsåtgärder är betydande indikatorer på förändringsbenägenhet och att de kompletterar befintliga kopplingsåtgärder baserade på statisk analys.
|
Arisholm m.fl. I REF undersöks användningen av dynamiska kopplingsåtgärder som indikatorer på förändringsbenägenhet.
| 3,074,827 |
Dynamic coupling measurement for object-oriented software
|
{'venue': 'IEEE Transactions on Software Engineering', 'journal': 'IEEE Transactions on Software Engineering', 'mag_field_of_study': ['Computer Science']}
| 14,228 |
Colorectal cancer är en av de viktigaste orsakerna till cancerdöden. En genetisk modell för kolorektalcancer har föreslagits där den sekventiella ackumuleringen av mutationer i specifika gener, inklusive adenomatösa polyposer coli (APC), Kirsten-ras (K-ras), och p53, driver övergången från friska kolon epithelia genom allt mer dysplastisk adenom till kolorektal cancer. Vi har karakteriserat tumörmutationsspektra i en stor kohort av kolorektalcancerpatienter. I markant kontrast till förutsägelserna av den sekventiella modellen av mutationsackumulering, fann man att endast 6,6 % av tumörerna innehöll mutationer i APC, K-ras och p53, med 38,7 % av tumörer som innehöll mutationer i endast en av dessa gener. Den vanligaste kombinationen av mutationer var p53 och APC (27,1 %) medan mutationer i både p53 och K-ras var extremt sällsynta. Statistisk analys (tvåsidigt Fishers exakta test) bekräftade att mutationer i K-ras och p53 förekom mindre frekvent än förväntat av en slump (P < 0,01, Fishers exakta test). Detta fynd tyder på att dessa mutationer ligger på alternativa vägar av kolorektal tumörutveckling. Det heterogena mönstret av tumörmutationer i vår patientkohort tyder på att det finns flera alternativa genetiska vägar till kolorektalcancer och att den allmänt accepterade genetiska modellen för cancerutveckling inte är representativ för majoriteten av kolorektaltumörer.
|
Detta bekräftas av forskningen i REF där författarna undersöker mutationerna i de specifika gener som införts av Vogelstein, inklusive adenomatösa polyposer coli (APC), Kirsten-ras (K-ras), och p53.
| 32,859,160 |
Mutations in APC, Kirsten-ras, and p53--alternative genetic pathways to colorectal cancer
|
{'venue': 'Proceedings of the National Academy of Sciences of the United States of America', 'journal': 'Proceedings of the National Academy of Sciences of the United States of America', 'mag_field_of_study': ['Biology', 'Medicine']}
| 14,229 |
Övervakad klassificering kräver stora mängder kommenterade träningsdata som är dyra att skapa. Två metoder som minskar kostnaden för noteringar är aktivt lärande och crowdsourcing. Dessa två metoder har dock hittills inte kombinerats på ett framgångsrikt sätt. Vi utvärderar nyttan av aktivt lärande i crowdsourcing på två uppgifter, namngivna enhet erkännande och känsla upptäckt, och visar att aktivt lärande överträffar slumpmässigt urval av annotering exempel i en bullriga crowdsourcing scenario.
|
Ref experiment med att kombinera aktivt lärande och crowdsourcing.
| 7,960,617 |
Active Learning with Amazon Mechanical Turk
|
{'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,230 |
Vi anser att vi vill uppmuntra myopiska agenter (som Airbnb hyresvärdar, som kan betona kortsiktiga förmåner och egendomssäkerhet) att behandla anländande kunder rättvist, för att förhindra allmän diskriminering av individer eller grupper. Vi modellerar sådana set i både klassiska och kontextuella banditmodeller där de myopiska agenterna maximerar belöningarna enligt aktuella empiriska medelvärden, men också är mottagliga för exogena betalningar som kan få dem att ändra sina val. Vår uppfattning om rättvisa kräver att fler kvalificerade individer aldrig (troligen) föredras framför mindre kvalificerade personer [8]. Vi undersöker om det är möjligt att utforma billiga bidrag eller betalningssystem för en huvudman för att motivera myopiska agenter att spela rättvist i alla eller nästan alla omgångar. När huvudmannen har fullständig information om läget för de myopiska agenterna, visar vi att det är möjligt att få till stånd ett rättvist spel på varje runda med ett subventionssystem av total kostnad o(T ) (för den klassiska seingen med k vapen, Õ ( ε k 3 T ), och för den d-dimensionella linjära kontextualen se Õ (d ε k 3 T ) ). Om huvudmannen har mycket mer begränsad information (vilket kan vara fallet för en extern regulator eller vakthund), och endast observerar antalet rundor där medlemmar från var och en av k-grupperna valdes, men inte de empiriska uppskattningar som upprätthålls av myopic agent, utformningen av ett sådant system blir mer komplex. Vi visar både positiva och negativa resultat i de klassiska och linjära banditerna genom att övre och nedre gränsen för kostnaderna för rättvisa subventionssystem.
|
Ref undersöka om det är möjligt att utforma betalningssystem för en huvudansvarig för att motivera myopiska agenter att spela rättvist i nästan alla omgångar.
| 5,654,457 |
Fairness Incentives for Myopic Agents
|
{'venue': "EC '17", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Economics', 'Computer Science']}
| 14,231 |
Kalkylblad innehåller en enorm mängd data med högt värde men följer inte en standarddatamodell och är därför svåra att integrera. Det finns ett stort antal verktyg för dataintegration, men de kan i allmänhet bara fungera på relationsdata. Befintliga system för att extrahera relationella data från kalkylblad är för arbetsintensiva för att stödja ad-hoc integration uppgifter, där rätt extraktion mål endast lärs under loppet av användarinteraktion. Detta dokument introducerar ett system som automatiskt extraherar relationsdata från kalkylblad, vilket möjliggör relationell kalkylblad integration. Den resulterande integrerade relationsdata kan frågas direkt eller kan översättas till RDF tripletter. Jämfört med standardtekniker för kalkylblad dataextraktion på en uppsättning av 100 slumpmässiga webbkalkylblad, minskar systemet mängden mänskligt arbete med 72% till 92%. Förutom systemdesignen presenterar vi resultaten av en allmän undersökning av mer än 400 000 kalkylblad som vi laddat ner från webben, vilket ger en ny bild av hur användare organiserar sina data i kalkylblad.
|
I närheten av vårt arbete extraherar REF automatiskt relationsdata från kalkylblad.
| 2,215,843 |
Automatic web spreadsheet data extraction
|
{'venue': "SS@ '13", 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,232 |
....................................... Visualiseringsgränssnittet för UrbanFACET: a) valet av stad och tid; b) valet av mobilitetsmått som visas på kartan och visualiseringsalternativen; c) detaljerad information om den valda regionen (hela staden som standard om ingenting är valt); d) sannolikhetstäthetsfunktion för den visade mobilitetsmätaren; e) genomsnittlig sannolikhetsfördelning på POI/DIV-klasser för att beräkna mobilitetsmåttet; f) rumslig visualisering av mobilitetsmått (vibrancy i detta fall); g) legend och styrenhet på kartan. Abstract-Cities är levande system där urbana infrastrukturer och deras funktioner definieras och utvecklas på grund av befolkningens beteende. Att profilera städer och funktionella regioner har varit ett viktigt ämne inom stadsplanering och stadsplanering. Detta dokument studerar en unik stor datamängd som inkluderar dagliga rörelsedata för tiotals miljoner stadsbor, och utvecklar ett visuellt analyssystem, nämligen UrbanFACET, för att upptäcka och visualisera dynamiska profiler i flera städer och deras invånare. Denna stora användarrörelse data, som förvärvats från mobila användare agnostic check-ins på tusentals telefon apps, är väl utnyttjad i en integrativ studie och visualisering tillsammans med urban struktur (t.ex., vägnät) och POI (Point of Interest) distributioner. I synnerhet utvecklar vi nyligen en uppsättning informationsteoribaserade mått för att karakterisera rörlighetsmönster i stadsområden och grupper av invånare. Dessa multifacetterade mått inklusive Fluidity, vibrAncy, Communation, divErsity, och densiTy (FACET) som kategoriserar och manifesterar dolda urbana funktioner och beteenden. UrbanFACET-systemet gör det dessutom möjligt för användare att visuellt analysera och jämföra mätvärdena över olika områden och städer i storstadsskalor. Systemet utvärderas genom både fallstudier på flera stora och tätbefolkade städer och användarstudier med verkliga användare.
|
Shi och Al. REF klassificerade och uttryckte dolda urbana funktioner och beteenden från aspekter av urban rörlighet, vitalitet, kommunikation, mångfald och densitet, och utformade ett system som gör det möjligt för användare att visuellt analysera och jämföra indikatorer i olika regioner och städer i en stad skala.
| 8,907,709 |
UrbanFACET: Visually Profiling Cities from Mobile Device Recorded Movement Data of Millions of City Residents
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
| 14,233 |
Abstract-En av de mest utmanande frågorna för fordonsnätverk ligger i utformningen av ett effektivt MAC-protokoll som kan anpassas till olika trafikscenarier (stads- och förortsmiljöer). Varje miljö har sina egna egenskaper som leder till olika utmaningar, men förtjänsten med detta dokument ligger i att utveckla ett MAC-protokoll som lämpar sig för båda. I detta arbete föreslår vi en effektiv flerkanalig QoS Kognitiv MAC enbart tillägnad Vehicular Environments (MQOG). MQOG innehåller effektiva kanalförhandlingar på den dedikerade kontrollkanalen medan data överförs på andra kanaler utan strid. Eftersom fordonsmiljöer är allmänt kända för att lida av störningar och multipat, MQOG bedömer kvaliteten på kanalen innan överföring med hjälp av en dynamisk kanal allokering och förhandlingsalgoritm för att uppnå en betydande ökning av kanalens tillförlitlighet och genomströmning. Problemet med kanaltilldelning löstes på ett integrerat sätt samtidigt som man tog hänsyn till QoS för olika ramar (Säkerhet och Icke-säkerhet). Det unika med detta protokoll ligger i att använda ISM Band och UNII-3 om alla tillgängliga kanaler i DSRC ansågs opålitliga. Det föreslagna protokollet genomfördes i OMNET++ 4.1 och omfattande experiment visade att den föreslagna MAC säkerställer mottagning av säkerhetsmeddelanden mycket snabbare, effektivare och tillförlitligare än andra befintliga VANet MAC-protokoll.
|
I REF föreslår författarna att utformningen av fordonsnätverk ligger i utformningen av ett effektivt MAC-protokoll, som kan anpassas till olika trafikscenarier.
| 20,670,673 |
An efficient QoS MAC for IEEE 802.11p over cognitive multichannel vehicular networks
|
{'venue': '2012 IEEE International Conference on Communications (ICC)', 'journal': '2012 IEEE International Conference on Communications (ICC)', 'mag_field_of_study': ['Computer Science']}
| 14,234 |
Abstrakt. Att skaffa modeller som fångar bildmarkörer relevanta för sjukdomsprogression och behandling övervakning är utmanande. Modeller är vanligtvis baserade på stora mängder data med kommenterade exempel på kända markörer som syftar till att automatisera detektion. Stor anteckning ansträngning och begränsningen till en vokabulär av kända markörer begränsa kraften i sådana metoder. Här utför vi oövervakad inlärning för att identifiera avvikelser i avbildningsdata som kandidater för markörer. Vi föreslår AnoGAN, en djup konvolutionell generativ kontrarial nätverk för att lära sig en mångfald av normal anatomisk variabilitet, som åtföljer en ny anomali scoring schema baserat på kartläggning från bildutrymme till en latent utrymme. Tillämpas på nya data, modellen etiketter anomalier, och poäng bild patchar som visar deras passform i den lärda distributionen. Resultat på optisk sammanhållning tomografi bilder av näthinnan visar att metoden korrekt identifierar anomala bilder, såsom bilder som innehåller näthinnevätska eller hyperreflexiv foci.
|
Modellen visade att metoden korrekt identifierar onormala bilder, såsom bilder som innehåller näthinnevätska REF.
| 17,427,022 |
Unsupervised Anomaly Detection with Generative Adversarial Networks to Guide Marker Discovery
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
| 14,235 |
Discourse markörer ('cue ord') är lexikala objekt som signalerar den typ av samstämmighet samband som håller mellan angränsande text spänner; till exempel, eftersom, eftersom, och av denna anledning är olika markörer för orsakssamband. Discoursemarkörer är en syntaktiskt ganska heterogen grupp av ord, av vilka många traditionellt behandlas som funktionsord som hör till grammatikens område snarare än till lexikonet. Men för en enda diskurs relation finns det ofta en uppsättning av liknande markörer, vilket möjliggör en rad parafraser för att uttrycka relationen. För att fånga likheter och skillnader mellan dessa, och för att representera dem på ett adekvat sätt, utvecklar vi DiMLex, en lexikon av diskursmarkörer. Efter att ha beskrivit vår metodik och den typ av information som ska representeras i DiMLex diskuterar vi kort dess potentiella tillämpningar i både textgenerering och förståelse.
|
För tyska finns sedan 1990-talet en lexikon av diskurs Samband, nämligen DiMLex för lexikon av diskursmarkörer REF ).
| 15,427,200 |
DiMLex: A Lexicon of Discourse Markers for Text Generation and Understanding
|
{'venue': 'COLING-ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,236 |
Konvolutionella neurala nätverk (CNN) är beräkningsintensiva, vilket begränsar deras tillämpning på mobila enheter. Deras energi domineras av antalet multiplier som behövs för att utföra konvolutionerna. Winograds minimala filtreringsalgoritm (Lavin, 2015) och nätverksbeskärning (Han et al., 2015) kan minska antalet operationer, men dessa två metoder kan inte direkt kombineras -tillämpa Winogradtransform fyller i glesheten i både vikter och aktiveringar. Vi föreslår två ändringar av CNN baserade på Winograd för att göra det möjligt för dessa metoder att utnyttja sparsamhet. För det första flyttar vi ReLU-operationen till Winograd-domänen för att öka sparsamheten i de omvandlade aktiveringarna. För det andra beskär vi vikterna i Winograd-domänen för att utnyttja statisk vikt sparhet. För modeller på CIFAR-10, CIFAR-100 och ImageNet dataset, minskar vår metod antalet multiplikationer med 10,4×, 6,8× respektive 10,8× med förlust av noggrannhet mindre än 0,1%, överträffar tidigare baslinjer med 2,0×-3,0×. Vi visar också att flytta ReLU till Wiengrad domän tillåter mer aggressiv beskärning.
|
Liu m.fl. REF återställer aktiveringsglesheten genom att tillämpa ReLU på aktiveringen efter att ha omvandlats till Winograd-utrymmet.
| 1,091,965 |
Efficient Sparse-Winograd Convolutional Neural Networks
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
| 14,237 |
Sammanfattning av denna webbsida: Olika intressen, expertis och språk utgör kulturella hinder för kommunikation. Det har inte funnits någon formalism för att karakterisera dessa " kulturella hål ". Här använder vi informationsteori för att mäta kulturella hål och demonstrera vår formalism i samband med vetenskaplig kommunikation med hjälp av artiklar från JSTOR. Vi extraherar vetenskapliga fält ur strukturen av citeringsflöden och infer fältspecifika kulturer genom att katalogisera frasfrekvenser i fulltext och mäta den relativa effektiviteten av mellanfältskommunikation. Vi kombinerar sedan citering och kulturell information i en ny topografisk karta över vetenskap, kartläggning av citeringar till geografiskt avstånd och kulturella hål till topografi. Genom att analysera hela citeringsnätverket finner vi att kommunikativ effektivitet sönderfaller med citeringsavstånd på ett fältspecifikt sätt. Dessa förfall visar på dolda mönster av sammanhållning och fragmentering. Till exempel, de ekologiska vetenskaperna balkaniseras av jargong, medan samhällsvetenskaperna är relativt integrerade. Våra resultat belyser vikten av att berika strukturanalyser med kulturdata.
|
Vilhena m.fl. REF visualisera de kulturella hålen i form av en topografisk karta.
| 27,876,915 |
Finding Cultural Holes: How Structure and Culture Diverge in Networks of Scholarly Communication
|
{'venue': None, 'journal': 'Sociological Science', 'mag_field_of_study': ['Psychology']}
| 14,238 |
I partitionsanalysen delar vi indatadomänen för att bilda deldomäner där systemets beteende bör vara enhetligt. Gränsvärdesanalys producerar testingångar nära varje subdomäns gränser för att hitta fel orsakade av felaktig implementering av gränserna. Gränsvärdesanalys kan dock påverkas negativt av slumpmässig korrekthet-systemet producerar den förväntade produktionen, men av fel anledning. Denna artikel visar hur gränsvärdesanalys kan anpassas för att minska sannolikheten för slumpmässig korrekthet. Det viktigaste bidraget är till fall av automatiserad testdatagenerering där vi inte kan förlita oss på en testares expertis.
|
Hierons i REF beskriver utmaningarna med att använda BVA i system som producerar förväntade outputs men av fel skäl (på grund av oavsiktlig korrekthet).
| 15,661,249 |
Avoiding coincidental correctness in boundary value analysis
|
{'venue': 'TSEM', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,239 |
Sökmetoder i realtid lämpar sig för uppgifter där agenten interagerar med en till en början okänd miljö i realtid. I sådana samtidiga planerings- och inlärningsproblem, måste agenten välja sina åtgärder på en begränsad tid, samtidigt som den bara känner en lokal del av miljön centrerad på agentens nuvarande plats. Realtid heuristiska sökagenter väljer åtgärder med hjälp av en begränsad lookahead sökning och utvärdera gränsstater med en heuristisk funktion. Genom upprepade erfarenheter förfinar de staters heuristiska värden för att undvika oändliga slingor och för att konvergera till bättre lösningar. Den stora spridningen av sådana inställningar i autonom programvara och hårdvaruagenter har lett till en explosion av realtidssökningsalgoritmer under de senaste två decennierna. Inte bara är en potentiell användare konfronteras med en Hodgepodge av algoritmer, men han står också inför valet av kontrollparametrar som de använder. I det här dokumentet tar vi upp båda problemen. Det första bidraget är en introduktion av en enkel tre-parameter ram (kallad LRTS) som extraherar kärnidéer bakom många befintliga algoritmer. Vi bevisar sedan att LRTA*, LRTA*, SLA* och γ-Trap algoritmer är speciella fall av vårt ramverk. Därför är de enhetliga och utökade med ytterligare funktioner. För det andra bevisar vi fullständighet och konvergens av alla algoritmer som omfattas av LRTS-ramverket. För det tredje visar vi flera övre gränser för kontrollparametrar och lösningskvalitet. Slutligen analyserar vi inflytandet av de tre kontrollparametrarna empiriskt i de realistiska skalbara domänerna för realtidsnavigering på till en början okända kartor från ett kommersiellt rollspel samt routing i ad hoc-sensornätverk. I detta dokument överväger vi ett problem med samtidig planering och lärande. En motiverande tillämpning ligger med navigering på en till en början okänd karta under realtidsbegränsningar. Tänk till exempel på att en robot kör till jobbet varje morgon. Tänk dig roboten att vara en nykomling till staden. Den första vägen roboten hittar kanske inte är optimal eftersom trafikstockningar, vägförhållanden, och andra faktorer är till en början okända. Med tidens gång, fortsätter roboten att lära sig och så småningom konvergerar till en nästan optimal pendla. Observera att planering och lärande sker medan roboten kör och därför är föremål för tidsbegränsningar. Dagens mobila robotar plågas ofta av lokala problem och maktbegränsningar, men deras simuleringsmotdelar tillåter redan forskare att fokusera på planerings- och inlärningsproblem. Till exempel RoboCup Rescue-simuleringsligan (Kitano, Tadokoro, Noda, Matsubara, Takahashi, Shinjou, & Shimada, 1999) kräver planering och lärande i realtid med flera agenter som kartlägger en okänd terräng. Pathfinding görs i realtid som olika kriser, inklusive brandspridning och mänskliga offer fångade i spillror, framsteg medan agenter planerar. På samma sätt, många nuvarande generation realtid strategi spel använder en tidigare kända kartor. Full kunskap om kartorna möjliggör fullständiga sökmetoder som A* (Hart, Nilsson, & Raphael, c 2006 AI Access Foundation. Alla rättigheter förbehållna. BULITKO & LEE 1968) och Dijkstra algoritm (Dijkstra, 1959). Med hjälp av tidigare tillgång till kartorna kan man i förväg beräkna olika data för att snabba upp on-line-navigeringen. Exempel på sådana data är synbarhetsgrafer (Woodcock, 2000), influenskartor (Potter, 2000), rymdtriangulation (Kallmann, Bieri, & Thalmann, 2003), statliga abstraktionshierarkier (Holte, Drummond, Perez, Zimmer, & MacDonald, 1994; Holte, 1996; Botea, Müller, & Schaeffer, 2004) och vägwaypoints (Reece, Krauss, & Dumanoir, 2000). De kommande generationerna av kommersiella och akademiska spel (Buro, 2002) kommer dock att kräva att agenten hanterar initialt okända kartor via prospektering och lärande under spelet, och kommer därför i hög grad att begränsa tillämpligheten av fullständiga sökalgoritmer och pre-beräkningstekniker. Inkrementella sökmetoder såsom dynamiska A* (D*) (Stenz, 1995) och D* Lite (Koenig & Likhachev, 2002) kan hantera initialt okända kartor och används allmänt i robotik, inklusive DARPA: s Unmanned Ground Vehicle program, Mars rover, och andra mobila robot prototyper (Herbert, McLachlan, & Chang, 1999; Thayer, Digney, Diaz, Stentz, Nabbe, & Hebert, 2000). De fungerar bra när robotens rörelser är långsamma med avseende på dess planeringshastighet (Koenig, 2004). I realtid strategispel, men AI motorn kan vara ansvarig för hundratals till tusentals agenter traversing en karta samtidigt och planeringskostnaden blir en viktig faktor. För att illustrera: även på den mindre skalan av den sexåriga "Age of Empires 2" (Ensemble-Studios, 1999), 60-70% av simuleringstiden spenderas i patologi (Potter, 2000). Detta ger upphov till följande frågor: 1. Hur kan planeringstiden per drag, och i synnerhet den första fördröjningen, minimeras så att varje agent rör sig smidigt och svarar på användarens önskemål nästan omedelbart? 2. Utgångspunkten är följande: Med tanke på realtidsutförande, lokal sensorisk information och till en början okänd terräng, hur kan agenten lära sig en nästan optimal väg och samtidigt minimera inlärningstiden och minnet som krävs? Resten av tidningen är organiserad enligt följande. Vi introducerar först en familj av realtidssökningsalgoritmer utformade för att ta itu med dessa frågor. Vi gör sedan det första bidraget genom att definiera en enkel parameteriserad ram som förenar och utökar flera populära realtidssökningsalgoritmer. Det andra bidraget ligger i en teoretisk analys av den resulterande ramen där vi bevisar konvergens och fullständighet samt flera resultatgränser. Slutligen utvärderar vi påverkan av kontrollparametrarna inom två olika områden: enkelagentnavigering i okända kartor och routing i ad hoc-sensornätverk. Detaljerad pseudokod som behövs för att omimplementera algoritmerna samt för att följa teoremproofen presenteras i bilaga A. Theorem proofs själva finns i bilaga B. Vi placerar vår kartläggning av realtid heuristisk söklitteratur inom ramen för agentcentrerad sökning (Koenig, 2001). Medan traditionella off-line sökmetoder först planera en väg från start till mål tillstånd och sedan flytta agenten längs vägen, agent-centrerad sökning interleaves planering och utförande. Dessutom är planeringen begränsad till de områden i sökområdet runt det aktuella tillståndet för agenten såsom den fysiska placeringen av en mobil robot eller nuvarande styrelseposition i ett spel. De agentcentrerade sökmetoderna uppfyller således dessa två krav: i) agenten befinner sig alltid i ett enda tillstånd som endast kan ändras genom att vidta åtgärder och därmed ådra sig kostnader för utförande; ii) agenten kan endast se staterna kring sitt nuvarande tillstånd. Realtidsheuristiska sökmetoder är en delmängd av agentcentrerade sökmetoder. De kännetecknas av följande två ytterligare egenskaper: i) planeringstiden per flyttning kan vara övre gräns för en användarbaserad konstant (därav i realtid); ii) de associerar en heuristisk funktion med varje tillstånd (därav heuristisk). Det tidigare kravet motiveras av behovet av att agera snabbt i kontrolluppgifter som att flyga en helikopter (Ng, Coates, Diel, Ganapathi, Schulte, Tse, Berger, & Liang, 2004) eller spela ett dataspel i realtid (Buro, 2002). Den senare egenskapen gör det möjligt för agenten att undvika oändliga cykler på en karta genom att lära sig de rätta avstånden från varje stat till måltillståndet. Till skillnad från att lära sig kartan och använda den för planering (Stenz, 1995; Koenig & Likhachev, 2002; Chimura & Tokoro, 1994; Sturtevant, 2005), förvärva högkvalitativa heuristiska värden kan agenten välja rätt åtgärd mycket snabbt och därmed förbättra sin reaktionstid. Med de heuristiska värdena kan agenten också välja nästa bästa åtgärd om det primära valet blir otillgängligt (t.ex. på grund av ett vägblock på kartan). Anmärkningsvärt, lärande tillstånd och stat-aktionsvärden är den rådande tekniken i Förstärkning Lärande (Sutton, 2005). Lära sig realtidssökning algoritmer, såsom LRTA* (Korf, 1990), interleave planering och genomförande i en on-line beslutsfattande inställning. Eftersom planeringstiden för varje åtgärd som utförs av agenten begränsas, kan dessa algoritmer användas som kontrollpolicy för autonoma agenter, även i en okänd och/eller icke-stationär miljö (Koenig & Simmons, 1998; Koenig, 1999; Ishida & Korf, 1991 Ishida, 1997). I synnerhet, förmågan att fatta beslut efter endast en småskalig lokal sökning gör dessa algoritmer väl lämpade för routing i storskaliga trådlösa nätverk av enkla sensorer och ställdon där varje nod är medveten endast om sina närliggande grannar och ingen global karta finns. I sådana scenarier, inte bara den begränsade mängden beräkning per nod passar den låga datorkraft och energikrav, men också nätverket kollektivt lär sig sin egen topologi över tid (Yu, Govindan, & Estrin, 2001; Shang, Fromherz, Zhang, & Crawford, 2003). Sedan den banbrytande LRTA* (Korf, 1990), forskning inom området lärande i realtid heuristisk sökning har utvecklats i flera större riktningar. Ishida och Korf (1991) undersökte ändringar av LRTA* för icke-stationära miljöer. Shimbo och Ishida (2003) studerade konvergens till suboptimala lösningar samt mekanismer för att begränsa mängden utforskning av statsrymder. Furcy och Koenig (2000) övervägde en annan inlärningsmekanism som påskyndade konvergensen. Russell och Wefald (1991) undersökte ett besluts-teoretiskt tillvägagångssätt för att balansera partiell planering och genomförande. Shue och Zamani (1993) och Bulitko (2004) föreslog en bakåtsträvande komponent som föreslog ytterligare ett sätt att kontrollera utforskningen av miljön. Observera att även om den ursprungliga LRTA* algoritmen kan ses som ett specialfall av realtids dynamisk programmering (Barto, Bradtke, & Singh, 1995), i allmänhet, realtid heuristiska sökmetoder har flera anmärkningsvärda skillnader från förstärkande inlärningsmetoder. För det första antar de vanligtvis en deterministisk miljö och utnyttjar därmed mer aggressiva regler för värdeuppdatering. För det andra, de använder icke-triviala initiala heuristik och kan konvergera ännu snabbare när en sådan heuristisk är tillåtlig (Pearl, 1984) genom att aldrig minska heuristiska värden av stater. För det tredje använder sig de heuristiska sökmetoderna i realtid ofta av mer omfattande och sofistikerade lokala sökmetoder än den politik som ofta används för att stärka inlärningen. Exempel inkluderar dynamiskt utvalda lookahead sökutrymme i DTA* (Russell & Wefald, 1991), ytterligare heuristisk för slipsbrytande i FALCONS (Furcy & Koenig, 2000), och heuristiska övre gränser för säker utforskning i avgränsade LRTA* (Shimbo & Ishida, 2003). Detta förbättrar kvaliteten på beslutsfattandet genom att kompensera för felaktigheter i den heuristiska funktionen och påskyndar inlärningsprocessen. Slutligen, backtracking förlängningar (Shue & Zamani, 1993; Bulitko, 2004) ger agenten en annan mekanism för att upprätthålla konsekvensen i sin heuristiska. Mångfalden av lärande realtidssökningsalgoritmer (LRTA*, LRTA*, δ-LRTA*, FAL-CONS, eFALCONS, SLA*, γ-Trap, SLA*T, DTA*, etc.) tillgängliga för användaren kan vara desorienterande eftersom han måste besluta inte bara om algoritmen att använda utan också om algoritmparametrar som kan ha en stor inverkan på prestanda. Problemet kompliceras ytterligare av det faktum att empiriska studier har gjorts i olika testbäddar vilket gör resultaten ojämförbara direkt. För att illustrera detta: Furcy och Koenig (2000) samt Shimbo och Ishida (2003) verkar använda samma testbädd (den 8-pussel). Men deras resultat på samma algoritm (LRTA*) skiljer sig avsevärt åt. En närmare granskning visar att två olika målstater användes, vilket ledde till de stora skillnaderna i prestanda. För att förvärra dessa problem har de flesta prestandamått mätts med den myopiska lookaheadsökningen av djup ett. Detta är i motsats till spelande praxis där de flesta konkurrenskraftiga system får en betydande fördel av en djupare sökhorisont (Schaeffer, Culberson, Treloar, Knight, Lu, & Szafron, 1992; Hsu, Campbell, & Hoane, 1995; Buro, 1995). Vi tar ett steg mot en enhetlig syn på lärande i realtidssökning och bidrar med fyra bidrag. För det första introducerar vi ett enkelt treparametersramverk (LRTS) som inkluderar LRTA*, LRTA*, SLA* och γ-Trap som specialfall. En biprodukt av denna generalisering är en förlängning av de tre första algoritmerna till variabel djuplookahead. För det andra visar vi fullständighet och konvergens för alla kombinationer av parametrarna. För det tredje, vi bevisar icke-triviala teoretiska gränser på påverkan av parametrarna. För det fjärde presenterar vi en storskalig empirisk utvärdering inom praktiskt taget relevanta områden. I det här avsnittet introducerar vi formellt inställningarna för inlärning av sökproblem i realtid och de mätvärden vi kommer att använda. Definition 3.1 Sökutrymmet definieras som en tuple (S, A, c, s 0, Sg, h 0 ) där S är en ändlig uppsättning av stater, A är en ändlig uppsättning åtgärder, c : S × A → R + är kostnadsfunktionen med c (s, a) är den uppkomna kostnaden för att vidta åtgärder a i staten s, s 0 är det ursprungliga tillståndet, S g på S är uppsättningen av måltillstånd, och h 0 är den ursprungliga heuristiska (t.ex. Manhattan avstånd). Vi antar antaganden Shue och Zamani (1993), Shimbo och Ishida (2003) att (i) för varje åtgärd i varje stat finns det en omvänd åtgärd (eventuellt med en annan kostnad), (ii) varje tillämplig åtgärd leder till en annan stat (dvs. inga själv-loops), och (iii) minst ett mål tillstånd i S g kan nås från s 0. Antagande (i) behövs för den backtracking mekanism som används i SLA* (Shue & Zamani, 1993). Den innehåller många kombinatoriska och vägplaneringsproblem. Dess tillämplighet på domäner där reversering av en åtgärd kan kräva en icke-trivial sekvens av åtgärder är föremål för framtida forskning. Antagande (ii) antas för bevis enkelhetens skull. Med andra ord, de resultat som presenteras i detta dokument håller även om själv-loops (av positiva kostnader) är närvarande. Som med alla realtidssökningsalgoritmer vi enar antar vi att miljön är stationär och deterministisk. Utbyggnad av våra algoritmer på dynamiska/stochastiska domäner är ett ämne för aktuell forskning. Definition 3.2 Verkställigheten kostnaden för att resa från staten s 1 till staten s 2 betecknar av dist (s 1, s 2 ) definieras som den minsta kumulativa kostnaden för utförande agenten är att ådra sig genom att resa från s 1 till s 2. Genom hela tidningen kommer vi att anta att dist uppfyller standard triangeln ojämlikhet: Definition 3.3 Sökagenter fungerar genom att börja i en fast startstat s 0 och genomföra åtgärder som föreslås av deras kontrollpolicy. En rättegång definieras som en sekvens av tillstånd algoritmbesök mellan starttillståndet och det första måltillståndet den möter. När en rättegång är klar, återställs agenten till starttillståndet och nästa försök börjar. Slutlig prövning definieras som den första prövning där ingen inlärning (dvs. uppdateringar av den heuristiska funktionen) inträffar. 1 En konvergerande körning är sekvensen av försök från den första rättegången till den slutliga rättegången. Varje problem instans är helt specificerad av sökområdet som inkluderar start-och måltillstånd. Agenten drivs fram till konvergens och följande statistik samlas in: kostnaden för genomförandekonvergens är summan av kostnaderna för genomförandet av de åtgärder som vidtagits av agenten under konvergensprocessen (dvs. under konvergensperioden); planeringskostnaden är den genomsnittliga kostnaden för planering per åtgärd under konvergensprocessen. Planeringskostnaden för en åtgärd är det antal stater som agenten anser sig besluta om att vidta åtgärden; den totala konvergenskostnaden är den totala planeringskonvergenskostnaden för alla åtgärder under konvergensen plus genomförandekonvergenskostnader som skalas upp av en faktor som kallas "planeringshastighet". Skalningsfaktorn motsvarar den mängd planering (mätt i antalet berörda noder) som agenten skulle kunna göra i den tid det tar att utföra en enhet för resor. Till exempel, datorn ombord en AIBO robodog kan kunna planera med 10.000 stater i den tid det tar AIBO att passera 1 fot av avstånd på marken. På motsvarande sätt kommer planeringshastigheten att vara 10.000 tillstånd per fot. Detta är ett vanligt använt sätt att kombinera kostnader för utförande och planering till en enda metriska (Russell & Wefald, 1991; Koenig, 2004) ; 2 minne är den totala mängden minne (mätt i antalet tillståndsvärden) agenten som används för att lagra den heuristiska funktionen under konvergenskörningen. Observera att den initiala heurismen vanligtvis representeras i en kompakt algoritmisk form i motsats till en tabell. Därför krävs minne för att lagra endast de heuristiska värden som modifieras under inlärning; första-flytta fördröjning (lag) är mängden planeringstid (mätt i millisekunder 3 ) agenten tar innan beslut om det första draget. Detta är ett viktigt mått i realtid strategispel, 1. Observera att om slumpmässiga slipsbrytande används, kan mer lärande faktiskt äga rum efter en inlärningsfri rättegång. Vi använder fasta slipsbrytande i hela detta papper för enkelhetens skull. 2. Utgångspunkten är följande: Observera att till skillnad från den totala planeringskostnaden ger den totala konvergenskostnaden oss möjlighet att modellera områden där vissa åtgärder är dyra oproportionerligt med sin körtid (t.ex. att ta skada genom att springa in i en vägg). Dessutom använder vi det vanliga sökramverket i realtid och utgår från att planering och utförande inte är samtidiga utan interleaved. 3. Vad är det som händer? Alla tidpunkter är tagna på en PowerMac G5 kör på 2 GHz. Apple gcc 3.3 kompilator används. BULITKO & LEE där hundratals till tusentals enheter kan laddas samtidigt och ändå måste reagera på användarens kommandon så snabbt som möjligt; suboptimaliteten hos den slutliga lösningen definieras som den procentandel genom vilken exekveringskostnaden för den slutliga prövningen överstiger den bästa möjliga lösningen. Till exempel, om en sökande agent hade kostnaden för avrättningen av 120 på den slutliga rättegången och den kortaste vägen har kostnaden för 100, är suboptimaliteten 20%. I tidningen illustrerar vi algoritmerna i två realistiska testbäddar: realtidsnavigering i okänd terräng och routing i ad hoc trådlösa sensornätverk. Den tidigare domänen är mer standard för enkelagentsökning och därför kommer vi att använda den i hela tidningen för att illustrera våra punkter. Den senare domänen är en relativ nykomling till området för realtid heuristisk sökning. Vi kommer att använda det senare i tidningen (avsnitt 8) för att visa hur lärande single-search metoder kan hantera en praktiskt taget viktig men annorlunda uppgift. Observera att båda domänerna har de önskade attributen listade i inledningen. Faktum är att i båda domänerna är statsrymden från början okänd, agenten befinner sig i ett enda nuvarande tillstånd som ska ändras genom verkställande åtgärder, agenten kan endast känna en lokal del av statsrymden centrerad på agentens nuvarande tillstånd, planeringstiden per åtgärd bör minimeras, och det finns upprepade prövningar. Agenten är uppgift att resa från start tillstånd (x s, y s ) till det enda måltillståndet (x g, y g ). Koordinaterna är på ett tvådimensionellt rektangulärt rutnät. I varje tillstånd finns upp till åtta drag tillgängliga som leder till de åtta närmaste grannarna. Varje rak rörelse (dvs., norr, söder, väster, öster) har en resekostnad på 1 medan varje diagonalt drag har en resekostnad på 2. Varje stat på kartan kan passeras eller ockuperas av en vägg. I det senare fallet kan agenten inte flytta in i det. Inledningsvis är kartan i sin helhet okänd för agenten. I varje tillstånd (x, y) agenten kan se status (bebodd / fri) i närheten av siktradien v: Den initiala heuristic vi använder är den så kallade oktile avstånd definieras som längden på en kortaste vägen mellan de två platserna om alla celler är går att passera. Det är en översättning av Manhattan avstånd till fallet med åtta drag och kan enkelt beräknas i en sluten form. Observera att klassisk A*-sökning inte är tillämplig på grund av en från början okänd karta. Särskilt är det omöjligt för agenten att planera sin väg genom tillstånd (x, y) om den inte antingen är placerad inom siktradien av staten eller har besökt detta tillstånd på en tidigare rättegång. En enkel lösning på detta problem är att generera den ursprungliga vägen under antagandet att de okända områdena på kartan innehåller inga ockuperade stater (det fria utrymmet antagande Koenig, Tovey, & Smirnov, 2003). Med oktilavståndet som heuristisk är den första stigen nära den raka linjen eftersom kartan antas vara tom. Agenten följer den befintliga vägen tills den går in i ett ockuperat tillstånd. Under resan uppdateras den utforskade delen av kartan i dess minne. När den nuvarande sökvägen är blockerad, anropas A* igen för att generera en ny komplett sökväg från nuvarande position till målet. Processen upprepas tills agenten anländer till målet. Den återställs sedan till starttillståndet och en ny rättegång börjar. Konvergensen upphör när inga nya stater ses. Fyra. Observera att denna ram enkelt kan utökas till fallet med flera start- och måltillstånd. För att öka planeringseffektiviteten har flera metoder för att återanvända information över efterföljande planeringsepisoder föreslagits. Två populära versioner är D* (Stenz, 1995) och D* Lite (Koenig & Likhachev, 2002). Kraftfulla som de är, dessa förbättringar minskar inte den första-flytta fördröjningen. Efter att agenten har fått destinationskoordinaterna måste den göra en A*-sökning från sin position till destinationen innan den kan förflytta sig. Även på små kartor kan förseningen bli betydande. Detta är i kontrast till LRTA* ( Korf, 1990), som endast utför en liten lokal sökning för att välja det första draget. Som ett resultat, flera order av magnitud fler agenter kan svara på en användares begäran i den tid det tar en A* agent. Eftersom dagens spel kringgår dessa problem genom att använda fullt observerbara kartor och precomputing extra data strukturer i förväg, genomför vi våra experiment i en forskningsprototyp, kallad Hierarchical Open Graph (HOG), utvecklad vid University of Alberta av Nathan Sturtevant. Det gör det möjligt att ladda kartor från kommersiella rollspel och realtid strategispel som Baldur's Gate (BioWare, 1999) och WarCraft III (Blizzard, 2002). Vi använder fem kartor i storlek från 214 × 192 tillstånd (varav 2765 är traverserbara) till 235 × 204 (med 16142 traverserbara tillstånd). Den största kartan visas i figur 1. Totalt 1000 problemfall på de fem kartorna valdes slumpmässigt så att deras kortaste stiglängder faller i de tio lådorna: 1-10, 11-20,..., 91-100 med 100 problem per bin. Vi kommer att använda denna svit med 1000 problem i hela tidningen. I detta avsnitt kommer vi att presentera det primära bidraget från detta dokument - den enhetliga ramen för realtidsheuristisk sökning - på ett stegvist sätt. Nämligen, vi kommer att börja med basalgoritmen, LRTA*, och sedan analysera tre förlängningar: djupare lookahead, optimality vikt, och backtracking. Varje förlängning illustreras med ett handtrakat mikroexempel och empiriska resultat i realtidssökardomänen. En enande algoritm utgör sektionens final. LRTA* infördes av Korf (1990), är den första och mest kända lärande realtid heuristiska sökalgoritm. Den viktigaste idén ligger i att blanda sig i och backa upp heuristiska värden (figur 2). Fem, fem, sex, sex, sex, sex, sex, sex, sex, sex, sex, sex, sex, sex, sex, sex, sex, sex, sex, sex, sex, sex, sex, fem, fem, fem, fem, fem, fem, fem, fem, fem, fem, fem, fem, fem, fem, fem, fem, fem, fem, fem, fem, fem, fem, fem, fem, fem, fem, fem, fem, fem, fem, fem, fem, tre, fem, fem, fem, fem, fem, fem, fem, fem, fem, fem, fem, fem, tre, fem, fem, fem, fem, fem, fem, tre, fem, fem, fem, fem, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, För tydlighetens skull beskriver alla pseudokoder i detta dokument endast en enda rättegång. Särskilt, i det nuvarande tillståndet s, LRTA* med en lookahead av en anser de omedelbara grannarna (linjerna 4-5 i figur 2 ). För varje grannstat, två värden beräknas: utförande kostnaden för att komma dit från den nuvarande staten (härefter betecknas av g) och den beräknade genomförandekostnaden för att komma till den närmaste målstaten från grannstaten (härefter betecknar h). Medan g är känd exakt, h är en heuristisk uppskattning. LRTA* färdas sedan till det tillstånd som har det lägsta f = g + h-värdet (linje 7). Dessutom uppdateras det heuristiska värdet av det nuvarande tillståndet om det lägsta f-värdet är större än det heuristiska värdet av det nuvarande tillståndet (linje 6). 6 LRTA* 1 initiera heuristic: h ← h 0 2 återställa det nuvarande tillståndet: s ← s start 3 medan s Sg gör 4 generera barn en flytta bort från tillstånd s 5 hitta staten s ′ med den lägsta utföra åtgärden för att komma till s ′ 8 slutet medan Korf (1990) visade att i ändliga domäner där måltillståndet kan nås från alla stater och alla åtgärdskostnader är icke-noll, LRTA* finner ett mål på varje försök. Dessutom, om den initiala heuristiska funktionen är tillåtlig kommer LRTA* att konvergera till en optimal lösning efter ett begränsat antal försök. Jämfört med A*-sökning har LRTA* med en lookahead av en betydligt kortare första flytta eftersläpning och hittar suboptimala lösningar mycket snabbare. Konvergera till en optimal (t.ex. lägsta utförandekostnad) lösning kan dock vara dyrt i fråga om antalet försök och den totala genomförandekostnaden. Tabell 1 listar mätningar i genomsnitt över 1000 konvergenskörningar på de fem spelkartorna i sökområdet (detaljer i avsnitt 5.1). Skillnaderna blir mer uttalade för större problem (Figur 3 ). Ishida (1997) hänvisade till sådana felaktigheter i heurismen som "heuristiska depressioner". Han studerade dem för det grundläggande fallet av LRTA* med en lookahead av en. Heuristiska depressioner generaliserades senare för viktade LRTA* och godtyckliga lookahead i (Bulitko, 2004) under namnet γ-fällor. 6. Vad är det som händer? Detta villkor är inte nödvändigt om heurismen är konsekvent som f - värden kommer att vara non-decreasing längs alla lookahead grenar. I allmänhet finns det inget behov av att minska h-värdet i något tillstånd om den initiala heurismen är tillåtlig. I processen att "fylla in" heuristiska depressioner kan agenten ådra sig betydande kostnader för utförande genom att röra sig fram och tillbaka inne i depressionen. Detta sker på grund av att LRTA* med en lookahead av en är myopic och genomför en minsta mängd planering per drag. Om planering är billigare än utförande, då en naturlig lösning är att öka mängden planering per drag med hopp om att eliminera heuristiska lokala minima till en lägre genomförandekostnad. I LRTA* genomförs ytterligare planering per drag genom djupare lookahead-sökning. Den heuristiska uppdaterings- och åtgärdsvalsreglerna som infördes i föregående avsnitt kan utvidgas till ett godtyckligt lookaheaddjup på ett sätt inspirerat av den vanliga mini-max sökningen i spel (Korf, 1990). Korf kallade den nya regeln "mini-min" och konstaterade empiriskt att djupare lookahead minskar kostnaden för utförandet men ökar planeringskostnaden per drag. Fenomenet kan illustreras med ett handspårbart exempel i figur 4. Vart och ett av de sex tillstånden visas som en cirkel med de åtgärder som visas som kanter. Varje åtgärd kostar 1. Den första heuristiska h 0 är tillåtlig men felaktig. Heuristiska värden före och efter den första prövningen visas som tal under varje tillstånd (cirkel). Både LRTA* med en lookahead på en och två konvergera till sin slutliga heuristik i en rättegång. Men det extra ply of lookahead drar nytta av de två extra heuristiska värderingarna och minskar därmed kostnaderna för utförandet från 5 till 3 drag. Å andra sidan ökar planeringskostnaden för varje drag från 2 till 4 noder. I allmänhet, mer planering per åtgärd "kompenserar" för felaktigheter i den heuristiska funktionen och gör att man kan välja bättre rörelser. Tabell 2 visar denna effekt i genomsnitt över de 1000 problemen med att hitta en väg. Minskningen av kostnaderna för utförande på grund av djupare lookahead blir mer uttalad i större problem ( Figur 5). Lookahead-sökning i LRTA*-liknande algoritmer har fått stor uppmärksamhet i litteraturen. Russell och Wefald (1991) och Koenig (2004) analyserade urvalet av lookaheaddjupet optimalt i förhållande till den totala kostnaden (dvs. en viktad kombination av planerings- och genomförandekostnader). Bulitko, Li, Greiner och Levner (2003) och Bulitko (2003) undersökte patologiska fall av djupare lookahead som ökar både kostnader för utförande och planering. Skalbarheten för LRTA* för stora problem bestäms av två av dess attribut. För det första använder den den initiala "optimistiska" heuristiska funktionen för de okända områdena i sökområdet och mer informerade, "realistiska" funktionen för de utforskade områdena. Detta resulterar i den så kallade "optimismen inför osäkerheten" där agenten ivrigt utforskar nya delar av rummet. Konvergenstiden förlängs följaktligen och lösningens kvalitet varierar betydligt under efterföljande försök (Shimbo & Ishida, 2003). För det andra kan den fullständiga konvergensprocessen vara oåtkomlig när det gäller körtid och den mängd minne som krävs för att lagra den heuristiska eftersom man söker optimala lösningar. Faktum är att även enkla problem kan vara svåråtkomliga när det gäller att hitta optimala lösningar (t.ex., den generaliserade glidande kakel pussel av Ratner & Warmuth, 1986). Shimbo och Ishida (2003) föreslog en viktad version av LRTA* som ett systematiskt sätt att ge upp optimala lösningar. Författarna hävdade att optimala lösningar sällan behövs i praktiken, och att de inte heller kan uppnås på stora områden. Följaktligen måste användaren nöja sig med suboptimala men tillfredsställande lösningar. Viktad LRTA* är samma algoritm (LRTA*) kör med en otillåtlig initial heuristic. Otillåtligheten begränsas som för varje tillstånd dess h(s) värde krävs för att vara övre-bounded av (1 + på)h * (s) där h * (s) är det verkliga avståndet till mål. Den resulterande avvisningsmöjligheten leder till en optimal lösning som en sådan LRTA* konvergerar till. Genom att ge upp optimalitet på ett kontrollerat sätt får algoritmen snabbare konvergens, mindre minneskrav och högre stabilitet. Observera att 0-LRTA* motsvarar den ursprungliga LRTA*. Shimbo och Ishida (2003) använde Manhattan avstånd skalas av (1 + på) som den första heuristiska h 0. Den underliggande idén kan illustreras i en fem-state domän (Figur 6 ). Till vänster, den första 128 LÄRANDE I REAL-TIME SÖKNING: EN UNIFYING FRAMEWORK heuristic listas omedelbart under de fem staterna (visas som cirklar). Varje åtgärd (visas med en kant) har kostnaden för genomförandet av 1. Varje prövning av LRTA* kommer att innebära fyra drag och kommer att uppdatera de heuristiska värdena. Värdena efter varje försök listas som på varandra följande rader. Efter 16 drag (4 försök) kommer LRTA* att konvergera till den perfekta heurismen. Till höger börjar vi med samma heuristiska multiplicerat med (1+) = 2. Som visat där, 1-LRTA* tar bara en försök (dvs. 4 drag) att konvergera. I allmänhet, genom att skala den initiala (tillåtliga) heuristiska med (1 + på) mängden underskattning av en tillåtlig initial heuristisk i förhållande till den perfekta heuristiska minskas i många stater. Därför minskas antalet uppdateringar (linje 6 i LRTA*, figur 2 ) som behövs för att öka ett tillstånds initiala heuristiska värde till dess slutliga värde. På motsvarande sätt sänks kostnaderna för genomförandekonvergens och lärandet påskyndas. Figur 7 visar korrelationen i sökområdet. Avvikelsen är summan av underskattning i den initiala heuristiska (1 + på)h 0 i genomsnitt över alla tillstånd på kartan (s på S): Här- betecknar icke-negativ subtraktion: a-b är lika med a − b om resultatet är positivt och 0 annars. Som vanligt är h * den perfekta heuristiska och h 0 är oktilavståndet. Heuristikerna tas med avseende på 1000 slumpmässiga måltillstånd (s mål ) definieras i avsnitt 5.1. På den negativa sidan är skalningen enhetlig över alla stater och kommer ibland att resultera i att de skalade värdena överskrider de perfekta heuristiska värdena. Sådan otillåtlighet kan leda till suboptimala lösningar 129 BULITKO & LEE som illustreras i figur 8. Specifikt är den initiala heurismen tillåtlig (värdena för de fem staterna visas ovanför cirklarna i den vänstra delen av figuren). Alla åtgärder (visas som pilar) har kostnaden för genomförandet av 1. Således konvergerar LRTA* till den optimala vägen (dvs. genom topptillståndet). Å andra sidan, skalning heuristic med (1 + på) = 3 (visas till höger) leder 2-LRTA* att konvergera på en längre suboptimal väg (genom de nedre två staterna). Sammanfattningsvis tenderar skalning av en inledande (tillåten) heuristisk med 1 + på att minska heurismens underskattningsfel och därmed påskynda konvergensen. Allteftersom den viktade heurismen gradvis blir mer överskattande, ökar de slutliga lösningarnas suboptimalitet, och så småningom minskar den totala konvergensen (på grund av mindre informativ viktad heuristisk). Tabell 3 visar trenderna inom området för att hitta vägar. Återigen, effekten är mer uttalad för större problem (Figur 9 ). Observera att en liknande effekt har observerats med viktad A* sökning där en vikt w sätts på den heuristiska h. När w överstiger 1, är färre noder expanderas på bekostnad av suboptimala lösningar (Korf, 1993). Tabell 4 visar resultaten av körvägd A* om de problem som används i tabell 3. Både LRTA* och LRTA* lär sig genom att uppdatera sin heuristiska funktion medan de avancerar i statsrymden. SLA* (Shue & Zamani, 1993) införde en backtrackingmekanism. Det vill säga, när agenten gör en uppdatering till det heuristiska värdet av den nuvarande staten, går han tillbaka till sitt tidigare tillstånd. Detta ger agenten två möjligheter: i) att uppdatera det heuristiska värdet av det tidigare tillståndet och ii) eventuellt välja en annan åtgärd i det tidigare tillståndet. Ett alternativt system skulle vara att uppdatera 130 LÄRANDE I REAL-TIME SÖKNING: EN UNIFYING FRAMEWORK Den underliggande intuitionen kan illustreras med ett enkelt exempel i Figur 10. Ännu en gång, tänk på en endimensionell femstatsdomän. Varje åtgärd har en genomförandekostnad på en. Den initiala heurismen är korrekt i de två vänstra staterna och en lägre i de tre högra staterna. Vid varje rättegång kommer LRTA* att höja ett enda tillstånds heuristiska värde. Därför behövs tre prövningar (12 drag) för att göra den heuristiska fullkomlig. SLA*, å andra sidan, kommer till mellantillståndet i 2 drag, uppdaterar sitt värde från 1 till 2, bakspår till det andra tillståndet från höger, ökar sitt värde från 2 till 3, bakspår till höger mest tillstånd, och ökar sitt värde från 3 till 4. Agenten kommer sedan att ta 4 steg mot målet, efter den nu perfekta heuristiska. Som ett resultat, den första prövningen är längre (8 vs 4 drag) men det totala antalet rörelser tills konvergensen minskas (från 12 till 8). Den SLA* algoritmen är nästan identisk med LRTA* med en lookahead av en (Figur 2 ). Den enda skillnaden är att när man höjer statsvärdet i linje 6 vidtar agenten en åtgärd som leder till dess 131 BULITKO & LEE tidigare tillstånd och inte staten s ′ som i linje 7 av LRTA*. Om det tidigare tillståndet inte existerar (dvs algoritmen nådde starttillståndet) vidtas inga åtgärder, men det heuristiska värdet är fortfarande uppdaterat. SLA * backtracks varje gång dess heuristic uppdateras (dvs., lärande ägde rum). Detta orsakar mycket betydande kostnader för genomförandet av den första rättegången. Faktum är att allt lärande sker under den första rättegången, vilket vi kommer att bevisa i Theorem 7,8. Vid större problem kan användaren vilja ha en suboptimal lösning innan konvergensprocessen slutförs. För att ta itu med detta problem, SLA*T, infördes i (Shue, Li, & Zamani, 2001), ger användaren kontroll över mängden lärande som ska göras per försök. Nämligen, SLA*T backtracks först efter det att det uttömmer en användarspecificerad inlärningskvot. Det finns två primära effekter av bakåtspårning på de mätvärden som vi anser i detta dokument. För det första minskar större värden på inlärningskvoter kostnaderna för genomförandet av varje försök eftersom mindre bakåtsträvande sker. I ytterligheten kan inlärningskvoten sättas i oändlighet, vilket omvandlar SLA*T till backtracking-free LRTA* med en lookahead av en. I andra änden av spektrumet (med en inlärningskvot på noll) backar SLA*T alltid tillbaka när man uppdaterar ett heuristiskt värde och blir likvärdigt med SLA*. Mer bakåtsträvande tenderar att påskynda konvergensprocessen (dvs. minska kostnaderna för att genomföra konvergensen) eftersom färre försök behövs för att konvergera (återkalla exemplet i figur 10 ). Empiriskt sett är den första effekten av backtracking tydligast i 8-pussel (Tabell 5) samt sökvägen uppgift med små kartor (Tabell 6 ). Det är fortfarande en öppen fråga varför trenden inte observeras i fråga om större uppgifter (tabell 7). Den andra effekten av backtracking är att mängden minne som krävs för att lagra de lärda heuristiska värdena minskar. 7 Under backtracking, agenten tenderar att uppdatera heuristiska värden i tidigare besökta stater. Sådana uppdateringar kräver inte att ytterligare minne allokeras. Den minnesbesparande effekten ses i alla problemstorlekar i tabell 5 och tabell 7. De föregående avsnitten införde tre förlängningar av basalgoritmen LRTA*. Tabell 8 Bulitko, 2004), som också använde en heuristisk viktparameter γ = 1/(1 + på) till samma effekt som viktad LRTA*. Dessutom använde γ-Trap en mer aggressiv heuristisk uppdateringsregel, betecknad som "max min" i tabellen, och använde heuristiska värden i alla stater (i motsats till gränsen för lookahead sökning endast). I stället för att vidta en enda åtgärd mellan lookahead sökning episoder, det tillämpade d åtgärder för att amortera planeringskostnaden. Vi kommer nu att kombinera de tre förlängningarna till en enda algoritm som kallas Learning Real-Time Search eller LRTS. Det visas i den sista raden i tabellen och, på ett förenklat sätt, i figur 11. Den detaljerade pseudo-kod som krävs för att återinföra algoritmen samt för att följa teoremet bevis finns i figur 20, Bilaga A. Vi kommer nu att gå igenom driften av LRTS och förklara kontrollparametrarna. I linje 1, försök initieras genom att ställa in nuvarande tillstånd s av agenten till starttillståndet s start och återställa den mängd lärande som gjorts på prövningen (u). Så länge målet inte nås lämnar LRTS-agenten planering (linjerna 3 och 4), lärande (linje 5) och genomförande (linjerna 6-11). Under planeringstillståndet använder LRTS modellen för sin miljö (oförklarligt uppdaterad när nya tillstånd kommer in i agentens synradie) för att generera alla barntillstånd i det nuvarande tillståndet upp till d flyttar bort. På varje lookahead nivå (i = 1, 2,.., d), LRTS finner den mest lovande tillstånd (s i ) som minimerar den viktade uppskattningen av det totala avståndet: Den lookahead sökning som utförs i linje 5 har komplexiteten i O (b d ) om inget barn tillstånd uppnås mer än en gång och b är grenningsfaktorn. På kartor minskas dock komplexiteten mycket till O(d n ) där n är kartans dimensionalitet. Således, i både vägplanering och sensornätverk routing uppgift, lookahead har en komplexitet av O(d 2 ). Liksom γ-Trap använder LRTS den så kallade "max min" heuristisk uppdatering (eller inlärning) regel i linje 5. Om den initiala heurismen är tillåtlig, vill agenten öka den så aggressivt som möjligt samtidigt som den är tillåtlig. Lemma 7.1 kommer att visa att sätta det heuristiska värdet h av det nuvarande tillståndet s till det maximala av minima som finns på varje ply bevarar tillåtligheten av h hela tiden. I rad 6 läggs sedan mängden ökning till det heuristiska värdet av det nuvarande tillståndet (h(s)) till den kumulativa mängden lärande som hittills gjorts på försök (u). Om den nya mängden lärande inte överskrider inlärningskvoten T kommer agenten att utföra d flyttar till den mest lovande gränsstaten s d sett under lookahead (linje 8). Flyttarna läggs till i stigen så att de kan vara "undna" senare under backtracking. Om den nya mängden lärande överstiger inlärningskvoten T kommer agenten att backa tillbaka till sitt tidigare tillstånd (linje 10). Genom att göra det kommer det att "undanröja" de sista åtgärderna. De sista d-åtgärderna är sålunda avlägsnade från den väg som hittills rests under rättegången. Observera att backtracking åtgärder räknas i kostnaden för utförande. Vi uppmuntrar nu läsaren att se över de handspårbara exemplen i avsnitten 6.2, 6.3 och 6.4 eftersom de visar LRTS-drift inom enkla domäner. I viktningsexemplet (avsnitt 6.3) bör γ sättas till 1/(1+) för att göra det möjligt för LRTS att bete sig som med-LRTA*. Detta avslutar presentationen av LRTS algoritm och vi kommer nu att lyfta fram dess egenskaper med teoretiska och empiriska resultat. LÄRANDE I REAL-TIME SÖKNING: EN UNIFYING RAM RAMEN för LRTS omfattar LRTA*, viktad LRTA*, SLA* och γ-Trap som specialfall (tabell 8). Detta faktum presenteras formellt i följande teorem. Alla bevis finns i bilaga B. Observera att även om följande antaganden inte är obligatoriska för sökning i realtid, behövs de för bevisen. Särskilt antas sökytan vara deterministisk och stationär. Dessutom påverkas agentens nuvarande tillstånd endast av agentens handlingar. Slutligen har agenten tillräcklig kunskap om miljön för att genomföra en lokal sökning (dvs. lookahead) av djup d i sitt nuvarande tillstånd. Teorem 7.1 LRTS(d = 1, γ = 1, T = ∞) motsvarar LRTA* med en lookahead av en. Tidigare har konvergens och fullständighet bevisats för specialfallen LRTA*, LRTA* och SLA*. Vi kommer nu att bevisa dessa egenskaper för alla giltiga värden av lookahead d på N, d ≥ 1, den heuristiska vikten γ på R, γ på 0, 1] och inlärningskvoten T på R på {∞}, T på 0. Definition 7.1 Ett slipsbrytande system används när två eller flera stater har samma f = g + h-värden. Bland kandidatstater med lika mycket f - värden väljer slumpmässiga slipsbrytande en slumpmässigt. Detta system användes i (Shimbo & Ishida, 2003). Systematiskt slipsbrytande används av Furcy och Koenig (2000) använder en fast åtgärd beställning per nuvarande tillstånd. Beställningarna genereras dock slumpmässigt för varje sökproblem. Slutligen, fast slips-brytning använder alltid samma åtgärd beställning. Vi använder det senare systemet för alla våra experiment eftersom det är det enklaste. Lemma 7.1 (Antagande) För alla giltiga T, γ, d och en tillåtlig initial heuristisk h 0, hålls den heuristiska funktionen h tillåten hela tiden under LRTS (d, γ, T ) sökning. En icke-trivial övre gräns på h * (s 0 ) + T γ kan åläggas den lösning som LRTS framställde i den första studien. Detta kräver dock en mindre utvidgning av LRTS-algoritmen. Således listar vi förlängningen och teorem i figur 21, Bilaga A och Theorem B.1, Bilaga B respektive. Teorem 7.8 (en försökskonvergens) För alla giltiga γ, d och en tillåtlig initial heuristisk h 0, är den andra prövningen av LRTS(T = 0) med systematiska eller fasta slipsbrytningar garanterad att vara slutlig. På så sätt sker all inlärning och utforskning under den första rättegången. Vi har infört en treparametersalgoritm som förenar flera tidigare föreslagna förlängningar till basen LRTA*. Vi har också teoretiskt och empiriskt visat påverkan av varje parameter oberoende av de andra två parametrarna i avsnitten 6.2, 6.3 och 6.4. Sammanfattningen av influenserna finns i tabell 9. En upppil/nerpil innebär en ökning/minskning av mätvärdet. Notation a → p → b indikerar att parametern p ökar från a till b. För att illustrera: ↓ i skärningspunkten mellan raden som heter "konvergensutförandekostnad" och kolumnen som heter "1 → d → ❌" anger att konvergensutförandekostnaden minskar när d går upp. Tabell 9 : Sammanfattning av påverkan av LRTS-parametrar inom sökområdet. I det här avsnittet tar vi hänsyn till effekterna av parameterkombinationer. Figur 12 visar effekten av lookahead djup d som en funktion av den heuristiska vikt γ och inlärningskvoten T. Särskilt, för varje värde av γ och T, den vänstra tomten visar skillnaden mellan konvergens genomförandekostnader för lookahead värden av d = 1 och d = 10: Ljusare nyanser indikerar högre effekt av att öka d från 1 till 10. På samma sätt visar rätt diagram hur d påverkar det minne som krävs för konvergens. Ljusare nyanser indikerar 136 LÄRANDE I REAL-TIME SÖKNING: EN UNIFYING FRAMEWORK starkare effekt av d (dvs större skillnader). Varje punkt är i genomsnitt över de 1000 konvergenskörningarna inom området för att hitta vägar. Vi observerar att större värden av inlärningskvot och högre värden av heuristisk vikt förstorar minskningen av minnet på grund av ökande lookahead djup. Observera att tomten inte visar minneskraven för olika värden av γ och T utan snarare minskningen av minneskraven när d ökar från 1 till 10. Figur 13 visar inverkan av γ som en funktion av d och T under samma förhållanden. Inlärningskvoten tycks inte påverka effekten av γ på den slutliga lösningens suboptimalitet. En djupare blick gör dock γ mindre effektivt i detta avseende. Vi tror att det beror på att djupare lookahead kompenserar för fler felaktigheter i den heuristiska funktionen. Därför gör viktningen av heurismen med γ mindre skillnad. Figur 14 visar T:s inverkan som en funktion av d och γ på samma 1000-tal problem med att hitta vägar. Att minska inlärningskvoten T från 500 till 0 leder till en ökad eftersläpning. Som diskuterats tidigare, mer backtracking tenderar att spara minne och påskynda konvergens. Siffran visar både trender och visar att d och γ påverkar effekterna av backtracking. Den vänstra handlingen visar att mer bakåtsträvande är mest effektivt för att påskynda konvergensen för lägre heuristiska vikter (γ = 0,1). Tvärtom visar rätt diagram att högre heuristiska vikter (nära γ = 1) gör backtracking mest effektivt för att minska det minne som krävs för konvergens. Sammantaget är influenserna icke-triviala och, enligt våra experiment, domänspecifika. Även om vissa lätt kan förklaras, andra verkar vara ett resultat av samspelet mellan de tre parametrarna med strukturen av problemet utrymme. Följaktligen är valet av optimala parametrar för ett specifikt prestandamått och en konkret domän för närvarande en fråga om försök och fel. Medan manuell inställning av kontrollparametrar är ett typiskt scenario inom artificiell intelligens, framtida forskning kommer att undersöka automatisk parameterjustering. I detta avsnitt listar vi parameterkombinationer som optimerar var och en av prestationsmåtten och förklarar den underliggande logiken. De bästa kombinationerna av parametrar söks i följande parameter utrymme: lookahead d till {1, 2,.., 10}, heuristisk vikt γ till {0.1, 0.2,..., 1.0}, och inlärningskvoten T till {0, 5, 10, 50, 100, 500, 1000, 5000, 10000, ∞}. För var och en av de tusen kombinationerna av parametrarna körde vi LRTS tills konvergens på testsviten med 1000 sökproblem som beskrivs i avsnitt 5.1. Resultaten visas i tabell 10 och förklaras nedan. Konvergenskostnaden för genomförandet är lägst när kvaliteten på de enskilda rörelserna är den högsta. På så sätt gynnas en djupare blick som leder till mer planering per drag. Höga värden av γ är oönskade eftersom LRTS söker nära optimala lösningar och tar längre tid att konvergera. Mycket låga värden av γ är också oönskade som den viktade initial heuristic blir mindre och mindre informativ (Tabell 3). Det bästa värdet ligger därför någonstans i mitten (0.3). Slutligen, ingen backtracking föredras eftersom då konvergens är den snabbaste på de större kartor som används i detta experiment (Tabell 7). Konvergenskostnader för planering definieras som den totala planeringskostnaden för alla åtgärder tills konvergens uppnås. Djupare lookahead leder till snabbare konvergens men fyrfaldigt ökar planeringskostnaden för varje drag (se avsnitt 6.5). På det hela taget är därför ytlig lookahead att föredra. Detta förklarar också den optimala parameterkombinationen för att minimera planeringskostnaden per drag som i LRTS endast beror på d. Sammanlagda konvergenskostnader. Här minimerar vi en viktad summa av planerings- och genomförandekostnaderna. Detta är ett gemensamt mål som tidigare studerats i (Russell & Wefald, 1991; Koenig, 2004). Vi antar de senares inställningar och tar med de två mätvärdena (exekveringskostnaden och planeringskostnaden) till en enda skalar som uttrycks i antalet stater. Nämligen definieras vår totala konvergenskostnad som kostnaden för att genomföra konvergensen multiplicerad med planeringshastigheten plus den totala planeringskostnaden (avsnitt 4). Till exempel, om agenten konvergerade i 1000 enheter av utförande kostnader, anses vara totalt 5000 stater under planering (dvs. i genomsnitt fem stater per enhet för utförande kostnad), och planeringshastigheten är 200 (dvs. 200 stater kan beaktas vid planering medan en enhet för resor utförs), då den totala konvergenskostnaden är 1000×200+5000 = 205000, tydligt domineras av 138 LÄRANDE I REAL-TIME SÖKNING: EN UNIFIYING RAMVERK genomförandekomponent. Mer planering per drag tenderar att minska kostnaderna för att genomföra konvergensen och är därför att föredra när planeringshastigheten är hög (dvs. planering är billig i förhållande till genomförandet och genomförandekostnaden dominerar den totala kostnaden). Omvänt är mindre planering per drag att föredra när planeringshastigheten är låg. Både Russell och Wefald (1991) och Koenig (2004) använde detta resonemang för att välja det optimala lookaheaddjupet i sina LRTA*-baserade realtidssökningsalgoritmer. Inom området för att hitta vägar är de bästa värdena för γ och T för snabbaste konvergens 0,3 och ∞ som diskuteras ovan. Det bästa värdet av lookahead beror på planeringshastigheten: djupare lookahead (10 vs. 1) föredras när planeringshastigheten är tillräckligt hög och mer planering per drag kan ges. Suboptimalitet är noll med γ = 1 oavsett d och T. Minnet. Den optimala parameterkombinationen (10, 0.3, 0) överensstämmer med den tidigare analysen: mer bakåtspårning (T = 0) minskar minnesförbrukningen, lägre heuristisk vikt γ leder till mindre prospektering (eftersom LRTS är nöjd med suboptimala lösningar), och eftersom heuristiska värden lagras d åtgärder isär, är högre lookahead föredras. Genom att justera LRTS-kontrollparametrarna kan agenten uppnå konvergens där det tidigare varit omöjligt på grund av minnesbegränsningar. I följande, vi antar inställningarna för Shimbo och Ishida (2003) och Bulitko (2004) och överväga hundra 15-pussel först publiceras av Korf (1985). Det är känt att FALCONS och LRTA* med en lookahead av en inte kan konvergera till optimala lösningar på något av de 100 pussel med minne begränsat till 40 miljoner stater (Shimbo & Ishida, 2003). Å andra sidan kan konvergens till suboptimala lösningar uppnås med båda Vi gör uppgiften mer utmanande genom att sänka minnesgränsen tio gånger från fyrtio till fyra miljoner stater. Medan vi inte kunde hitta en uppsättning d, T, γ parametrar som tillät LRTS att konvergera till optimala lösningar på alla 100 fall, algoritmen gjorde konvergera till lösningar som i genomsnitt var bara 4% sämre än optimal på alla 100 pussel (Tabell 11). Lägre värden för T och högre värden för d ökar minneskostnadseffektiviteten och gör det möjligt att öka γ vilket leder till lösningar av högre kvalitet. Sammanfattningsvis påverkar justeringen av kontrollparametrarna för LRTS signifikant dess prestanda. Vår analys av den individuella och kombinerade påverkan av parametrarna på flera praktiskt relevanta prestandamått ger en utövare en bättre intuition för tillämpningsspecifik parameterinställning. Kanske viktigare, det öppnar en intressant linje av forskning om automatiskt urval av optimala parametrar på grundval av effektivt mätbara egenskaper hos en domän och målprestanda metrisk. BULITKO & LEE En andra tillämpning av LRTS övervägas är routing i ad hoc trådlösa sensornätverk. Sensornoder har i allmänhet begränsad beräkningskraft och energi, vilket gör att enkla, energieffektiva routingrutiner vanligtvis används inom sensornätverk. Olika tillämpningar finns, inklusive militära (Shang et al., 2003), miljöövervakning (Braginsky & Estrin, 2002) och spaningsuppdrag (Yan, He, & Stankovic, 2003). Som sådan, routing i sensornätverk är av intresse för en stor gemenskap av användare. Den distans Vector Routing (DVR) algoritm används ofta i nätverk routing (Royer & Toh, 1999). I synnerhet används DVR inom ramen för gränsgatewayprotokollet som används för att styra trafiken över hela Internet. I DVR bibehåller varje nätverksnod en heuristisk uppskattning av avståndet till destinationen/målnoden. Vi observerar att DVR är konceptuellt mycket lik LRTA* med en lookahead av en. Således, tillämpa LRTS i nätverket routing domän är i huvudsak likvärdigt med att utöka DVR med den heuristiska vikt γ och bakåttracking mekanism kontrolleras av inlärningskvoten T. Observera att det inte finns någon analog av djupare lookahead i DVR eftersom varje nätverk nod inte lär sig en explicit modell av nätverket och, följaktligen, inte är medveten om några nätverksnoder utanför dess omedelbara grannar. Därför är d begränsad till en. För att visa effekten av de två DVR-tilläggen valde vi den installation som användes i en ny tillämpning av realtids heuristisk sökning på nätverksrouting (Shang et al., 2003). Specifikt, nätverkssensorn noder antas släppas från himlen för att övervaka territorium, landning i en slumpmässig spridning, och därmed nödvändig ad hoc routing för att möjliggöra dataöverföringar. Vi anser att det rör sig om en fast destination för varje sändning, som simulerar varje källnod som tillhandahåller information till ett centralt informationsnav (t.ex. en satellitupplänk). Observera att LRTA* i sökområdet har tillgång till sina grannars heuristiska värden utan extra kostnad eftersom alla heuristiska värden lagras i centraliserat minne. Detta är inte fallet i ad hoc-nät, där varje nod bibehåller en uppskattning av antalet humle till målnoden (h heuristic). En naiv tillämpning av LRTA* skulle fråga grannnoder för att hämta sina h-värden. Detta skulle dock avsevärt öka nättrafiken, vilket skulle leda till en snabbare utarmning av nodernas energikällor och göra nätet lättare att upptäcka. Vi antog standardlösningen där varje nod inte bara lagrar sitt eget heuristiska värde utan också sina närmaste grannars senast kända heuristiska värden. När sedan en nod uppdaterar sitt eget heuristiska värde, meddelar den alla sina grannar om förändringen genom att sända ett kort kontrollmeddelande. Den sista stora skillnaden från sökvägen är att noderna inte vet vare sig deras geografiska läge eller koordinaterna för destination noden. Således är det euklidiska avståndet inte tillgängligt och den initiala heuristiska initieras till en för alla noder utom destination noden där det är satt till noll. I de experiment som redovisas nedan fördelas N-sensornoderna slumpmässigt på ett tvådimensionellt X × Y-rutnät så att inga två noder upptar samma plats. Varje nod har en fast sändningsradie som bestämmer antalet grannar en nod kan sända meddelanden till (och vars heuristiska värden den måste lagra). För att ange en enda problem instans, är distinkt start (källa) nod och mål (destination eller nav) noder slumpmässigt utvalda från N noderna. Startnoden måste skicka ett datameddelande till målnoden. Genom att göra det kan det skicka ett meddelande till en av sina grannar som sedan kommer att åter sända meddelandet till en annan nod, etc. Varje överföring mellan två angränsande noder ådrar sig en genomförandekostnad på ett hopp. När meddelandet når destinationen / mål noden, en ny rättegång börjar med samma start och mål noder. Konvergens uppstår när inga heuristiska värden uppdateras under rättegången. Målet är att hitta en kortaste väg från startnoden till målnoden genom att lära sig bättre heuristiska värden över upprepade försök. Vi tar mätningar av fyra mätvärden parallellt med dem som används inom området för vägsökning: konvergens genomförandekostnad är det totala antalet humle som transporteras med meddelanden under konvergens; första försök genomförande kostnaden är antalet humle reste på den första rättegången; suboptimalitet av den slutliga lösningen är överskottet av genomförandekostnaden för den slutliga rättegången på kortast möjliga väg. Om till exempel nätet konvergerar till en rutt på 120 humle, medan den kortaste sträckan är 100 humle, är suboptimaliteten 20 %. Konvergenstrafiken definieras som den totala informationsvolym som överförs genom nätet under konvergensen. Varje datameddelande räknas som ett. Korta styrmeddelanden (används för att meddela nodens grannar om en uppdatering till nodens heuristiska funktion) räknas som en tredjedel. Interferens är inte modellerat i denna simulering. Vi antar att schemaläggning utförs oberoende av routing strategi, och att olika scheman inte kommer att allvarligt påverka prestanda routing algoritmer. Observera att eftersom sändningsfördröjning och tidpunkter inte är modellerade, skulle det vara svårt att modellera störningar på ett korrekt sätt. Fyra omgångar nätverk med 50, 200, 400 och 800 noder vardera övervägdes. Noderna placerades slumpmässigt på ett fyrkantigt rutnät med dimensionerna 20 × 20, 30 × 30, 50 × 50 respektive 80 × 80. Varje sats bestod av 100 slumpmässigt genererade nätverk. För varje nätverk utfördes 25 konvergenskörningar med parametervärdena γ = {0.1, 0.3, 0,5, 0,7, 1} och T = {0, 10, 100, 1000, 100000}. I det följande presenterar vi resultaten från satsen 800-node nätverk. Samma tendenser observerades även i mindre nät. Vi börjar med att visa inflytandet av de två kontrollparametrarna isolerat. Tabell 12 visar inverkan av den heuristiska vikten γ utan backtracking. Som förväntat påskyndar mindre värden av γ konvergensen men ökar den slutliga lösningens suboptimalitet. Dessa resultat motsvarar de som rapporteras i tabell 3 för sökområdet. Tabell 13 visar hur inlärningskvoten T påverkar när den heuristiska vikten γ är satt till en. Mindre värden av T ökar mängden backtracking och påskyndar konvergenskostnaden men förlänger den första prövningen. Detta motsvarar resultaten i 8-pussel (Tabell 5) samt i sökvägar med små kartor (Tabell 6 ). Vi kommer nu att överväga effekten av parameterkombination. Det fasta lookaheaddjupet av en gör det tvådimensionella parameterutrymmet lättare att visualisera på konturytor. I stället för att plotta effekten av en parameter på ett mätvärde som en funktion av de andra två kontrollparametrarna, kommer vi 141 BULITKO & LEE nu att rita själva mätvärdet. Figur 15 visar den första försök och konvergens genomförandekostnader för alla kombinationer av γ och T. Ljusare områden indikerar högre kostnader. Figur 16 visar den slutliga lösningens suboptimalitet och den totala trafiken på en konvergenskörning, i genomsnitt över 100 nät med 800 noder vardera. Återigen visar ljusare områden högre värden. Sammanfattningsvis kan man, genom att utvidga DVR-algoritmen med den heuristiska vikten och bakspårsmekanismerna för LRTS, minska kostnaderna för att genomföra konvergensen och den totala nättrafiken. Som ett resultat av detta hittas nästan optimala vägar snabbare, med en lägre energiförbrukning. Detta lovande resultat väcker flera frågor för ytterligare forskning. För det första, hur kommer ytterligare routing begränsningar, såsom de som undersökts i (Shang et al., 2003), påverka prestanda för LRTS? För det andra, hur kommer fördelarna med LRTS skala för fallet med flera meddelanden med samma destina-142 LÄRANDE I REAL-TIME SÖKNING: EN UNIFYING RAM SOM passerar genom nätverket samtidigt? Den senare frågan gäller också vägplanering med flera minnesdelningsenheter som är en vanlig situation i gruppbaserade spel. I det här dokumentet övervägde vi samtidiga planerings- och inlärningsproblem såsom realtidssök i till en början okända miljöer samt routing i ad hoc trådlösa sensornätverk. Inlärning i realtid sökmetoder plan genom att genomföra en begränsad lokal sökning och lära genom att upprätthålla och förfina en statsbaserad heuristisk funktion. Således kan de reagera snabbt på användarens kommandon och ändå konvergera till bättre lösningar över upprepade erfarenheter. Vi analyserade tre kompletterande förlängningar av basen LRTA* algoritm och visade deras effekter med hand-spårbara exempel, teoretiska gränser, och omfattande empirisk utvärdering inom två olika områden. Vi föreslog sedan en enkel algoritm, kallad LRTS, som förenade förlängningarna och studerade problemet med att välja optimala parameterkombinationer. I det nuvarande och framtida arbetet ingår att utvidga LRTS med automatiserade system för rymduttag, metoder för att approximera funktioner för heuristiska och automatiserade parameterurvalsmetoder. Det kommer också att vara av intresse att undersöka konvergensprocessen för ett team av LRTS-baserade agenter med delat minne och utöka LRTS för rörliga mål och stokastiska/dynamiska miljöer i videospel, robotik och nätverk.
|
REF visade att resekostnaden för SLA*T är övre gräns för h * (s 0, s g) + T där T är tröskeln (utbildningskvot).
| 986,257 |
Learning in Real-Time Search: A Unifying Framework
|
{'venue': 'Journal Of Artificial Intelligence Research, Volume 25, pages 119-157, 2006', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,240 |
Abstrakt. I den variabla online bin förpackning problem, måste man tilldela objekt till bins en efter en. Burarna är hämtade från några fasta uppsättningar av storlekar, och målet är att minimera summan av storleken på de lådor som används. Vi presenterar nya algoritmer för detta problem och visar övre gränser för dem som förbättras på de bästa tidigare övre gränser. Vi visar också de första allmänna lägre gränserna för detta problem. Det fall där behållare av två storlekar, 1 och α på (0, 1), används studeras i detalj. Denna undersökning leder oss till upptäckten av flera intressanta fraktalliknande kurvor.
|
I REF studeras variablesized online bin package problem och en ny algoritm föreslås och dess övre gräns analyseras.
| 207,078,470 |
New Bounds for Variable-Sized Online Bin Packing
|
{'venue': 'SIAM Journal on Computing', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
| 14,241 |
Eftersom processorprestanda skalbarhet nu främst kommer att uppnås genom trådnivå parallellism, finns det ett starkt incitament att parallellisera ett brett spektrum av applikationer, inklusive de med komplexa kontrollflöde och datastrukturer. Och att skriva parallella program är en notoriskt svår uppgift. Förutom processorprestanda kan arkitekten hjälpa till genom att underlätta programmerarens uppgift, särskilt genom att förenkla modellen som exponeras för programmeraren. I denna artikel, bland de många frågor som förknippas med att skriva parallella program, fokuserar vi på att hitta lämplig parallellism granularitet, och effektivt kartlägga uppgifter med komplex kontroll och dataflöde till trådar. Vi föreslår att avlasta användaren och kompilatorn av båda uppgifterna genom att delegera parallelliseringsbeslutet till arkitekturen vid körtid, genom en kombination av hårdvara och programvarustöd och en stram dialog mellan båda. För programvarusupporten utnyttjar vi en allt mer populär strategi inom programvaruteknik, kallad komponentbaserad programmering; komponentkontraktet förutsätter snäv inkapsling av kod och data för enkel manipulering. Tidigare forskningsprojekt har visat att det är möjligt att utöka komponenter med förmågan att dela/spawn, vilket ger ett enkelt och passande tillvägagångssätt för programmering av parallella applikationer med komplexa styr- och datastrukturer. Sådana miljöer kräver dock fortfarande programmeraren för att avgöra lämplig granularitet av parallellism, och leken har betydande overheads på grund av programvara kör-tid systemhantering. För det ändamålet ger vi en miljö med möjlighet att skapa villkorligt beroende på tillgängliga hårdvaruresurser, och vi delegerar lekbeslut och åtgärder till arkitekturen. Detta villkorliga lekande genomförs genom frekvent hårdvaruresurs undersökning av programmet. Detta möjliggör i sin tur snabb anpassning till varierande arbetsförhållanden, datamängder och hårdvaruresurser. Dessutom, tack vare lämplig kombinerad hårdvara och kompilator stöd, undersökningen har ingen betydande overhead på programmets prestanda. Vi demonstrerar detta tillvägagångssätt på en 8-kontext SMT, flera icke-triviala algoritmer och omkonstruerade SPEC CINT2000 riktmärken, skrivna med hjälp av komponentsyntax bearbetas av vår verktygskedja. Vi uppnår speedups från 1.1 till 3.0 på vår testsvit.
|
Kapsel REF parallelliserar automatiskt komponentbaserade program genom frekvent genomgång av maskinvarans resurs.
| 14,195,870 |
CAPSULE: Hardware-Assisted Parallel Execution of Component-Based Programs
|
{'venue': "2006 39th Annual IEEE/ACM International Symposium on Microarchitecture (MICRO'06)", 'journal': "2006 39th Annual IEEE/ACM International Symposium on Microarchitecture (MICRO'06)", 'mag_field_of_study': ['Computer Science']}
| 14,242 |
Att identifiera orsakssamband mellan verbala händelser är viktigt för att uppnå förståelse för naturligt språk. Problemet har dock visat sig vara notoriskt svårt, eftersom det inte är klart vilka typer av kunskaper som behövs för att lösa detta utmanande problem i närheten av prestanda på mänsklig nivå. I stället för att använda en stor uppsättning funktioner visade sig användbara i andra NLP uppgifter, vi dela problemet i mindre sub problem. Eftersom verb spelar en mycket viktig roll i kausala relationer, i detta papper vi utnyttjar, utforska och utvärdera den prediktiva kraften i kausala associationer av verb-verb par. Mer specifikt föreslår vi en uppsättning kunskapsrika mått för att lära sig sannolikheten för orsakssamband mellan verb. Med hjälp av dessa mätvärden genererar vi automatiskt en kunskapsbas (KB c ) som identifierar tre kategorier av verbpar: Starkt Causal, Ambiguous och Starkt Non-causal. Kunskapsbasen utvärderas empiriskt. Resultaten visar att våra mätvärden presterar betydligt bättre än toppmoderna i uppgiften att upptäcka kausala verbala händelser.
|
En av de tidiga tillvägagångssätt som identifierar explicita, implicita och icke-kausala relationer mellan verb-verb par föreslås i REF.
| 15,920,102 |
Toward a Better Understanding of Causality between Verbal Events: Extraction and Analysis of the Causal Power of Verb-Verb Associations
|
{'venue': 'SIGDIAL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,243 |
Trådlösa nät av multihopnät kan ge tillgång till Internet över ett brett område med minimala infrastrukturkostnader. I detta arbete presenterar vi en mätdriven installationsstrategi och en datadriven modell för att studera effekterna av design- och topologibeslut på nätverksövergripande prestanda och kostnader. Vi utför omfattande mätningar i ett tvåfaldigt urbant scenario för att karakterisera förökningsmiljön och korrelera mottagen signalstyrka med applikationsskiktets genomströmning. Vi finner att välkända uppskattningar av vägförluster ger antingen kraftigt överprovisionerade nät, vilket leder till en storleksordningsökning av kostnaderna för höga uppskattningar av vägförluster eller helt bortkopplade nät för låga uppskattningar av vägförluster. Modellering av dataflöde med specifikationer för tillverkare av trådlösa gränssnitt leder på liknande sätt till kraftigt underprovisionerade nätverk. Vidare mäter vi konkurrerande multihop-flödesmatriser för att empiriskt definiera uppnåeligt genomflöde av fullt bakåtloggad, hastighetsbegränsad och web-emulerad trafik. Vi finner att även om helt bakåtloggade flöden producerar svältande noder, ger hastighetskontrollerande flöden till ett fast värde rättvisa och högt aggregerat genomflöde. Likaså, överföringsluckor som förekommer i statistiskt multiplexade webbtrafik, även under hög erbjuden belastning, ta bort svält och ge hög prestanda. Som jämförelse finner vi att välkända icke-konkurrerande flödesmodeller för nätnät överskattar hela nätets genomströmning med en faktor på 2. Slutligen, vår placering studie visar att en regelbunden rutnät topologi uppnår upp till 50 procent större genomströmning än slumpmässig nod placering.
|
För att få insikt i de fysiska miljöerna och utplaceringsutmaningarna studerades en mätdriven utbyggnad av trådlöst nätnät i REF.
| 12,209,685 |
Measurement driven deployment of a two-tier urban mesh access network
|
{'venue': "MobiSys '06", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Engineering']}
| 14,244 |
Time Synchronized Channel Hopping (TSCH) är ett befintligt Medium Access Control-system som möjliggör robust kommunikation genom kanalhoppning och höga datahastigheter genom synkronisering. Den bygger på en tidsslussad arkitektur, och dess korrekta funktion beror på ett schema som vanligtvis beräknas av en central nod. I detta dokument presenteras, såvitt vi vet, den första schemaläggningsalgoritmen för TSCH-nätverk som både distribueras och som klarar mobila noder. Två varianter av schemaläggningsalgoritmer presenteras. Aloha-baserad schemaläggning fördelar en kanal för att sända annonser för nya grannar. Bokningsbaserad schemaläggning ökar Aloha-baserad schemaläggning med en dedikerad tidsrymd för riktade annonser baserat på skvaller information. Ett mobilt ad hoc-motoriserat sensornätverk med frekventa konnektivitetsförändringar studeras och de två föreslagna algoritmernas prestanda bedöms. Denna prestandaanalys använder både simuleringsresultat och resultat av en fältanvändning av flytande trådlösa sensorer i en estuarial kanalmiljö. Bokningsbaserad schemaläggning presterar betydligt bättre än Aloha-baserad schemaläggning, vilket tyder på att den förbättrade nätverksreaktiviteten är värd den ökade algoritmiska komplexiteten och resursförbrukningen.
|
Tinka m.fl. I REF föreslås en decentraliserad, reservationsbaserad schemaläggningsalgoritm.
| 52,837,405 |
A decentralized scheduling algorithm for time synchronized channel hopping
|
{'venue': 'EAI Endorsed Trans. Mobile Communications Applications', 'journal': 'EAI Endorsed Trans. Mobile Communications Applications', 'mag_field_of_study': ['Computer Science']}
| 14,245 |
Abstract-This paper fokuserar på problemet med skriptidentifiering i okonstruerade scenarier. Skriptidentifiering är en viktig förutsättning för igenkänning och en oumbärlig förutsättning för automatiska textförståelsesystem utformade för flerspråkiga miljöer. Även om den är föremål för omfattande studier av dokumentbilder och handskrivna dokument, är den fortfarande ett nästan outforskat område för scentextbilder. Vi beskriver en ny metod för skriptidentifiering i naturliga bilder som kombinerar konvolutionella funktioner och Naive-Bayes Nearest Neighbor clasfier. Den föreslagna ramen utnyttjar effektivt den diskriminerande kraften hos små stroke-delar, i en finkornig klassificeringsram. Dessutom föreslår vi ett nytt allmänt referensdataset för utvärdering av gemensam detektering av text och skriptidentifiering i naturscener. Experiment som görs i denna nya datauppsättning visar att den föreslagna metoden ger toppmoderna resultat, medan den generaliserar väl till olika datauppsättningar och variabelt antal skript. De bevis som lagts fram visar att flera språklig textigenkänning i det fria är ett genomförbart förslag. Den föreslagna metodens källkod görs tillgänglig online.
|
I vårt tidigare arbete REF har vi föreslagit en patchbaserad metod för skriptidentifikation i scentextbilder.
| 17,533,859 |
A Fine-Grained Approach to Scene Text Script Identification
|
{'venue': '2016 12th IAPR Workshop on Document Analysis Systems (DAS)', 'journal': '2016 12th IAPR Workshop on Document Analysis Systems (DAS)', 'mag_field_of_study': ['Computer Science']}
| 14,246 |
Djupt lärande-baserade metoder har uppnått anmärkningsvärd framgång i bild restaurering och förbättring, men är de fortfarande konkurrenskraftiga när det finns en brist på parade träningsdata? Som ett exempel utforskar detta papper problemet med att förbättra bilden med låg ljusstyrka, där det i praktiken är extremt svårt att samtidigt ta ett lågljus och ett normalt ljusfoto av samma visuella scen. Vi föreslår en mycket effektiv oövervakad generativ adversarial nätverk, Dubbed EnlightenGAN, som kan tränas utan låg / normal-ljus bildpar, men visar sig generalisera mycket bra på olika verkliga testbilder. I stället för att övervaka lärandet med hjälp av mark-sanningsdata, föreslår vi att regularisera den oparerade utbildningen med hjälp av den information som utvinns från själva inmatningen, och jämföra en rad innovationer för den låga-ljusbild förbättring problem, inklusive en global-lokal discriminator struktur, en själv-regularized perceptual förlust fusion, och uppmärksamhetsmekanism. Genom omfattande experiment överträffar vårt föreslagna tillvägagångssätt de senaste metoderna under en mängd olika mätvärden när det gäller visuell kvalitet och subjektiv användarstudie. Tack vare den stora flexibilitet som oparade utbildningar medför, visar sig EnlightenGAN vara lätt att anpassa till att förbättra verkliga bilder från olika domäner. Koden finns på https://github.com/yueruchen/ EnlightenGAN.
|
EnlightenGAN REF, en oövervakad GAN-baserad och pionjär metod som lär sig att förbättra låga ljusbilder med hjälp av oparerad låg / normal ljusdata.
| 189,928,152 |
EnlightenGAN: Deep Light Enhancement without Paired Supervision
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Engineering']}
| 14,247 |
Abstract-oobtrusiv övervakning av hjärtfrekvensen (HR) är nödvändig för att förbättra medicinsk intervention. En ny generation av madrassbaserad fiberoptiksensor (FOS) håller på att utvecklas för HR-övervakning. Användningen av denna FOS-madrass för medicinsk diagnos kräver lämpliga avancerade signalbehandlingsalgoritmer. I vår studie strävar vi efter att väga prestandan hos en ny och billigare mikrobent FOS-madrass genom att tillämpa ballistocardiogram och HR-extraheringsalgoritmer. Därför är vårt studiemål att jämföra fyra typer av HR-extraheringsalgoritmer på FOS-madrassen, nämligen MODWT, CEEMDAN, cepstrum och klusterbildning. Målet är att, baserat på deras noggrannhet och beräkningshastighet, välja den mest lämpliga för online- eller offlineapplikationer. Resultaten av tillämpningen av dessa fyra valda algoritmer på FOS-madrassen visar att cepstrum är den mest exakta algoritmen med ett genomsnittligt absolut fel (MAE) på 4,62 ± 1,68 BPM. Cepstrum är dock lämpligare för offlineövervakning med en körtid på 662,9 ms för ett 10-sekunders signalsegment. Resultaten visar också att Maximal Overlap Direct Wavelet Transform (MODWT) är effektivare med en körtid på 4,1 millisekunder för online-ändamål, men med en något större MAE (6,87 ± 1,94 BPM). Båda metoderna visade sig vara lika effektiva på den nya madrasstekniken som tidigare intelligenta madrasser.
|
Otis m.fl. använde en ny generation av madrass-baserad fiber-optiska sensor för pulsmätning REF.
| 148,572,800 |
Comparative Study of Heart Rate Extraction Methods for a Novel Intelligent Mattress
|
{'venue': '2018 9th International Symposium on Signal, Image, Video and Communications (ISIVC)', 'journal': '2018 9th International Symposium on Signal, Image, Video and Communications (ISIVC)', 'mag_field_of_study': ['Computer Science']}
| 14,248 |
En aspekt där hämta namngivna enheter skiljer sig från hämta dokument är att de objekt som ska hämtas - personer, platser, organisationer - endast indirekt beskrivs av dokument i hela samlingen. Mycket arbete har ägnats åt att hitta hänvisningar till namngivna enheter, särskilt till problemen med namngiven enhet utvinning och disambigering. Men lika viktigt för hämtningsprestanda är hur dessa textslippar kombineras för att bygga namngivna enhetsrepresentationer. Vi fokuserar på TREC-expertens sökuppgift där målet är att identifiera personer som är kunniga i ett specifikt ämne. Befintliga språkmodelleringsmetoder för expertfynd förutsätter att termer och personenheter är villkorligt oberoende med tanke på ett dokument. Vi presenterar teoretiska och experimentella bevis för att detta förenklade antagande ignorerar information om hur namngivna enheter relaterar till dokumentinnehåll. För att ta itu med denna fråga föreslår vi en ny dokumentrepresentation som betonar text i närheten av enheter och därmed införlivar sekventiell information implicit i text. Våra experiment visar att den föreslagna modellen avsevärt förbättrar hämtningsprestandan. Det viktigaste bidraget från detta arbete är en effektiv formell metod för att explicit modellera beroendet mellan namngivna enheter och termer som förekommer i ett dokument.
|
Petkova och Croft REF föreslår en expertsökmodell baserad på beroenden mellan namngivna enheter och termer som förekommer i dokumentet.
| 9,968,492 |
Proximity-based document representation for named entity retrieval
|
{'venue': "CIKM '07", 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,249 |
Det har varit en explosion av arbete i vision & språk gemenskapen under de senaste åren från bildtextning till video transkription, och svara på frågor om bilder. Dessa uppgifter har varit inriktade på bokstavliga beskrivningar av bilden. För att gå bortom det bokstavliga väljer vi att undersöka hur frågor om en bild ofta riktas mot allmängiltiga slutsatser och de abstrakta händelser som framkallas av objekt i bilden. I detta dokument introducerar vi den nya uppgiften Visual Question Generation (VQG), där systemet har till uppgift att ställa en naturlig och engagerande fråga när det visas en bild. Vi tillhandahåller tre datauppsättningar som täcker en mängd olika bilder från objekt-centrerade till händelse-centrerade, med betydligt mer abstrakta träningsdata än vad som hittills tillhandahållits till toppmoderna bildtextsystem. Vi utbildar och testar flera generativa och hämtningsmodeller för att ta itu med VQG:s uppgift. Utvärderingsresultat visar att även om sådana modeller ställer rimliga frågor för en mängd olika bilder, finns det fortfarande ett stort gap med mänskliga prestationer som motiverar ytterligare arbete med att koppla samman bilder med allmän kunskap och pragmatiska. Vår föreslagna uppgift innebär en ny utmaning för samhället som vi hoppas ökar intresset för att utforska djupare kopplingar mellan vision och språk.
|
Detta är fortfarande en svår uppgift för REF som har fått den senaste tidens intresse för samhället.
| 16,227,864 |
Generating Natural Questions About an Image
|
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,250 |
Vi föreslår en metod för visuellt besvarande av frågor som kombinerar en intern representation av innehållet i en bild med information som hämtats från en allmän kunskapsbas för att besvara ett brett spektrum av bildbaserade frågor. Detta gör det möjligt att besvara mer komplexa frågor med hjälp av den dominerande neurala nätverksbaserade metoden än vad som tidigare varit möjligt. Det gör det särskilt möjligt att ställa frågor om innehållet i en bild, även när själva bilden inte innehåller hela svaret. Metoden konstruerar en textrepresentation av det semantiska innehållet i en bild, och förenar den med textinformation som hämtas från en kunskapsbas, för att utveckla en djupare förståelse av den sedda scenen. Priming en återkommande neurala nätverk med denna kombinerade information, och den inlämnade frågan, leder till en mycket flexibel visuell fråga svar tillvägagångssätt. Vi kan särskilt besvara frågor som ställs på naturligt språk, som hänvisar till information som inte finns i bilden. Vi visar hur effektiv vår modell är på två allmänt tillgängliga dataset, Toronto COCO-QA [23] och VQA [1] och visar att den ger de bästa rapporterade resultaten i båda fallen.
|
Slutligen föreslår REF en annan VQA-metod som kombinerar en intern representation av bildinnehållet med den information som hämtats från allmänna kunskapsbaser och försöker göra det möjligt att besvara mer komplexa frågor.
| 206,594,383 |
Ask Me Anything: Free-Form Visual Question Answering Based on Knowledge from External Sources
|
{'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
| 14,251 |
Abstract-En mängd olika nuvarande och framtida trådbundna och trådlösa nätverk teknik kan omvandlas till sömlösa kommunikationsmiljöer genom tillämpning av kontextbaserade vertikala överlämnanden. Sådana sömlösa kommunikationsmiljöer behövs för framtida genomträngande/vanliga system. Pervasiva system är kontextmedvetna och behöver anpassas till kontextförändringar, inklusive frånkoppling av nätverk och förändringar i nätverkets servicekvalitet. Vertikalt överlämnande är en av många möjliga anpassningsmetoder. Det gör det möjligt för användare att röra sig fritt mellan heterogena nät samtidigt som kontinuiteten i deras tillämpningar bibehålls. I detta dokument föreslås en vertikal överlämningsmekanism som lämpar sig för multimediatillämpningar i genomträngande system. Dokumentet fokuserar på processen för överlämning av beslut som använder kontextinformation om användarenheter, användarplats, nätverksmiljö och begärd QoS.
|
Balasubramaniam et al har föreslagit en överlämningsmekanism som är lämplig för multimediaapplikationer i genomträngande system REF.
| 16,331,374 |
Vertical Handover Supporting Pervasive Computing in Future Wireless Networks
|
{'venue': 'Comput. Commun.', 'journal': 'Comput. Commun.', 'mag_field_of_study': ['Computer Science']}
| 14,252 |
Webbapplikationer har blivit alltmer sårbara och utsatta för skadliga attacker som kan påverka väsentliga egenskaper hos informationssystem såsom sekretess, integritet, eller tillgänglighet. För att hantera dessa hot är det nödvändigt att utveckla effektiva säkerhetsmekanismer och bedömningsmetoder (brandvägg, system för att upptäcka intrång, webbscanner osv.). I detta dokument presenteras en ny metod, baserad på websida klusterteknik, som syftar till att identifiera sårbarheter i en webbapplikation efter en svart låda analys av målet ansökan. Varje identifierad sårbarhet utnyttjas faktiskt för att se till att den inte motsvarar ett falskt positivt. Det föreslagna tillvägagångssättet kan också belysa olika potentiella attackscenarier, inklusive utnyttjande av flera på varandra följande sårbarheter, med uttryckligen beaktande av beroendena mellan dessa sårbarheter. Vi har särskilt fokuserat på sårbarheter för kodinjektioner, såsom SQL-injektioner. Den föreslagna metoden ledde till utvecklingen av en ny webbsårbarhetsskanner som validerats experimentellt på flera exempel på sårbara tillämpningar. Nyckelord: Webbprogram; sårbarheter; Attacker; Utvärdering; Webbläsare 1 Bakgrund Webbprogram sårbarheter har under de senaste åren blivit ett stort hot mot säkerheten i datorsystem. Detta illustreras i t.ex. IBM X-force 2012 mitt på året trend- och riskrapport som visar att webbapplikationers sårbarheter inklusive SQL-injektioner och skriptering på andra platser har de högsta positionerna i datorhot [1]. Denna situation kan förklaras av den ökande komplexiteten hos webbteknik, av den frekventa utvecklingen av denna teknik, av de korta utvecklingscykler för webbapplikationer under vilka test- och valideringsverksamheten är begränsad, och även i vissa fall av bristen på säkerhetskompetens och kultur hos utvecklarna. I detta dokument föreslår vi en ny metod som gör det möjligt att automatiskt identifiera kvarvarande sårbarheter i en webbapplikation från analysen av den riktade applikationen, efter en svart låda strategi. Den föreslagna *Korrespondens: [email protected] 1 CNRS, LAAS, 7 avenue du Överste Roche, Toulouse 31400, France 2 Univ de Toulouse, INSA, LAAS, Toulouse 31400, Frankrike tillvägagångssätt kan automatiskt identifiera och utnyttja sårbarheter. Den är också utformad för att belysa potentiella attackscenarier, inklusive utnyttjande av flera på varandra följande sårbarheter som inte nödvändigtvis är oberoende. Identifieringen av dessa scenarier baseras på den dynamiska krypningen av programmet, vilket resulterar i skapandet av en navigeringskurva som beskriver de olika möjligheterna för en användare att aktivera programmet och tillhörande sårbarheter. Denna graf representerar uttryckligen beroendena mellan sårbarheterna på webbplatsen och därefter olika attackscenarier. För att validera vårt tillvägagångssätt utvecklade vi en ny sårbarhetsscanner som har validerats på olika sårbara applikationer och jämförts experimentellt med andra befintliga sårbarhetsskannrar. Genom detta dokument utvidgas de resultat som presenteras under [2] och [3]. Det är uppbyggt i sju sektioner. I avsnitt 1.2 diskuteras relaterat arbete med fokus på analysen av den sårbarhetsdetektionsalgoritm som används av flera välkända friprogramssårbarhetsskannrar och presenteras vissa svagheter i dessa algoritmer. I avsnitt 2.1 presenteras vår klusteralgoritm för att upptäcka sårbarheter i webbapplikationer. Avsnitt 2.2 ger en översikt över vår
|
De utvecklade Wasapy sårbarhet scanner och jämförde resultatet med W3af 1.1, Skipfish 1.9.6b och Wapiti 2.2.1 med fokus på kod injektion typ sårbarhet REF.
| 18,269,453 |
An automated black box approach for web vulnerability identification and attack scenario generation
|
{'venue': 'Journal of the Brazilian Computer Society', 'journal': 'Journal of the Brazilian Computer Society', 'mag_field_of_study': ['Engineering', 'Computer Science']}
| 14,253 |
Abstract-Single image dise borttagning har varit ett utmanande problem på grund av sin illa placerade natur. I det här dokumentet föreslår vi en enkel men kraftfull färgdämpning innan diset tas bort från en enda indata dimmig bild. Genom att skapa en linjär modell för att modellera scendjupet på den suddiga bilden under denna roman och lära sig modellens parametrar med en övervakad inlärningsmetod, kan djupinformationen mycket väl återvinnas. Med djupkartan över den suddiga bilden kan vi enkelt uppskatta överföringen och återställa scenstrålningen via den atmosfäriska spridningsmodellen, och därmed effektivt ta bort diset från en enda bild. Experimentella resultat visar att den föreslagna metoden överträffar state-of-the-art dise borttagningsalgoritmer både vad gäller effektivitet och dehazaring effekt.
|
Zhu m.fl. REF presenterade en enbilds haze-removal algoritm med hjälp av färgdämpning tidigare.
| 4,252,508 |
A Fast Single Image Haze Removal Algorithm Using Color Attenuation Prior
|
{'venue': 'IEEE Transactions on Image Processing', 'journal': 'IEEE Transactions on Image Processing', 'mag_field_of_study': ['Mathematics', 'Medicine', 'Computer Science']}
| 14,254 |
Visionen av ett Internet of Things (IoT) har fångat världens fantasi och samlat miljarder dollar, allt innan vi stannade för att djupt överväga hur alla dessa saker bör ansluta till Internet. Den nuvarande state-of-the-art kräver applikationslager gateways både i programvara och hårdvara som ger applikationsspecifika anslutning till IoT-enheter. På ungefär samma sätt som det skulle vara svårt att föreställa sig att kräva en ny webbläsare för varje webbplats, är det svårt att föreställa sig vår nuvarande strategi för IoT-anslutning skalning för att stödja IoT visionen. IoT gateway problem finns delvis eftersom dagens gateways conflate nätverksanslutning, i-nätverk bearbetning och användargränssnitt funktioner. Vi tror att disentangling dessa funktioner skulle förbättra anslutningspotentialen för IoT-enheter. För att förverkliga den bredare visionen föreslår vi en arkitektur som utnyttjar den allt mer allmänt förekommande närvaron av Bluetooth Low Energy-radio för att ansluta IoT kringutrustning till Internet. På ungefär samma sätt som WiFi-anslutningspunkter revolutionerade laptop verktyg, vi ser att en världsomspännande distribution av IoT gateways skulle kunna revolutionera program-agnostic anslutning, vilket bryta sig loss från spis-piped arkitekturer som nu tar grepp. I detta dokument presenterar vi vår föreslagna arkitektur, visar exempel på tillämpningar som möjliggörs av den, och utforska forskningsutmaningar i dess genomförande och utbyggnad.
|
Zachariah m.fl. REF påpekar behovet av att använda gateway-enheter för att ansluta Bluetooth Low Energy kringutrustning till det bredare internet.
| 8,317,602 |
The Internet of Things Has a Gateway Problem
|
{'venue': "HotMobile '15", 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,256 |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.