src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
En metod för konstruktion av klassificeringar från obalanserade datauppsättningar beskrivs. En datauppsättning är obalanserad om klassificeringskategorierna inte är ungefär lika representerade. Ofta består verkliga datamängder huvudsakligen av "normala" exempel med endast en liten andel "onormala" eller "intressanta" exempel. Det är också så att kostnaden för felklassificering av ett onormalt (intressant) exempel som ett normalt exempel ofta är mycket högre än kostnaden för det omvända felet. En undersampling av majoritetens (normala) klass har föreslagits som ett bra sätt att öka klassifikationens känslighet för minoritetsklassen. Detta dokument visar att en kombination av vår metod för översampling av minoritet (onormal) klass och undersampling av majoriteten (normal) klass kan uppnå bättre klassificering prestanda (i ROC utrymme) än endast undersampling majoritet klass. Detta papper visar också att en kombination av vår metod att översampla minoritetsklassen och undersampling majoriteten klass kan uppnå bättre klassificering prestanda (i ROC utrymme) än att variera förlust ratios i Ripper eller klass tidigare i Naive Bayes. Vår metod att översampla minoritetsklassen innebär att skapa syntetiska minoritetsklassexempel. Experiment utförs med hjälp av C4.5, Ripper och en Naive Bayes klassificering. Metoden utvärderas med hjälp av arean under mottagarens operativa karakteristiska kurva (AUC) och ROC konvexa skrovstrategi.
Chawla m.fl. I REF föreslogs en teknik för översampling av minoritetsklassen.
1,554,582
SMOTE: Synthetic Minority Over-sampling Technique
{'venue': 'Journal Of Artificial Intelligence Research, Volume 16, pages 321-357, 2002', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
81,510
Positionsinformation har visat sig vara mycket effektiv i dokumentsammanfattningen, särskilt i den allmänna sammanfattningen. Befintliga metoder tar främst hänsyn till informationen om meningspositioner i ett dokument, baserat på en hypotes om meningsposition att betydelsen av en mening minskar med avståndet från början av dokumentet. I detta dokument överväger vi en annan typ av positionsinformation, dvs. ordet positionsinformation, som baseras på ordinära positioner i ordframträdanden i stället för meningspositioner. En extraordinär sammanfattande modell föreslås för att tillhandahålla en utvärderingsram för positionsinformationen. De resulterande systemen utvärderas på olika datauppsättningar för att visa positionsinformationens effektivitet i olika summeringsuppgifter. Experimentella resultat visar att information om ordposition är mer effektiv och anpassningsbar än information om meningsposition.
Papper REF definierar flera ordpositionsfunktioner baserade på ordinära positioner i ordframträdanden och utvecklar ett ordbaserat summeringssystem för att utvärdera effektiviteten hos de föreslagna ordpositionsfunktionerna på en serie av summeringsdata.
13,388,553
A Study on Position Information in Document Summarization
{'venue': 'COLING - POSTERS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,511
Abstract-I detta papper, en undersökning av litteraturen från de senaste 15 åren med maskininlärning (ML) algoritmer tillämpas på självorganiserande cellulära nätverk utförs. För att framtida nätverk ska kunna övervinna de nuvarande begränsningarna och ta itu med problemen med de nuvarande cellulära systemen är det uppenbart att mer information måste spridas så att ett helt självständigt och flexibelt nätverk kan aktiveras. Detta dokument fokuserar på lärande perspektiv av självorganiserande nätverk (SON) lösningar och ger, inte bara en översikt över de vanligaste ML-tekniker som förekommer i cellulära nätverk, men också lyckas klassificera varje papper i termer av dess lärande lösning, samtidigt som de ger några exempel. Författarna klassificerar också varje papper i termer av dess självorganiserande användningsfall och diskuterar hur varje föreslagen lösning utfördes. Dessutom föreslås en jämförelse mellan de vanligaste ML-algoritmerna när det gäller vissa SON-mått och allmänna riktlinjer för när varje ML-algoritm ska väljas för varje SON-funktion. Slutligen ger detta dokument också framtida forskningsriktningar och nya paradigm som användningen av mer robusta och intelligenta algoritmer, tillsammans med data som samlats in av operatörer, kan föra till cellulära nätverk domän och fullt ut möjliggöra begreppet SON i en nära framtid.
• ML algoritmer och deras tillämpningar i självorganiserande cellulära nätverk också med fokus på självkonfigurering, självläkning och självoptimering, undersöks i REF.
3,645,740
A Survey of Machine Learning Techniques Applied to Self-Organizing Cellular Networks
{'venue': 'IEEE Communications Surveys & Tutorials', 'journal': 'IEEE Communications Surveys & Tutorials', 'mag_field_of_study': ['Computer Science']}
81,512
Vi föreslår att förbättra RNN dekoder i en neural maskin översättare (NMT) med externt minne, som en naturlig men kraftfull förlängning till staten i avkodning RNN. Denna minnesförstärkta RNN-dekoder kallas MEMDEC. Varje gång under avkodningen läser MEMDEC ur detta minne och skriver till detta minne en gång, båda med innehållsbaserad adressering. Till skillnad från det obundna minnet i tidigare arbete för att lagra representationen av källmening, är minnet i MEMDEC en matris med förbestämd storlek utformad för att bättre fånga den information som är viktig för avkodningsprocessen vid varje steg. Vår empiriska studie om kinesisk-engelska översättning visar att den kan förbättras med 4,8 BLEU på Groundhog och 5,3 BLEU på Moses, vilket ger den bästa prestandan som uppnås med samma utbildning.
REF använde ett speciellt NTM-minne för att förlänga dekodern i den uppmärksamhetsbaserade NMT.
14,170,579
Memory-enhanced Decoder for Neural Machine Translation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
81,513
Abstract-String likhet gå som finner liknande strängpar mellan två stränguppsättningar är en viktig operation i många program, och har tilldragit sig betydande uppmärksamhet nyligen i databasen gemenskapen. En betydande utmaning i likhet gå är att genomföra en effektiv fuzzy match operation för att hitta alla liknande strängpar som inte kan matcha exakt. I detta dokument föreslår vi en ny likhetsmått, kallad "fuzzy token matchningsbaserad likhet", som utökar token-baserade likhetsfunktioner (t.ex. Jaccard likhet och Cosine likhet) genom att tillåta fuzzy match mellan två tokens. Vi studerar problemet med likhet gå med hjälp av denna nya likhetsmått och presentera en signatur-baserad metod för att ta itu med detta problem. Vi föreslår nya signatursystem och utvecklar effektiva beskärningsmetoder för att förbättra prestandan. Experimentella resultat visar att vår strategi uppnår hög effektivitet och resultatkvalitet och avsevärt överträffar de senaste metoderna.
Fast-Join REF studerade problemet med sträng likhet gå som hittar liknande strängpar mellan två stränguppsättningar.
10,765,964
Fast-join: An efficient method for fuzzy token matching based string similarity join
{'venue': '2011 IEEE 27th International Conference on Data Engineering', 'journal': '2011 IEEE 27th International Conference on Data Engineering', 'mag_field_of_study': ['Computer Science']}
81,514
Det har varit en explosion av arbete i vision & språk gemenskapen under de senaste åren från bildtextning till video transkription, och svara på frågor om bilder. Dessa uppgifter har varit inriktade på bokstavliga beskrivningar av bilden. För att gå bortom det bokstavliga väljer vi att undersöka hur frågor om en bild ofta riktas mot allmängiltiga slutsatser och de abstrakta händelser som framkallas av objekt i bilden. I detta dokument introducerar vi den nya uppgiften Visual Question Generation (VQG), där systemet har till uppgift att ställa en naturlig och engagerande fråga när det visas en bild. Vi tillhandahåller tre datauppsättningar som täcker en mängd olika bilder från objekt-centrerade till händelse-centrerade, med betydligt mer abstrakta träningsdata än vad som hittills tillhandahållits till toppmoderna bildtextsystem. Vi utbildar och testar flera generativa och hämtningsmodeller för att ta itu med VQG:s uppgift. Utvärderingsresultat visar att även om sådana modeller ställer rimliga frågor för en mängd olika bilder, finns det fortfarande ett stort gap med mänskliga prestationer som motiverar ytterligare arbete med att koppla samman bilder med allmän kunskap och pragmatiska. Vår föreslagna uppgift innebär en ny utmaning för samhället som vi hoppas ökar intresset för att utforska djupare kopplingar mellan vision och språk.
Mostafazadeh m.fl. REF införde visuell frågegenerering för att utforska den djupa kopplingen mellan språk och syn.
16,227,864
Generating Natural Questions About an Image
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,515
Vi föreslår en ny hierarkisk Bayesiansk n-grammodell av naturliga språk. Vår modell använder sig av en generalisering av de allmänt använda Dirichlet distributioner som kallas Pitman-Yor processer som producerar power-law distributioner närmare liknar dem i naturliga språk. Vi visar att en approximation till den hierarkiska Pitman-Yor språkmodellen återvinner den exakta formuleringen av interpolerade Kneser-Ney, en av de bästa utjämningsmetoderna för n-gram språkmodeller. Experiment bekräftar att vår modell ger korsentropiresultat som är överlägsna interpolerade Kneser- Ney och jämförbara med modifierade Kneser- Ney.
REF använde en hierarkisk PitmanYor-process som utjämningsmetod för språkmodeller.
1,541,597
A Hierarchical Bayesian Language Model Based On Pitman-Yor Processes
{'venue': 'International Conference On Computational Linguistics And Annual Meeting Of The Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,516
Abstract-CSMMCA protokoll förlitar sig på slumpmässig senareläggning av paketöverföringar. Liksom de flesta andra protokoll, CSMNCA utformades med antagandet att noderna skulle spela enligt reglerna, Detta kan vara farligt, eftersom noderna själva styr sin slumpmässiga uppskjutning. I själva verket, med den högre programmerbarheten av nätverksadaptrar, frestelsen att manipulera med programvaran eller firmware är sannolikt att växa; hy gör det. En användare skulle kunna få en mycket större andel av den tillgängliga bandbredden på bekostnad av andra användare. Vi använder B spel-teoretisk metod för att undersöka prohlem av själviska beteende av noder i CSMAKA networl, speciellt inriktad mot den mest allmänt accepterade prutocol i denna klass av protokob, IEEE 802.11. Vi karakteriserar två familjer av Nash equiIibria i ett enda steg spel, varav en alltid resulterar i ett nätverk colIapse. Vi hävdar att detta resultat utgör ett incitament för fuskare att samarbeta med varandra. ExpIicit samarbete mellan noder är klart opraktiskt, Genom att tillämpa modellen av dynamiska spel lånas från spelteorin, vi får förutsättningar för en stabil och optimal funktion av en population av fuskare. Vi använder denna insikt för att utveckla en enkel, lokaliserad och distribuerad protokoll som framgångsrikt guidar muItiple själviska noder till B Pareto-optimal Nash jämvikt.
Cagalj m.fl. REF använde en spelteoretisk metod för att studera själviska noder i CSMA/ CA- nätverk.
7,243,361
On selfish behavior in CSMA/CA networks
{'venue': 'Proceedings IEEE 24th Annual Joint Conference of the IEEE Computer and Communications Societies.', 'journal': 'Proceedings IEEE 24th Annual Joint Conference of the IEEE Computer and Communications Societies.', 'mag_field_of_study': ['Computer Science']}
81,517
Hur påverkar nätverksstruktur spridning? Nya undersökningar tyder på att svaret beror på typen av smitta. Komplexa smittämnen, till skillnad från smittsamma sjukdomar (enkla smittämnen), påverkas av social förstärkning och homofili. Spridningen inom högklustrade samhällen ökar därför, medan spridningen mellan olika samhällen hämmas. En vanlig hypotes är att memes och beteenden är komplexa smittämnen. Vi visar att även om de flesta memes faktiskt spred sig som komplexa smittämnen, spred sig några virala memer över många samhällen, som sjukdomar. Vi visar att den framtida populariteten för ett meme kan förutsägas genom att kvantifiera dess tidiga spridningsmönster i termer av samhällskoncentration. Ju fler samhällen en meme genomsyrar, desto mer viral är den. Vi presenterar en praktisk metod för att översätta data om samhällsstruktur till prediktiv kunskap om vilken information som kommer att spridas brett. Denna koppling bidrar till vår förståelse inom beräkningssocialvetenskap, analys av sociala medier och marknadsföring. * E-post till motsvarande författare: [email protected] 1 Sjukdomar, idéer, innovationer och beteenden som sprids via sociala nätverk [1] [2] [3] [4] [5] [6] [7] [8] [9] [10] [11] [12]. Med tillgång till storskaliga, digitaliserade data om social kommunikation [13, 14] har studien av spridning av memer (enheter för överförbar information) nyligen blivit genomförbar [15] [16] [17] [18]. Frågorna om hur memes sprids och som kommer att bli viral har nyligen dragit stor uppmärksamhet över discipliner, inklusive marknadsföring [6, 19], nätverk vetenskap [20, 21], kommunikation [22], och sociala medier analys [23] [24] [25]. Nätverksstruktur kan i hög grad påverka spridningsprocessen [15, 26, 27], till exempel, infektioner med liten spridningshastighet kvarstår i skalfria nätverk [8]. Befintlig forskning har försökt att karakterisera viral memes i termer av meddelandeinnehåll [22], temporal variation [16, 24], inflytelserika användare [19, 28], ändlig användaruppmärksamhet [18, 21], och lokal
En färsk studie om samhällsstruktur i OSNs presenterades i REF.
13,756,128
Virality Prediction and Community Structure in Social Networks
{'venue': 'Scientific Reports 3, 2522 (2013)', 'journal': None, 'mag_field_of_study': ['Sociology', 'Computer Science', 'Physics', 'Medicine']}
81,518
Abstract Flerklassig bildsegmentering har gjort betydande framsteg under de senaste åren genom kombinationen av lokala och globala funktioner. En viktig typ av global funktion är inter-class rumsliga relationer. Till exempel, identifiera "träd" pixlar indikerar att pixlar ovanför och till sidorna är mer benägna att vara "sky" medan pixlar nedan är mer benägna att vara "gräs". Att införliva sådan global information över hela bilden och mellan alla klasser är en utmaning eftersom den är bildberoende och därför inte kan beräknas i förväg. I detta arbete föreslår vi en metod för att fånga global information från mellanklassiska rumsliga relationer och koda den som en lokal funktion. Vi använder en tvåstegs klassificeringsprocess för att märka alla bildpunkter. För det första skapar vi förutsägelser som används för att beräkna en lokal relativ platsfunktion från inlärda relativa lägeskartor. I det andra steget kombinerar vi detta med utseendebaserade funktioner för att ge en slutlig segmentering. Vi jämför våra resultat med nyligen publicerade resultat i flera flerklassiga bildsegmenteringsdatabaser och visar att inkorporeringen av relativ platsinformation gör att vi avsevärt överträffar den nuvarande toppmoderna tekniken.
Dessutom föreslår arbetet i REF en metod för att fånga global information från mellanklassiska rumsliga relationer och koda den som en lokal funktion.
9,779,450
Multi-Class Segmentation with Relative Location Prior
{'venue': 'International Journal of Computer Vision', 'journal': 'International Journal of Computer Vision', 'mag_field_of_study': ['Computer Science']}
81,519
Centraliserade lösningar för Video-on-Demand-tjänster (VoD), som streamar förinspelat videoinnehåll till flera kunder som börjar titta på när de själva väljer, är inte skalbara på grund av de höga bandbreddskraven hos de centrala videoservrarna. Peer-to-peer (P2P) tekniker som låter kunderna distribuera videoinnehållet sinsemellan, kan användas för att lindra detta problem. Sådana tekniker kan dock införa problemet med friåkning, med vissa kamrater i P2P-nätverket som inte vidarebefordrar videoinnehållet till andra om det inte finns något incitament att göra det. När P2P-nätverket innehåller för många friryttare kan ett ökande antal av de väluppfostrade kamraterna inte uppnå tillräckligt höga nedladdningshastigheter för att upprätthålla en godtagbar tjänst. I detta papper föreslår vi Give-to-Get, en P2P VoD algoritm som avskräcker free-riding genom att låta kamrater föredrar att ladda upp till andra kamrater som har visat sig vara bra uppladdare. Som en följd av detta tolereras friryttare endast så länge det finns ledig kapacitet i systemet. Våra simuleringar visar att även om 20% av kamraterna är friryttare fortsätter Give-to-Get att ge bra resultat till de väluppfostrade kamraterna. I synnerhet visar de att Give-to-Get fungerar mycket bra för korta videor, som dominerar den nuvarande VoD-trafik på Internet.
Mol och al. REF utformade en fri-ridning-tålig P2P-VoD-system där kamrater föredrar att ladda upp till andra kamrater som har visat sig vara bra uppladdare.
62,513,281
Give-to-Get: free-riding resilient video-on-demand in P2P systems
{'venue': 'Electronic Imaging', 'journal': None, 'mag_field_of_study': ['Engineering', 'Computer Science', 'Economics']}
81,521
Sammanfattning av denna webbsida: Att använda sig av ett multihopa akustiskt sensornätverk under vatten (UASN) i ett stort område medför nya utmaningar när det gäller tillförlitliga dataöverföringar och nätverkets överlevnadsförmåga på grund av det begränsade undervattenskommunikationsområdet/bandbredden och den begränsade energin från undervattenssensornoder. För att ta itu med dessa utmaningar och uppnå målen för maximering av data leverans ratio och minimering av energiförbrukning av undervattenssensor noder, föreslår detta dokument en ny undervattens routing system, nämligen AURP (AUV-stödd undervattens routing protokoll), som använder inte bara heterogen akustiska kommunikationskanaler men också kontrollerad rörlighet av flera autonoma undervattensfordon (AUVs). I AURP, de totala dataöverföringarna minimeras genom att använda AUVs som relänoder, som samlar in avkännade data från gateway noder och sedan vidare till diskhon. Dessutom gör kontrollerad rörlighet av AUVs det möjligt att tillämpa en kortdistans hög datahastighet undervattenskanal för överföringar av en stor mängd data. Till det bästa vi vet är detta arbete det första försöket att använda flera AUVs som relänoder i en multi-hop UASN för att förbättra nätverkets prestanda i fråga om dataleverans förhållande och energiförbrukning. Simuleringar, som är införlivade med en realistisk akustikkanalmodell för undervattenskommunikation, utförs för att utvärdera det föreslagna systemets prestanda, och resultaten visar att en hög leveranskvot och låg energiförbrukning kan uppnås.
Författarna i REF föreslår ett AUV-stödd undervattensrouting protokoll (AURP) för UASNs.
2,506,930
AURP: An AUV-Aided Underwater Routing Protocol for Underwater Acoustic Sensor Networks
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']}
81,522
Det senaste arbetet har visat att konvolutionella nätverk kan vara betydligt djupare, mer exakta och effektiva att träna om de innehåller kortare anslutningar mellan lager nära ingång och de som är nära utgång. I detta dokument omfamnar vi denna observation och introducerar Dense Convolutional Network (DenseNet), som kopplar varje lager till vartannat lager på ett feed-forward-sätt. Medan traditionella konvolutionsnät med L-lager har L-anslutningar-ett mellan varje lager och dess efterföljande lager-våra nät har L(L+1) 2 direkta anslutningar. För varje lager används funktionskartorna för alla föregående lager som ingångar, och dess egna funktionskartor används som ingångar till alla efterföljande lager. DenseNets har flera övertygande fördelar: de lindrar det försvinnande-gradient problemet, stärka funktionen förökning, uppmuntra funktion återanvändning och avsevärt minska antalet parametrar. Vi utvärderar vår föreslagna arkitektur på fyra mycket konkurrenskraftiga objekt erkännande benchmarking uppgifter SVHN, och ImageNet). DenseNets får betydande förbättringar över state-of-the-art på de flesta av dem, samtidigt som det kräver mindre beräkning för att uppnå hög prestanda. Kod och förträngda modeller finns på https://github.com/liuzhuang13/DenseNet.
I DenseNet REF, varje lager får funktionskartor från alla föregående lager och passerar på sin utgång funktion kartor till alla efterföljande lager.
9,433,631
Densely Connected Convolutional Networks
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
81,523
Dedikerad kortdistanskommunikation (DSRC) har ansetts vara en av de mest lovande teknikerna för att ge ett robust medium och tillräckligt överkomligt pris för att byggas in i varje fordon. Den är utformad för att stödja både trafiksäkerhet och kommersiella tillämpningar. Trafiksäkerhetstillämpningar kommer att kräva tillförlitlig trådlös kommunikation i rätt tid. Eftersom den medelstora åtkomstkontrollen (MAC-skiktet) av DSRC är baserad på IEEE 802.11 distribuerad samordningsfunktion (DCF), är det känt att den slumpmässiga kanalåtkomstbaserade MAC inte kan ge garanterad kvalitet på tjänster (QoS). Det är mycket viktigt att förstå DSRC:s kvantitativa resultat för att kunna fatta bättre beslut om dess antagande, kontroll, anpassning och förbättring. I detta dokument föreslår vi en analytisk modell för att utvärdera DSRC-baserad kommunikation mellan fordon. Vi undersöker effekterna av de parametrar för kanalåtkomst som är förknippade med de olika tjänsterna, inklusive AIFS och innehållsfönstret. Baserat på den föreslagna modellen analyserar vi den framgångsrika meddelandeleveranskvoten och kanalservicefördröjningen för utsändningsmeddelanden. Den föreslagna analytiska modellen kan ge ett praktiskt verktyg för att utvärdera de interfordonssäkerhetstillämpningarna och analysera DSRC:s lämplighet för trafiksäkerhetstillämpningar.
I Ref föreslår författarna en analytisk modell för att utvärdera DSRC-baserad kommunikation mellan fordon.
7,457,752
Performance analysis of DSRC priority mechanism for road safety applications in vehicular networks
{'venue': 'Wireless Communications and Mobile Computing', 'journal': 'Wireless Communications and Mobile Computing', 'mag_field_of_study': ['Computer Science']}
81,524
En exakt karakterisering av dessa säkerhetsprinciper som kan verkställas genom program omskrivning ges. Detta avslöjar och korrigerar också problem i tidigare arbete, vilket ger en bättre karakterisering av dessa säkerhetsstrategier som kan verkställas av exekutionsövervakare samt en taxonomi av verkställbara säkerhetsstrategier. Vissa men inte alla klasser kan identifieras med kända klasser från beräkningskomplex teori. Tillstånd att göra digitala eller hårda kopior av delar eller allt detta arbete för personligt bruk eller klassrum beviljas utan avgift under förutsättning att kopior inte görs eller distribueras för vinst eller direkt kommersiell fördel och att kopior visar detta meddelande på första sidan eller första skärmen av en skärm tillsammans med den fullständiga citering. Upphovsrätt till delar av detta verk som ägs av andra än ACM måste hedras. Abstraktering med kredit är tillåten. För att kopiera på annat sätt, för att återpublicera, för att posta på servrar, för att omfördela till listor, eller för att använda någon komponent i detta verk i andra verk krävs förhandsgodkännande och/eller avgift. Tillstånd kan begäras från publikationsavdelningen, ACM, Inc., 1515 Broadway, New York, NY 10036 USA, fax: +1 (212) 869-0481, eller behö[email protected]. Omfattande system, såsom webbläsare, som laddar ner och kör applet-program, eller operativsystem, som innehåller drivrutiner för nya enheter, måste se till att deras förlängningar beter sig på ett sätt som överensstämmer med avsikterna hos systemdesignern och dess användare. När oacceptabla beteende går okontrollerat, skador kan resultera-inte bara till systemet själv utan också till anslutna system. Mekanismer för säkerhetstillsyn används för att förhindra oacceptabelt beteende. På senare tid har uppmärksamheten riktats mot att formellt karakterisera olika typer av tillsynsmekanismer och identifiera de klasser av säkerhetspolitik som de kan tillämpa [Ligatti et al. 2003; Schneider 2000; Viswanathan 2000 ]. Detta arbete gör det möjligt för oss att bedöma kraften hos olika mekanismer, välja mekanismer som är väl lämpade för särskilda säkerhetsbehov, identifiera typer av attacker som fortfarande kan lyckas även efter det att en viss mekanism har införts, och få meningsfulla fullständighetsresultat för nyligen utvecklade mekanismer. Den abstrakta modell för säkerhetspolitik som utarbetats av Schneider [2000] och förfinats av Viswanathan [2000] kännetecknar en kategori av politik som syftar till att fånga upp vad som effektivt skulle kunna genomdrivas genom övervakning av genomförandet. Avrättning övervakare är verkställighetsmekanismer som arbetar genom att övervaka de beräkningssteg av opålitliga program och ingripa när genomförandet är på väg att bryta säkerhetspolicyn som upprätthålls. Avrättningskontroll kan dock ses som ett exempel på den mer allmänna tekniken med programredigering, där verkställighetsmekanismen omvandlar opålitliga program innan de utförs för att göra dem oförmögna att bryta mot den säkerhetspolitik som ska verkställas. Så vitt vi vet har ingen karakterisering av den klass av säkerhetspolicyer som kan verkställas genom programredigering utvecklats. Sedan många system [Deutsch and Grant 1971; Small 1997; Wahbe et al. 1993; Schneider 2000a, 2000b; Evans och Twynman 1999] använder programredigering på sätt som går utöver vad som kan modelleras som en exekveringsövervakare, en karakterisering av den kategori av policyer som kan verkställas av programreskrivare skulle vara användbar. Så vi här utökar Schneiders och Viswanathans modell för att karakterisera denna nya klass av policys, RWenforceable policys, som motsvarar vad som effektivt kan genomdrivas genom program-rewriting. Avrättning övervakning kan ses som en instans av program-rewriting, så man skulle förvänta sig klass EM orig av politik som kännetecknas av Schneider och Viswanathan att vara en underklass av RW-genomförbar politik. Vi visar dock att detta förvånansvärt nog inte är fallet. Det finns vissa policyer i EM orig som inte är verkställbara av någon programredigerare. Vår analys av denna politik visar att de faktiskt inte kan verkställas av en avrättningsövervakare heller, och avslöjar att EM orig faktiskt utgör en övre gräns för den policyklass som kan verkställas av exekutionsövervakare i stället för en exakt gräns, som man tidigare trott. Vi visar sedan att det faktum att EM-orig skärs samman med RW-genomförbar politik ger exakt den politik som faktiskt kan genomföras av en verkställande övervakare, den EM-genomförbara politiken. Vi fortsätter på följande sätt. Vi fastställer en formell modell för säkerhetstillsyn i avsnitt 2. Nästa, i Avsnitt 3 använder vi den modellen för att karakterisera och relatera
Nyligen, Hamlen, Schneider och Morrisett jämförde verkställande makt statisk analys, övervakning och program omskrivning REF.
15,456,713
Computability classes for enforcement mechanisms
{'venue': 'TOPL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,525
Vi föreslår dubbla uppmärksamhetsnätverk som gemensamt utnyttjar visuella och textbaserade uppmärksamhetsmekanismer för att fånga upp finkornigt samspel mellan syn och språk. DAN tar hand om specifika regioner i bilder och ord i text genom flera steg och samlar väsentlig information från båda tillvägagångssätten. Utifrån denna ram introducerar vi två typer av DAN för multimodala resonemang respektive matchning. Den resonerande modellen gör det möjligt för visuell och textmässig uppmärksamhet att styra varandra under samverkande slutsatser, vilket är användbart för uppgifter som Visual Question Answering (VQA). Dessutom utnyttjar den matchande modellen de två uppmärksamhetsmekanismerna för att uppskatta likheten mellan bilder och meningar genom att fokusera på deras gemensamma semantik. Våra omfattande experiment validerar effektiviteten av DANs i att kombinera vision och språk, uppnå den senaste tekniken prestanda på offentliga riktmärken för VQA och bild-text matchning.
DAN REF tillämpar ett cross-attention nätverk, som fokuserar på relevanta delar av funktionerna mellan bilder och texter genom flera steg process.
945,386
Dual Attention Networks for Multimodal Reasoning and Matching
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
81,526
Vi studerar det grundläggande problemet med informationsspridning (även känd som skvaller) i dynamiska nätverk. I skvaller, eller mer allmänt, k-gossip, finns det k bitar av information (eller polletter) som initialt finns i vissa noder och problemet är att sprida k polletter till alla noder. Målet är att utföra uppgiften i så få omgångar distribuerade beräkningar som möjligt. Problemet är särskilt utmanande i dynamiska nätverk där nätverkets topologi kan ändras från rund till rund och styras av en on-line motståndare. Fokus i detta dokument är på kraften i token-spedition algoritmer, som inte manipulerar polletter på något annat sätt än att lagra och vidarebefordra dem. Vi betraktar först en värsta fall kontraversariell modell som först studerades av Kuhn, Lynch och Oshman [33] där kommunikationslänkarna för varje omgång väljs av en motståndare, och noder vet inte vilka deras grannar för den aktuella omgången är innan de sänder sina meddelanden. Vårt huvudresultat är en lägre gräns för antalet rundor som behövs för alla deterministiska token-speditionsalgoritm för att lösa k-gossip. Detta löser ett öppet problem som höjdes i [33], förbättra sin nedre gräns av och (n log k), och matcha deras övre gräns för O (nk) till inom en logaritmisk faktor. Vår nedre gräns sträcker sig också till randomiserade algoritmer mot en motståndare som i varje omgång vet utfallet av den slumpmässiga myntkastningen i den omgången. Vårt resultat visar att man inte kan erhålla signifikant effektiva (dvs subquadratiska) token-speditionsalgoritmer för skvaller i den kontradiktoriska modellen av [33]. Vi visar nästa att token-forwarding algoritmer kan uppnå subkvadratisk tid i offline-versionen av problemet, där motståndaren måste göra alla topologi förändringar i förväg i början av beräkningen. Vi presenterar två polynom-tid offline token-forwarding algoritmer för att lösa k-gossip: (1) en O(min {nk, n ε k log n}) rund algoritm, och (2) en (O(n ), log n) bicriteria approximation algoritm, för alla > 0, vilket innebär att om L är antalet rundor som behövs för en optimal algoritm, då vår approximation algoritm kommer att slutföra i O(n L) rundor och antalet polletter som överförs på någon kant är O (log n) i varje runda. Våra resultat är ett steg mot att förstå kraften och begränsningen av token-speditionsalgoritmer i dynamiska nätverk.
Denna nedre gräns är avsevärt förbättrad i REF, där en nästan tight (nk/ log n) nedre gräns bevisas.
15,353,243
Information Spreading in Dynamic Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
81,527
Vi presenterar ett effektivt genomförande av en skrivskyddad top-down konstruktion för suffixträd. Vårt genomförande bygger på en ny, rymdeffektiv representation av suffixträd som endast kräver 12 byte per inmatningstecken i värsta fall, och 8,5 byte per inmatningstecken i genomsnitt för en samling filer av olika typ. Vi visar hur man effektivt genomför den lata utvärderingen av suffixträd så att ett underträd utvärderas först när det korsas för första gången. Våra experiment visar att för problemet med att söka många exakta mönster i en fast ingång sträng, den lata top-down konstruktion är ofta snabbare och mer utrymme effektiv än andra metoder. Konstruktionen av suffixmatrisen [12] och den linjära konstruktionen av suffixträdet [13] har inte heller alfabetfaktorn i sin körtid. För den linjära tiden suffix träd konstruktioner av [4-6] alfabetet faktorn kan undvikas genom att använda hashing tekniker, se [5]; dock, till priset av att använda betydligt mer utrymme, se [10].
Till exempel har ett extremt utrymmeseffektivt genomförande, som kallas Lazy Suffix Trees REF, nyligen föreslagits, med endast 8,5 byte per indexerad karaktär.
2,542,265
Efficient Implementation of Lazy Suffix Trees
{'venue': 'Lecture Notes in Computer Science', 'journal': 'Lecture Notes in Computer Science', 'mag_field_of_study': ['Computer Science']}
81,528
I detta dokument behandlas planeringsproblem för oberoende uppgifter i den marknadsbaserade nätmiljön. I marknadsbaserade nät kan resursleverantörer debitera användare baserat på den mängd resurser som de begär. I detta fall bör schemaläggningsalgoritmer beakta användarnas vilja att utföra sina tillämpningar på det mest ekonomiska sättet. Som en lösning på detta problem, en hybrid genetisk algoritm och variabel kvarterssökning presenteras för att minska den totala kostnaden för att utföra uppgifter utan märkbar ökning i system makespan. Simuleringsresultat visar att vår algoritm presterar mycket bättre än andra algoritmer när det gäller kostnader för utförande av uppgifter. Med tanke på den negativa korrelationen mellan kostnad och makepan i rutnätsmiljöer, minskade kostnader för utförande resultat i makepan ökning. Det bör nämnas att i värsta fall, makepan av miljön ökade mindre än 17 procent vilket är tolerabelt, särskilt för användare utan någon hård deadline på uppgifter utföranden.
Kardani-Moghaddam m.fl. REF har föreslagit en hybrid genetisk algoritm och variabel kvarterssökning som använder en fitnessfunktion för att balansera mellan makepan och genomförandekostnader för varje schemaläggningslösning.
42,443,251
A Hybrid Genetic Algorithm and Variable Neighborhood Search for Task Scheduling Problem in Grid Environment
{'venue': None, 'journal': 'Procedia Engineering', 'mag_field_of_study': ['Computer Science']}
81,529
Vi föreslår en ny familj av beskrivningslogik (DLs), kallad DL-Lite, speciellt anpassad för att fånga grundläggande ontologi språk, samtidigt hålla låg komplexitet i resonemang. Resonemang här innebär inte bara beräkning av subsumption mellan begrepp och kontroll tillfredsställande av hela kunskapsbasen, men också svara på komplexa frågor (i synnerhet förening av konjunktiva frågor) över instansnivå (ABox) av DL kunskapsbasen. Vi visar att för DLs i DL-Lite familjen, de vanliga DL resonemang uppgifter är polynom i storleken på TBox, och frågesvar är LogSpace i storleken på ABox (dvs. i data komplexitet). Såvitt vi vet är detta det första resultatet av polynom-tid data komplexitet för frågesvar över DL kunskapsbaser. Särskilt våra logiker möjliggör en separation mellan TBox och ABox resonemang under frågeutvärdering: den del av processen som kräver TBox resonemang är oberoende av ABox, och den del av processen som kräver tillgång till ABox kan utföras av en SQL-motor, och därmed dra nytta av den frågeoptimering strategier som tillhandahålls av nuvarande databashanteringssystem. Eftersom även små utvidgningar till logiken i DL-Lite familjen gör frågesvar minst NLogSpace i data komplexitet, vilket utesluter möjligheten att använda on-the-shelf relationell teknik för frågebehandling, kan vi dra slutsatsen att logikerna i DL-Lite familjen är maximal DLs stöd effektiva frågesvar över stora mängder fall.
En tidig frågeskrivningsalgoritm för DL-lite-familjen av DLs, som introduceras i REF och implementeras i QuOnto-systemet, omformulerar den givna frågan till en union av konjunktiva frågor.
830,547
Tractable Reasoning and Efficient Query Answering in Description Logics: The DL-Lite Family
{'venue': 'Journal of Automated Reasoning', 'journal': 'Journal of Automated Reasoning', 'mag_field_of_study': ['Computer Science']}
81,530
En kritisk fråga för tillämpningen av Markovs beslutsprocesser på realistiska problem är hur komplexa planeringsskalor med storleken på MDP är. I stokastiska miljöer med mycket stora eller oändliga tillståndsutrymmen kan traditionella planerings- och förstärkningsalgoritmer vara otillämpliga, eftersom deras körtid vanligtvis växer linjärt med tillståndsstorleken i värsta fall. I detta dokument presenterar vi en ny algoritm som, givet endast en generativ modell (en naturlig och gemensam typ av simulator) för en godtycklig MDP, utför on-line, nära optimal planering med en per-state körtid som inte har något beroende av antalet stater. Löptiden är exponentiell i horisonten (som endast beror på rabattfaktorn γ och den önskade graden av tillnärmning till den optimala politiken). Vår algoritm ger därmed en annan komplexitet kompromiss än klassiska algoritmer såsom värde iteration-snarare än skalning linjärt i både horisont tid och tillstånd rymdstorlek, vår körtid handel ett exponentiellt beroende av den förra i utbyte mot inget beroende av den senare. Vår algoritm är baserad på idén om sparsam provtagning. Vi bevisar att ett slumpmässigt urval av utseende-ahead träd som bara täcker en försvinnande bråkdel av det fulla utseende-ahead träd ändå räcker för att beräkna nära-optimala åtgärder från något tillstånd av en MDP. Praktiska implementationer av algoritmen diskuteras, och vi drar kopplingar till våra relaterade senaste resultat om att hitta en nästan bästa strategi från en viss klass av strategier i mycket stora delvis observerbara MDPs (Kearns, Mansour, & Ng. System för behandling av neural information 13, som ska visas).
Författarna i REF föreslog en nästan optimal förstärkningsalgoritm som syftar till att asymptotiskt uppnå optimaliteten hos den ursprungliga MDP.
5,390,069
A Sparse Sampling Algorithm for Near-Optimal Planning in Large Markov Decision Processes
{'venue': 'Machine Learning', 'journal': 'Machine Learning', 'mag_field_of_study': ['Computer Science']}
81,531
Sammanfattning World-Wide Web [10] har etablerats som den faktiska informationskällan för vanliga användare och är nu ansvarig för merparten av Internettrafiken. E-handel, e-banking och www-publicering är områden som skapar ett ständigt ökande intresse för webbapplikationer. Den ökade populariteten på webben resulterade i stora bandbreddskrav och notoriskt höga latenser som upplevs av slutanvändare. För att bekämpa dessa problem erkändes fördelarna med caching och replikering tidigt av forskarsamhället. Caching [11] har traditionellt tillämpats på distribuerade filsystem som AFS [48] och även om det är en väl studerad fråga, gav dess tillämpning på Internet upphov till nya problem, t.ex. var man placerar en cache, hur man ser till att cacheinnehåll är giltiga, hur man hanterar dynamiska sidor etc. Replikering användes ofta i distribuerade system för att öka tillgängligheten och feltoleransen. Båda teknikerna har kompletterande roller i webbmiljön. Caching försöker lagra de vanligaste föremålen så nära klienterna som möjligt, medan replikering distribuerar en webbplats innehåll över flera spegelservrar. Caching mål direkt på minimera nedladdning förseningar, genom att anta att hämta det önskade objektet från cache, medför mindre latency jämfört med att få det från webbservern. Replicering, å andra sidan, står för förbättrad endto-end responsiveness genom att göra det möjligt för kunder att utföra nedladdningar från sin närmaste spegelserver (antingen geografiskt eller nätverksmässigt), samtidigt som belastningen balanseras mellan de olika webbservrarna. Ur ett terminologiskt perspektiv används cachelagring och replikering ibland utbytbart i litteraturen. Caching kan utan tvekan ses som ett speciellt fall av replikering när spegelservrar lagrar endast delar av webbplatsens innehåll. Denna analogi leder till några intressanta jämförelser. Till exempel cacheersättningsalgoritmer är exempel på on-line, distribuerade, lokalt giriga algoritmer för data allokering i replikerade system [26]. Dessutom kan det faktum att cache inte har full serverkapacitet ses som fallet med en omdirigeringspolitik för ett replikerat system, som skickar förfrågningar om specifika objekttyper (t.ex. dynamiska sidor) till en enda server. I grund och botten har varje viktig aspekt av ett cachesystem sin motsvarighet i replikerade system, men inte tvärtom. Hittills har forskarna främst koncentrerat sina insatser på cachingfrågor och potentialen för replikering har inte utnyttjats fullt ut. Därför kommer det inte som någon överraskning att den nuvarande tekniken innebär manuella beslut om var man ska skapa en spegelplats och kopiera hela webbplatsens innehåll (grov korn replikering) även om vissa objekt sällan nås. Dessutom, att kräva att kunderna uttryckligen definiera servern varifrån du ska ladda ner, är fortfarande ordningen för dagen för många webbplatser. I denna undersökning försöker vi: 1) ge en översikt över de viktigaste frågorna vid tillämpning av replikering på webben, 2) sammanfatta och kategorisera forskning som gjorts inom området och 3) identifiera öppna problem och riktningar för framtida arbete. En undersökning om webbcachelagring finns i [59]. Ett antal bibliografier och läsmaterial för webbcachelagring finns också tillgängliga på nätet, t.ex. [23]. När det gäller replikering och dess utmaningar ger [53] en tidig översikt. Resten av tidningen är organiserad enligt följande. Avsnitt 2 fokuserar på stora forskningsfrågor inom replikering. Avsnitt 3 diskuterar omdirigering. Avsnitt 4 diskuterar serverval och Avsnitt 5 beskriver problem i replika placering. Vi illustrerar några öppna forskningsproblem i Avsnitt 6. Slutligen innehåller avsnitt 7 några avslutande kommentarer. Den stora volymen av förfrågningar (potentiellt miljontals per dag) anländer till populära webbplatser, kan resultera i mättnad även den mest kraftfulla webbserver, särskilt under rusningstid. För att ta itu med problemet, heta webbplatser kör flera servrar, potentiellt spänner över hela världen. Syftet med
En kartläggning av arbete med resultatfrågor finns i REF.
15,849,973
An overview of data replication on the Internet
{'venue': "Proceedings International Symposium on Parallel Architectures, Algorithms and Networks. I-SPAN'02", 'journal': "Proceedings International Symposium on Parallel Architectures, Algorithms and Networks. I-SPAN'02", 'mag_field_of_study': ['Computer Science']}
81,532
Bakgrund: Proteinfunktionsförutsägelse är att tilldela biologiska eller biokemiska funktioner till proteiner, och det är ett utmanande beräkningsproblem som kännetecknas av flera faktorer: (1) antalet funktionsetiketter (annoteringar) är stort; (2) ett protein kan förknippas med flera etiketter; (3) funktionsetiketterna är strukturerade i en hierarki; och (4) etiketterna är ofullständiga. Nuvarande prediktiva modeller antar ofta att etiketterna på de märkta proteinerna är kompletta, dvs.. Inget märke saknas. Men i verkliga scenarier, kanske vi är medvetna om bara några hierarkiska etiketter av ett protein, och vi kanske inte vet om ytterligare sådana faktiskt finns. Scenariot med ofullständiga hierarkiska etiketter, ett utmanande och praktiskt problem, studeras sällan i proteinfunktionsprognoser. Resultat: I den här artikeln föreslår vi en algoritm för att förutsäga proteinfunktioner med hjälp av Ofullständiga hierarkiska LabeLs (PILL i korthet). PILL tar hänsyn till den hierarkiska och platta taxonomiska likheten mellan funktionsetiketter och definierar en kombinerad likhet (ComSim) för att mäta korrelationen mellan etiketter. PILL uppskattar de saknade etiketterna för ett protein baserat på ComSim och de kända etiketterna av proteinet, och använder en legalisering för att utnyttja interaktioner mellan proteiner för funktionsförutsägelse. PILL visar sig överträffa andra relaterade tekniker när det gäller att fylla på de saknade etiketterna och förutsäga funktionerna hos helt omärkta proteiner på allmänt tillgängliga PPI-datauppsättningar som är kommenterade med MIPS-funktionskatalog och Gene Ontology-etiketter. Den empiriska studien visar att det är viktigt att beakta den ofullständiga annotationen för proteinfunktionsförutsägelse. Den föreslagna metoden (PILL) kan fungera som ett värdefullt verktyg för att förutsäga proteinfunktion med hjälp av ofullständiga etiketter. Matlab-koden för PILL finns tillgänglig på begäran.
Yu i alla fall. Ref föreslog nyligen en metod för att hantera de ofullständiga hierarkiska etiketterna.
1,662,722
Predicting protein functions using incomplete hierarchical labels
{'venue': 'BMC Bioinformatics', 'journal': 'BMC Bioinformatics', 'mag_field_of_study': ['Computer Science', 'Medicine']}
81,533
Även om många varianter av språkmodeller har föreslagits för informationssökning, det finns två relaterade hämtning heuristik kvar "extern" till språk modellering tillvägagångssätt: (1) närhet heuristic som belönar ett dokument där matchade frågetermer förekommer nära varandra; (2) passage hämtning som poäng ett dokument främst baserat på den bästa matchande passage. Befintliga studier har bara försökt att använda en standard språkmodell som en "svart låda" för att genomföra dessa heuristik, vilket gör det svårt att optimera kombinationsparametrarna. I detta dokument föreslår vi en ny positionsbaserad språkmodell (PLM) som implementerar båda heuristikerna i en enhetlig språkmodell. Den viktigaste idén är att definiera en språkmodell för varje position i ett dokument, och göra ett dokument baserat på poängen av sina PLMs. PLM uppskattas baserat på förökade tal av ord i ett dokument genom en närhet-baserad densitet funktion, som både fångar närhet heuristics och uppnår en effekt av "mjuk" passage hämtning. Vi föreslår och studerar flera representativa densitetsfunktioner och flera olika PLM-baserade dokumentrankningsstrategier. Experimentella resultat på standard TREC testsamlingar visar att PLM är effektiv för passage hämtning och presterar bättre än en state-of-theart närhet-baserad hämtning modell.
I REF föreslås en positionsbaserad språkmodell för dokumentsökning och närhetsheuristisk.
6,678,854
Positional language models for information retrieval
{'venue': 'SIGIR', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,534
Abstract-Smart rutnät har nyligen vuxit fram som nästa generations elnät på grund av dess framstående funktioner, såsom distribuerad energistyrning, robust att lasta fluktuationer, och nära användar-grid interaktioner. Som en viktig del av smarta nät kan efterfrågeflexibilitet upprätthålla balansen mellan utbud och efterfrågan och minska användarnas elräkningar. Dessutom är det också viktigt att bevara användarnas integritet och it-säkerhet i smarta nät. I detta dokument föreslår vi ett effektivt system för efterfrågeflexibilitet (EPPDR) som använder en homomorfisk kryptering för att uppnå integritetsbevarande efterfrågeaggregation och effektiv respons. Dessutom undersöks en adaptiv viktig utvecklingsteknik ytterligare för att säkerställa användarnas sessionsnycklar för att vara säkra framåt. Säkerhetsanalys visar att EPPDR kan uppnå integritetsbevarande av efterfrågan på el, framtidssekretess för användarnas sessionsnycklar och utveckling av användarnas privata nycklar. I jämförelse med ett befintligt system som också uppnår framtidssekretess har PPEDR bättre effektivitet när det gäller beräknings- och kommunikations omkostnader och kan på ett anpassningsbart sätt kontrollera den viktigaste utvecklingen för att balansera avvägningen mellan kommunikationseffektivitet och säkerhetsnivå.
Löjtnant m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m för m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. föreslog ett effektivt system för aggregation av krav på integritetsbevarande (EPPDA) genom att använda homomorfisk kryptering för att bevara användarnas integritetsuppgifter för smarta nät REF.
14,688,666
EPPDR: An Efficient Privacy-Preserving Demand Response Scheme with Adaptive Key Evolution in Smart Grid
{'venue': 'IEEE Transactions on Parallel and Distributed Systems', 'journal': 'IEEE Transactions on Parallel and Distributed Systems', 'mag_field_of_study': ['Computer Science']}
81,535
Rekommenderar system utgår traditionellt från att användarprofiler och filmattribut är statiska. Temporär dynamik är rent reaktiva, dvs. de härleds efter att de observerats, t.ex. Efter att en användares smak har förändrats eller baserats på handgjorda temporala biaskorrigeringar för filmer. Vi föreslår Recurrent Recommender Networks (RRN) som kan förutsäga framtida beteendebanor. Detta uppnås genom att både användare och filmer förses med ett Long Short-Term Memory (LSTM) [14] autoregressiv modell som fångar dynamik, förutom en mer traditionell lågvärdig faktorisering. På flera verkliga datauppsättningar erbjuder vår modell utmärkt förutsägelsenoggrannhet och den är mycket kompakt, eftersom vi inte behöver lära oss latent tillstånd utan snarare bara statens övergångsfunktion.
För att modellera tidsdynamisk information i användarinteraktioner, Wu et al. REF föreslår ett återkommande recommender nätverk som kan förutsäga framtida beteende banor.
5,362,246
Recurrent Recommender Networks
{'venue': "WSDM '17", 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,536
Vi presenterar ett nytt ramverk för att generera popmusik. Vår modell är ett hierarkiskt Recurrent Neural Network, där hierarkins skikt och struktur kodar in vår förkunskap om hur popmusik komponeras. I synnerhet, de nedre skikten genererar melodin, medan de högre nivåerna producerar trummor och ackord. Vi genomför flera mänskliga studier som visar en stark preferens av vår genererade musik framför den som produceras av den senaste metoden av Google. Vi visar dessutom två tillämpningar av vårt ramverk: neural dans och karaoke, samt neural historia sång.
Chu och al. REF presenterar ett hierarkiskt återkommande neuralt nätverk där först en monofon melodi genereras, och baserat på melodi ackord och trummor läggs till.
9,651,443
Song From PI: A Musically Plausible Network for Pop Music Generation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
81,537
Användbarhet är för närvarande en viktig funktion för att utveckla kvalitetssystem. Ett system som uppfyller alla funktionskrav kan kraftigt förkastas av slutanvändarna om det medför användbarhetsproblem. Slutanvändarna kräver intuitiva gränssnitt och en enkel interaktion för att förenkla sitt arbete. Det första steget i utvecklingen av användbara system är att avgöra om ett system är eller inte är användbart. För att göra detta finns det flera förslag för att mäta systemets användbarhet. De flesta av dessa förslag är inriktade på det slutliga systemet och kräver en stor mängd resurser för att genomföra utvärderingen (slutanvändare, videokameror, frågeformulär osv.). Användbarhetsproblem som upptäcks när systemet har utvecklats innebär en hel del omarbetning av analytikern eftersom dessa förändringar kan påverka analys-, design- och genomförandefaserna. I detta dokument föreslås en metod för att minimera de resurser som behövs för att utvärdera och omarbeta användbarhetsproblem. Vi föreslår en tidig användbarhetsutvärdering som bygger på konceptuella modeller. Analytikern kan mäta användbarheten av attribut som är beroende av konceptuella primitiva. Denna utvärdering kan automatiseras med hjälp av de konceptuella modeller som representerar systemet abstrakt
I REF föreslås en metod för tidig användbarhetsmätning.
5,127,134
Early Usability Measurement in Model-Driven Development: Definition and Empirical Evaluation
{'venue': 'International Journal of Software Engineering and Knowledge Engineering', 'journal': 'International Journal of Software Engineering and Knowledge Engineering', 'mag_field_of_study': ['Computer Science']}
81,538
Inledning: Många individer med Alzheimers sjukdom (AD) lever ensamma, och denna siffra förväntas öka. Denna studie syftade till att beskriva kognitiva och funktionella förmågor hos ensamlevande AD-patienter, och potentiella prediktorer av deras användning av samhällsbaserade tjänster. Metoder: Denna 3-åriga, prospektiva, multicenterstudie inkluderade 1 021 deltagare med mild till måttlig AD (Mini-Mental State Examination score, 10-26) behandlade med en kolinesterashämmare i en rutinmässig klinisk miljö. Vid baseline och var 6:e månad utvärderades patienterna med hjälp av kognitiva, instrumentella och grundläggande aktiviteter i dagliga skalor (ADL) och användning av tjänsten registrerades. Logistiska regressionsmodeller användes för att förutsäga användningen av samhällsbaserade tjänster. Resultat: I början av behandling med kolinesterashämmare (tidpunkten för AD-diagnos) levde 355 individer (35%) ensamma. De var huvudsakligen kvinnor, äldre, hade mer nedsatt grundläggande ADL kapacitet, och hade ett större antal samtidiga mediciner jämfört med dem som bor med familjen. När det gäller de ensamma-levande patienterna, lägre instrumental ADL (IADL) förmåga och fler mediciner var oberoende prediktorer för användning av hem-hjälp, medan mer nedsatt IADL vid baslinjen och snabbare IADL försämring var prediktorer för vårdboende. För dem som bor med familj, äldre, lägre grundläggande ADL, och ett större antal mediciner förutspådde hem-hjälp, medan en större mängd hem hjälp förutspådde vårdhem placering. Dessutom var kvinnligt kön en riskfaktor för både utnyttjandet av hemtjänst och placering i vårdhem. Kognitiv förmåga var inte i någon större utsträckning förknippad med användningen av samhällsbaserade tjänster. Slutsats: Ett stort antal AD-patienter, främst kvinnor, lever ensamma med svår kognitiv och funktionell funktionsnedsättning. Mängden hemhjälpstjänster som användes återspeglade inte kognitiv allvarlighetsgrad, vilket tyder på att hemhjälp inte uppfyllde behoven relaterade till kognitiv försämring. Ökad kunskap om hur samhällsbaserade tjänster bättre kan tillgodose vårdbehoven hos ensamlevande individer med AD är nödvändig.
I sina studier av människor som lever med demens bor ensam hemma, Wattmo et al. REF drog slutsatsen att det är viktigt med kunskap om hur samhällsbaserade tjänster bättre kan tillgodose vårdbehoven hos ensamlevande personer med Alzheimers sjukdom.
125,144
Solitary living in Alzheimer’s disease over 3 years: association between cognitive and functional impairment and community-based services
{'venue': 'Clinical Interventions in Aging', 'journal': 'Clinical Interventions in Aging', 'mag_field_of_study': ['Medicine']}
81,539
Abstract-Vi anser att problemet med effektiv on-line anomali upptäckt i datornätverk trafik. Problemet hanteras statistiskt, som den sekventiella (snabbaste) förändringspunkten upptäckt. En multicyklisk inställning av snabbaste förändringsdetektering är en naturlig passform för detta problem. Vi föreslår en ny poängbaserad multicyklisk detektionsalgoritm. Algoritmen är baserad på det så kallade Shiryaev-Roberts-förfarandet. Detta förfarande är lika lätt att använda i praktiken och lika beräknings billigt som den populära Cumulative Summa diagram och Exponentially Vikted Moving Genomsnittsschema. Sannolikheten förhållandet baserat Shiryaev-Roberts förfarande har tilltalande optimala egenskaper, särskilt det är exakt optimal i en multi-cyklisk inställning som är inriktad för att upptäcka en förändring som sker vid en avlägsen tidshorisont. Det förväntas därför att en intrångsdetektionsalgoritm baserad på Shiryaev-Roberts-förfarandet kommer att fungera bättre än andra detektionssystem. Detta bekräftas experimentellt för verkliga spår. Vi diskuterar också möjligheten att komplettera vår anomali detektionsalgoritm med ett spektral-signatur intrångsdetekteringssystem med falsklarmfiltrering och sann attackbekräftelse, för att få ett synergistiskt system.
En poängbaserad multi-cykel detektionsalgoritm baserad på Shiryaev-Roberts förfarande föreslås i REF.
10,987,740
Efficient Computer Network Anomaly Detection by Changepoint Detection Methods
{'venue': 'IEEE Journal of Selected Topics in Signal Processing, vol.7, no.1, pp.7-11, February 2013', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
81,540
Abstrakt. Två mobila agenter med distinkta identifierare och lokaliserade i noder av en okänd anonym ansluten graf, måste mötas på någon nod av grafen. Vi söker snabba deterministiska algoritmer för detta mötesproblem, under två scenarier: samtidig start, när båda agenterna börjar utföra algoritmen samtidigt, och godtycklig start, när starttiderna för agenterna godtyckligt bestäms av en motståndare. Mätningen av prestanda för en mötesplatsalgoritm är dess kostnad: för en given initial placering av agenter i en graf, är detta antalet steg sedan starten av den senare agenten tills mötesplatsen uppnås. Vi visar först att mötesplatsen kan slutföras till priset O(n + log l) på alla n-node träd, där l är den mindre av de två identifierarna, även med godtycklig start. Denna komplexitet i kostnaderna kan inte förbättras för vissa träd, inte ens vid samtidig start. Effektivt möte i träd bygger på snabb nätverksprospektering och kan inte användas när grafen innehåller cykler. Vi studerar vidare det enklaste nätverket, d.v.s. ringen. Vi bevisar att, med samtidig start, optimal kostnad för mötesplats på varje ring är (D log l), där D är det ursprungliga avståndet mellan agenter. Vi fastställer också gränser för möteskostnader i ringar med godtycklig start. För godtyckliga uppkopplade grafer är vårt huvudbidrag en deterministisk mötesplatssalgoritm med kostnadspolynom i n, τ och log l, där τ är skillnaden mellan starttiderna för agenterna. Vi visar också en lägre gräns (n 2 ) på kostnaden för mötesplats i vissa familj av grafer. Om samtidig start antas, vi konstruera en generisk mötesplats algoritm, arbetar för alla anslutna grafer, vilket är optimalt för klassen av grafer av begränsad grad, om det initiala avståndet mellan agenter begränsas.
I REF presenterar författarna en mötesplats algoritm vars körtid är polynom i storleken på grafen, i längden på den kortare etiketten och i fördröjningen mellan starttiderna för agenterna.
27,400,822
Deterministic Rendezvous in Graphs
{'venue': 'Algorithmica', 'journal': 'Algorithmica', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
81,541
Den grundläggande idén med enhet-till-enhet (D2D) kommunikation är att par av lämpligt utvalda trådlösa enheter återanvända det cellulära spektrumet för att upprätta direkta kommunikationslänkar, förutsatt att de negativa effekterna av D2D-kommunikation på cellulära användare minimeras och cellulära användare ges högre prioritet vid användning av begränsade trådlösa resurser. Trots sin stora potential när det gäller täckning och kapacitetsprestanda innebär genomförandet av detta nya koncept vissa utmaningar, särskilt när det gäller förvaltning av radioresurser. De största utmaningarna beror på ett starkt behov av distribuerade D2D-lösningar som fungerar i avsaknad av exakt kanal- och nätverkskunskap. För att ta itu med denna utmaning studerar detta dokument ett resursfördelningsproblem i ett trådlöst nätverk med en enda cell med flera D2D-användare som delar de tillgängliga radiofrekvenskanalerna med cellulära användare. Vi anser att ett realistiskt scenario där basstationen (BS) är försedd med strikt begränsad kanal kunskap medan D2D och cellulära användare har ingen information. Vi visar en lägre bundet för den cellulära aggregat verktyg i nedlänken med fast BS effekt, vilket gör det möjligt att frikoppla kanalallokering och D2D effektstyrning problem. En effektiv graf-teoretisk metod föreslås för att utföra kanaltilldelningen, som erbjuder flexibilitet med avseende på tilldelningskriterium (aggregerad nyttomaximering, rättvisa, kvalitet på servicegarantin). Vi modellerar power control problemet som en multi-agent lärande spel. Vi visar att spelet är ett exakt potentiellt spel med bullriga belöningar, definieras på en diskret strategi som, och karakteriserar uppsättningen av Nash equilibria. Q-lärande med bättre svarsdynamik används sedan för att uppnå jämvikt. En kort version av detta dokument godtas
Maghsudi och Stanczak tillämpade grafteorin för kanalen allokering i en enhet-till-enhet (D2D) miljö och anses rättvisa genom att utjämna interferensen för cellulära användare REF.
8,570,645
Hybrid Centralized-Distributed Resource Allocation for Device-to-Device Communication Underlaying Cellular Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
81,542
Papperet studerar lösningen av stokastiska optimeringsproblem där approximationer till gradienten och Hessian erhålls genom subsampling. Vi överväger först Newton-liknande metoder som använder dessa approximationer och diskuterar hur man koordinerar noggrannheten i gradienten och Hessian för att ge en superlinjär konvergenshastighet i förväntan. Den andra delen av pappret analyserar en inexact Newton metod som löser linjära system ungefär med konjugerad gradient (CG) metod, och som tar prover på hessian och inte gradienten (gradienten antas vara exakt). Vi tillhandahåller en komplexitetsanalys för denna metod baserad på egenskaperna hos CG iteration och kvaliteten på den hessiska approximationen, och jämföra den med en metod som använder en stokastisk gradient iteration i stället för CG-metoden. Vi rapporterar preliminära numeriska resultat som illustrerar prestandan av inexakt subproved Newton metoder på maskininlärning applikationer baserat på logistisk regression.
En uppsättning villkor på lutningen och de hessiska provstorlekar som garanterar lokal R-superlinjär konvergens i förväntan under antagandet om variansen av felnormerna (Bounded moment of Iterates) ges i REF.
18,580,709
Exact and Inexact Subsampled Newton Methods for Optimization
{'venue': None, 'journal': 'arXiv: Optimization and Control', 'mag_field_of_study': ['Mathematics']}
81,543
Zero-shot hashing (ZSH) syftar till att lära sig en hashing modell som utbildas endast av fall från synliga kategorier men kan generera väl till dem av osynliga kategorier. Vanligtvis uppnås det genom att använda en semantisk inbäddning utrymme för att överföra kunskap från sett domän till osynlig domän. Befintliga insatser är främst inriktade på enkel-modal hämtning, särskilt bildbaserad hämtning (IBIR). Som ett särskilt forskningsämne inom hashing är dock cross-modal hämtning vanligare i tillämpningar i verkligheten. För att ta itu med hämtningsuppgiften cross-modal ZSH (CMZSH) föreslår vi ett nytt attributstyrt nätverk (AgNet), som kan utföra inte bara IBIR utan även textbaserad hämtning av bilder (TBIR). I synnerhet anpassar AgNet olika modal data till ett semantiskt rikt attribut utrymme, som överbryggar gapet som orsakas av modalitet heterogenitet och noll-shot inställning. Vi utformar också en effektiv strategi som utnyttjar attributet för att styra generering av hashkoder för bild och text inom samma nätverk. Omfattande experimentella resultat på tre referensdatamängder (AwA, SUN och ImageNet) visar AgNets överlägsenhet när det gäller både cross-modal och enmodal nollbildssökning. Index Terms-Attribute, cross-modal hashing (CMH), bildsökning, noll-shot hashing (ZSH), noll-shot lärande (ZSL).
AgNet REF är den första (så vitt vi vet) multimodala noll-shot hashmetoden, som anpassar olika modalitetsdata i ett semantiskt berikat attribututrymme, och använder attributet vektorer för att styra generering av hashkoder för bild- och textmetoder inom samma nätverk.
3,619,227
Attribute-Guided Network for Cross-Modal Zero-Shot Hashing
{'venue': 'IEEE Transactions on Neural Networks and Learning Systems', 'journal': 'IEEE Transactions on Neural Networks and Learning Systems', 'mag_field_of_study': ['Computer Science', 'Medicine']}
81,544
Abstract-State-of-the-art objekt detekteringsnätverk är beroende av region förslag algoritmer för att hypothesize objekt platser. Framsteg som SPPnet [1] och Fast R-CNN [2] har minskat drifttiden för dessa detektionsnät, vilket exponerar beräkning av regionförslag som flaskhals. I detta arbete introducerar vi ett regionförslagsnätverk (RPN) som delar fullbildskonvolutionella funktioner med detektionsnätverket, vilket möjliggör nära nog kostnadsfria regionförslag. Ett RPN är ett helt konvolutionellt nätverk som samtidigt förutsäger objektgränser och objektitetspoäng vid varje position. RPN är utbildad end-to-end för att generera högkvalitativa regionförslag, som används av Fast R-CNN för detektion. Vi slår ytterligare samman RPN och Fast R-CNN till ett enda nätverk genom att dela deras konvolutionella funktioner-med hjälp av den nyligen populära terminologin för neurala nätverk med "attention" mekanismer, RPN komponenten talar om för det enhetliga nätverket var man ska leta. För den mycket djupa VGG-16-modellen [3] har vårt detektionssystem en bildhastighet på 5 fps (inklusive alla steg) på en GPU, samtidigt som vi uppnår toppmoderna objektdetektionsnoggrannhet på PASCAL VOC 2007, och MS COCO-datauppsättningar med endast 300 förslag per bild. I ILSVRC och COCO 2015 tävlingar, Snabbare R-CNN och RPN är grunden för den 1: a plats vinnande poster i flera spår. Koden har gjorts tillgänglig för allmänheten. Regionens förslagsmetoder är vanligtvis beroende av billiga funktioner och ekonomiska slutledningssystem. Selektiv sökning [4], en av de mest populära metoderna, sammansmälter girigt superpixel baserat på konstruerade låg nivå funktioner. Ändå jämfört med effektiva detektionsnätverk [2], Selektiv sökning är en storleksordning långsammare, på 2 sekunder per bild i en CPU-implementation. EdgeBoxar [6] ger för närvarande den bästa kompromissen mellan förslagskvalitet och hastighet, med 0,2 sekunder per bild. Trots detta konsumerar regionförslaget lika mycket drifttid som nätverket för upptäckt. Man kan notera att snabba regionbaserade CNN dra nytta av GPU, medan de regionala förslag metoder som används i forskning genomförs på CPU, vilket gör sådana runtime jämförelser ojämförliga. Ett självklart sätt att påskynda beräkningen av förslag är att återinföra det för GPU. Detta kan vara en effektiv teknisk lösning, men omgenomförandet bortser från down-stream detektion nätverk och därför missar viktiga möjligheter att dela beräkningar. I detta dokument visar vi att en algoritmisk förändringskomputerande förslag med en djup konvolutionell neural nätverk-leads till en elegant och effektiv lösning där förslagsberäkning är nästan gratis med tanke på detektionsnätverkets beräkning. I detta syfte introducerar vi nya regionala förslagsnätverk (RPN) som delar konvolutionella skikt med toppmoderna nätverk för objektdetektering [1], [2]. Genom att dela konvolutioner vid testtid är marginalkostnaden för datorförslag liten (t.ex. 10 ms per bild). Vår iakttagelse är att de konvolutionella funktionskartor som används av regionbaserade detektorer, som Fast R-CNN, också kan användas för att generera regionförslag. Ovanpå dessa konvolutionella funktioner konstruerar vi en RPN genom att lägga till några ytterligare konvolutionella lager som samtidigt regresserar regiongränser och objektitet poäng på varje plats på ett vanligt rutnät. RPN är således ett slags fullständigt konvolutionsnätverk [7] och kan utbildas från början till slut särskilt för uppgiften att ta fram förslag på detektering. RPN är utformade för att effektivt förutsäga regionala förslag med ett brett spektrum av skalor och proportioner. I motsats till vanliga metoder [1], [2], [8], [9] som använder pyramider av bilder (Fig. 1a) eller filterpyramider (Fig. 1b), Vi introducerar nya "anchor" rutor som fungerar som referenser på flera skalor och proportioner. Vårt schema kan ses som en pyramid av regressionsreferenser (Fig. 1c), som undviker att räkna upp bilder eller filter av flera skalor eller proportioner. Denna modell fungerar bra när den är tränad och testad med enskaliga bilder och därmed gynnar körhastigheten. För att förena RPNs med snabba R-CNN [2] objektdetekteringsnätverk, föreslår vi ett utbildningsprogram som alternerar S. Ren är med
Snabbare R-CNN REF är en toppmodern representant för sådana tvåstegsdetektorer.
10,328,909
Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
81,545
Abstrakt. Program har ofta en hel del duplicerad kod, vilket gör både förståelse och underhåll svårare. Detta problem kan lindras genom att upptäcka duplicerad kod, extrahera den i ett separat nytt förfarande, och ersätta alla kloner (de fall av duplicerad kod) med samtal till det nya förfarandet. I detta dokument beskrivs utformningen och det inledande genomförandet av ett verktyg som hittar kloner och visar dem för programmeraren. Den nya aspekten av vårt tillvägagångssätt är användningen av programberoende grafer (PDGs) och program slicing för att hitta isomorphic PDG subgraphs som representerar kloner. De viktigaste fördelarna med detta tillvägagångssätt är att vårt verktyg kan hitta icke-kontiguerliga kloner (kloner vars komponenter inte förekommer som sammanhängande text i programmet), kloner där matchande uttalanden har beställts, och kloner som är sammanflätade med varandra. Dessutom är de kloner som hittas sannolikt meningsfulla beräkningar, och därmed bra kandidater för extraktion.
REF använde också PDG för klondetektering och ser möjligheten att hitta icke sammanhängande kloner som en huvudsaklig fördel.
1,602,507
Using Slicing to Identify Duplication in Source Code
{'venue': 'SAS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,546
I detta dokument analyseras användningen av ett obemannade luftfartyg (UAV) som en flygbasstation som används för att tillhandahålla trådlös flygkommunikation till ett visst geografiskt område. I synnerhet beaktas samexistensen mellan UAV, som överför data i nedlänken, och en underlagd enhet-till-enhet (D2D). För denna modell erhålls en dragbar analytisk ram för täcknings- och hastighetsanalys. Två scenarier beaktas: en statisk UAV och en mobil UAV. I det första scenariot erhålls den genomsnittliga täckningssannolikheten och systemsumman för användarna i området som en funktion av UAV:s höjd och antalet D2D-användare. I det andra scenariot, med hjälp av disk täcker problemet, det minsta antalet stopppunkter som UAV behöver besöka för att helt täcka området beräknas. Dessutom, med tanke på flera vidaresändningar för UAV- och D2D-användarna, är den totala avbrottsannolikheten för D2D-användarna härledd. Simulerings- och analysresultat visar att det, beroende på densiteten hos D2D-användare, finns optimala värden för UAV-höjden för vilka systemets summeringsgrad och täckningssannolikhet är maximerad. Dessutom visar våra resultat också att genom att göra det möjligt för UAV att intelligent flytta över målområdet, den totala sändningskraft som krävs av UAV samtidigt täcka hela området, minimeras. Slutligen diskuteras avvägningen mellan täckningen och förseningen när det gäller antalet stopppunkter för att ge en fullständig täckning för det berörda området.
Till exempel studerade författarna i REF nedlänk täckning och hastighet prestanda för en enda UAV som samexisterar med en enhet-till-enhet (D2D) kommunikationsnät.
13,673,880
Unmanned Aerial Vehicle with Underlaid Device-to-Device Communications: Performance and Tradeoffs
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
81,547
Abstract-Several Vehicular Ad hoc Network (VANET) studier har fokuserat på kommunikationsmetoder baserade på IEEE 802.11p, som utgör standarden för trådlös åtkomst för vehikulära miljöer (Wave). I de nät där endast IEEE 802.11p används försämras fördröjnings- och leveransförhållandet för spridning av säkerhetsmeddelanden vid höga och låga fordonstätheter. Nyligen, som ett alternativ till IEEE 802.11p-baserade VANET, har användningen av cellulär teknik undersökts på grund av deras låga latens och bred räckvidd kommunikation. En ren cellbaserad VANET-kommunikation är dock inte möjlig på grund av den höga kostnaden för kommunikation mellan fordonen och basstationerna, och ett stort antal händelser vid basstationen med tanke på fordonens höga rörlighet. I detta dokument föreslås en hybridarkitektur, nämligen VMaSC-LTE, som kombinerar IEEE 802.11p-baserad multihopklustring och fjärde generationens cellsystem, Long Term Evolution (LTE), med målet att uppnå hög datapaketleveranskvot och låg fördröjning samtidigt som användningen av den cellulära arkitekturen hålls på lägsta nivå. I VMaSC-LTE är fordon grupperade baserat på en ny metod som heter VMaSC: Vehicular Multi-hop algoritm för Stable Clustering. Egenskaperna hos VMaSC är val av klusterhuvud med hjälp av den relativa mobiliteten metriska beräknas som den genomsnittliga relativa hastigheten med avseende på angränsande fordon, klusteranslutning med minsta overhead genom att införa direkt anslutning till grannen som redan är ett huvud eller medlem av ett kluster i stället för att ansluta till klusterhuvudet i flera humle, sprida klustermedlemsinformation inom periodiska hej-paket, reaktiv klusterbildning för att upprätthålla klusterstruktur utan överdriven förbrukning av nätverksresurser, och effektiv storlek och humle begränsad kluster sammanslagningsmekanism baserad på utbyte av klusterinformation mellan klusterhuvuden. Dessa funktioner minskar antalet kluster huvuden samtidigt öka sin stabilitet därför minimera användningen av den cellulära arkitekturen. Från den klustererade topologin fungerar valda klusterhuvuden som dual-interface noder med funktionaliteten i IEEE 802.11p och LTE-gränssnittet för att länka VANET till LTE-nätverket. Med hjälp av olika nyckelmått av intresse, inklusive datapaketleveransförhållande, fördröjning, kontroll overhead och klusterstabilitet, visar vi överlägsen prestanda hos den föreslagna arkitekturen jämfört med både tidigare föreslagna hybridarkitekturer och alternativa routingmekanismer inklusive översvämningar och klusterbaserad routing via omfattande simuleringar i ns-3 med fordonets mobilitetsinput från simuleringen av urban mobilitet (SUMO). Den föreslagna arkitekturen gör det också möjligt att uppnå en högre tillförlitlighet hos applikationen som kvantifieras av datapaketleveransförhållandet till priset av en högre LTE-användning som bestäms av antalet klusterhuvuden i nätverket.
Författarna i REF tillhandahöll ett nytt klustersystem för multihopar för att uppnå mer stabila kluster och minska antalet CH under realistiska trafikscenarier.
17,739,044
Multi-Hop Cluster based IEEE 802.11p and LTE Hybrid Architecture for VANET Safety Message Dissemination
{'venue': 'IEEE Transactions on Vehicular Technology', 'journal': 'IEEE Transactions on Vehicular Technology', 'mag_field_of_study': ['Computer Science']}
81,548
Neural Machine Translation (NMT) baserad på encoder-dekoder arkitekturen har nyligen blivit ett nytt paradigm. Forskare har visat att målsidan enspråkig data kan avsevärt förbättra dekoder modellen av NMT. De enspråkiga uppgifterna på källkodssidan utforskas dock inte fullt ut, även om det bör vara lämpligt att stärka NMT:s kodarmodell, särskilt när den parallella corpusen är långt ifrån tillräcklig. I detta dokument föreslår vi två metoder för att fullt ut utnyttja källsidans enspråkiga uppgifter i NMT. Den första metoden använder sig av självlärande algoritm för att generera syntetiska storskaliga parallella data för NMT utbildning. Det andra tillvägagångssättet tillämpar det multi-task lärande ramverket med hjälp av två NMTs för att förutsäga översättningen och de omordnade källsidan monolingual meningar samtidigt. De omfattande försöken visar att de föreslagna metoderna får betydande förbättringar jämfört med den starka uppmärksamhetsbaserade NMT.
Zhang och Zong ( REF ) använde källsidans enspråkiga data för att stärka NMT-kodaren.
17,667,087
Exploiting Source-side Monolingual Data in Neural Machine Translation
{'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,549
Svårigheten att skala Online Social Networks (OSNs) har infört nya systemdesignutmaningar som ofta har orsakat kostsam omarkitektering för tjänster som Twitter och Facebook. Den komplexa sammankopplingen av användare i sociala nätverk har medfört nya utmaningar för skalbarheten. Konventionell vertikal skalning genom full replikering kan vara ett kostsamt förslag. Horisontell skalning genom partitionering och distribution av data mellan flera servrar - t.ex. användning av DHTs - kan leda till dyra inter-server kommunikation. Vi designar, implementerar och utvärderar SPAR, en social partitionering och replikering i mitten som på ett transparent sätt utnyttjar den sociala grafstrukturen för att uppnå datalokalisering samtidigt som replikeringen minimeras. SPAR garanterar att för alla användare i ett OSN, deras direkta granne data är samlokaliserade i samma server. Vinsterna från detta tillvägagångssätt är många: programutvecklare kan anta lokala semantik, dvs., utvecklas som de skulle för en enda server; skalbarhet uppnås genom att lägga till råvaruservrar med lågt minne och krav nätverk I/O; och redundans uppnås till en bråkdel av kostnaden. Vi beskriver vår systemdesign och en utvärdering baserad på dataset från Twitter, Orkut och Facebook, med en fungerande implementering. Vi visar att SPAR har minimala omkostnader, och kan hjälpa en välkänd öppen källkod Twitter klon nå Twitter skala utan att ändra en linje av dess tillämpning logik och uppnår högre genomströmning än Cassandra, Facebooks DHT-baserade nyckelvärde butik databas.
Slutligen är SPAR REF ett socialt partitionerings- och replikeringssystem som uppnår en-hop replikering av användarprofiler i sociala nätverk.
6,502,624
The little engine(s) that could: scaling online social networks
{'venue': "SIGCOMM '10", 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,550
Abstract-This paper beskriver SpatialHadoop; en fullfjädrad MapReduce ram med inbyggt stöd för rumsliga data. SpatialHadoop är en omfattande förlängning till Hadoop som injicerar rumslig datamedvetenhet i varje Hadoop-lager, nämligen språk, lagring, MapReduce och operationslager. I språklagret lägger SpatialHadoop till ett enkelt och uttrycksfullt språk på hög nivå för rumsliga datatyper och operationer. I lagringslagret anpassar SpatialHadoop traditionella rumsliga indexstrukturer, Grid, R-tree och R+-tree, till att bilda ett rumsligt index på två nivåer. SpatialHadoop berikar MapReduce-lagret med två nya komponenter, SpatialFileSplitter och SpatialRecordReader, för effektiv och skalbar rumslig databehandling. I operationsskiktet är SpatialHadoop redan utrustad med ett dussin operationer, inklusive avståndsfråga, kNN och rumslig anslutning. Andra rumsliga operationer genomförs också enligt ett liknande tillvägagångssätt. Omfattande experiment på verklig systemprototyp och verkliga dataset visar att SpatialHadoop uppnår order av magnitud bättre prestanda än Hadoop för rumslig databehandling.
Det utökar den centrala Hadoop-kodbasen för att tillhandahålla rumsliga indexstrukturer och rumsliga operationer t.ex. R-träd, avståndsförfrågningar, kNN och rumslig anslutning till REF.
14,181,733
SpatialHadoop: A MapReduce framework for spatial data
{'venue': '2015 IEEE 31st International Conference on Data Engineering', 'journal': '2015 IEEE 31st International Conference on Data Engineering', 'mag_field_of_study': ['Computer Science']}
81,551
Numera är antalet lager och neuroner i varje lager av ett djupt nätverk vanligtvis inställd manuellt. Även om mycket djupa och breda nätverk har visat sig vara effektiva i allmänhet, kommer de till en hög minnes- och beräkningskostnad, vilket gör dem opraktiska för begränsade plattformar. Dessa nätverk är dock kända för att ha många överflödiga parametrar, och skulle därför i princip kunna ersättas av mer kompakta arkitekturer. I detta dokument introducerar vi en strategi för att automatiskt bestämma antalet neuroner i varje skikt av ett djupt nätverk under lärandet. I detta syfte föreslår vi att man använder en grupps gleshetsreglering på parametrarna i nätverket, där varje grupp definieras för att agera på en enda neuron. Med utgångspunkt från ett överkomplett nätverk visar vi att vårt tillvägagångssätt kan minska antalet parametrar med upp till 80 % samtidigt som man behåller eller till och med förbättrar nätnoggrannheten.
I REF föreslås ett nätverk som lär sig överflödiga parametrar i varje skikt och iterativt eliminerar överflödiga parametrar.
10,356,927
Learning the Number of Neurons in Deep Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
81,552
Samverkansfiltrering syftar till att utnyttja användarnas återkopplingar för att förbättra rekommendationsprestandan, som har använts i olika branschrekommendersystem. Vissa senaste verk har bytt från att utnyttja explicita återkopplingar av numeriska betyg till implicita återkopplingar som bläddring och shopping poster, eftersom sådana data är mer rikliga och lättare att samla in. En grundläggande utmaning med att utnyttja implicita återkopplingar är bristen på negativa återkopplingar, eftersom det bara finns några observerade relativt "positiva" återkopplingar, vilket gör det svårt att lära sig en förutsägelsemodell. Tidigare arbeten tar itu med denna utmaning genom att föreslå några punktvisa eller parvisa preferensantaganden på objekt. Sådana antaganden om objekt kan dock inte alltid innehålla, till exempel, en användare kan ogilla en köpt vara eller liknande en vara som inte köpts ännu. I detta dokument föreslår vi ett nytt och avslappnat antagande av parvisa preferenser över objektuppsättningar, som definierar en användares preferenser på en uppsättning objekt (punktuppsättning) i stället för på ett enda objekt. Det avslappnade antagandet kan ge oss mer exakta parvisa preferensrelationer. Med detta antagande utvecklar vi ytterligare en allmän algoritm som kallas CoFiSet (samarbetsfiltrering via att lära sig parvisa preferenser över objektuppsättningar). Experimentella resultat visar att CoFiSet presterar bättre än flera toppmoderna metoder på olika rankningsorienterade mätvärden på två verkliga datamängder. Dessutom är CoFiSet mycket effektiv som visas av både tids komplexitet och CPU-tid.
Arbetet i REF antog att en användares preferenser är på en uppsättning produkter istället för bara en, och föreslog att lära parvisa preferenser över objektuppsättningar.
14,753,641
CoFiSet: Collaborative Filtering via Learning Pairwise Preferences over Item-sets
{'venue': 'SDM', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,553
Sammanfattning Denna artikel introducerar en familj av referensmodeller för rollbaserad åtkomstkontroll RBAC där behörigheter är förknippade med roller, och användare görs medlemmar av lämpliga roller. Detta förenklar i hög grad hanteringen av tillstånd. Roller är nära relaterade till begreppet användargrupper i åtkomstkontroll. Men en roll för samman en uppsättning användare på ena sidan och en uppsättning behörigheter på den andra, medan användargrupper vanligtvis de ner som en uppsättning användare endast. De grundläggande begreppen för RBAC har sitt ursprung i tidiga datorsystem med flera användare. Återuppkomsten av intresset för RBAC har drivits av behovet av allmänna anpassningsbara anläggningar för RBAC och behovet av att förvalta själva förvaltningen av RBAC. Till följd av detta sträcker sig RBAC-anläggningarna från enkla till komplexa. Denna artikel beskriver en ny ram av referensmodeller för att systematiskt ta itu med de olika komponenterna i RBAC, och deras interaktioner.
Begreppet RBAC började med flera användare och flera applikationer on-line system banade väg i 1970-talet REF.
1,958,270
Role-Based Access Control Models
{'venue': 'IEEE Computer', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,554
Vi presenterar en ny oövervakad inlärningsmetod för mänskliga handlingskategorier. En videosekvens representeras som en samling rumslig-temporala ord genom att extrahera mellanslag-tid räntepunkter. Algoritmen lär sig automatiskt sannolikhetsfördelningen av de rumslig-temporala orden och de mellanliggande ämnen som motsvarar mänskliga åtgärdskategorier. Detta uppnås genom att använda latenta ämnesmodeller såsom den probabilistiska Latent Semantic Analysis (pLSA) modellen och Latent Dirichlet Allocation (LDA). Vårt tillvägagångssätt kan hantera bullriga funktionspunkter som uppstår från dynamisk bakgrund och rörliga kameror på grund av tillämpningen av de probabilistiska modellerna. Med tanke på en ny videosekvens kan algoritmen kategorisera och lokalisera de mänskliga åtgärder som finns i videon. Vi testar vår algoritm på tre utmanande dataset: KTH human motion dataset, Weizmann human action dataset, och en ny dataset av konståkning åtgärder. Våra resultat återspeglar löftet om ett sådant enkelt tillvägagångssätt. Dessutom kan vår algoritm känna igen och lokalisera flera åtgärder i långa och komplexa videosekvenser som innehåller flera rörelser.
I REF, rumsliga-temporala ord härleds sedan för att erkänna mänskliga handlingar.
207,252,020
Unsupervised Learning of Human Action Categories Using Spatial-Temporal Words
{'venue': 'International Journal of Computer Vision', 'journal': 'International Journal of Computer Vision', 'mag_field_of_study': ['Computer Science']}
81,555
Abstract-This brev studerar avbrott prestanda av multihop kognitiva relänätverk med energi skörd i underlay paradigm, där de sekundära användarna drivs av en dedikerad power beacon (PB) och deras överföringskrafter är föremål för den skördade energin från PB och interferens begränsning från den primära användaren. Vi härleder den exakta avbrottsannolikheten för Rayleigh block blekning och bevisar att avbrottsannolikheten är monotont minska med avseende på sändningskraften hos PB. Dessutom, vi härleda asymptotic avbrott sannolikhet att studera avbrott mättnad fenomen och föreslå en iterativ algoritm som gemensamt optimerar sändningskraften av PB och skörde-till-transmit förhållandet för att ungefär den minsta avbrott sannolikheten. Simuleringsresultat validerar de teoretiska resultaten.
I REF presenterades en omfattande studie av avbrottet i multihop kognitiva relänätverk med EH, där SUs överförde krafter var föremål för den skördade energin från kraft bacon och interferens begränsning från den primära användaren.
19,448,799
Outage Performance of Underlay Multihop Cognitive Relay Networks With Energy Harvesting
{'venue': 'IEEE Communications Letters', 'journal': 'IEEE Communications Letters', 'mag_field_of_study': ['Computer Science']}
81,556
Abstract-Service Orienterade Arkitekturer med underliggande teknik som webbtjänster och webbtjänster orkestrering har öppnat dörren för ett brett spektrum av nya tillämpningsscenarier, särskilt i samband med samarbete mellan organisationer. Ett av de återstående hindren för en utbredd användning av dessa tekniker är säkerhet. Företag och organisationer öppnar sina system och centrala affärsprocesser för partners endast om en hög grad av förtroende kan garanteras. Uppkomsten av säkerhetsstandarder för webbtjänster ger ett värdefullt och effektivt paradigm för att ta itu med de säkerhetsfrågor som uppstår inom ramen för det interorganisatoriska samarbetet. Den låga abstraktionen av dessa standarder är dock fortfarande en olöst fråga som gör dem otillgängliga för domänexperten och förblir ett stort hinder när det gäller att anpassa säkerhetsmålen till kundernas behov. Deras komplexitet gör att genomförandet lätt kan leda till fel. SECTET - ett modellstyrt säkerhetstekniskt ramverk för B2B-arbetsflöden - underlättar utformning och genomförande av säkra arbetsflöden mellan organisationer. Detta bidrag har tre mål. Först presenterar vi ett domänspecifikt språk på hög nivå - kallat SECTET-PL. Som en del av SECTET-ramverket är SECTET-PL ett policyspråk influerat av Object Constraint Language och tolkat i samband med UML-modeller. Vi beskriver sedan Meta Object Facility-baserade metamodeller för integrering av affärskrav med säkerhetskraven. Slutligen, med hjälp av modelldriven arkitektur paradigm, beskriver vi omvandlingen av högnivåsäkerhetsmodeller till lågnivå webbtjänster standard artefakter med hjälp av Eclipse Modelling Framework och OpenArchitectureWare.
REF presenterar ett tillvägagångssätt som specialiserar konceptet modelldriven arkitektur på modelldriven säkerhet genom att tillhandahålla ett så kallat SECTET-ramverk.
1,749,947
Model-Driven Security Engineering for Trust Management in SECTET
{'venue': 'JSW', 'journal': 'JSW', 'mag_field_of_study': ['Computer Science']}
81,557
Befintliga djupt inbäddade metoder i vision uppgifter är kapabla att lära sig en kompakt Euclidean utrymme från bilder, där Euclidean avstånd motsvarar en likhet metriska. För att göra lärandet mer effektivt och effektivt används ofta hård provbrytning, med prover som identifieras genom beräkning av Euclideans funktionsavstånd. Det globala Euclideanavståndet kan dock inte troget karakterisera den sanna egenskapslikheten i ett komplext visuellt funktionsutrymme, där det intraklassiga avståndet i en högdensitetsregion kan vara större än avståndet mellan klasserna i lågdensitetsregioner. I detta dokument introducerar vi en Position-Dependent Deep Metric (PDDM) enhet, som är kapabel att lära sig en likhet metriska adaptiv till lokala funktioner struktur. Mätmetoden kan användas för att välja verkligt hårda prover i ett lokalt område för att vägleda djupt inbäddade lärande på ett online och robust sätt. Det nya skiktet är tilltalande eftersom det kan anslutas till alla konvolutionella nätverk och är utbildad end-to-end. Vår lokala likhet-medveten funktion inbäddning visar inte bara snabbare konvergens och ökade prestanda på två komplexa bildsökning dataset, dess stora marginal natur leder också till överlägsna generalisering resultat under de stora och öppna scenarier för överföring lärande och noll-shot lärande på ImageNet 2010 och ImageNet-10K dataset.
Huang el al REF föreslog en positionsberoende djup metriska enhet för att adaptivt välja hårda exempel med hänsyn till det lokala grannskapet.
1,139,945
Local Similarity-Aware Deep Feature Embedding
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
81,559
Traditionella ultradense trådlösa nätverk rekommenderas som ett komplement för cellulära nätverk och är utplacerade i partiella områden, såsom hotspot och inomhusscenarier. Baserat på de massiva multi-input multi-output (MIMO) antenner och millimetervåg kommunikation teknik, 5G ultra-dense cellulära nätverket föreslås att distribuera i övergripande cellulära scenarier. Dessutom presenteras en distributionsnätsarkitektur för 5G ultra-dense cellulära nätverk. Dessutom undersöks den backhaul nätverkskapacitet och backhaul energieffektivitet ultra-dense cellulära nätverk för att svara på en viktig fråga, dvs. hur mycket förtätning kan användas för 5G ultra-dense cellulära nätverk. Simuleringsresultat visar att det finns gränser för förtätning för 5G ultra-dense cellualr nätverk med backhaul nätverkskapacitet och backhaul energieffektivitet begränsningar. Skickad till IEEE Wireless Communications.
I REF undersöks backhaul-nätverkskapaciteten och backhaul-energieffektiviteten i ultratäta cellulära nät för att svara på hur mycket förtätning som kan användas för 5G ultratäta cellulära nät.
5,972,986
5G Ultra-Dense Cellular Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
81,560
Vi presenterar ett sortiment av metoder för att hitta och räkna enkla cykler av en given längd i riktade och oriktade grafer. De flesta av de gränser som erhålls beror enbart på antalet kanter i diagrammet i fråga, och inte på antalet hörn. De gränser som erhållits förbättras på olika tidigare kända resultat. Nyckelord. Grafiska algoritmer, cykler. 1. Vad är det för fel på dig? Inledning. Problemet med att bestämma huruvida en givengraphG = (V, E) innehåller en enkel cykel av längd k är bland de mest naturliga och lätt angivna algoritmiska grafproblem. Om cykeln längd k är en del av inmatningen, då problemet är helt klart NPfullständig som det inkluderar i synnerhet Hamiltonian cykel problem. För varje fast k, men problemet kan lösas i antingen O(VE) tid [11] där w < 2.376 är exponenten för matris multiplikation. Det viktigaste bidraget av detta papper är en samling nya gränser på komplexiteten av att hitta enkla cykler av längd exakt k, där k > 3 är ett fast heltal, i en riktad eller en oriktad graf G = (V, E). Dessa gränser är av formen O (E ~k ) eller av formen O(E ~k.d(G)• där d(G) är degeneracy av grafen (se nedan). Gränserna förbättras vid tidigare kända gränser när grafen i fråga är relativt gles eller relativt degenererad. Vi lät Ck stå för en enkel cykel av längd k. När man överväger riktade grafer, en Ck antas vara riktad. Vi visar att en Ck i en riktad eller oriktad graf G = (V, E), om en finns, kan hittas i O(E 2-2/k) tid, om k är jämn, och i O(E 2-2/(k+1) tid, om k är udda. För att hitta trianglar (C3's), får vi den något bättre bundet av O(E 2~176 = O(EI41), där w < 2.376 är exponenten för matris multiplikation. Även cykler i oriktade grafer kan hittas ännu snabbare. En C4k-2 i en oriktad graf G = (V, E), om en finns, kan hittas i O(E 2-(l/2k)tl+l/k) tid. En Cak, om en finns, kan hittas i O(E 2-(l/k-t/(2k+~))) tid. I synnerhet kan vi hitta en oriktad Ca i O(E 4/3) tid och en oriktad C6 i O(E 13/8) tid. Degeneracy d(G) i en oriktad graf G---(V, E) är det minsta antal d för vilket det finns en acyklisk orientering av G där alla utgrader är som mest d. Degeneracy d(G) i en graf G är linjärt relaterad till arboricity a(G) i grafen, dvs a(G) = (-) (d(G)), där a(G) är det minsta antal skogar som behövs I
Alon och Al. REF visar att man kan hitta en cykel av längd exakt c, eller visa att man inte finns, i
725,250
Finding and counting given length cycles
{'venue': 'Algorithmica', 'journal': 'Algorithmica', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
81,561
I denna artikel presenteras utformningen, genomförandet och utvärderingen av IO-Lite, ett enhetligt I/O buffrings- och cachesystem för operativsystem för allmänna ändamål. IO-Lite förenar all buffring och cachelagring i systemet, i den utsträckning hårdvaran tillåter. Det gör det särskilt möjligt för tillämpningar, kommunikationssystemet mellan processer, filsystemet, filcachen och nätverkets delsystem att på ett säkert sätt och samtidigt dela en enda fysisk kopia av uppgifterna. Skydd och säkerhet upprätthålls genom en kombination av åtkomstkontroll och lässkyddad delning. IO-Lite eliminerar all kopiering och flera buffring av I/O-data, och möjliggör olika cross-subsystemoptimeringar. Experiment med en webbserver visar prestandaförbättringar mellan 40 och 80 % på verklig arbetsbelastning till följd av IO-Lite. För många användare är den upplevda hastigheten hos datorer allt mer beroende av prestandan hos nätverksanslutna serversystem, vilket understryker behovet av högpresterande servrar. Tyvärr ger allmänna operativsystem otillräckligt stöd för serverapplikationer, vilket leder till dålig serverprestanda och ökade hårdvarukostnader för serversystem. En källa till problemet är bristen på integration mellan de olika delsystemen för input/output (I/O) och tillämpningar i allmänna operativsystem. Varje I/O-delsystem använder sin egen buffrings- eller cachemekanism, och applikationer upprätthåller i allmänhet sina egna privata I/O-buffertar. Detta tillvägagångssätt leder till upprepad datakopiering, flera buffring av I/O-data och andra avvikelser som försämrar prestandan.
IO-lite REF förenar datahanteringen mellan delsystemen i operativsystemet och applikationerna i användarrymden genom att tillhandahålla sidbaserade mekanismer för att säkert och samtidigt dela data.
5,280,787
IO-Lite: a unified I/O buffering and caching system
{'venue': 'TOCS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,562
Vi undersöker sambandet mellan dimensionalitet och kommunikationskostnader vid problem med distribuerat lärande. Specifikt studerar vi problemet med att uppskatta medelvärdet av en okänd d dimensional gaussian distribution i den distribuerade inställningen. I detta problem, proverna från den okända fördelningen fördelas mellan m olika maskiner. Målet är att uppskatta medelvärdet på den optimala minimax-hastigheten samtidigt som man kommunicerar så få bitar som möjligt. Vi visar att i detta sammanhang kommer kommunikationen att kosta linjärt i antal dimensioner, dvs. Man måste ta itu med olika dimensioner individuellt. Genom att tillämpa detta resultat på tidigare lägre gränser för en dimension i den interaktiva inställningen [1] och på våra förbättrade gränser för den samtidiga inställningen, visar vi oss vara nya nedre gränser för och för de delar av kommunikationen som behövs för att uppnå minimax squared-förlusten, i de interaktiva respektive samtidiga inställningarna. För att komplettera visar vi också ett interaktivt protokoll som uppnår minimax squared förlust med O (md) bitar av kommunikation, vilket förbättrar på det enkla samtidiga protokollet med en logaritmisk faktor. Med tanke på de starka lägre gränserna i den allmänna inställningen inleder vi studien av de distribuerade parameteruppskattningsproblemen med strukturerade parametrar. När parametern utlovas vara s-sparse visar vi ett enkelt tröskelbaserat protokoll som uppnår samma kvadratförlust samtidigt som vi sparar en d/s-faktor för kommunikation. Vi antar att den kompromiss mellan kommunikation och squared förlust som visas av detta protokoll är i huvudsak optimal upp till logaritmisk faktor.
Garg m.fl. visade en kommunikations komplexitet lägre gräns för beräkning medelvärdet av d-dimensionella punkter REF.
12,695,525
On Communication Cost of Distributed Statistical Estimation and Dimensionality
{'venue': 'NIPS', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
81,563
Abstract-autentication system baserade på trådlös fysisk lagerkanal information har fått betydande uppmärksamhet under de senaste åren. Det har visats i färska studier, att den kanalbaserade autentiseringen antingen kan samarbeta med befintliga säkerhetsprotokoll i högre skikt eller ge viss säkerhet till nätverk utan central myndighet såsom sensornätverk. Vi föreslår en Gaussian Blandning Modell baserad semi-övervakad inlärningsteknik för att identifiera inkräktare i nätverket genom att bygga en probabilistisk modell av den trådlösa kanalen för nätverksanvändare. Vi visar att även utan att ha en komplett apriori kunskap om statistiken över inkräktare och användare i nätverket, vår teknik kan lära sig och uppdatera modellen på ett online-mode samtidigt som hög detektionshastighet. Vi demonstrerar experimentellt vår föreslagna teknik att utnyttja mönstermångfald och visar med hjälp av uppmätta kanaler att man kan uppnå så låga detekteringshastigheter som 0,1 % för falsklarmfrekvens på 0,4 %.
En Gaussian Blandning Modellbaserad teknik tillämpas i REF.
14,247,622
GMM Based Semi-Supervised Learning for Channel-Based Authentication Scheme
{'venue': '2013 IEEE 78th Vehicular Technology Conference (VTC Fall)', 'journal': '2013 IEEE 78th Vehicular Technology Conference (VTC Fall)', 'mag_field_of_study': ['Computer Science']}
81,564
Abstract-Universities samlar stora volymer av data med hänvisning till sina studenter i elektronisk form. Framstegen inom datautvinningsområdet gör det möjligt att minera dessa utbildningsdata och hitta information som möjliggör innovativa sätt att stödja både lärare och studenter. I denna uppsats presenteras en fallstudie om förutsägelse av studenternas prestationer i slutet av en universitetsexamen i ett tidigt skede av examensprogrammet, i syfte att hjälpa universiteten att inte bara fokusera mer på smarta studenter utan också att inledningsvis identifiera studenter med låg akademisk prestation och hitta sätt att stödja dem. Data från fyra akademiska kohorter bestående av 347 studenter på grundnivå har utvunnits med olika klassificeringar. Resultaten visar att det är möjligt att förutsäga examensresultatet i 4: e året vid universitetet med endast pre-universitets märken och märken i 1: a och 2: a året kurser, inga socioekonomiska eller demografiska särdrag, med en rimlig noggrannhet. Dessutom har kurser som är indikatorer på särskilt goda eller dåliga resultat identifierats.
Författarna i REF, presenterade en fallstudie om att förutsäga elevernas prestationer.
13,588,232
Predicting Student Academic Performance at Degree Level: A Case Study
{'venue': None, 'journal': 'International Journal of Intelligent Systems and Applications', 'mag_field_of_study': ['Computer Science']}
81,565
Attributbaserad Access Control (ABAC) ersätter snabbt traditionella passerkontrollmodeller på grund av sin dynamiska karaktär, flexibilitet och skalbarhet. ABAC används ofta i samarbetsmiljöer. Ett stort hinder för att införa ABAC är dock att exakt konfigurera ABAC-policyn. I detta dokument presenterar vi en ABAC-utvinningsstrategi som automatiskt kan upptäcka lämpliga ABAC-politiska regler. Vi visar först att ABAC gruvproblemet är likvärdigt med att identifiera en uppsättning funktionella beroenden i relationsdatabaser som täcker alla poster i en tabell. Vi föreslår också en effektivare algoritm, kallad ABAC-SRM, som upptäcker de mest allmänna policyreglerna från en uppsättning kandidatregler. Vi visar experimentellt att ABAC-SRM är korrekt och betydligt effektivare än den befintliga tekniken.
Talukdar m.fl. REF visar att problemet med gruvdrift i ABAC liknar problemet med att identifiera funktionella beroenden i databastabeller.
6,737,336
Efficient Bottom-Up Mining of Attribute Based Access Control Policies
{'venue': '2017 IEEE 3rd International Conference on Collaboration and Internet Computing (CIC)', 'journal': '2017 IEEE 3rd International Conference on Collaboration and Internet Computing (CIC)', 'mag_field_of_study': ['Medicine', 'Computer Science']}
81,566
Abstrakt. Nuvarande person omidentifiering (re-id) metoder vanligtvis förlitar sig på en ram bilder funktioner, och ignorera rum-tid information från bildsekvenser. En ram (en enda bild) utseende matchning är i sig begränsad för person re-id i offentliga utrymmen på grund av visuell tvetydighet som uppstår från icke-överlappande kamera vyer där synvinkel och ljus förändringar kan orsaka betydande utseende variation. I detta arbete presenterar vi en ny modell för att automatiskt välja de mest diskriminerande videofragment från bullriga bildsekvenser av människor där mer tillförlitliga rum-tid funktioner kan extraheras, samtidigt för att lära sig en video ranking funktion för person re-id. Dessutom introducerar vi en ny bildsekvens re-id dataset (iLIDS-VID) baserat på i-LIDS MCT-riktmärkesdata. Med hjälp av iLIDS-VID och PRID 2011 sekvens re-id dataset, genomförde vi omfattande jämförande utvärderingar för att visa fördelarna med den föreslagna modellen över samtida gångigenkänning, holistisk bildsekvens matchning och state-of-the-art singleshot/multi-shot baserade re-id metoder.
Wang m.fl. REF presenterade en modell för att automatiskt välja de mest diskriminerande videofragment och samtidigt lära sig en video ranking funktion för person re-id.
3,385,678
Person Re-identification by Video Ranking
{'venue': 'ECCV', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,567
Återhämtning av skadade bilder på grund av rörelse suddig är ett utmanande problem i digital avbildning. De flesta befintliga tekniker på blind deblurring inte kan ta bort komplexa rörelse suddig från suddiga bilder av komplexa strukturer. Ett lovande tillvägagångssätt är att återställa den klara bilden med hjälp av flera bilder fångade för scenen. Det observeras dock i praktiken att en sådan multi-frame metod kan återställa en högkvalitativ klar bild av scenen först efter flera suddiga bildramar är exakt i linje under förbehandlingen, vilket är en mycket utmanande uppgift även med användarinteraktioner. I detta dokument, genom att utforska det glesa i rörelsen oskärpa kärnan och den klara bilden under vissa domäner, föreslog vi en alternativ iteration metod för att samtidigt identifiera de oskärpa kärnor av givna suddiga bilder och återställa en klar bild. Vårt föreslagna tillvägagångssätt är inte bara robust mot bildbildningsljud, utan är också robust mot anpassningsfelen bland flera bilder. En modifierad version av linearized Bregman iteration utvecklas sedan för att effektivt lösa det resulterande minimization problemet. Experimenten visade att vår föreslagna algoritm exakt kan uppskatta de oskärpa kärnorna av komplexa kamerarörelser med minimala krav på exaktheten i bildjusteringen. Som ett resultat, vår metod kan automatiskt återställa en högkvalitativ klar bild från flera suddiga bilder.
I REF visade författarna att med tanke på flera observationer är bildens gleshet under en snäv ram ett bra mått på tydligheten i den återvunna bilden.
571,559
Blind motion deblurring using multiple images
{'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
81,568
I detta dokument undersöks två grundläggande egenskaper hos ett trådlöst multihop-nätverk: dess minsta nodgrad och dess k-anslutningsförmåga. Båda topologi attribut beror på den rumsliga fördelningen av noderna och deras överföringsområde. Med hjälp av typiska modellering antaganden - en slumpmässig enhetlig fördelning av noderna och en enkel länk modell - vi härleda ett analytiskt uttryck som gör det möjligt att bestämma det erforderliga intervallet r0 som skapar, för en given nod densitet ρ, ett nästan säkert k-anslutet nätverk. Motsvarande, om den maximala r0 av noderna ges, kan vi ta reda på hur många noder som behövs för att täcka ett visst område med ett k-anslutet nätverk. Vi undersöker också dessa frågor genom olika simuleringar och verifierar därmed våra analytiska uttryck. Slutligen diskuteras effekterna av rörligheten. Resultaten av denna uppsats är av praktiskt värde för forskare inom detta område, t.ex. om de ställer in parametrarna i en nätverkssimulering av ett mobilt ad hoc-nätverk eller om de designar ett trådlöst sensornätverk.
Baserat på den geometriska slumpmässiga grafen och rumsliga analysen av trådlös nod ger REF ett analytiskt resultat för att erhålla minsta nodgrad för k-anslutningsnät.
11,314,450
On the minimum node degree and connectivity of a wireless multihop network
{'venue': "MobiHoc '02", 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,569
Abstract-Utveckling i kortdistans trådlös LAN (WLAN) och långdistans trådlös WAN (WWAN) teknik har motiverat de senaste ansträngningarna för att integrera de två. Detta skapar nya tillämpningsscenarier som inte var möjliga tidigare. Fordon med endast WLAN-radio kan använda andra fordon som har både WLAN- och WWAN-radio som mobila gateways och ansluta till Internet medan de är på väg. Den svåraste utmaningen i scenariot är att hantera frekventa vägbrott på grund av dynamisk rörlighet för fordon på vägen. Befintliga routingprotokoll som i stor utsträckning används för mobila ad hoc-nät är reaktiva till sin natur och väntar tills befintliga rutter går sönder innan nya rutter byggs upp. De ofta förekommande felen i rutten resulterar i en betydande mängd tid som behövs för att reparera befintliga rutter eller rekonstruera nya linjer. Trots den dynamiska rörligheten är rörligheten för fordon på motorvägar ganska förutsägbar jämfört med andra rörlighetsmönster för trådlösa ad hoc-nät, med plats- och hastighetsinformation som är lätt tillgänglig. Detta kan utnyttjas för att förutsäga hur lång tid en rutt kommer att pågå mellan ett fordon som kräver Internetanslutning och den port som tillhandahåller en rutt till Internet. Framgångsrik förutsägelse av ruttens livstider kan avsevärt minska antalet fel på rutten. I detta dokument introducerar vi ett prediktionsbaserat routingprotokoll (PBR) som är särskilt anpassat till det mobila gateway-scenariot och som drar nytta av det förutsägbara rörlighetsmönstret för fordon på motorvägar. Protokollet använder förutsagda ruttlivslängder för att föregripa skapandet av nya rutter innan befintliga misslyckas. Vi studerar resultatet av detta protokoll genom simulering och visar betydande minskningar av ruttfel jämfört med protokoll som inte använder förebyggande routing. Dessutom finner vi att omkostnaderna för förebyggande routing hålls i schack på grund av PBR:s förmåga att förutsäga routelivslängder.
I Ref utnyttjade forskarna lokaliserings- och hastighetsinformation för att förutsäga länklivslängden och ruttens livslängd mellan ett fordon och en gateway som ansluter Internet på motorvägar.
2,443,091
Prediction-Based Routing for Vehicular Ad Hoc Networks
{'venue': 'IEEE Transactions on Vehicular Technology', 'journal': 'IEEE Transactions on Vehicular Technology', 'mag_field_of_study': ['Computer Science']}
81,570
Stadgan om SRC är att främja både kunskapsläget och den senaste tekniken inom datasystem. Från vår etablering 1984 av Digital Equipment Corporation (numera Compaq) har vi bedrivit grundforskning och tillämpad forskning för att stödja företagets affärsmål. Våra intressen spänner över skalbara system (inklusive hårdvara, nätverk, distribuerade system, och programmering språk och teknik), Internet (inklusive webben, och internet apparater), och människa / dator interaktion. Vår strategi är att testa det tekniska och praktiska värdet av våra idéer genom att bygga maskin- och programvaruprototyper och använda dem som dagliga verktyg. Intressanta system är för komplexa för att utvärderas enbart i det abstrakta; utökad användning gör att vi kan undersöka deras egenskaper på djupet. Denna erfarenhet är användbar på kort sikt för att förfina vår design, och ovärderlig på lång sikt för att främja vår kunskap. De flesta av de stora framstegen i informationssystem har kommit genom denna strategi, inklusive personlig databehandling, distribuerade system och Internet. Vi utför också kompletterande arbete av en mer matematisk smak. En del av det är inom etablerade områden av teoretisk datavetenskap, såsom analys av algoritmer, beräkningsgeometri, och logik av programmering. Annat arbete utforskar ny mark som motiveras av problem som uppstår i vår systemforskning. Vi har ett starkt engagemang för att kommunicera våra resultat; att exponera och testa våra idéer i forsknings- och utvecklingsgemenskaperna leder till ökad förståelse. Vår forskningsrapportserie kompletterar publicering i professionella tidskrifter och konferenser medan vår tekniska anteckningsserie kompletterar forskningsrapporter och tidskrifts-/konferenspublikationer genom att möjliggöra snabb spridning av nya forskningsresultat. Vi söker användare för våra prototypsystem bland dem som vi har gemensamma intressen med, och vi uppmuntrar samarbete med universitetsforskare. David L. Detlefs, K. Rustan M. Leino, Greg Nelson, och James B. Saxe December 18, 1998 Författare Affiliations David L. Detlefs är en stab ingenjör på Sun Microsystems Laboratories. Han kan nås på [email protected]. Detta arbete slutfördes av honom och de andra författarna innan han lämnade SRC 1996. Detta verk får inte kopieras eller reproduceras helt eller delvis för något kommersiellt ändamål. Tillstånd att kopiera helt eller delvis utan betalning av avgift beviljas för ideella utbildnings- och forskningsändamål, förutsatt att alla sådana fullständiga eller partiella kopior omfattar följande: ett meddelande om att sådan kopiering sker genom tillstånd från System Research Center of Compaq Computer Corporation i Palo Alto, Kalifornien; ett erkännande av upphovsmännen och enskilda bidragsgivare till verket; och alla tillämpliga delar av meddelandet om upphovsrätt. Kopiering, återgivning eller återutgivning för något annat ändamål ska kräva licens med betalning av avgift till Systems Research Center. Alla rättigheter förbehållna. Papperet beskriver en mekanisk kontroll för programvara som fångar många vanliga programmeringsfel, i synnerhet array index begränsar fel, inga dereferensfel, och synkronisering fel i multi-trådade program. Kontrollen utförs vid kompileringstidpunkten. Kontrollen använder en automatisk teorem-provare för att resonera om semantiken av villkorliga uttalanden, loopar, procedur och metodanrop, och undantag. Kontrollen har implementerats för Modula-3. Den har tillämpats på tusentals rader av kod, inklusive mogen systemkod samt färsk oprövad kod, och den har funnit ett antal fel. Författarna till denna uppsats var fortfarande barn när de ledande ljusen i datorer förklarade att världen stod inför en "programvara kris". Medan hårdvaran förbättrades varje år, var mjukvaran fast i komplexitet, och programmeringen var dyr, felbenägen och ansträngande. Men dessa dystra observationer stoppade inte programvaruindustrin, som fortsatte att öka sina intäkter och vinster dramatiskt, och som har upprätthållit denna tillväxt med kontinuerlig innovation. Var programvarukrisen ett falskt alarm? Inte direkt. Även om lönsamma, skriva programvara är fortfarande dyrt, fel-bene, och hårda. Innovation inom programvaruindustrin har till största delen begränsats till att hitta nya saker som har att göra med programvara, och har inte hittat många nya sätt att producera programvara. Det är fortfarande vanligt att se mjukvarukatastrofer där miljontals dollar spenderas på att skriva ett program som överges innan release, eftersom implementatorerna helt enkelt inte kan få det att fungera. Det tragiska misslyckandet att etablera programvara som tillförlitlig teknisk disciplin framgår smärtsamt tydligt av studier som Leveson och Turners undersökning av Therac-25-olyckorna [31]. Även om intäkter och vinster har ökat, visar siffror från det ekonomiska konsultföretaget DRI/McGraw-Hill att produktiviteten i programvaruindustrin faktiskt har minskat under en period av allmänt ökande produktivitet under den senaste tiden [10]. Dessa beräkningar kanske inte är helt korrekta eftersom det är svårt att korrigera för inflationen, men det verkar säkert att säga att programvaruproduktiviteten inte har hållit jämna steg med produktiviteten inom andra områden inom dataindustrin såsom hårdvara. I själva verket skulle vi hävda att tillväxten av mjukvaruindustrin har trotsat stagnationen av programmeringsteknik bara på grund av den medvind som skapats av den miljonfaldiga förbättringen av pris / prestanda för processorer under de senaste trettio åren. När informationsrevolutionen lämnar sin späda barndom, och vi inom ingenjörsvärlden tar på oss ansvaret att uppfylla sina stora löften, från robotar till knowbots, anses det otillräckligt att våra framsteg skulle påskyndas enormt om programmeringstekniken avancerades på något som liknar samma kurva som mikroprocessorer. Många silverkulor har förebådats som lösningen på programvarukrisen. Om du har ett programvaruproblem är strukturerad programmering med PL/I svaret! Den objektorienterade revolutionen kommer att föra massproduktionsmetoder till programvara och göra programfragment till billiga återanvändbara pålitliga varor! Programverifiering kommer att eliminera alla fel! Programmering i naturligt språk kommer att eliminera behovet av arktiska språk; slutanvändare kommer att uttrycka sina krav direkt till datorn, och programmering som ett yrke kommer att vissna bort! Ingen av drömmarna bakom dessa slagord har uppfyllts. Vi anser att programplaneringen och dess svårigheter är här för att stanna. race villkor i multi-trådade program. Verktyget är användbart eftersom kostnaden för ett fel minskar kraftigt om det upptäcks tidigt i utvecklingsprocessen. Verktyget är avsett att vara som en typkontroll eller som C-verktyget lint [23]: dess varningar är avsedda att tolkas av programförfattaren som kontrolleras. Kontrollen genomförs med hjälp av tekniken för programverifiering. Programmet kommenteras med specifikationer; det kommenterade programmet presenteras för en "verifiering villkor generator", som producerar logiska formler som är bevisbara om och endast om programmet är fri från den särskilda klassen av fel som övervägs, och dessa formler presenteras för en automatisk teorem-prover. Detta låter som programverifiering, men det är inte: för det första eftersom vi inte försöker bevisa att ett program gör vad det är tänkt att göra, bara för att kontrollera vissa specifika typer av fel; för det andra eftersom vi är intresserade av misslyckade bevis bara, inte i framgångsrika. En avgörande punkt är att misslyckade bevis är mer användbara än framgångsrika, eftersom de varnar programmeraren för eventuella fel. Förutom att vara mer användbar är ESC mer genomförbart än fullskalig programverifiering. Till exempel är en osund fullskalig programkontrollant en oxymoron, men mängden osundhet att tolerera i en statisk kontroll är en fråga om teknisk bedömning: ingen förväntar sig en typkontroll eller ett lint verktyg för att hitta alla fel; dess verktyg bestäms av antalet fel den hittar vägs mot kostnaden för att köra verktyget. På samma sätt, eftersom vi inte lovar att ESK kommer att upptäcka alla fel, är vi fria att förklara att vissa typer av fel ligger utanför verktygets räckvidd. Denna idé om utökad statisk kontroll är inte ny. Den första doktorsavhandlingen som vi känner till tog upp idén var av Dick Sites för ett kvarts sekel sedan [44], och problemet har hållit sig som ett avhandlingsämne ända sedan dess. Men de forskningsprototypkontroller som har genomförts under årtiondena har gjort alltför många förenklade antaganden. De får inte hantera dynamiskt fördelade data eller objektorienterad programmering; de får inte hantera konvergens; de kan kräva källan för hela programmet för att kontrollera någon del av det; de kan kräva att användaren vägleder teoremet-provaren eller för att ge komplicerade loopinvarianter. Sådana förenklingsantaganden är ett sätt att skilja oron åt, vilket kan bidra till att fokusera på särskilda aspekter av problemet och på så sätt fördjupa insikten. Vårt arbete bygger på de djupa insikter som många tidigare forskare har skapat, men vårt ESC-projekt har följt ett kompletterande forskningssätt, där varje två ansträngning görs för att producera och testa en realistisk artefakt. Detta kompletterande forskningssätt kan ofta avslöja överraskningar. De flesta tidigare kontrollverktyg testades endast på små program skrivna av verktygsimplementatorerna själva. Däremot var vår plan att köra vår checker på betydande delar av Modula-3 runtime-systemet. Genom att ta itu med realistiska program som skrivits av andra (eller i vissa fall av ESK:s projektmedlemmar innan ESK-projektet inleddes) hoppades vi få svar på följande frågor: • Kan vi skapa kontrollvillkor för sådana "systemprogram"? • Skulle vi kunna omvandla misslyckade verifieringar till specifika felmeddelanden? • Hur stor börda skulle det vara att skriva de nödvändiga kommentarerna? • I vilken utsträckning kan vi automatisera den teorem-proving uppgiften? Sammanfattningsvis var vi fast beslutna att stresstesta en idé som länge varit i havandeskap. Vår kontroll hanterar multi-trådade multi-modul objektorienterade program. Vår kontroll fungerar på Modula-3 program [40], men teknikerna skulle fungera för alla språk på vilka adressen aritmetisk är begränsad, inklusive Java, Ada, Oberon, och FORTRAN. När detta dokument går till tryck, har ett uppföljningsprojekt kopierat tekniken i ett verktyg för Java. Vår kontroll utför modulär kontroll: du kan använda den för att kontrollera valda moduler i ett program utan att kontrollera hela programmet. Eftersom modern programmering är otänkbar utan bibliotek, anser vi att modulär kontroll är nödvändig. Kontrollen gör det också möjligt för dig att kontrollera valda klasser av fel; till exempel är det ofta användbart att kontrollera dödläge och tävlingsförhållanden utan att kontrollera för array indexgränser fel. När kontrollören ger falska varningar finns det en mängd olika sätt att undertrycka dem, det vill säga att få kontrollanten att ignorera de falska varningarna och fortsätta att rapportera verkliga fel. A Även om vår kontroll är en forskningsprototyp, med många grova kanter, anser vi att den visar löftet om tekniken tydligare än tidigare kontroller: ESC fångar fel som ingen typkontroll kan fånga, men det känns för programmeraren mer som en typkontrollör än en programkontrollant. De specifikationer som krävs är uttalanden av enkla fakta som ojämlikheter, felmeddelandena är specifika och korrekta med avseende på källposition och feltyp, och teorem-proving utförs bakom kulisserna automatiskt. Vårt huvudsakliga mål för detta papper är att förmedla till läsaren hur det känns att använda en kontroll som fungerar i denna mellanliggande nivå mellan typkontroll och verifiering. Dokumentet består därför till stor del av två exempel. Efter exemplen beskriver vi på en ganska allmän nivå några av de nya aspekterna av vår kontroll, men vi har förvisat många detaljer till andra papper. I detta avsnitt lägger vi grunden till de exempel som utgör kärnan i dokumentet genom att kortfattat presentera ESK:s språkspecifikation. Utformningen av specifikationsspråket återspeglar strukturen av väl utformade program. En pelare i programstrukturen är procedurmässig abstraktion, där en sammansatt operation namnges och parameteriseras och används av resten av programmet som om det vore en elementär operation. Procedural abstraktion gör statisk analys svår, så svår att många statiska analysmetoder som beskrivs i litteraturen endast gäller program utan procedurer, och många praktiska kompilatorer utför ingen interprocedural analys alls, även om de utför omfattande intra-procedural analys. Anledningen till detta är att upphovsmännen till kompilatorer och andra verktyg inte har velat förlita sig på specifikationer, men inter-förfarandeanalys kräver i grunden att man behandlar specifikationer, oavsett om de tillhandahålls av programmeraren eller kan härledas från verktyget. För att utföra en interprocessell analys använder sig ESC av specifikationer för programmerare som tillhandahålls av det formulär som visas i figur 0. För- och postvillkor är formler i en första-order teori som inkluderar Modula-3 inbyggda operatörer. En förfarandespecifikation är ett avtal mellan exploatören och kunden: klienten avtal att kalla förfarandet i ett tillstånd där förutsättningarna är sanna, och exploatören avtal (a) att ändra ingen variabel utom de i MODI-FIES-listan, och (b) att återvända endast i ett tillstånd som uppfyller postvillkoret. Vid kontrollen av förfarandets helhet utgår ESK från att förutsättningarna är uppfyllda från början och kontrollerar att när förfarandet återställs är villkoren uppfyllda och att endast dessa variabler i MODIFIES-klausulen har ändrats. Omvänt kontrollerar ESK vid kontroll av en kund att villkoret är uppfyllt vid ansökningsomgången och utgår från att ansökningsomgången respekterar både postvillkoret och MODIFIES-klausulen. Här finns till exempel en Modula-3-deklaration och ESC-specifikation för en enkel slumptalsgenerator: MODIFIES utsäde REQUES 0 < n OCH utsäde # 0 ENSURES 0 RES OCH RES < n OCH utsäde # 0 * > Exemplet illustrerar också flera andra punkter. För det första, för en variabel som förtecknas i MODIFIES-klausulen (t.ex. utsäde), kan förekomster i postvillkoret vara oprimerade eller primerade (frö). En primerad händelse betecknar värdet av variabeln i post-tillståndet, medan en oprimerad händelse betecknar värdet av variabeln i för-tillståndet. För det andra används det reserverade namnet förnybara energikällor för att ange resultatet av förfarandet, i förekommande fall. För det tredje omger Modula-3 pragma-fästen, <* *>, ESK-anteckningar för att skilja dem från vanliga Modula-3. Fjärde, x # y är Modula-3 syntax för att hävda att värdena för x och y är olika. En annan pelare i programstrukturen är dataabstraction, där en samling av programvariabler (eller konkreta variabler) anses begreppsmässigt representera en enda abstrakt variabel. Den abstrakta variabeln används av klienter för att resonera om verksamhetens semantiska effekt på abstraktionen, och de konkreta variablerna används av implementeringen för att fungera effektivt på staten. Till exempel, det abstrakta värdet av ett komplext tal z kunde representeras konkret i termer av två flyttal Cartesian koordinater z.x och z.y; alternativt samma abstraktion kan representeras i termer av polar koordinaterna z.r och z.theta. I allmänhet är modulstrukturen i ett program arrangerad så att den konkreta representationen av en abstraktion är osynlig (dvs utom räckhåll) inom de moduler som använder abstraktionen (dess kunder) [42]. Figur 1 visar ESK:s syntax för att förklara en abstrakt variabel och ange dess representation (även känd som dess abstraktionsfunktion). Till exempel, 5 < * SPEC VAR a: INTEGER *> VAR c: INTEGER; < * SPEC REP a = c * c * > förklarar ett abstrakt heltal variabel a, ett konkret heltal variabel c, och anger att kvadraten c representerar a. Vi har inte beskrivit hela specifikationsspråket, men vi har beskrivit tillräckligt för att ge det första exemplet. Båda de två utökade exemplen i detta papper använder Modula-3's standard I/O-bibliotek, som är utformat kring den viktiga abstraktionen av en övervakad objektorienterad buffrad ström. I synnerhet är en läsare en ingångsström och en författare är en utgångsström. Varje stream objekt innehåller en buffert och metoder för att hantera bufferten. Olika strömunderklasser åsidosätter metoderna på olika sätt, så att till exempel en filläsare fyller på bufferten från disken och en nätverksläsare fyller på bufferten från nätverket. Klassoberoende kod kan vara gemensam för alla underklasser; till exempel, Wr.PutInt skriver ASCII representation av ett heltal i en författares buffert. Modula-3 design beskrivs i kapitel 6 i Nelsons Modula-3 bok [40], den ursprungliga designen beskrivs av Stoy och Strachey [46]. Vi beskriver olika aspekter av de relevanta gränssnitten eftersom vi behöver dem för våra exempel. För varje typ av ström tillhandahåller Modula-3 I/O-biblioteket två gränssnitt, ett grundläggande gränssnitt för enkla kunder och ett avancerat gränssnitt som erbjuder ytterligare funktionalitet (särskilt tillgång till buffertstrukturen) till priset av ytterligare komplexitet. Det grundläggande skribentgränssnittet. Vårt första exempel använder bara det grundläggande skrivgränssnittet Wr, som presenteras i figur 2. Här är en översättning av figur 2 från Modula-3 till engelska. Författaren klass ges det globala namnet Wr.T, där Wr är namnet på gränssnittet och T är enligt överenskommelse den huvudsakliga typen som anges i gränssnittet. Klassen deklareras som en ogenomskinlig objekttyp, allmänt känd endast som en subtyp av den inbyggda klassen ROOT. (I Modula-3 motsvarar klasser objekttyper.) Den faktiska deklarationen av representationstyp är dold i det avancerade gränssnittet, och är osynlig för kunder i det grundläggande gränssnittet. Förfarandena PutChar, PutText och Stäng har givna signaturer och specifikationer (TEXT är Modula-3:s fördeklarerade strängtyp)..) Ett U-värdesatt fält f som deklareras i en klass T motsvarar semantiskt en karta från T till U. Således kan de giltiga och statliga deklarationerna betraktas som BOOLEAN-värderade och ANY-värderade fält av författare. Även Modula-3 använder syntax x.f för att beteckna f-fältet i ett objekt x, annotationsspråket använder syntax f[x] när f är abstrakt. Specifikationerna för skrivgränssnittet faller in i ett gemensamt mönster som vi kallar tillstånd/validitetsparadigm. I detta paradigm finns det två abstrakta variabler, giltiga och tillstånd. Tanken är att giltig [wr] representerar villkoret att wr är en korrekt initierad giltig författare, och stat[wr] representerar alla andra tillstånd av wr (till exempel dess innehåll och position). Om vi gjorde fullskalig programverifiering, det skulle finnas sidor av specifikationer om tillstånd, men eftersom vi gör utökad statisk kontroll bara, det finns nästan ingenting att säga om tillstånd, förutom att specificera att vissa förfaranden kan ändra det. (Inte ens typen av tillstånd är relevant, så vi använder den speciella ESC-typen NÅGON.) I tillstånd/validitetsparadigmet blir specifikationerna mycket stiliserade. En typisk procedur eller metod som fungerar på en författare wr (som PutChar) har specifikationen Eftersom giltig inte visas i MODIFIES-listan, innebär denna specifikation att giltigheten bevaras. Ofta några förfaranden kommer att ha några ytterligare kommentarer-till exempel PutText kräver att dess text argument är icke-NIL-men för enkla gränssnitt stiliserade specifikationer av tillstånd/validitet paradigm är lejonparten av vad som måste skrivas för en ESC-verifikation. Textförfattarens gränssnitt. Figur 3 illustrerar textförfattarens gränssnitt, en viss skrivarunderklass som förekommer i vårt exempel. En textförfattare är en författare som inte gör någon utmatning; den lagrar bara allt som har skrivits i en intern buffert och tillhandahåller en procedur GetText som returnerar innehållet i bufferten som en TEXT. Eftersom TextWr.T är en underklass av Wr.T, specifikationsvariabler giltiga och tillstånd gäller för textförfattare, och används i specifikationen av textförfattare gränssnittet. Metoden init initierar en textförfattare (etablerar giltig"[twt]) och returnerar den (etablerar RES=twt). Specifikationen är helt typisk för initieringsmetoder i tillstånd/validitetsparadigmet. Likaså, specifikationen av GetText är typisk för tillstånd/giltighet paradigm, med ytterligare en postvillkor conjunkct RES # NIL. Exempel. Vårt första exempelprogram är den typ av elementär programmeringsövning som kan tilldelas elever som först lär sig att programmera med utgångsströmmar, och vi har sått vårt program med elementära fel. Problemet är att programmera en procedur som tar en rad texter som argument och returnerar en enda text som innehåller konkatetering av alla texter i arrayen. Detta kan göras ganska enkelt genom att upprepade gånger kalla Modula-3 binär konkatetering operation Text.Kat, men att göra så leder till en prestanda fälla, eftersom med de flesta implementationer av text concatenation, den totala kostnaden i tid för denna enkla strategi kan vara proportionell mot kvadraten på längden på det slutliga resultatet. Ett bra sätt att undvika denna quadratic kostnad är att använda en text författare, vilket leder oss till förfarandet ArrayCat visas i Figur 4. Förfarandet allokerar en textförfattare, skriver elementen i arrayen till skribenten i ordning, och slutligen hämtar och returnerar en text som innehåller allt som skrivits. (Detta tillvägagångssätt undviker den kvadratiska kostnaden om textförfattare är väl genomförda.) Köra ESC på ArrayCat proceduren i Figur 4 ger en varning om en matris indexgränser fel: array index gränser fel, rad 4: (Det exakta formatet för ett ESC felmeddelande är identiskt med ett kompilator felmeddelande; i detta papper använder vi kursiv stil och understrykning för att förmedla samma information.) Felmeddelandet innehåller också en så kallad "terror kontext" som är en lång lista över atomformler som kännetecknar den situation där felet kan inträffa. Eftersom det är långt, kommer vi inte att visa fel sammanhang här, men vi noterar att en studie av sammanhanget avslöjar att det innebär formeln i=NUMBER(a), vilket i själva verket är det tillstånd i vilket matrisen gränser fel kan inträffa: i Modula-3, öppna matriser indexeras från 0, men FOR slingan skrevs som om de var indexerade från 1. Att korrigera felet på ett naturligt sätt ger följande En studie av felsammanhanget visar att det innebär formeln INTE giltig [twr]. Det vill säga, ESC har upptäckt och varnat för misslyckandet med att initiera twr (programmet tilldelade textförfattaren, men misslyckades med att initiera den). För att rätta till detta fel lägger vi till en uppmaning till initmetoden, som kräver att man infogar de sju tecknen ".init()": Denna korrigering eliminerar båda de tidigare varningarna, men ESC ger ytterligare en varning: förutsättningen misslyckades, rad 4: En studie av felsammanhanget visar att TEXT-argumentet till PutText är lika med NIL, vilket är förbjudet av förutsättningen för PutText men inte säkerställt av ArrayCat, som blint passerar a[i], oavsett om det är NIL eller inte. Detta fel tvingar en omprövning av utformningen för ArrayCat: vad ska vi göra om NIL poster i TEXT array? Två konstruktioner kommer genast att tänka på: att ignorera NILs eller att förbjuda NILs. Antingen design är lätt att ta sig igenom ESC. I den design där NILs ignoreras omkodas förfarandet enligt följande: och naturligtvis ESC, som förstår IF uttalanden, är helt nöjd med denna version. I den konstruktion där NIL är förbjudet förstärks specifikationen för ArrayCat med en kvantifierad förutsättning: ESC är också helt nöjd med denna design: den starkare förutsättningen undertrycker felmeddelandet. Dessutom kommer ESK att upprätthålla den starkare förutsättningen var ArrayCat än kallas. Vi vill göra flera kommentarer om detta exempel. För det första, även om det krävdes noggranna specifikationer för skribentens och textförfattarens gränssnitt, kunde den inledande programmeraren använda sig av ESC utan att alls skriva några specifikationer för sitt program. Inga förutsättningar eller loopinvarianter krävdes i ArrayCat. Vi anser att detta är som det bör vara: alla som är kvalificerade att utforma gränssnitten i ett strömmande bibliotek förstår förutsättningar och postvillkor och abstraktioner på någon nivå, och kommer att finna att en uttrycklig notation för deras designbeslut är ett användbart verktyg snarare än en börda. Å andra sidan kan och bör många enkla fel i program identifieras genom att läsa det oannoterade felaktiga programmet; att kräva en loop invariant för att kontrollera ArrayCat verkar pedagogisk och tunghänt. För det andra bör läsaren vara medveten om att vi, även om vi i detta exempel har koncentrerat oss på att kontrollera en klient till I/O-systemet, faktiskt också har använt ESK för att kontrollera genomförandet av textförfattare. Vid genomförandet görs en representationsförklaring för att ge den konkreta innebörden av giltig [twr] när det gäller de konkreta fälten för twr. Och denna representation används av ESC när man kontrollerar de förfaranden som PutText och GetText, som kräver giltighet som en förutsättning och vars genomförande beror på den konkreta betydelsen av giltighet. En tredje anmärkning som detta exempel tillåter oss att göra är att det är upp till användaren att välja en punkt på kontinuum mellan fullständig funktionskorrigering 12 och minimal utökad statisk kontroll. Det är till exempel sant att det är tomt att initiera en textskribent, men våra specifikationer återspeglade inte denna sanning. Om vi ville skulle vi kunna återspegla detta genom att stärka villkoren för init i följande riktningar:. Dessutom är notationen "" faktiskt inte korrekt för den tomma teckensekvensen.) Det skulle vara lätt att skapa ett konstgjort exempel där denna starkare specifikation skulle vara nödvändig för en viss ESC-kontroll. Till exempel, avsaknaden av array gränser fel i vissa klient kan bero på det faktum att en ny initierad text författare är tom. Men det här är en hal sluttning. Om dess effekt på staten är helt specificerad, varför inte PutChar's också? Utan disciplin kan du snabbt glida in i det svarta hålet med fullständig korrekthetsverifiering. Lyckligtvis har vår erfarenhet varit att många ESC-verifikationer med framgång kan slutföras med nästan inga specifikationer alls om innehåll och betydelser av abstrakta typer, förutom specifikationen av giltighet. Du kan gå en lång väg bara förlita sig på tillstånd / giltighet paradigm: det vill säga specifikationerna för varje förfarande registrera exakt hur förfarandet påverkar och kräver giltighet, men alla andra biverkningar sopas under den rikliga mattan av MODIFIES tillstånd [wr]. Vi anser att detta är ett viktigt skäl till att ESK:s kontroller kan vara mer kostnadseffektiva än fullständiga korrekthetskontroller. I detta avsnitt kommer vi att beskriva användningen av ESC på ett mer sofistikerat program, WhiteSpace. Läs mer. Exemplet är också ett kort klientprogram för Modula-3 I/O-systemet, men skiljer sig på flera sätt från exemplet i föregående avsnitt. En ganska liten skillnad är att detta program är en klient av inflöden snarare än utflöden. En viktigare skillnad är att vi i detta exempel kommer att uppmärksamma synkroniseringsprotokollet som är utformat för både läsare och författare. I det föregående exemplet utelämnade vi synkroniseringen för att förenkla utställningen. En annan viktig skillnad är att i detta avsnitt kommer vi att se ett program som använder det avancerade gränssnittet för att hantera buffertstrukturen i strömmen, istället för att uteslutande använda procedurerna i det grundläggande gränssnittet. PROTECT v BY mu delad variabel v är inte att komma åt utan att hålla låset mu PROTECT f BY SELF för varje objekt t, delade fält t.f inte ska nås utan att hålla låset t LL uppsättning lås som hålls av den aktuella tråden supremum (maximum) i programmeraren deklarerad låsordning Figur 5: Låsnivå syntax. Den andra formen av PROTECT kan endast användas när f är ett fält som deklareras i en underklass av MUTEX. Hur ESC kontrollerar synkroniseringsfel. Vår erfarenhet har varit att många synkroniseringsfel är misslyckanden att förvärva lås (orsakar rasförhållanden) eller förvärva lås ur ordning (orsakar dödläge). Därför har vi utformat ESK-anmärkningsspråket för att fånga upp dessa enkla fel; figur 5 visar syntaxen. Programmeraren förklarar vilka lås som skyddar vilka delade variabler och vilka lås som kan eller måste hållas vid inträde i olika förfaranden. Programmeraren deklarerar också en partiell ordning i vilken trådar tillåts förvärva lås. ESC kontrollerar att delade variabler aldrig nås utan att hålla låset som skyddar dem, och även kontrollerar att trådar förvärvar lås i strikt ökande ordning (Modula-3 har icke-mottagare lås). Detta bevisar inte korrekthet-dyrare tekniker som övervaka invarianter skulle krävas för det-men det fångar många vanliga fel. Låsordningen på mutexes betecknas med " <", och programmeraren anger den med hjälp av en allmän anordning för att lägga axioms till en ESC-verifiering: SPEC AXIOM. Till exempel, Modula-3 fönster systemet är baserat på ett objekt som kallas en VBT. VBTs arrangeras i träd, och kan låsas endast från ett blad av trädet mot roten, inte vice versa. Denna regel deklareras i VBT-gränssnittet enligt följande: Axioms om låsordningen uppstår endast i subtila situationer. I synnerhet, exemplet vi är på väg att presentera förvärvar endast en läsare lås i taget, så vi behöver inte deklarera axioms om låsordningen. Det grundläggande läsgränssnittet. Figur 6 visar det grundläggande Modula-3-gränssnittet Rd, inklusive dess ESC-specifikationer. De enda nya inslagen i figur 6 avser samstämmighet. Synkroniseringsprotokollet för läsarna är mycket stiliserat, vi kallar det för det övervakade objektparadigmet: Ett objekt behandlas som en övervakare i det att ömsesidig uteslutning tillhandahålls för trådar som fungerar på objektet via procedur 15 samtal och metodsamtal. Den ömsesidiga uteslutningen uppnås genom att själva objektet låses, vars typ är en subtyp av MUTEX, Modula-3s predeklarerade ömsesidiga uteslutningstyp. Att förvärva låset är detsamma som att gå in i monitorn. Texten i gränssnittet i figur 6 återspeglar det övervakade objektparadigmet på två sätt. För det första förklaras Rd.T vara en ogenomskinlig subtyp inte av ROOT utan av MU-TEX. För det andra har kontrollförfarandena det extra förhandsvillkoret supp(LL) < rd, vilket återspeglar kravet att de ska kallas från ett land där det är lagligt att förvärva låset rd. Det avancerade läsgränssnittet. Det grundläggande Rd-gränssnittet är det som används av de flesta enkla klienter, men det är otillräckligt för mer sofistikerade kunder. Till exempel, eftersom det döljer bufferten och metoden för påfyllning av bufferten, är det otillräckligt för kunder som implementerar nya klasser av läsare. Figur 7 visar RdrRep-gränssnittet, som ger de specifikationer som behövs för mer sofistikerade kunder. Med RdrRep gränssnittet kommer vi bortom pannplatta ESC specifikation paradigm, och börja sätta specifikationsspråket genom sina steg. Gränssnittet börjar med att avslöja representationen av typen Rd.T, som är ogenomskinlig i det grundläggande gränssnittet. Representationen är en objekttyp som innehåller ett buff-fält, vilket är en hänvisning till en rad tecken. Modula-3-nyckelordet BRANDED ersätter namnet ekvivalens för Modula-3:s standardstrukturell ekvivalens för typer. Förutom buff fältet, Rd.T innehåller också flera heltal och booleska fält. heltalsfälten bestämma den aktiva delen av bufferten, enligt en konvention illustrerad i figur 8. De booleska fälten är irrelevanta för detta exempel. Det fullständiga gränssnittet innehåller flera metoder, men vi visar bara sökmetoden, eftersom de andra är irrelevanta för vårt exempel. SPEC PROTECT-anteckningen anger att en läsares fält skyddas av läsaren själv, dvs. en tråd får inte läsa eller skriva något av läsarens fält om den inte har förvärvat läslåset. Denna kommentar är typisk för det övervakade objektparadigmet. Därefter kommer vi till specifikationen av sökandet. Denna metod är ansvarig för att utföra den klassspecifika beräkning som ingår i omplaceringen av bufferten: anropet rd.seek(n) ändrar bufferten så att byte nummer n av läsarens källa finns i bufferten. I synnerhet rd.seek (rd.hi) kommer att gå vidare till nästa buffert av data (eftersom rd.hi är indexet för den första byte som är bortom den nuvarande bufferten av data). Metoden returnerar SeekResult.Ready om omplaceringen är framgångsrik; om n är bortom slutet av läsaren, den returnerar SeekResult.Eof. (Om DontBlock är inställd och sökmetoden inte kan göra sitt jobb utan att riskera blockering, är det tillåtet att returnera SeekResult.
Till skillnad från liknande statiska analysverktyg som ESC/Java REF stöder AAL även metodanrop och relationsuttryck i påståenden.
8,049,817
Extended static checking
{'venue': 'PROCOMET', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,571
Abstract Real world data mining applikationer måste ta itu med frågan om lärande från obalanserade datamängder. Problemet uppstår när antalet fall i en klass i hög grad överträffar antalet fall i den andra klassen. Sådana datauppsättningar orsakar ofta att en standardklassificerare byggs på grund av skev vektorrymd eller brist på information. Gemensamma tillvägagångssätt för att hantera problemet med obalans i klass innebär att datadistributionen ändras eller klassificeringen ändras. I detta arbete väljer vi att använda en kombination av båda tillvägagångssätten. Vi använder stödvektormaskiner med mjuka marginaler som basklassare för att lösa problemet med snedvektorrymder. Vi motverkar sedan den överdrivna partiskhet som införs genom detta tillvägagångssätt med en förstärkande algoritm. Vi fann att denna ensemble av SVMs gör en imponerande förbättring i förutsägelse prestanda, inte bara för majoritetsklassen, men också för minoritetsklassen.
I sådana fall, klass obalans problem som påverkas av att ändra datadistributionen kan hjälpa verkliga data mining applikationer REF.
1,432,305
Boosting support vector machines for imbalanced data sets
{'venue': 'Knowledge and Information Systems', 'journal': 'Knowledge and Information Systems', 'mag_field_of_study': ['Computer Science']}
81,572
Konvolutions-dekonvolutionsnät kan antas för att utföra end-to-end-relevansdetektion. Men, de fungerar inte bra med objekt av flera skalor. För att övervinna en sådan begränsning föreslår vi i detta arbete ett återkommande nätverk för konvolutions-dekonvolution (RACDNN). Med hjälp av rumsliga transformatorer och återkommande nätverksenheter kan RACDNN iterativt ta hand om utvalda bilddelregioner för att gradvis utföra saliencyförfining. Förutom att ta itu med skalproblemet kan RACDNN också lära sig kontextmedvetna funktioner från tidigare iterationer för att förbättra hållbarheten i framtida iterationer. Experiment på flera utmanande detekteringsdata validerar RACDNN:s effektivitet och visar att RACDNN överträffar de senaste metoderna för detektering av beständighet.
Kuen m.fl. REF utnyttjade den rumsliga transformatorn och de återkommande nätverksenheterna för att iterativt ta hand om bildregionen och förfina den gradvis.
6,643,447
Recurrent Attentional Networks for Saliency Detection
{'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
81,573
Denna uppsats utvecklar ett ramverk för att studera popularitetsdynamiken hos användargenererade videor, presenterar en karakterisering av popularitetsdynamiken, och föreslår en modell som fångar de viktigaste egenskaperna hos denna dynamik. Vi illustrerar de förutfattade meningar som kan införas i analysen för vissa val av provtagningsteknik som används för att samla in data; dock ger provtagning från nyligen laddade videor en datauppsättning som är till synes opartisk. Med hjälp av en datauppsättning som spårar vyerna till ett urval av nyligen laddade YouTube-videor under de första åtta månaderna av deras livstid, studerar vi popularitetsdynamiken. Vi finner att den relativa populariteten av videorna i vår datauppsättning är mycket icke-stationära, främst på grund av stora skillnader i den tid som krävs sedan uppladdning tills topp popularitet slutligen uppnås, och för det andra till popularitet svängningar. Vi föreslår en modell som exakt kan fånga popularitetsdynamiken i samlingar av nyligen laddade videor när de åldras, inklusive viktiga åtgärder som hot set churn statistik, och utvecklingen av visningsfrekvens och totala vyer distributioner över tiden.
Mer nyligen, Borghol et al. REF visade empiriskt att individuell video popularitet är mycket instabil och oförutsägbar, och föreslog en modell för hur popularitetsstatistiken för en samling nyligen laddade videor utvecklas över tid, i stället för att överväga popularitetsutveckling för enskilda videor.
3,142,890
Characterizing and Modelling Popularity of User-Generated Videos
{'venue': 'Performance Evaluation', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,574
I detta dokument behandlas schemaläggningen av parallella realtidsuppgifter med implicita tidsfrister. Varje parallell uppgift karakteriseras som en allmän riktad acyklisk graf (DAG). Vi analyserar tre olika schemaläggningsstrategier i realtid: två välkända algoritmer, nämligen globala tidigaste deadline-första och globala hastighet-monotoniska, och en ny algoritm, nämligen federerad schemaläggning. Den federerade schemaläggningsalgoritm som föreslås i detta dokument är en generalisering av partitionerad schemaläggning till parallella uppgifter. I denna strategi, varje hög-utilization uppgift (utilization ≥ 1) tilldelas en uppsättning dedikerade kärnor och de återstående låg-utilization uppgifter delar de återstående kärnorna. Vi bevisar kapacitetsförstärkning gränser för alla tre schemaläggare. I synnerhet visar vi att om på enheter hastighetskärnor, en uppgift som har total användning av som mest m och den kritiska path längden av varje uppgift är mindre än sin deadline, då federerad schemaläggning kan schemalägga den uppgift som är inställd på m kärnor av hastighet 2; G-EDF kan schemalägga den med hastighet 3+ 5 2 på 2.618; och G-RM kan schemalägga den med hastighet 2 + ε 3 på 3.732. Vi ger också lägre gränser på uppfarten och visar att gränserna är tighta för federerad schemaläggning och G-EDF när m är tillräckligt stor.
I detta dokument använder vi den federerade schemaläggningsplattform som beskrivs i REF.
14,345,493
Analysis of Federated and Global Scheduling for Parallel Real-Time Tasks
{'venue': '2014 26th Euromicro Conference on Real-Time Systems', 'journal': '2014 26th Euromicro Conference on Real-Time Systems', 'mag_field_of_study': ['Computer Science']}
81,575
Abstract-minskande energiförbrukning för avancerade datorer kan ge olika fördelar såsom, minska driftskostnader, öka systemets tillförlitlighet och respekt för miljön. Detta dokument syftar till att utveckla schemaläggning heuristik och att presentera applikationserfarenhet för att minska strömförbrukningen av parallella uppgifter i ett kluster med DVFS-teknik (Dynamic Voltage Frequency Scaling). I detta dokument presenteras formella modeller för prioriterade parallella uppgifter, DVFS-aktiverade kluster och energiförbrukning. I detta dokument studeras den korta tiden för icke-kritiska jobb, deras genomförandetid förlängs och energiförbrukningen minskas utan att uppgiftens genomförandetid som helhet ökar. Dessutom behandlas avtalet om gröna tjänster också i detta dokument. Genom att öka utförandet av uppgifter inom en rimlig gräns, utvecklar detta dokument schemaläggning heuristik för att minska energiförbrukningen av en uppgift utförande och diskuterar förhållandet mellan energiförbrukning och uppgift utförande tid. Modeller och schemaläggning av heuristik undersöks med en simuleringsstudie. Testresultaten motiverar utformningen och genomförandet av föreslagna energimedvetna schemaläggningsheuristik i dokumentet.
Forskare från REF föreslog en energimedveten schemaläggningsalgoritm med en detaljerad diskussion om slack time beräkning.
471,916
Towards Energy Aware Scheduling for Precedence Constrained Parallel Tasks in a Cluster with DVFS
{'venue': '2010 10th IEEE/ACM International Conference on Cluster, Cloud and Grid Computing', 'journal': '2010 10th IEEE/ACM International Conference on Cluster, Cloud and Grid Computing', 'mag_field_of_study': ['Computer Science']}
81,576
Under de senaste åren har softmax och SGD blivit en allmänt använd komponent respektive standardutbildningsstrategi i CNN-ramverk. Emellertid, när optimera CNNs med SGD, mättnad beteende bakom softmax ger oss alltid en illusion av träning väl och sedan utelämnas. I detta papper betonar vi först att den tidiga mättnad beteendet hos softmax kommer att hindra utforskandet av SGD, vilket ibland är en anledning för modellen konvergera på en dålig lokal-minima, sedan föreslå Noisy Softmax för att mildra denna tidiga mättnad fråga genom att injicera glödgat buller i softmax under varje iteration. Denna operation baserad på bullerinsprutning syftar till att skjuta upp den tidiga mättnaden och ytterligare öka den kontinuerliga utbredningen av gradienter så att SGD-lösaren avsevärt uppmuntras att vara mer utforskande och bidra till att hitta en bättre lokalminima. Detta papper verifierar empiriskt överlägsenheten av den tidiga softmax desaturering, och vår metod förbättrar verkligen generaliseringen av CNN-modellen genom legalisering. Vi finner experimentellt att denna tidiga desaturering hjälper till att optimera i många uppgifter, vilket ger toppmoderna eller konkurrenskraftiga resultat på flera populära referensdataset.
Ett intressant arbete som nyligen föreslagits av B. Chen et al. fokuserad på att lindra problemet med tidig mättnad av softmax förlust genom att injicera glödgat buller i softmax-funktionen under varje träning iteration REF.
23,578,881
Noisy Softmax: Improving the Generalization Ability of DCNN via Postponing the Early Softmax Saturation
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
81,577
Detta dokument beskriver InfoGAN, en informations-teoretisk förlängning till Generative Adversarial Network som kan lära sig disentrangerade representationer på ett helt oövervakat sätt. InfoGAN är ett generativt kontradiktoriskt nätverk som också maximerar den ömsesidiga informationen mellan en liten delmängd av de latenta variablerna och observationen. Vi får en lägre gräns för det ömsesidiga informationsmålet som kan optimeras effektivt. Specifikt, InfoGAN framgångsrikt löses skriva stilar från siffror former på MNIST dataset, posera från belysning av 3D renderade bilder, och bakgrundssiffror från den centrala siffran på SVHN datasetet. Den upptäcker också visuella begrepp som inkluderar frisyrer, närvaro / frånvaro av glasögon, och känslor på CelebA ansikte dataset. Experiment visar att InfoGAN lär sig tolkningsbara representationer som är konkurrenskraftiga med representationer som lärts av befintliga övervakade metoder.
Chen och Al. REF utformar en informationsteoretisk utvidgning till GAN där de maximerar den ömsesidiga informationen mellan en delmängd av latenta variabler och de genererade uppgifterna.
5,002,792
InfoGAN: Interpretable Representation Learning by Information Maximizing Generative Adversarial Nets
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
81,578
Abstrakt. Visuell frågeställare (VQA) är en intressant inlärningsmiljö för att utvärdera förmågor och brister i nuvarande system för bildförståelse. Många av de nyligen föreslagna VQA-systemen omfattar uppmärksamhets- eller minnesmekanismer som utformats för att utföra "resonemang". Dessutom, för uppgiften att flera val VQA, nästan alla dessa system utbildar en multi-klass klassificering på bild och frågefunktioner för att förutsäga svaren. Detta dokument ifrågasätter värdet av dessa gemensamma metoder och utvecklar en enkel alternativ modell baserad på binär klassificering. Istället för att behandla svar som konkurrerande val får vår modell svaret som input och förutspår om en bildfråga-svar-trillett är korrekt eller inte. Vi utvärderar vår modell på Visual7W Telling och VQA Real Multiple Choice uppgifter, och finner att även enkla versioner av vår modell fungerar konkurrenskraftigt. Vår bästa modell uppnår toppmodern prestanda på 65,8 % på Visual7W Telling-uppgiften och konkurrerar förvånansvärt bra med de mest komplexa system som föreslås för VQA Real Multiple Choice-uppgiften. Dessutom utforskar vi varianter av vår modell och studerar möjligheten att överföra vår modell mellan båda dataseten. Vi presenterar också en felanalys av vår bästa modell, vars resultat tyder på att ett nyckelproblem med nuvarande VQA-system ligger i avsaknaden av visuell grundläggning och lokalisering av begrepp som förekommer i frågorna och svaren.
Jabri m.fl. REF föreslog en enkel modell som tar svar som indata och utför binära förutsägelser.
11,328,415
Revisiting Visual Question Answering Baselines
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
81,579
Detta dokument beskriver InfoGAN, en informations-teoretisk förlängning till Generative Adversarial Network som kan lära sig disentrangerade representationer på ett helt oövervakat sätt. InfoGAN är ett generativt kontradiktoriskt nätverk som också maximerar den ömsesidiga informationen mellan en liten delmängd av de latenta variablerna och observationen. Vi får en lägre gräns för det ömsesidiga informationsmålet som kan optimeras effektivt. Specifikt, InfoGAN framgångsrikt löses skriva stilar från siffror former på MNIST dataset, posera från belysning av 3D renderade bilder, och bakgrundssiffror från den centrala siffran på SVHN datasetet. Den upptäcker också visuella begrepp som inkluderar frisyrer, närvaro / frånvaro av glasögon, och känslor på CelebA ansikte dataset. Experiment visar att InfoGAN lär sig tolkningsbara representationer som är konkurrenskraftiga med representationer som lärts av befintliga övervakade metoder.
Infogan REF drar slutsatsen att latent kod är löslig genom att maximera den ömsesidiga informationen.
5,002,792
InfoGAN: Interpretable Representation Learning by Information Maximizing Generative Adversarial Nets
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
81,580
Lära, planera, och representera kunskap på flera nivåer av temporal abstraktion är viktiga, långvariga utmaningar för AI. I detta dokument överväger vi hur dessa utmaningar kan hanteras inom ramen för den matematiska förstärkningen av lärandet och Markovs beslutsprocesser. Vi utvidgar det vanliga begreppet åtgärder inom denna ram till att även omfatta strategier för slutna kretslopp för att vidta åtgärder under en tidsperiod. Exempel på alternativ är plocka upp ett objekt, gå på lunch, och resa till en avlägsen stad, liksom primitiva åtgärder såsom muskelryckningar och gemensamma vridmoment. Sammantaget visar vi att alternativ gör det möjligt att tidsmässigt abstrakt kunskap och åtgärder tas med i den förstärkta ramen för lärande på ett naturligt och allmänt sätt. I synnerhet visar vi att alternativ kan användas i utbyte mot primitiva åtgärder i planeringsmetoder som dynamisk programmering och inlärningsmetoder som Q-learning. Formellt utgör en uppsättning alternativ över en MDP en semi-Markov beslutsprocess (SMDP), och teorin om SMDPs utgör grunden för teorin om alternativ. De mest intressanta frågorna rör emellertid samspelet mellan den underliggande MDP och SMDP och ligger därmed bortom SMDP-teorin. Vi presenterar resultat för tre sådana fall: 1) vi visar att resultaten av planering med alternativ kan användas under genomförandet för att avbryta alternativ och därmed prestera ännu bättre än planerat, 2) vi introducerar nya intra-option metoder som kan lära sig om ett alternativ från fragment av dess utförande, och 3) vi föreslår en idé om submål som kan användas för att förbättra alternativen själva. Alla dessa resultat har prekursorer i den befintliga litteraturen; detta dokuments bidrag är att etablera dem i en enklare och mer allmän miljö med färre förändringar av den befintliga förstärkande ramen för lärande. I synnerhet visar vi att dessa resultat kan uppnås utan att åta sig (eller utesluta) någon särskild strategi för stat abstraktion, hierarki, funktion approximation, eller makro-utility problem.
Hierarkisk förstärkning Lärande Den första populära hierarkiska förstärkningen lärande modell kan gå tillbaka till alternativen ramverket REF.
76,564
Between MDPs and Semi-MDPs: A Framework for Temporal Abstraction in Reinforcement Learning
{'venue': 'Artificial Intelligence', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,581
Standardantagandet av identiskt fördelade utbildnings- och testdata kränks när testdata genereras som svar på en prediktiv modell. Detta blir uppenbart, till exempel i samband med skräppostfiltrering via e-post, där en e-postleverantör använder ett skräppostfilter och skräppostavsändaren kan ta hänsyn till detta filter när han eller hon skapar nya e-postmeddelanden. Vi modellerar interaktionen mellan inlärare och datagenerator som en Stackelbergtävling där inläraren spelar ledarens roll och datageneratorn kan reagera när ledaren rör sig. Vi härleda ett optimeringsproblem för att bestämma lösningen av detta spel och presentera flera fall av Stackelberg förutsägelsespel. Vi visar att Stackelbergs förutsägelsespel generaliserar befintliga förutsägelsemodeller. Slutligen utforskar vi egenskaperna hos de diskuterade modellerna empiriskt i samband med skräppostfiltrering via e-post.
Till exempel REF ser motsträviga exempel attacker och försvar som ett Stackelberg spel.
4,680,046
Stackelberg games for adversarial prediction problems
{'venue': 'KDD', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,582
Det senaste arbetet har visat att djupuppskattning från ett stereopar av bilder kan formuleras som en övervakad inlärning uppgift att lösas med konvolutionella neurala nätverk (CNN). De nuvarande arkitekturerna är dock beroende av lappbaserade Siamese-nätverk och saknar medel för att utnyttja kontextinformation för att hitta korrespondens i utsatta regioner. För att ta itu med detta problem föreslår vi PSM-Net, en pyramid stereo matchande nätverk som består av två huvudmoduler: rumslig pyramid pooling och 3D CNN. Den rumsliga pyramidpoolningsmodulen utnyttjar kapaciteten hos global kontextinformation genom att samla sammanhang i olika skalor och platser för att bilda en kostnadsvolym. Den 3D CNN lär sig att regularisera kostnadsvolym med hjälp av staplade flera timglas nätverk i samband med mellanliggande övervakning. Det föreslagna tillvägagångssättet utvärderades på flera referensdatauppsättningar. Vår metod rankas först i
PSMNet REF använder rumslig pyramidpooling och 3D CNN för att reglera kostnadsvolymer.
4,252,896
Pyramid Stereo Matching Network
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
81,583
I den här artikeln presenterar vi de tekniker som används för universitetet i Montréals team bidrag till 2013 Emotion Recognition in the Wild Challenge. Utmaningen är att klassificera de känslor som uttrycks av det primära mänskliga subjektet i korta videoklipp som utvunnits ur långfilm. Detta innebär analys av videoklipp av spelade scener som varar cirka en-två sekunder, inklusive ljudspåret som kan innehålla mänskliga röster samt bakgrundsmusik. Vårt tillvägagångssätt kombinerar flera djupa neurala nätverk för olika datamodaliteter, inklusive: (1) en djup convolutional neural nätverk för analys av ansiktsuttryck inom videoramar; (2) en djup tro nät för att fånga ljudinformation; (3) en djup autoencoder för att modellera den spatiotemporal information som produceras av de mänskliga handlingar som avbildas inom hela scenen; och (4) en ytlig nätverk arkitektur fokuserad på extraherade funktioner i munnen på det primära mänskliga objektet i scenen. Vi diskuterar var och en av dessa tekniker, deras prestandaegenskaper och olika strategier för att aggregera deras förutsägelser. Vår bästa enda modell var ett konvolutionellt neuralt nätverk tränas för att förutsäga känslor från statiska ramar med hjälp av två stora datamängder, Toronto Face Database och vår egen uppsättning av ansikten bilder skördas från Google bildsökning, följt av en per ram aggregation strategi som använde utmaningen utbildningsdata. Detta gav en testnoggrannhet på 35,58 %. Med hjälp av vår bästa strategi för att samla våra topputförande modeller till en enda prediktor kunde vi producera en noggrannhet på 41.03% på utmaning testuppsättningen. Dessa jämför gynnsamt med testerna vid teststart med en noggrannhet på 27,56 %.
Kahou m.fl. REF kombinerade modalitetsspecifika multipla djupa neurala nätverk.
10,433,046
Combining modality specific deep neural networks for emotion recognition in video
{'venue': "ICMI '13", 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,584
Abstract Trust och rykte är centrala för effektiva interaktioner i öppna multiagentsystem (MAS) där agenter, som ägs av en mängd olika intressenter, ständigt går in och lämnar systemet. Denna öppenhet innebär att befintliga förtroende- och ryktesmodeller inte lätt kan användas eftersom deras prestanda drabbas av olika (oförutsedda) förändringar i miljön. I detta syfte presenteras i detta dokument FIRE, en förtroende- och ryktesmodell som integrerar ett antal informationskällor för att göra en omfattande bedömning av en agents sannolika prestanda i öppna system. I FIRE ingår bland annat interaktionsförtroende, rollbaserat förtroende, vittnesrykte och certifierat rykte för att ge förtroendemått under de flesta omständigheter. FIRE utvärderas empiriskt och visas hjälpa agenter att få bättre nytta (genom att effektivt välja lämpliga interaktionspartner) än våra riktmärken i en mängd olika agentpopulationer. Det visas också att FIRE effektivt kan reagera på förändringar som sker i en agents miljö.
FIRE REF, en förtroendemodell som utvecklats för multiagentsystem (MAS) tar hänsyn till den information som lämnats från flera källor (interaktionsförtroende, vittnesförtroende, rollbaserat förtroende och certifierat rykte).
13,150,320
An integrated trust and reputation model for open multi-agent systems
{'venue': 'Autonomous Agents and Multi-Agent Systems', 'journal': 'Autonomous Agents and Multi-Agent Systems', 'mag_field_of_study': ['Computer Science']}
81,585
I idealfallet bör ett mått på ett systems säkerhet kvantitativt fånga den intuitiva uppfattningen om "systemets förmåga att motstå angrepp". Det vill säga, det bör vara operativt, vilket återspeglar i vilken utsträckning systemet kan förväntas förbli fritt från säkerhetsöverträdelser under särskilda driftsförhållanden (inklusive angrepp). I stället återspeglar de nuvarande säkerhetsnivåerna i bästa fall endast omfattningen av de skyddsåtgärder som införts under utformningen och utvecklingen av ett system. Även om vi kan förvänta oss att ett system som utvecklats till en högre nivå än ett annat uppvisar ett "säkrare beteende" i drift, kan detta inte garanteras. Framför allt kan vi inte dra slutsatsen att det faktiska säkerhetsbeteendet kommer att vara av kunskap om en sådan nivå. I dokumentet diskuterar vi likheter mellan tillförlitlighet och säkerhet med avsikten att arbeta för åtgärder för "operativ säkerhet" liknande dem som vi har för systemens tillförlitlighet. Mycket informellt skulle dessa åtgärder kunna omfatta uttryck som graden av säkerhetsöverträdelser (jfr graden av fel i tillförlitligheten) eller sannolikheten för att ett angivet "uppdrag" kan utföras utan säkerhetsöverträdelse (se tillförlitlighetsfunktion). Detta nya tillvägagångssätt bygger på analogi mellan systemfel och säkerhetsintrång. Ett antal andra analogier för att stödja denna uppfattning införs. Vi granskar denna dualitet kritiskt och har identifierat ett antal viktiga öppna frågor som måste besvaras innan denna kvantitativa strategi kan vidareutvecklas. Det arbete som beskrivs här är därför något preliminärt, och en av våra viktigaste avsikter är att bjuda in till diskussion om rimligheten och genomförbarheten av denna nya strategi.
Lilleträ et al. REF har diskuterat likheter mellan tillförlitlighet och säkerhet.
3,888,359
Towards Operational Measures of Computer Security
{'venue': 'Journal of Computer Security', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,586
Förslag till tillfälliga åtgärder är en utmanande och lovande uppgift som syftar till att lokalisera temporalregioner i verkliga videor där åtgärder eller händelser kan inträffa. De nuvarande nedifrån-och-upp-metoderna för förslagsgenerering kan generera förslag med exakta gränser, men kan inte på ett effektivt sätt generera tillräckligt tillförlitliga förtroendevärden för att få fram förslag. För att ta itu med dessa svårigheter inför vi mekanismen Boundary-Matching (BM) för att utvärdera förtroende poäng av tätt fördelade förslag, som betecknar ett förslag som ett matchande par av start- och slutgränser och kombinera alla tätt fördelade BM par i BM förtroende karta. Baserat på BM-mekanismen föreslår vi en effektiv, effektiv och end-to-end förslagsgenereringsmetod, som heter Boundary-Matching Network (BMN), som genererar förslag med exakta tidsgränser samt tillförlitliga förtroendepoäng samtidigt. BMN:s två grenar utbildas gemensamt i en enhetlig ram. Vi utför experiment på två utmanande dataset: THUMOS-14 och ActivityNet-1.3, där BMN visar betydande prestandaförbättringar med anmärkningsvärd effektivitet och allmängiltighet. Dessutom kan BMN, i kombination med befintlig åtgärdsklassificering, uppnå toppmoderna prestanda för detektion av temporal action.
BMN Ref föreslår Boundary-Matching-mekanismen för att utvärdera förtroende poäng av tätt fördelade förslag.
198,179,957
BMN: Boundary-Matching Network for Temporal Action Proposal Generation
{'venue': '2019 IEEE/CVF International Conference on Computer Vision (ICCV)', 'journal': '2019 IEEE/CVF International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
81,587
Abstract-The paper presenterar en evolutionär inställning till utformningen av feltoleranta VLSI (mycket storskalig integrerad) kretsar med EHW (evolvable hårdvara). Forskningsområdet EHW omfattar en uppsättning tillämpningar där GA (genetisk algoritm) används för automatisk syntes och anpassning av elektroniska kretsar. EHW är särskilt lämplig för applikationer som kräver förändringar i uppgiftskrav och i miljön eller fel, genom sin förmåga att konfigurera hårdvarustrukturen dynamiskt och autonomt. Denna anpassningsförmåga uppnås genom användning av GA-sökteknik. I våra experiment, en finkornig CMOS (kompletterande metalloxid kisel) FPTA (fält-programmerbar transistor array) arkitektur används för att syntetisera elektroniska kretsar. FPTA är en omkonfigurerbar arkitektur, programmerbar på transistornivå och speciellt utformad för EHW-applikationer. Papperet visar EA:s förmåga att designa analoga och digitala feltoleranta kretsar. Den jämför två metoder för att uppnå feltolerant design, den ena baserad på fitness definition och den andra baserad på befolkning. Fitness tillvägagångssätt definierar uttryckligen de fel som komponenten kan stöta på under sin livstid, och utvärderar den genomsnittliga beteendet hos individerna. Befolkningsstrategin, å andra sidan, använder sig av den implicita informationen i den befolkningsstatistik som samlats in av GA under många generationer. I dokumentet presenteras experimentresultat som erhållits med hjälp av både metoder för syntes av en feltolerant digital krets (XNOR) och en feltolerant analog krets (multiplikator). Experimenten visar att EA (evolutionär algoritm) kan syntetisera feltoleranta konstruktioner för både analoga och digitala funktioner kretsar som kan återhämta sig för funktionalitet när förlorade på grund av a-priori okända fel genom att hitta nya kretskonfigurationer som kringgår felen. Papperet visar att även om den klassiska feltoleranta designen kan skapa en tillförlitlig kretsdesign genom att utvärdera beteendet hos kretsen när välkända fel injiceras under den evolutionära processen, bättre kretsprestanda, på mindre beräkningstid, för en samma feltolerant grad uppnås genom att tillåta den evolutionära designprocessen att vara fri från alla fel begränsningar.
Keymeulen m.fl. REF föreslog ett evolutionärt tillvägagångssätt för att kringgå felen i omkonfigurerbara digitala och analoga kretsar.
18,663,990
Fault-Tolerant Evolvable Hardware Using Field-Programmable Transistor Arrays
{'venue': 'IEEE Transactions on Reliability', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
81,588
Distribuerad dataaggregation är en viktig uppgift, vilket gör det möjligt att decentralisera bestämningen av meningsfulla globala egenskaper, som sedan kan användas för att styra utförandet av andra applikationer. De resulterande värdena härleds genom distribuerad beräkning av funktioner som COUNT, SUM och AVERAGE. Vissa tillämpningsexempel handlar om fastställande av nätstorlek, total lagringskapacitet, genomsnittlig belastning, majoriteter och många andra. Under det senaste årtiondet har många olika tillvägagångssätt föreslagits, med olika avvägningar när det gäller noggrannhet, tillförlitlighet, budskap och tids komplexitet. På grund av den stora mängden och variationen av aggregeringsalgoritmer, kan det vara svårt och tidskrävande att avgöra vilka tekniker som kommer att vara lämpligare att använda i specifika miljöer, vilket motiverar förekomsten av en undersökning som stöd i denna uppgift. Detta arbete granskar den senaste tekniken om distribuerade data aggregering algoritmer, vilket ger tre huvudsakliga bidrag. För det första definierar den formellt begreppet aggregering, som karakteriserar de olika typerna av aggregeringsfunktioner. För det andra beskriver den kortfattat de viktigaste aggregeringsteknikerna och organiserar dem i en taxonomi. Slutligen ger det några riktlinjer för urval och användning av de mest relevanta tekniker, sammanfatta deras viktigaste egenskaper.
En omfattande undersökning om distribuerade data aggregering algoritmer finns i REF.
8,215,225
A Survey of Distributed Data Aggregation Algorithms
{'venue': 'IEEE Communications Surveys & Tutorials', 'journal': 'IEEE Communications Surveys & Tutorials', 'mag_field_of_study': ['Computer Science']}
81,589
Abstrakt. Insticksarkitekturer och plattformar utgör ett lovande tillvägagångssätt för att bygga programvarusystem som är extensibla och anpassningsbara till den enskilda användarens särskilda behov. Eclipse-plattformen, som är den främsta representanten för instickssystem, bygger till exempel på ett unikt insticks- och extensibilitetskoncept och har lyckats etablera sig som den ledande plattformen för utveckling av verktygsmiljöer. Detta papper introducerar en ny plug-in arkitektur för.NET-plattformen som visar mycket likhet med Eclipse. Men medan Eclipse är ett Java-baserat system och använder XML för att beskriva tillägg, bygger vår arkitektur på.NET-koncept som anpassade attribut och metadata för att ange relevant information direkt i källkoden för ett program. Vi hävdar att detta tillvägagångssätt är mer läsbart och lättare att upprätthålla. Som en fallstudie för vår plug-in arkitektur presenterar vi en ny plugin plattform för genomförande av rika klientprogram i.NET.
När ett program stöder plug-ins, möjliggör det anpassning, alltså, ger ett lovande tillvägagångssätt för att bygga mjukvarusystem som är extensible och anpassningsbara till de särskilda behoven REF.
18,226,625
A Component Plug-In Architecture for the .NET Platform
{'venue': 'JMLC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,590
Vi introducerar en datafri kvantiseringsmetod för djupa neurala nätverk som inte kräver finjustering eller hyperparameter val. Det uppnår nästan original modell prestanda på gemensamma dator vision arkitekturer och uppgifter. 8-bitars kvantifiering av fasta punkter är nödvändig för effektiv slutledning i moderna hårdvaruarkitekturer. Kvantisering av modeller för att köra i 8-bitar är dock en icke-trivial uppgift, ofta leder till antingen betydande prestandaminskning eller ingenjörstid spenderas på utbildning ett nätverk för att kunna kvantifiera. Vår strategi bygger på att utjämna viktintervallen i nätverket genom att använda sig av en skala-ekvivarians egenskap aktiveringsfunktioner. Dessutom korrigerar metoden förutfattade meningar i felet som introduceras under kvantisering. Detta förbättrar kvantisering noggrannhet prestanda, och kan tillämpas allmänt på nästan alla modeller med en rak framåt API-anrop. För vanliga arkitekturer, såsom MobileNet familjen, vi uppnå state-of-the-art kvantized modell prestanda. Vi visar vidare att metoden även omfattar andra datorseende arkitekturer och uppgifter som semantisk segmentering och objektdetektering.
Nagel m.fl. REF använde ett kvantiseringssystem som förlitade sig på att utjämna viktintervallen i nätverket genom att använda aktiveringsfunktionernas skallikviditetsegenskaper.
184,487,878
Data-Free Quantization Through Weight Equalization and Bias Correction
{'venue': 'The IEEE International Conference on Computer Vision (ICCV), 2019', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
81,591
Med hjälp av självresonanta spolar i ett starkt kopplat system demonstrerar vi experimentellt en effektiv icke-radiativ kraftöverföring över avstånd på upp till åtta gånger spolarnas radie. Vi visar förmåga att överföra 60W med cirka 40% effektivitet över avstånd över två meter. Vi presenterar en kvantitativ modell som beskriver kraftöverföringen som matchar de experimentella resultaten till inom 5%. Vi diskuterar praktisk tillämplighet och föreslår anvisningar för fortsatta studier. I början av 1900-talet, innan elnätet, Nikola Tesla (1) ägnade stora ansträngningar åt system för att transportera kraft trådlöst. Typiska uttryck (t.ex. Tesla spolar) innefattade oönskat stora elektriska fält. Under det senaste årtiondet har samhället bevittnat en dramatisk ökning av användningen av autonoma elektroniska apparater (laptops, mobiltelefoner, robotar, handdatorer, etc.) Till följd av detta har intresset för trådlös kraft återuppstått (2-4). Radiativ överföring (5), samtidigt som den är perfekt lämpad för att överföra information, medför ett antal svårigheter för effektöverföringstillämpningar: effektiviteten i kraftöverföringen är mycket låg om strålningen är allsidig, och kräver en oavbruten siktlinje och sofistikerade spårningsmekanismer om strålningen är enkelriktad. I en nyligen genomförd teoretisk rapport (6) presenterades en detaljerad analys av möjligheten att använda resonansföremål kopplade genom svansarna på de icke-radiativa fälten för medeldistansenergiöverföring (7). Intuitivt, två resonant objekt med samma resonans frekvens tenderar att utbyta energi effektivt, samtidigt interagera svagt med främmande offresonant objekt. I system med kopplade resonanser (t.ex. Akustik, elektromagnetiska, magnetiska, nukleära etc.), finns det ofta en allmän "starkt sammankopplad" ordning för verksamheten (8). Om man kan verka i det systemet i ett visst system förväntas energiöverföringen vara mycket effektiv. Halvdistanskraftöverföring som genomförs på detta sätt kan vara nästan allomriktad och effektiv, oberoende av geometrin i det omgivande utrymmet, och med låg störning och förluster i miljöobjekt (6). Ovanstående överväganden gäller oberoende av resonansernas fysiska natur. I det nuvarande arbetet fokuserar vi på ett särskilt fysiskt förkroppsligande: magnetiska resonanser (9). Magnetiska resonanser är särskilt lämpliga för vardagliga tillämpningar eftersom de flesta av de vanliga materialen inte interagerar med magnetiska fält, så interaktioner med miljöobjekt dämpas ännu mer. Vi kunde identifiera den starkt kopplade regimen i systemet med två kopplade magnetiska resonanser, genom att undersöka icke-radiativ (nära fält) magnetisk resonansinduktion vid MHz-frekvenser. Vid första anblicken påminner sådan kraftöverföring om den vanliga magnetiska induktionen (10), men notera att den vanliga icke-resonant induktionen är mycket ineffektiv för mellanintervall. Översikt över formalismen. Effektiv mellandistanskraftöverföring sker i särskilda regioner av parameterutrymmet som beskriver resonansobjekt som är starkt kopplade till varandra. Med hjälp av kopplade lägesteori för att beskriva detta fysiska system (11) får vi följande uppsättning linjära ekvationer (1) där indexen betecknar de olika resonansobjekten. Variablerna a m (t) definieras så att energin som finns i objektet m är och m (t) 2, m är resonansfrekvensen hos det isolerade objektet, och Ε m är dess inneboende sönderfallsfrekvens (t.ex. På grund av absorption och utstrålade förluster), så att inom denna ram en okopplad och odriven oscillator med parametrarna 0 och 0 skulle utvecklas i tid som exp(i och 0 t). Mn = σ nm är kopplingskoefficienter mellan de resonansobjekt som anges i delorden, och F m (t) är körvillkor. Vi begränsar behandlingen till fallet med två objekt, betecknade med källa och enhet, så att källan (identifierad av subscript S) körs externt på en konstant frekvens, och de två objekten har en kopplingskoefficient σ. Arbetet extraheras från enheten (subscript D) med hjälp av en belastning (subscript W) som fungerar som en kretsmotstånd ansluten till enheten, och har effekten av att bidra en ytterligare term ρ W till den olastade enheten objektets sönderfallshastighet ρ D. Den totala sönderfallsfrekvensen vid enheten är därför ρ′ D = ρ D + ρ W. Arbetet extraheras bestäms av den effekt som löses i belastningen, dvs. D (t) och 2 (t) 2 (t)
Kurs m.fl. experimentellt demonstrerad effektiv icke-radiativ kraftöverföring över avstånd upp till 8 gånger radien av spolarna genom att använda självresonant spolar i en starkt kopplad regim efter ansträngningar av Nikola Tesla på trådlös energiöverföring i början av 1900-talet REF.
17,105,396
Wireless power transfer via strongly coupled magnetic reso- nances
{'venue': 'Science', 'journal': None, 'mag_field_of_study': ['Chemistry', 'Medicine']}
81,592
Abstract-Millimeter våg (mmWave) håller löftet som en bärfrekvens för femte generationens cellulära nätverk. Eftersom mmWave signaler är känsliga för blockering, tidigare modeller för cellulära nätverk som drivs i ultrahögfrekvensbandet (UHF) gäller inte för att analysera mmWave cellulära nätverk direkt. I detta dokument föreslås en allmän ram för att utvärdera täckning och hastighetsprestanda i mmWave cellulära nätverk. Med hjälp av en avståndsberoende line-of-site (LOS) sannolikhetsfunktion, modelleras LOS och icke-LOS basstationer som två oberoende icke-homogena Poisson punktprocesser, på vilka olika lagar väg förlust tillämpas. På grundval av den föreslagna ramen härleds uttryck för signal-till-brus-och-interferensförhållandet (SINR) och sannolikheten för täckning av frekvenser. MMWave täckning och hastighetsprestanda undersöks som en funktion av antenngeometrin och basstationens densitet. Fallet av täta nätverk analyseras ytterligare genom att tillämpa en förenklad systemmodell, där LOS-regionen för en användare är ungefärlig som en fast LOS-kula. Resultaten visar att täta mmWave nätverk kan uppnå jämförbar täckning och mycket högre datahastighet än konventionella UHF cellulära system, trots förekomsten av blockeringar. Resultaten tyder på att cellstorleken för att uppnå den optimala SINR-skalan med den genomsnittliga storleken på det område som är LOS för en användare.
I REF studerades täcknings- och hastighetsprestandan för mmWave-system.
14,273,034
Coverage and Rate Analysis for Millimeter-Wave Cellular Networks
{'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
81,593
Även om djupa neurala nätverk (DNN) har uppnått stor framgång i många datorseende uppgifter, har färska studier visat att de är sårbara för kontradiktoriska exempel. Sådana exempel, som vanligtvis genereras genom att lägga till små men meningsfulla snedvridningar, kan ofta lura DNN-modeller. Tidigare studier för att försvara mot kontradiktoriska exempel inriktades främst på att förfina DNN-modellerna. De har antingen visat begränsad framgång eller lider av dyra beräkningar. Vi föreslår en ny strategi, med klämma, som kan användas för att härda DNN-modeller genom att upptäcka kontradiktoriska exempel. Feature kramning minskar det sökutrymme som är tillgängligt för en motståndare genom att sammansmälta prover som motsvarar många olika funktionsvektorer i det ursprungliga utrymmet till ett enda prov. Genom att jämföra en DNN-modells förutsägelse om den ursprungliga indatan med den på den pressade indatan upptäcker funktionen klämmande kontradiktoriska exempel med hög noggrannhet och få falska positiva. Detta papper undersöker två fall av funktionsklämmor: att minska färg bitdjupet på varje pixel och utjämning med hjälp av ett rumsligt filter. Dessa strategier är enkla, billiga och kompletterar defensiva metoder som fungerar enligt den underliggande modellen, såsom kontradiktorisk utbildning.
REF illustrerar Feature Squeezing-metoden som minskar det sökutrymme som är tillgängligt för ett kontradiktoriskt exempel genom att sammansmälta prover som motsvarar olika vektorer i det ursprungliga utrymmet till ett enda prov.
3,851,184
Feature Squeezing: Detecting Adversarial Examples in Deep Neural Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
81,594
Topic modeller, såsom Latent Dirichlet Allocation (LDA), posit att dokument är hämtade från en blandning av distributioner över ord, så kallade ämnen. Slutsatsen problemet med att återvinna ämnen från en sådan samling av dokument som hämtats från tillsättningar, är NP-hård. Att göra ett starkt antagande som kallas separerbarhet, [4] gav den första bevisbara algoritmen för slutledning. För den allmänt använda LDA-modellen gav [6] en påvisbar algoritm med hjälp av smarta tensormetoder. Men [4, 6] lär sig inte ämnesvektorer med begränsat l 1-fel (ett naturligt mått för sannolikhetsvektorer). Vårt mål är att utveckla en modell som gör intuitiva och empiriskt understödda antaganden och att utforma en algoritm med naturliga, enkla komponenter som SVD, som på ett tydligt sätt löser inferensproblemet för modellen med begränsat l 1-fel. Ett ämne i LDA och andra modeller kännetecknas i huvudsak av en grupp av samkommande ord. Motiverade av detta, introducerar vi ämnesspecifika Catchwords, en grupp av ord som förekommer med strikt större frekvens i ett ämne än något annat ämne individuellt och är skyldiga att ha hög frekvens tillsammans snarare än individuellt. Ett viktigt bidrag av tidningen är att visa att under detta mer realistiska antagande, som empiriskt verifieras på verklig corpora, en singular value decomposition (SVD) baserad algoritm med en avgörande förbehandling steg av tröskel, kan bevisligen återställa ämnen från en samling dokument som hämtats från Dominant tillsättningar. Dominant admixes är konvex kombination av distributioner där en distribution har ett betydligt högre bidrag än de andra. Bortsett från enkelheten i algoritmen, provet komplexitet har nästan optimalt beroende på w 0, den lägsta sannolikheten att ett ämne är dominerande, och är bättre än [4]. Empiriska bevis visar att på flera verkliga världen corpora, både Catchwords och Dominant admix antaganden innehar och den föreslagna algoritmen väsentligen överträffar state of the art [5].
Den Catchwords algoritm REF antar att varje ämne har en grupp av catchwords som förekommer strikt oftare i detta ämne än i andra ämnen.
15,386,282
A provable SVD-based algorithm for learning topics in dominant admixture corpus
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
81,595
Detta papper beskriver en graf färg kompilator ramverk för att allokera on-chip SRF (Stream Register File) lagring för att optimera vetenskapliga applikationer på strömprocessorer. Vårt ramverk består av att först tillämpa möjliggör optimeringar såsom loopurvalsning för att exponera strömåteranvändning och möjligheter för att maximera parallellism, dvs. överlappande kärnutförande och minnesöverföringar. Därefter löses de tre SRF-hanteringsuppgifterna på ett enhetligt sätt via graffärgning: (1) placera strömmar i SRF, (2) utnyttja strömanvändning, och (3) maximera parallellism. Vi utvärderar prestandan hos vår kompilatorram genom att faktiskt köra nio representativa vetenskapliga datorkärnor på vår FT64 strömprocessor. Våra preliminära resultat visar att kompilatorns ledning uppnår en genomsnittlig hastighetsökning på 2,3x jämfört med FirstFit tilldelning. I jämförelse med de resultat som erhållits genom att köra dessa riktmärken på Itanium 2 observeras en genomsnittlig hastighetsökning på 2,1x.
I REF använder vi graffärgning för att placera strömmar i SRF.
14,610
Optimizing scientific application loops on stream processors
{'venue': "LCTES '08", 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,597
Abstrakt. Detta dokument handlar om meddelandets komplexitet när det gäller sändningar i godtyckliga kommunikationsnät från punkt till punkt. Sändning är en uppgift som initieras av en enda processor som vill förmedla ett meddelande till alla processorer i nätverket. Den allmänt accepterade modellen av kommunikationsnät, där varje processor till en början känner till sina grannars identitet men inte känner till hela nätverkets topologi, antas. Även om det verkar uppenbart att antalet meddelanden som krävs för sändning i denna modell motsvarar antalet länkar, har inget bevis för detta grundläggande faktum lämnats tidigare. Det visas att meddelandets komplexitet beror på den exakta komplexitetsåtgärden. Om meddelanden av obunden längd räknas till enhetskostnad, då sändning kräver 8( 1 VI ) meddelanden, där V är uppsättningen processorer i nätverket. Det bevisas att om man räknar meddelanden med begränsad längd, så kräver sändningen 8 (1 E 1) meddelanden, där E är uppsättningen av kanter i nätverket. Om man utgår från en mellanliggande modell där varje vertex känner till nätets topologi inom radien p 2 1 från sig själv, visas motsvarande övre och nedre gränser för G(min 1 E 1, 1 V 1 '+e(')'p) för det antal meddelanden med begränsad längd som krävs för sändning. Både de övre och nedre gränserna håller för både synkrona och asynkrona nätverksmodeller. Samma resultat håller för byggandet av spännande träd, och olika andra globala uppgifter.
Om t.ex. varje nod känner till nätets topologi inom radien ρ av det, visas det i REF (min {m, n 1+ och 1)/ρ }) det minsta antalet meddelanden med begränsad längd som gör det möjligt att väcka ett nätverk med n noder och m-kanter.
1,429,208
A trade-off between information and communication in broadcast protocols
{'venue': 'JACM', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,598
Socialt innehåll, som t.ex. Twitter-uppdateringar, har ofta de snabbaste förstahandsrapporterna av nyhetsevenemang, liksom många kommentarer som är vägledande för allmänhetens syn på sådana händelser. Som sådan, sociala uppdateringar utgör ett bra komplement till professionellt skrivna nyheter. I den här artikeln överväger vi problemet med att automatiskt kommentera nyheter med sociala uppdateringar (tweets), på en nyhetswebbplats som betjänar stora volymer av pageviews. Den höga frekvensen av både sidvisningar (miljoner till miljarder per dag) och inkommande tweets (mer än 100 miljoner per dag) gör realtidsindexering av tweets ineffektiv, eftersom detta kräver ett index som både är ifrågasatt och uppdateras extremt ofta. Graden av tweet uppdateringar gör caching tekniker nästan oanvändbar eftersom cache skulle bli gammal mycket snabbt. Vi föreslår en ny arkitektur där varje berättelse behandlas som en prenumeration på tweets som är relevanta för berättelsens innehåll, och nya algoritmer som effektivt matchar tweets till berättelser, proaktivt upprätthålla top-k tweets för varje berättelse. Sådana top-k pub-sub förbrukar endast en liten del av resurskostnaden för alternativa lösningar, och kan tillämpas på andra storskaliga innehållsbaserade publicerings-abonnemangsproblem. Vi visar effektiviteten i vår strategi på realworld data: en corpus av nyheter från Yahoo! Nyheter och en logg över Twitter-uppdateringar.
Slutligen tar REF upp problemet med att kommentera nyheter i realtid med sociala inlägg (tweets).
6,915,168
Top-k Publish-Subscribe for Social Annotation of News
{'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']}
81,599
Från sociala nätverk till P2P-system uppstår nätverksprovtagning i många miljöer. Vi presenterar en detaljerad studie om vilken typ av partiskhet som finns i nätverksprovtagningsstrategier för att belysa hur man bäst kan ta prover från nätverk. Vi undersöker kopplingar mellan specifika förutfattade meningar och olika mått på strukturell representativitet. Vi visar att vissa förutfattade meningar i själva verket är till nytta för många tillämpningar, eftersom de "push" provtagningsprocessen mot att inkludera önskade egenskaper. Slutligen beskriver vi hur dessa provtagningsfördomar kan utnyttjas i flera, verkliga tillämpningar, inklusive upptäckt av sjukdomsutbrott och marknadsundersökningar.
Arbetet i REF ger en detaljerad studie av karaktären av bias i nätverksprovtagning t.ex., BFS producerar vanligtvis partiska prover med höggradiga noder.
360,123
Benefits of Bias: Towards Better Characterization of Network Sampling
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Physics']}
81,600
Vi anser att problemet med att uppskatta set-expression kardinalitet i en distribuerad strömmande miljö där snabba uppdateringsströmmar med ursprung på avlägsna platser kontinuerligt överförs till ett centralt bearbetningssystem. Kärnan i våra algoritmiska lösningar för att besvara set-expression kardinalitet frågor är två nya tekniker för att sänka kostnaderna för datakommunikation utan att offra svar precision. Vår första teknik utnyttjar global kunskap om distributionen av vissa ofta förekommande strömelement för att avsevärt minska överföringen av elementstatsinformation till den centrala platsen. Vårt andra tekniska bidrag innebär ett nytt sätt att fånga semantiken av inmatningsmängden uttryck i en boolesk logik formel, och med hjälp av modeller (av formeln) för att avgöra om ett element tillstånd förändring på en avlägsen plats kan påverka det inställda uttrycket resultatet. Resultaten av vår experimentella studie med såväl verkliga som syntetiska datauppsättningar indikerar att våra distribuerade skattningsalgoritmer för set-expression ger en betydande minskning av meddelandetrafiken jämfört med naiva metoder som ger samma precisionsgarantier.
Arbetet utökas också av Das et al. REF för att stödja uppskattning av set-expression kardinalitet i en distribuerad strömmande miljö.
1,701,815
Distributed Set-Expression Cardinality Estimation
{'venue': 'VLDB', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,601
Neural maskinöversättning (NMT) har dykt upp nyligen som en lovande statistisk maskinöversättning tillvägagångssätt. I NMT används neurala nätverk (NN) direkt för att producera översättningar, utan att förlita sig på en redan existerande översättningsram. I detta arbete tar vi ett steg mot att överbrygga klyftan mellan konventionella ordanpassningsmodeller och NMT. Vi följer den dolda Markov modellen (HMM) tillvägagångssätt som separerar anpassning och lexical modeller. Vi föreslår en neural anpassningsmodell och kombinerar den med en lexisk neural modell i ett loglinjärt ramverk. Modellerna används i en fristående ordbaserad dekoder som uttryckligen hypothesizes anpassningar under sökning. Vi visar att vårt system överträffar uppmärksamhetsbaserade NMT på två uppgifter: IWSLT 2013 Tyska→Engelska och BOLT Kinesiska→Engelska. Vi visar också lovande resultat för att anpassa träningsdata med hjälp av neurala modeller.
REF använde separata anpassningsmodeller och lexikala modeller och kunde därmed hypothesize explicita anpassningslänkar under avkodningen.
13,419,043
Alignment-Based Neural Machine Translation
{'venue': 'WMT', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,602
I detta dokument presenteras ProLices, ett tillvägagångssätt för utveckling av säkerhetskritiska inbyggda tillämpningar och dess användning för att utveckla en produktlinje för obemannade luftfartyg (UAV). ProLices motivation växte fram efter utvecklingen av Tiriba, en familj av små, eldrivna obemannade flygplan. De flesta programvaruartefakter som producerades för Tiriba krävde ändringar för att återanvändas i ett mer komplext projekt, SARVANT, som måste rymma flera nya funktioner som ökar variabiliteten i slutprodukterna. I Tiriba-projektet definierades och användes ett metodologiskt tillvägagångssätt, SAFE-CRITES. Särskild omsorg togs om återanvändning av programvara, baserat på Modell Driven Utveckling och automatisk kodgenerering. Certifieringsprocessen, som bygger på DO-178B-standarden, har också beaktats. ProLiCEs utökar SAFE-CRITES för att integrera Product Line Engineering i utvecklingsprocessen, syftar till bättre återanvändning av programvara. Denna förlängning gjordes genom att skapa en andra parallell väg till processen, som handlar om Product Line Domain Engineering. ProLices används för närvarande i SARVANT-projektet, som kommer att leverera en mycket mer komplex UAV och beräknas användas om två år.
Författarna ändrar produktlinjen på Critical Embedded Systems (ProLices) REF-utvecklingsprocessen för SPL för att etablera en infrastruktur för produktlinjeteknik för certifierade produkter.
18,867,676
The ProLiCES Approach to Develop Product Lines for Safety-Critical Embedded Systems and its Application to the Unmanned Aerial Vehicles Domain
{'venue': 'CLEI Electron. J.', 'journal': 'CLEI Electron. J.', 'mag_field_of_study': ['Computer Science']}
81,603
Mål-Kliniska frågor är ofta långa och komplexa och tar sig många former. Vi har byggt ett kliniskt frågesvarssystem som heter AskHERMES för att utföra robust semantisk analys på komplexa kliniska frågor och utgående frågefokuserade utdragssammanfattningar som svar. Design-Detta dokument beskriver systemarkitekturen och en preliminär utvärdering av AskHERMES, som implementerar innovativa metoder i frågeanalys, sammanfattning och svar presentation. Fem typer av resurser indexerades i detta system: MEDLINE abstracts, PubMed Central fulltext artiklar, eMedicine dokument, kliniska riktlinjer och Wikipedia artiklar. Mätning-Vi jämförde AskHERMES systemet med Google (Google och Google Scholar) och UpToDate och bad läkare att göra poäng de tre systemen genom enkel användning, kvalitet på svar, tid och övergripande prestanda. Resultat-AskHERMES gör det möjligt för läkare att ange en fråga på ett naturligt sätt med minimal frågeformulering och gör det möjligt för läkare att effektivt navigera bland alla svar meningar för att snabbt uppfylla sina informationsbehov. Däremot behöver läkare formulera frågor för att söka information i Google och UpToDate. Utvecklingen av AskHERMES-systemet befinner sig fortfarande i ett tidigt skede och kunskapsresursen är begränsad jämfört med Google eller UpToDate. Utvärderingsresultaten visar dock att AskHERMES resultat är jämförbara med de andra systemen. Särskilt när du svarar på komplexa kliniska frågor, visar det potentialen att överträffa både Google och UpToDate system. Slutsatser-AskHERMES, som finns på http://www.AskHERMES.org, har potential att hjälpa läkare att utöva evidensbaserad medicin och förbättra kvaliteten på patientvården.
REF, läkare betygsätter en klinisk fråga svarssystem i termer av användbarhet, svar kvalitet, och tid som spenderas.
15,241,604
AskHERMES: An online question answering system for complex clinical questions
{'venue': 'Journal of biomedical informatics', 'journal': 'Journal of biomedical informatics', 'mag_field_of_study': ['Medicine', 'Computer Science']}
81,604
Många olika metoder för att träna djupa generativa modeller har tidigare införts. I detta dokument föreslår vi att den variationella auto-encoder (VAE) ram med en ny typ av tidigare som vi kallar "Variarationell blandning av posteriors" tidigare, eller VampPrior för kort. VampPrior består av en blandningsfördelning (t.ex. en blandning av Gaussians) med komponenter som ges av variations posteriors villkorade på lärbara pseudo-ingångar. Vi utvidgar detta ytterligare till en hierarkisk tvåskiktsmodell och visar att denna arkitektur med en länkad tidigare och senare lär sig betydligt bättre modeller. Modellen undviker också de vanliga lokala optima frågorna relaterade till onödiga latenta dimensioner som plågar fordonslarm. Vi tillhandahåller empiriska studier på sex datauppsättningar, nämligen statiska och binära MNIST, OMNIGLOT, Caltech 101 Silhouettes, Frey Faces och Histopatology patchs, och visar att tillämpandet av den hierarkiska VampPrior levererar toppmoderna resultat på alla datauppsättningar i den oövervakade permutationsinvarianta inställningen och de bästa resultaten eller jämförbara med SOTA-metoder för metoden med konvolutionella nätverk.
VampPrior REF föreslår att man konstruerar föregångaren som en blandning av variationsbaksidorna över en lärd uppsättning pseudoingångar.
3,523,097
VAE with a VampPrior
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
81,605
Vi visar att det för alla radionät finns ett schema för en sändning vars tid är O(D + log 5 n), där D är diametern och n är antalet noder. (Detta resultat innebär en optimal sändning till nätverk med D = på (log 5 n).) Vi presenterar en centraliserad randomiserad polynomalgoritm som ger ett nätverk och en källa, ger ett schema för att sända meddelandet från källan till resten av nätverket.
Gaber och Mansour REF visade att det för alla paketradionät finns ett tidsschema för sändning som ger tid O(D + log 5 n), och att det kan hittas med en deterministisk polynomalgoritm.
17,987,074
Centralized broadcast in multihop radio networks
{'venue': 'J. Algorithms', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
81,606
Felinsprutningsteknik och -verktyg D bedömning av lämpligheten innebär undersökning av fel och fel. Den destruktiva karaktären hos en krasch och lång fellatens gör det svårt att identifiera orsakerna till misslyckanden i den operativa miljön. Det är särskilt svårt att återskapa ett felscenario för ett stort, komplext system. För att identifiera och förstå eventuella fel använder vi ett experimentbaserat tillvägagångssätt för att studera tillförlitligheten hos ett system. Ett sådant tillvägagångssätt tillämpas inte bara under utformnings- och konstruktionsfaserna, utan även under prototyp- och driftsfaserna. För att ta ett experimentbaserat tillvägagångssätt måste vi först förstå ett systems arkitektur, struktur och beteende. Vi måste särskilt känna till dess tolerans för fel och fel, inklusive dess inbyggda detekterings- och återvinningsmekanismer, 3 och vi behöver specifika instrument och verktyg för att injicera fel, skapa fel eller fel, och övervaka deras effekter. Ingenjörer använder oftast lågkostnads-, simuleringsbaserad felinsprutning för att utvärdera tillförlitligheten hos ett system som befinner sig i koncept- och designfaserna. Vid denna tidpunkt är det system som studeras endast en rad abstraktioner på hög nivå; genomförandedetaljerna har ännu inte fastställts. Systemet simuleras alltså på grundval av förenklade antaganden. Simuleringsbaserad felinsprutning, som förutsätter att fel eller fel uppstår enligt förutbestämd distribution, är användbar för att utvärdera effektiviteten hos feltoleranta mekanismer och ett systems tillförlitlighet; det ger snabb återkoppling till systemingenjörer. Det kräver dock exakta indataparametrar, som är svåra att leverera: Konstruktions- och teknikförändringar komplicerar ofta användningen av tidigare mätningar. Genom att testa en prototyp, å andra sidan, kan vi utvärdera systemet utan några antaganden om systemdesign, vilket ger mer exakta resultat. Vid prototypbaserad felinjektion injicerar vi fel i systemet för att • identifiera driftsäkerhet flaskhalsar, • studera systembeteende i närvaro av fel, • bestämma täckningen av feldetekterings- och återvinningsmekanismer, och • utvärdera effektiviteten hos feltoleransmekanismer (såsom omkonfigureringssystem) och prestandaförlust. För prototypbaserad felinsprutning injiceras fel antingen på hårdvarunivå (logiska eller elektriska fel) eller på programvarunivå (kod- eller datakorruption) och effekterna övervakas. Det system som används för utvärdering kan vara antingen en prototyp eller ett fullt fungerande system. Att injicera fel i ett operativt system kan ge information om felprocessen. Felinjektion lämpar sig dock endast för studier av emulerade fel. Det misslyckas också med att tillhandahålla tillförlitliga åtgärder, t.ex. medeltid mellan misslyckanden och tillgänglighet. I stället för att injicera fel kan ingenjörer direkt mäta driftsystem eftersom de hanterar verklig arbetsbelastning. 2 Mätbaserad analys använder faktiska data, som innehåller mycket information om naturligt förekommande fel och fel och ibland om återhämtningsförsök. Analysera dessa data kan ge förståelse för faktiska fel och fel egenskaper och insikt för analytiska modeller. Mätbaserad analys är dock begränsad till upptäckta fel. Dessutom måste data samlas in under lång tid eftersom fel och fel uppstår Felinjektion är viktigt för att utvärdera tillförlitligheten hos datorsystem. Forskare och ingenjörer har skapat många nya metoder för att injicera fel, som kan implementeras i både hårdvara och programvara.
Sådana fel kan simuleras genom felinsprutning REF.
5,155,992
Fault Injection Techniques and Tools
{'venue': 'IEEE Computer', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,607
En aktiveringsgräns för en neuron avser ett separerande hyperplan som avgör om neuronen är aktiverad eller avaktiverad. Det har länge ansetts i neurala nätverk att aktivering av neuroner, snarare än deras exakta utgångsvärden, spelar den viktigaste rollen i att bilda klassificeringsvänliga partitioner av den dolda funktionen utrymme. Så vitt vi vet har emellertid denna aspekt av neurala nätverk inte beaktats i litteraturen om kunskapsöverföring. I detta dokument föreslår vi en kunskapsöverföringsmetod genom destillation av aktiveringsgränser som bildas av dolda neuroner. För destillationen föreslår vi en aktiveringsförlust som har det lägsta värdet när de gränser som studenten genererar sammanfaller med de som läraren skapar. Eftersom aktiveringsöverföringsförlusten inte kan skiljas åt, designar vi en bitvis differentierad förlust som ungefär motsvarar aktiveringsöverföringsförlusten. Genom den föreslagna metoden lär sig studenten en åtskiljande gräns mellan aktiveringsregion och deaktiveringsregion som bildas av varje neuron i läraren. Genom experimenten i olika aspekter av kunskapsöverföringen verifieras att den föreslagna metoden överträffar den nuvarande toppmoderna tekniken.
AB REF föreslår att matcha binarized aktivering av läraren och studenten för att göra kunskapsöverföring.
53,213,211
Knowledge Transfer via Distillation of Activation Boundaries Formed by Hidden Neurons
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
81,608
Abstract-Mobile cloud computing möjliggör avlastning av beräkning tungt program, såsom för spel, objektigenkänning eller videobehandling, från mobila användare (MUs) till molnet eller molnservrar, som är anslutna till trådlösa åtkomstpunkter, antingen direkt eller genom finit kapacitet backhaul länkar. I detta dokument undersöks utformningen av ett mobilt molndatasystem genom att föreslå gemensam optimering av dator- och kommunikationsresurser i syfte att minimera den energi som krävs för avlastning över alla MU:er under latensbegränsningar på applikationslagret. Den föreslagna konstruktionen står för multiantenna upplänk och nedlänk störande sändningar, med eller utan samarbete på nedlänken, tillsammans med tilldelning av backhaul och beräkningsresurser och användarval. De resulterande konstruktion optimeringsproblem är nonconvex, och stationära lösningar beräknas med hjälp av successiv konvex approximation tekniker. Numeriska resultat illustrerar fördelarna med den gemensamma optimeringen av dator- och kommunikationsresurser när det gäller energilatens, samt effekterna av systemparametrar, såsom backhaulkapacitet, och nätverksarkitekturen.
I REF, för att minimera offloading energiförbrukning, författarna föreslog gemensam optimering av dator- och radioresurser med tanke på latency begränsningar i en cloud-edge datornätverk.
17,492,072
Joint Uplink/Downlink Optimization for Backhaul-Limited Mobile Cloud Computing With User Scheduling
{'venue': 'IEEE Transactions on Signal and Information Processing over Networks', 'journal': 'IEEE Transactions on Signal and Information Processing over Networks', 'mag_field_of_study': ['Computer Science']}
81,609
Abstrakt. Gupta m.fl. [J. ACM, 54 (2007), artikel 11] och Gupta, Kumar och Roughgarden [i ACM:s symposium om teori om datorsystem, ACM, New York, 2003, s. 365-372] har nyligen utvecklat ett elegant ramverk för utveckling av randomiserade approximationsalgoritmer för hyres- eller köpnätsdesignproblem. Den viktigaste byggstenen i denna ram är en approximationsalgoritm för det underliggande nätdesignproblemet som medger ett strikt kostnadsdelningssystem. Sådana kostnadsdelningssystem har också visat sig vara användbara i utvecklingen av approximativa algoritmer i samband med tvåstegs stokastisk optimering med användning. Det viktigaste bidraget i detta dokument är att visa att problemet med Steinerskogen medger kostnadsandelar som är 3-strikt och 4-grupps-strikt. Som en följd härleder vi förvånansvärt enkla approximationsalgoritmer för hyra-eller-buy-multicast-hyra-eller-buy-problem med approximationsgraderna 5 och 6, vilket förbättrar de tidigare bästa approximationsgraderna på 6,828 respektive 12,8. Vi visar också att inget approximationsförhållande bättre än 4.67 kan uppnås med hjälp av sampleand-augment ram i kombination med de för närvarande mest kända Steiner skog approximation algoritmer. I samband med tvåstegs stokastisk optimering leder vårt resultat till en 6-approximationsalgoritm för det stokastiska Steiner-trädproblemet i den svarta boxmodellen och en 5-approximationsalgoritm för det stokastiska Steiner-skogsproblemet i den självständiga beslutsmodellen. 1. Vad är det för fel på dig? Inledning. I multicommodity hyra-eller-buy (MRoB) problem vi ges en oriktad graf G = (V, E) med icke-negativa kostnader c e för alla kanter e E, en uppsättning k terminalpar R = { (s 1, t 1 ),. ., (s k, t k )} V × V, en positiv efterfrågan d i för varje terminal par (s i, t i ) R och en parameter M ≥ 1. Målet är att installera kapaciteter på kanterna av G så att för alla (s i, t i ) R kan vi samtidigt rutt d i enheter av flödet från s i till t i. Vi kan antingen hyra kapacitet på en kant e på kostnad λ(e) · c(e), där λ(e) är flödet traversing edge e, eller köpa oändlig kapacitet på kant e på kostnad M · c(e). Köpta kanter har ingen inkrementell, flödesberoende kostnad. Det övergripande målet är att hitta en genomförbar lösning på minsta totala kostnad. MRoB-problemet generaliserar ett antal grundläggande optimeringsproblem som är NP-hårda. För M = 1 och enhetskrav minskar MRoB-problemet till
• Flera varor hyra-eller-köp REF.
15,549,546
STRICT COST SHARING SCHEMES FOR STEINER FOREST
{'venue': 'SIAM J. Comput.', 'journal': 'SIAM J. Comput.', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
81,610
Syntetisering av högkvalitativa bilder från textbeskrivningar är ett utmanande problem i datorseendet och har många praktiska tillämpningar. Prover som genereras av befintliga text-till-bild-metoder kan grovt återspegla betydelsen av de givna beskrivningarna, men de misslyckas med att innehålla nödvändiga detaljer och levande objektdelar. I detta dokument föreslår vi Stacked Generative Adversarial Networks (StackGAN) att generera 256×256 fotorealistiska bilder konditionerade på textbeskrivningar. Vi delar upp det svåra problemet i mer hanterbara delproblem genom en skissrefinieringsprocess. Stage-I GAN skisserar objektets primitiva form och färger baserat på den givna textbeskrivningen, vilket ger Stage-I lågupplösta bilder. Steg II GAN tar Stage-I resultat och textbeskrivningar som ingångar, och genererar högupplösta bilder med fotorealistiska detaljer. Den kan rätta till brister i steg I-resultaten och lägga till övertygande detaljer i förfiningsprocessen. För att förbättra mångfalden av de syntetiserade bilderna och stabilisera utbildningen av den villkorliga-Gan, introducerar vi en ny Conditioning Augmentation teknik som uppmuntrar jämnhet i latent konditioneringsgrenröret. Omfattande experiment och jämförelser med state-of-the-arts på referensdatauppsättningar visar att den föreslagna metoden uppnår betydande förbättringar när det gäller att generera fotorealistiska bilder som är betingade av textbeskrivningar.
Senare, Zhang et al. REF föreslog en StackGAN-strategi för att generera realistiska bilder av hög kvalitet från textbeskrivning med hjälp av staplade generativa kontradiktoriska nätverk.
1,277,217
StackGAN: Text to Photo-Realistic Image Synthesis with Stacked Generative Adversarial Networks
{'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
81,611
MapReduce är en programmeringsmodell för parallell databehandling som ofta används i molnbaserade datormiljöer. Nuvarande MapReduce implementeringar är baserade på centraliserade master-slave arkitekturer som inte klarar bra med dynamiska molninfrastrukturer, som ett molnmoln, där noder kan gå med och lämna nätverket till höga priser. Vi har utformat ett adaptivt MapReduce-ramverk, P2P-KartaReduce, som utnyttjar en peer-to-peer-modell för att hantera node curn, master misslyckanden, och jobbåterställning på ett decentraliserat men effektivt sätt, för att ge en mer tillförlitlig MapReduce middleware som effektivt kan utnyttjas i dynamiska Cloud-infrastrukturer. I detta dokument beskrivs P2P-KartaReduce-systemet som ger en detaljerad beskrivning av dess grundläggande mekanismer, en prototypimplementering och en omfattande prestandautvärdering i olika nätverksscenarier. Prestandaresultaten bekräftar den goda feltoleransnivå som tillhandahålls av P2P-KartaReduce-ramverket jämfört med ett centraliserat genomförande av MapReduce, samt dess begränsade effekt när det gäller allmänna nät.
I P2P-KartaReduce REF, den adaptiva MapReduce ramverket gav en mer tillförlitlig MapReduce middleware i dynamiska molninfrastrukturer som effektivt kan utnyttjas för att hantera nod curn, master misslyckanden, och jobb återhämtning på ett decentraliserat men effektivt sätt.
13,036,366
P2P-MapReduce: Parallel data processing in dynamic Cloud environments
{'venue': 'J. Comput. Syst. Sci.', 'journal': 'J. Comput. Syst. Sci.', 'mag_field_of_study': ['Computer Science']}
81,612