src
stringlengths 100
134k
| tgt
stringlengths 10
2.25k
| paper_id
int64 141
216M
| title
stringlengths 9
254
| discipline
stringlengths 67
582
| __index_level_0__
int64 0
83.3k
|
---|---|---|---|---|---|
I Internet of Things (IoT) är resursbegränsade saker anslutna till opålitliga och opålitliga Internet via IPv6 och 6LoWPAN-nätverk. Även när de är säkrade med kryptering och autentisering, utsätts dessa saker för både trådlösa attacker inifrån 6LoWPAN-nätverket och från Internet. Eftersom dessa attacker kan lyckas, Intrusion Detection Systems (IDS) är nödvändiga. För närvarande finns det inga IDS som uppfyller kraven i IPv6-anslutna IoT eftersom tillgängliga metoder antingen är anpassade för trådlösa Sensor Networks (WSN) eller för konventionella Internet. I den här artikeln designar, implementerar och utvärderar vi ett nytt intrångsdetekteringssystem för sakernas internet som vi kallar SVELTE. I vår implementering och utvärdering riktar vi främst in oss på routingattacker som spoofed eller ändrad information, sjunkhål och selektiv vidarebefordring. Vår strategi kan dock utvidgas för att upptäcka andra attacker. Vi implementerar SVELTE i Contiki OS och noggrant utvärdera det. Vår utvärdering visar att i de simulerade scenarierna, SVELTE upptäcker alla skadliga noder som lanserar våra genomförda sjunkhål och / eller selektiva vidarebefordra attacker. Den verkliga positiva frekvensen är dock inte 100%, dvs. vi har några falska larm under upptäckten av skadliga noder. Dessutom är SVELTE's overhead tillräckligt liten för att distribuera den på begränsade noder med begränsad energi och minneskapacitet. | Ett annat intrångsdetekteringssystem som kan upptäcka angrepp på IPv6 och 6LoWPAN-nät föreslogs i REF, vilket är intressant ur WAN-synpunkt. | 16,113,507 | SVELTE: Real-time intrusion detection in the Internet of Things | {'venue': 'Ad Hoc Networks', 'journal': 'Ad Hoc Networks', 'mag_field_of_study': ['Computer Science']} | 7,838 |
Vi introducerar en ny regressionsram, Gaussian process regressionsnätverk (GPRN), som kombinerar de strukturella egenskaperna hos Bayesian neurala nätverk med nonparametrisk flexibilitet av Gaussian processer. Denna modell tar hänsyn till indataberoende signal- och buller korrelationer mellan flera responsvariabler, indataberoende längdskala och amplituder, och tung-tailed prediktiva fördelningar. Vi härleder både effektiva Markov kedja Monte Carlo och variations Bayes inference förfaranden för denna modell. Vi tillämpar GPRN som en multi-utgång regression och multivariat volatilitet modell, visar avsevärt förbättrad prestanda över åtta populära multipelutgång (multi-task) Gaussian process modeller och tre multivariat volatilitet modeller på referensdatauppsättningar, inklusive en 1000 dimensional genuttryck dataset. - Vad är det för fel på dig? | GP regressionsnätverk REF kombinerar NN:s strukturella egenskaper med GP:s icke-parametriska flexibilitet för att ta emot ingångsberoende signal- och bullerkorrelationer. | 2,616,779 | Gaussian Process Regression Networks | {'venue': None, 'journal': 'arXiv: Machine Learning', 'mag_field_of_study': ['Mathematics', 'Computer Science', 'Economics']} | 7,839 |
I detta dokument visar vi att den exponentiella mekanismen kan implementeras som en sanningsenlig mekanism för alla problem med utformningen av mekanismer med målet att maximera den sociala välfärden, samtidigt som man bevarar den differentierade integriteten. Vår omedelbarion av den exponentiella mekanismen kan tolkas som en generalisering av VCG-mekanismen i den meningen att VCG-mekanismen är det extrema fallet när integritetsparametern går till oändlighet. Såvitt vi vet är detta det första allmänna verktyget för att utforma mekanismer som är både sanningsenliga och differentierade privata. | REF visade att mekanismen för [MT07] (den "exponentiella mekanismen") i själva verket är maximal i fördelningsintervall, och därför kan göras exakt sanningsenlig med tillägg av betalningar. | 6,538,848 | The Exponential Mechanism for Social Welfare: Private, Truthful, and Nearly Optimal | {'venue': '2012 IEEE 53rd Annual Symposium on Foundations of Computer Science', 'journal': '2012 IEEE 53rd Annual Symposium on Foundations of Computer Science', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 7,840 |
Abstract-I detta dokument analyseras effektiv driftsättning av flera obemannade luftfartyg (UAV) med riktade antenner som fungerar som trådlösa basstationer som ger täckning för markanvändare. För det första, nedlänk täckning sannolikheten för UAVs som en funktion av höjden och antennen vinst härleds. Därefter, med hjälp av cirkelpackning teori, tredimensionella platser för UAVs bestäms på ett sätt som den totala täckningsområdet maximeras samtidigt maximera täckning livslängden för UAVs. Våra resultat visar att för att minska störningarna måste UAV:s höjd justeras korrekt baserat på strålbredden på den riktade antennen samt täckningskraven. Dessutom fastställs det minsta antal UAV som krävs för att garantera en sannolikhet för måltäckning för ett visst geografiskt område. Numeriska resultat utvärdera de olika kompromisser som är inblandade i olika UAV driftsättningsscenarier. | REF härleder sannolikheten för trådlös täckning för UAV som en funktion av drifthöjden och antennvinsten. | 17,058,668 | Efficient Deployment of Multiple Unmanned Aerial Vehicles for Optimal Wireless Coverage | {'venue': 'IEEE Communications Letters', 'journal': 'IEEE Communications Letters', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 7,841 |
Den gemensamma uppgiften CONLL-2010 ägnades åt att upptäcka osäkerhetssignaler och deras språkliga omfattning i naturliga språktexter. Motiveringen till denna uppgift var att det är av avgörande betydelse att skilja mellan saklig och osäker information i texterna. Detta dokument ger en allmän översikt över den gemensamma uppgiften, inklusive protokollen för annotering av utbildnings- och utvärderingsdata, de exakta uppgiftsdefinitionerna, de utvärderingsmått som använts och de övergripande resultaten. Dokumentet avslutas med en analys av de framträdande tillvägagångssätten och en översikt över de system som lagts fram för den gemensamma uppgiften. | Senare konsoliderades klassificeringen av osäkra meningar som en gemensam uppgift i CoNLL-2010 om att lära sig att upptäcka häckar och deras omfattning i naturlig språktext REF. | 549,335 | The CoNLL-2010 Shared Task: Learning to Detect Hedges and their Scope in Natural Language Text | {'venue': 'Proceedings of the Fourteenth Conference on Computational Natural Language Learning', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 7,842 |
Namngiven enhet erkännande (NER) är en viktig uppgift i naturligt språk bearbetning område, som måste fastställa enheter gränser och klassificera dem i fördefinierade kategorier. För kinesisk NER uppgift finns det bara en mycket liten mängd kommenterade data tillgängliga. Kinesiska NER uppgift och kinesiska ord segmentering (CWS) uppgift har många liknande ord gränser. Det finns också särdrag i varje uppgift. Befintliga metoder för kinesiska NER antingen inte utnyttja ordgränsinformation från CWS eller inte kan filtrera den specifika informationen från CWS. I detta dokument föreslår vi ett nytt ramverk för kontradiktorisk överföring av lärande för att fullt ut utnyttja information om uppgiftsdelade gränser och förhindra de uppgiftsspecifika egenskaperna hos CWS. Dessutom, eftersom godtycklig karaktär kan ge viktiga signaler när man förutsäger entitetstyp, utnyttjar vi självbetjäning för att uttryckligen fånga lång räckvidd beroenden mellan två polletter. Experimentella resultat på två olika allmänt använda dataset visar att vår föreslagna modell avsevärt och konsekvent överträffar andra toppmoderna metoder. | REF tillämpar en kontradiktorisk inlärningsram för överföring för att integrera den uppgiftsdelade ordgränsinformationen i kinesiska NER. | 53,079,799 | Adversarial Transfer Learning for Chinese Named Entity Recognition with Self-Attention Mechanism | {'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 7,843 |
Målet med bildsömnad är att skapa naturliga mosaiker fria från artefakter som kan uppstå på grund av relativ kamerarörelse, ljusförändringar och optiska avvikelser. I detta dokument föreslår vi en ny sömmetod, som använder ett jämnt sömfält över hela målbilden, samtidigt som den tar hänsyn till alla lokala omvandlingsvariationer. Computing warp är helt automatiserad och använder en kombination av lokal homografi och globala likhet transformationer, som båda uppskattas med avseende på målet. Vi minskar perspektivförvrängningen i de icke-överlappande regionerna genom att linearisera homografin och långsamt ändra den till den globala likheten. Den föreslagna metoden är lätt generaliserad till flera bilder, och gör det möjligt att automatiskt få det bästa perspektivet i panoramat. Det är också mer robust mot parameterval, och därmed mer automatiserat jämfört med toppmoderna metoder. Fördelarna med det föreslagna tillvägagångssättet visas med hjälp av en rad olika utmanande fall. | Lin m.fl. I REF föreslogs en adaptiv som naturlig-som-möjlig (AANAP) bildvarp som extrapolerar den lokala homografin till de icke-överlappande regionerna med hjälp av homography linearization. | 2,180,894 | Adaptive as-natural-as-possible image stitching | {'venue': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 7,844 |
Sammanfattning Denna forskning motiveras av frågan om klassificering av kroniskt sjuka patienters sjukdomar för beslutsstöd i kliniska sammanhang. Vårt huvudsakliga mål är att föreslå flermärkt klassificering av multivariata tidsserier som finns i medicinska register över kroniskt sjuka patienter, med hjälp av kvantiseringsmetoder, såsom påse med ord (BoW), och multi-märkta klassificeringsalgoritmer. Vårt andra mål är att jämföra övervakade dimensionsreduktionstekniker med toppmoderna flermärkta klassificeringsalgoritmer. Hypotesen är att kärnmetoder och lokalitetsbevarande projektioner gör sådana algoritmer bra kandidater för att studera multi-märkta medicinska tidsserier. Resultat: Icke-linjära dimensionsreduktionsstrategier beter sig väl med medicinska tidsserier kvantifierade med hjälp av BoW-algoritmen, med resultat jämförbara med toppmoderna multimärkta klassificeringsalgoritmer. Kedja de projicerade funktionerna har en positiv inverkan på algoritmens prestanda med avseende på rena binära relevans metoder. Utvärderingen belyser möjligheten att representera medicinska patientjournaler med hjälp av BoW för flermärkta klassificeringsuppgifter. Studien belyser också att dimensionalitetsreduktionsalgoritmer baserade på kärnmetoder, lokalitetsbevarande projektioner eller båda är bra kandidater för att hantera flermärkta klassificeringsuppgifter i medicinska tidsserier med många saknade värden och hög etiketttäthet. | Bromuri m.fl. REF kombinerar BoF- och kärnmetoder-baserad dimensionalitetsreduktion för att utföra flermärkt tidsserieklassificering på hälsojournaler för kroniskt sjuka patienter. | 15,790,023 | Multi-label classification of chronically ill patients with bag of words and supervised dimensionality reduction algorithms | {'venue': 'Journal of biomedical informatics', 'journal': 'Journal of biomedical informatics', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 7,845 |
Osäkerhetsprinciper som Heisenbergs ger gränser för en signals tid-frekvenskoncentration och utgör ett viktigt teoretiskt verktyg för att utforma och utvärdera linjära signaltransformeringar. Generaliseringar av sådana principer till grafinställningen kan informera ordbok design för grafsignaler, leda till algoritmer för att rekonstruera saknade information från grafsignaler via glesa representationer, och ge nya grafanalysverktyg. Medan tidigare arbete har fokuserat på att generalisera begrepp om spridningar av en grafsignal i vertex och grafspektrala domäner, är vår strategi att generalisera metoderna för Lieb för att utveckla osäkerhetsprinciper som ger gränser för koncentrationen av analyskoefficienter för någon grafsignal under en ordbok transform vars atomer är gemensamt lokaliserade i vertex och grafspektrala domäner. En utmaning som vi betonar är att den lokala strukturen i en enda liten region av grafen, på grund av inhomogeniteten i den underliggande grafdatadomänen, drastiskt kan påverka osäkerhetsgränserna för signaler som är koncentrerade till olika regioner i grafen, vilket begränsar den information som tillhandahålls av globala osäkerhetsprinciper. Följaktligen föreslår vi ett nytt sätt att införliva ett begrepp om lokalitet, och utveckla lokala osäkerhetsprinciper som binder koncentrationen av analyskoefficienter för varje atom av en lokaliserad grafspektral filterram i termer av kvantiteter som beror på den lokala strukturen av grafen runt centrum vertex av den givna atomen. Slutligen visar vi hur våra föreslagna lokala osäkerhetsåtgärder kan förbättra det slumpmässiga urvalet av grafsignaler. | I övrigt fokuserar REF på representation av grafsignaler med hjälp av ramar och föreslår vissa osäkerhetsresultat baserade på dessa representationer. | 16,938,453 | Global and Local Uncertainty Principles for Signals on Graphs | {'venue': None, 'journal': 'arXiv: Machine Learning', 'mag_field_of_study': ['Computer Science', 'Mathematics', 'Physics']} | 7,846 |
Abstract-Centrality är ett begrepp som ofta används i sociala nätverksanalyser för att studera olika egenskaper hos nätverk som modelleras som grafer. Vi presenterar en ny centralitetsmätare kallad Localized Bridging Centrality (LBC). LBC är baserat på Bridging Centrality (BC) metrisk som Hwang et al. nyligen introducerad. Överbryggande noder är noder som är strategiskt belägna mellan starkt sammankopplade regioner. LBC kan identifiera överbryggande noder med en noggrannhet som är jämförbar med BC-måttet för de flesta nätverk. Som namnet antyder, använder vi endast lokal information från omgivande noder för att beräkna LBC metriska, medan, global kunskap krävs för att beräkna BC metriska. Den största skillnaden mellan LBC och BC är att LBC använder den egocentriska definitionen av mellanhet centralitet för att identifiera överbryggande noder, medan BC använder den sociocentriska definitionen av mellanhet centralitet. Således är vår LBC metrisk lämplig för distribuerad eller parallell beräkning och har fördelen av att vara en storleksordning snabbare att beräkna i beräkningskomplex. Vi jämför resultaten från BC och LBC i tre exempel. Vi tillämpade vårt LBC-mått för nätverksanalys av ett riktigt trådlöst nätnät. Våra resultat indikerar att LBC metrisk är lika kraftfull som BC metrisk på att identifiera överbryggande noder. LBC metrisken är därför ett viktigt verktyg som kan hjälpa nätverksadministratörer att identifiera kritiska noder som är viktiga för nätverkets robusthet på ett distribuerat sätt. | Nanda och Kotz REF föreslår en ny centralitetsmätare kallad Localized Bridging Centrality (LBC). | 2,609,657 | Localized Bridging Centrality for Distributed Network Analysis | {'venue': '2008 Proceedings of 17th International Conference on Computer Communications and Networks', 'journal': '2008 Proceedings of 17th International Conference on Computer Communications and Networks', 'mag_field_of_study': ['Computer Science']} | 7,847 |
3G cellulära datanätverk har nyligen bevittnat explosionsartad tillväxt. I detta arbete fokuserar vi på UMTS, en av de mest populära 3G mobilkommunikationsteknologierna. Vårt arbete är det första som exakt kan sluta sig till, för alla UMTS-nät, den statliga maskinen (både övergångs- och timervärden) som styr politiken för fördelning av radioresurser genom en lätt undersökningsplan. Vi karakteriserar systematiskt effekten av drifttillstånd maskininställningar genom att analysera spår som samlats in från ett kommersiellt UMTS-nätverk, och identifiera de ineffektiviteter som orsakas av samspelet mellan smartphone-applikationer och statens maskinbeteende. Förutom grundläggande karakteriseringar utforskar vi de optimala tillståndsmaskininställningarna i termer av flera kritiska timervärden utvärderade med hjälp av verkliga nätverksspår. Våra resultat tyder på att den grundläggande begränsningen av den nuvarande statliga maskindesignen är dess statiska karaktär av att behandla all trafik enligt samma inaktivitetstider, vilket gör det svårt att balansera kompromisser mellan radioresursanvändning effektivitet, nätverkshantering overhead, enhet radio energiförbrukning, och prestanda. Såvitt vi vet är vårt arbete den första empiriska studien som använder verkliga cellspår för att undersöka optimaliteten hos UMTS-statsmaskinkonfigurationer. Vår analys visar också att trafikmönster har stor inverkan på radioresurser och energiförbrukning. I synnerhet, Vi föreslår en enkel förbättring som minskar YouTube streaming energi med 80% genom att utnyttja en befintlig funktion som kallas snabb sovsal stöds av 3GPP specifikationer. | Qian m.fl. REF utforskade RRC tillstånd maskin inställningar i termer av inaktivitet timers med hjälp av verkliga nätverksspår från olika operatörer och föreslog en trafikformning lösning för YouTube som nära liknar ON-OFF streaming teknik. | 8,708,527 | Characterizing radio resource allocation for 3G networks | {'venue': "IMC '10", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 7,848 |
Abstrakt. Nonnegative Matrix Factorization (NMF) har fått stor uppmärksamhet på grund av sin psykologiska och fysiologiska tolkning av naturligt förekommande data vars representation kan vara delar baserade i den mänskliga hjärnan. Men när märkta och omärkta bilder provtas från olika distributioner, kan de kvantifieras till olika bas vektorutrymme och representeras i olika kodning vektorutrymme, vilket kan leda till låg representation trohet. I detta dokument undersöker vi hur man kan utvidga NMF till korsdomänscenario. Vi uppnår detta mål genom TNMF -en ny halvövervakad metod för överföringslärande. Vi strävar specifikt efter att minimera distributionsskillnaderna mellan märkta och omärkta bilder och införliva detta kriterium i NMF:s objektiva funktion för att skapa nya robusta representationer. Experiment visar att TNMF överträffar toppmoderna metoder på verkliga datauppsättningar. | Överför Nonnegative Matrix Factorization (TNMF) i REF minimerar distributionsskillnaden mellan märkta och omärkta bilder och införlivar detta kriterium i NMF:s objektiva funktion för att konstruera nya robusta representationer. | 6,155,474 | Transfer Nonnegative Matrix Factorization for Image Representation | {'venue': 'MMM', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 7,850 |
Snabb prototypering är ett viktigt inslag i forskning om nya tekniker för bildanalys och utveckling av anpassade medicinska tillämpningar. Under de senaste tio åren har samhället med öppen källkod och antalet bibliotek med öppen källkod och fritt tillgängliga ramar för biomedicinsk forskning ökat avsevärt. Vad de erbjuder anses nu standarder i medicinsk bildanalys, datorstödd diagnos, och medicinsk visualisering. En flyktig granskning av den peer-reviewed litteraturen i avbildning informatik (dvs. i nästan alla informationsteknikberoende vetenskaplig disciplin) indikerar den nuvarande tilliten på open source bibliotek för att påskynda utvecklingen och valideringen av processer och tekniker. I den här enkäten går vi igenom och jämför några av de mest framgångsrika open source-biblioteken och ramverken för medicinsk applikationsutveckling. Våra dubbla intentioner är att ge bevis för att dessa tillvägagångssätt redan utgör en viktig och väsentlig del av medicinsk bildanalys, diagnos och visualisering och att motivera läsaren att använda bibliotek med öppen källkod och programvara för snabb prototypering av medicinska applikationer och verktyg. | Caban m.fl. jämförde flera bibliotek och applikationer med öppen källkod i REF. | 14,460,054 | Rapid Development of Medical Imaging Tools with Open-Source Libraries | {'venue': 'Journal of Digital Imaging', 'journal': 'Journal of Digital Imaging', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 7,851 |
Abstract-Ett av de många problem som nuvarande cellulära nätverk teknik är underutnyttjande av de dedikerade licensierade spektrum av nätoperatörer. Ett framväxande paradigm för att lösa denna fråga är att tillåta flera operatörer att dela vissa delar av varandras spektrum. Tidigare arbeten om spektrumdelning har misslyckats med att integrera de teoretiska insikter som den senaste tidens utveckling av stokastiska geometriska metoder för analys av cellulära nätverk med målen för problem med fördelning av nätresurser. I detta dokument studerar vi den icke-ortogonala spektrumtilldelningen med målet att maximera nätverkets sociala välfärd, definierad som den förväntade viktade summan av operatörerna. Vi antar den många-till-ett stabila matchande spelram för att ta itu med detta problem. Dessutom visar vi med hjälp av det stokastiska geometriska tillvägagångssättet att lösningen kan vara både stabil och socialt optimal. För att få maximal social välfärd föreslås beräkning av spelets teoretiska lösning med hjälp av den generiska Markov Chain Monte Carlo-metoden. Vi undersöker också maktfördelningssystemens roll med hjälp av Qlearning, och vi visar numeriskt att resursfördelningssystemet har mycket större effekt än effekten av maktfördelning för systemets sociala välfärd. Index Terms-Multi-operator spektrumdelning, icke-ortogonal spektrumdelning, matchande spelteori, förstärkning lärande, stokastisk geometri, 5G. | Problemet med underutnyttjande av de dedikerade, licensierade spektrumen av nätoperatörer diskuteras i REF. | 16,540,344 | Multi-Operator Spectrum Sharing for Small Cell Networks: A Matching Game Perspective | {'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 7,852 |
Detta dokument beskriver de statistiska maskinöversättningssystem som lämnats in till ACL-WMT 2008 delad översättning uppgift. System har lämnats in för två översättningsinstruktioner: Engelska→Spanska och Spanska→Engelska. Med hjälp av mening par förtroende poäng uppskattas med källa och målspråk modeller, förbättringar observeras på NewsCommentary test uppsättningar. Genre-beroende mening par konfidensintervall och integration av mening par konfidensintervall i fras tabellen undersöks också. | REF använde meningsparet konfidenspoäng som uppskattades med käll- och målspråksmodeller till viktfrasöversättningspar. | 2,224,807 | Improving Word Alignment with Language Model Based Confidence Scores | {'venue': 'Proceedings of the Third Workshop on Statistical Machine Translation', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 7,853 |
Objektsegmentering på institutionsnivå är en viktig men underexploaterad uppgift. De flesta av de senaste metoderna bygger på regionala förslagsmetoder för att extrahera kandidatsegment och sedan använda objektklassificering för att producera slutliga resultat. Att skapa tillförlitliga regionförslag i sig är dock en ganska utmanande och olöst uppgift. I detta arbete, föreslår vi ett förslag-fri nätverk (PFN) för att ta itu med instans-nivå objekt segmentering problem, som ger antalet fall av olika kategorier och pixel-nivå information om i) koordinaterna för instans avgränsande rutan varje pixel tillhör, och ii) förtroenden för olika kategorier för varje pixel, baserat på pixel-till-pixel djupa konvolutionella neurala nätverk. Alla utgångar tillsammans, genom att använda någon off-the-shälf klustering metod för enkel efterbehandling, kan naturligt generera den ultimata instans-nivå objekt segmentering resultat. Hela PFN kan enkelt tränas utan krav på en förslagsgenereringsfas. Omfattande utvärderingar av det utmanande riktmärket PASCAL VOC 2012 för semantisk segmentering visar hur effektiv den föreslagna PFN-lösningen är utan att förlita sig på några förslagsgenereringsmetoder. | PFN REF är ett förslagsfritt nätverk, men det behöver regressera den avgränsande rutan platser av instans objekt. | 206,768,798 | Proposal-Free Network for Instance-Level Object Segmentation | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 7,854 |
Tillhandahålla källintegritet är en kritisk säkerhetstjänst för sensornätverk. Men integritet bevarande i sensornätverk är en utmanande uppgift, särskilt på grund av begränsade resurser sensornoder och hotet om nodfångst attack. Å andra sidan, befintliga verk använder antingen slumpmässiga gångväg eller falska paket injektion, båda ådrar sig enorma overhead. I detta arbete föreslår vi ett nytt tillvägagångssätt, som delar upp sensornoder i grupper. Källpaketet vidarebefordras slumpmässigt inom och mellan grupperna med genomtänkt design för att säkerställa kommunikationsanonymitet; dessutom utbyter medlemmar i varje grupp krypterad trafik med konstant paketlängd för att göra det svårt för motståndaren att spåra tillbaka. Ett framträdande inslag i det föreslagna systemet är dess flexibilitet när det gäller överföring av handel för högre anonymitetskrav. Vi analyserar förmågan hos vårt föreslagna system att stå emot olika attacker och visa sin effektivitet när det gäller overhead och funktionalitet jämfört med befintliga verk. | ELSP föreslås i REF, som skiljer sensorn noder i grupper. | 285,469 | An Efficient and Lightweight Source Privacy Protecting Scheme for Sensor Networks Using Group Knowledge | {'venue': None, 'journal': 'International Journal of Distributed Sensor Networks', 'mag_field_of_study': ['Computer Science']} | 7,855 |
Abstract-A denoising algoritm syftar till att ta bort buller, fel, eller störningar från en signal. Omfattande forskning har ägnats åt denna arena under de senaste årtiondena, och som ett resultat, dagens denoisers kan effektivt ta bort stora mängder additiv vit Gaussian buller. En komprimerad sensor (CS) rekonstruktionsalgoritm syftar till att återställa en strukturerad signal förvärvad med hjälp av ett litet antal randomiserade mätningar. Typiska CS rekonstruktionsalgoritmer kan gjutas som iterativt uppskatta en signal från en störd observation. Detta dokument besvarar en naturlig fråga: Hur kan man effektivt använda en generisk denoiser i en CS rekonstruktionsalgoritm? Som svar på detta utvecklar vi en förlängning av det ungefärliga ramverket för meddelandeövergång (AMP), som kallas denoising-based AMP (D-AMP), som kan integrera en bred klass av denoisers i dess iterationer. Vi visar att när D-AMP används med en högpresterande denoiser för naturliga bilder, erbjuder D-AMP den state-of-theart CS återhämtning prestanda samtidigt som den arbetar tiotals gånger snabbare än konkurrerande metoder. Vi förklarar D-AMP:s exceptionella prestanda genom att analysera några av dess teoretiska egenskaper. Ett viktigt element i D-AMP är användningen av en lämplig Onsager korrektion term i dess iterationer, som tvingar signalen perturbation vid varje iteration att vara mycket nära den vita Gaussian buller som denoizers är typiskt utformade för att ta bort. | A.Metzler m.fl. föreslog ett ramverk för denoiserande AMP (D-AMP), som integrerade en bred klass av denoizer i dess iterationer REF. | 1,025,475 | From Denoising to Compressed Sensing | {'venue': 'IEEE Transactions on Information Theory', 'journal': 'IEEE Transactions on Information Theory', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 7,856 |
I modeller för att generera program källkod från naturligt språk, representera denna kod i en trädstruktur har varit en vanlig metod. Men befintliga metoder misslyckas ofta med att generera komplex kod korrekt på grund av bristande förmåga att memorera stora och komplexa strukturer. Vi introducerar RECODE, en metod baserad på subtree hämtning som gör det möjligt att uttryckligen referera befintliga kodexempel inom en neural kodgenereringsmodell. Först, vi hämtar meningar som liknar inmatning meningar med hjälp av en dynamiskprogrammering-baserad mening likhet scoring metod. Därefter extraherar vi n-gram av actionsekvenser som bygger det tillhörande abstrakta syntaxträdet. Slutligen ökar vi sannolikheten för åtgärder som orsakar den återvunna n-gram åtgärd subtree att vara i den förutsagda koden. Vi visar att vår strategi förbättrar prestandan för två kodgenereringsuppgifter med upp till +2,6 BLEU. | REF ökar sannolikheten för åtgärder som kan härleda de återvunna delträden. | 52,136,345 | Retrieval-Based Neural Code Generation | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 7,857 |
Djupt förstärkande inlärning har uppnått många imponerande resultat under de senaste åren. Men uppgifter med glesa belöningar eller långa horisonter fortsätter att innebära stora utmaningar. För att ta itu med dessa viktiga problem föreslår vi en allmän ram som först lär sig användbara färdigheter i en förutbildningsmiljö och sedan utnyttjar de förvärvade färdigheterna för att lära sig snabbare i efterföljande arbetsuppgifter. Vår strategi sammanför några av de starka sidorna av inneboende motivation och hierarkiska metoder: lärandet av användbar skicklighet styrs av en enda proxy belöning, vars utformning kräver mycket minimal domän kunskap om nedströms uppgifter. Sedan tränas en policy på hög nivå utöver dessa färdigheter, vilket ger en betydande förbättring av prospekteringen och gör det möjligt att ta itu med glesa belöningar i nedströmsuppgifterna. För att effektivt pre-traine en stor spännvidd av färdigheter, använder vi Stochastic Neural Networks i kombination med en informations-teoretisk regularizer. Våra experiment 1 visar 2 att denna kombination är effektiv för att lära sig en bred spännvidd av tolkningsbara färdigheter på ett urvalseffektivt sätt, och kan avsevärt öka inlärningsprestandan jämnt över ett brett spektrum av nedströmsuppgifter. | Florensa m.fl. I Ref presenteras en allmän ram som först lär sig användbara färdigheter i en förutbildningsmiljö och sedan utnyttjar de förvärvade färdigheterna för att lära sig snabbare i efterföljande arbetsuppgifter. | 7,774,489 | Stochastic Neural Networks for Hierarchical Reinforcement Learning | {'venue': 'International Conference on Learning Representations 2017', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 7,858 |
Vi utvecklade ett prototypsystem för informationssökning som använder avancerade tekniker för bearbetning av naturligt språk för att öka effektiviteten hos traditionell nyckelordsbaserad dokumenthämtning. Ryggraden i vårt system är en statistisk hämtning motor som utför automatisk indexering av dokument, sedan söka och ranking som svar på användarens frågor. Denna kärnarkitektur är förstärkt med avancerade verktyg för bearbetning av naturligt språk som är både robusta och effektiva. I tidiga experiment har det utökade systemet visat förmågor som verkar göra det överlägset den rent statistiska basen. | Till exempel försökte REF bygga upp ett system för informationssökning som använder avancerade tekniker för bearbetning av naturligt språk för att öka effektiviteten hos traditionell nyckelordsbaserad dokumentsökning. | 47,215,776 | Information Retrieval Using Robust Natural Language Processing | {'venue': 'Annual Meeting Of The Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 7,859 |
Att lära sig en tydlig representation för varje känsla av ett tvetydigt ord kan leda till mer kraftfulla och finkorniga modeller av vektor-rymd representationer. Samtidigt som "multi-sense" metoder har föreslagits och testats på artificiella ordsimilaritet uppgifter, vet vi inte om de förbättrar verkliga naturligt språk förståelse uppgifter. I detta papper introducerar vi en rörledning arkitektur för att införliva multi-sense inbäddningar i språkförståelse, och testa prestandan av en toppmodern multi-sense inbäddning modell (baserat på kinesiska restaurangprocesser). Vi tillämpar modellen på del-av-tal taggning, namngivna enhet igenkänning, känsloanalys, semantisk relation identifiering och semantisk besläktade. Vi finner att om vi noggrant kontrollerar antalet dimensioner-sense-specifika inbäddningar, antingen ensam eller konkatenerad med standard (en vektor för alla sinnen) inbäddningar, införa något prestandaboost i semantiska-relaterade uppgifter, men är av lite i andra som är beroende av att korrekt identifiera några nyckelord såsom känsloanalys. | REF utnyttjade den kinesiska restaurangprocessen för att härleda begreppet identitet. | 6,222,768 | Do Multi-Sense Embeddings Improve Natural Language Understanding? | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 7,860 |
Människans tolkning och pose uppskattning har nyligen fått stort intresse på grund av deras betydande användningspotential. De befintliga dataseten har dock begränsat antal bilder och kommentarer och saknar en mängd olika mänskliga utseenden och täckning av utmanande fall i oinskränkta miljöer. I detta dokument introducerar vi ett nytt riktmärke kallat "Look in Person (LIP)" som ger ett betydande framsteg när det gäller skalbarhet, mångfald och svårigheter, vilket är avgörande för den framtida utvecklingen i den mänskliga-centrerade analysen. Denna omfattande datauppsättning innehåller över 50.000 noggrant kommenterade bilder med 19 semantiska deletiketter och 16 kroppsskarvar, som fångas från ett brett spektrum av perspektiv, ocklusioner och bakgrundskomplexiteter. Med hjälp av dessa rika annoteringar utför vi detaljerade analyser av den ledande mänskliga tolkningen och ställer upp skattningsmetoder för att på så sätt få insikter i framgångarna och misslyckandena med dessa metoder. För att ytterligare utforska och dra nytta av den semantiska korrelationen mellan dessa två uppgifter föreslår vi en ny gemensam mänsklig tolkning och utgör estimeringsnät för att utforska effektiv kontextmodellering, som samtidigt kan förutsäga tolkning och posera med extremt hög kvalitet. Dessutom förenklar vi nätverket för att lösa mänsklig tolkning genom att utforska en ny självövervakad strukturkänslig inlärningsmetod, som tvingar människan att ställa strukturer till med tolkningsresultat utan att tillgripa extra tillsyn. Datauppsättningarna, koden och modellerna finns på http://www.sysu-hcp.net/lip/. | Liang m.fl. I Ref föreslås en ny gemensam mänsklig tolkning och utgör ett estimeringsnät, som innebär att mänskliga poserar strukturer i tolkningsresultaten utan att man tillgriper extra tillsyn. | 4,689,189 | Look into Person: Joint Body Parsing & Pose Estimation Network and a New Benchmark | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 7,861 |
Infraljud är mycket vanliga i den naturliga miljön. Det finns olika uppfattningar om deras skadlighet eller brist på skadlighet. En av anledningarna till att intresset för denna fråga ökar är att det finns fler och fler vindkraftparker i närheten av byggnadsfastigheter som utan tvekan är en källa till infraljud. Det är rimligt att presentera resultaten av forskning om infraljud som inte bara är kopplat till vindkraftsparker. I denna studie presenteras egna resultat av forskning om infraljud i samband med daglig mänsklig aktivitet. Mätningarna utfördes under hushållsarbetet, resan till kontoret eller butiken och under shoppingen. Resultaten visas i form av värden för ekvivalenta nivåer och 1/3-oktavanalyser. Med hänsyn till de naturliga källorna till infraljud i miljön utfördes mätningarna under både blåsigt och vindstillt väder. På grundval av mätresultaten var det möjligt att fastställa den dagliga exponeringen för infraljud. Dessa resultat jämfördes också med de tillgängliga tröskelvärdena i litteraturen som människor kände av. Uppskattad exponering för buller utanför arbetsplatsen tillsammans med exponeringsnivån för buller i arbetet gör det möjligt att fastställa den dagliga exponeringsnivån, vilket innebär en bättre bedömning av risken för hälsorisker. Genom att öka den sociala medvetenheten om akustiska hot i vardagen kan vi identifiera problemet och samtidigt förbättra kvaliteten på vila och effektivitet i arbetet. | Andra studier visar effekten av infraljud i samband med vardagliga mänskliga aktiviteter REF. | 125,350,613 | Everyday Exposure to Occupational/Non-Occupational Infrasound Noise in Our Life | {'venue': None, 'journal': 'Archives of Acoustics', 'mag_field_of_study': ['Mathematics']} | 7,862 |
Temporal åtgärd upptäckt är ett mycket viktigt men utmanande problem, eftersom videor i verkliga program är oftast lång, untrimmed och innehåller flera åtgärder instanser. Detta problem kräver inte bara att man erkänner åtgärdskategorier utan också att man upptäcker starttid och sluttid för varje åtgärdstillfälle. Många toppmoderna metoder antar ramen "detektion per klass": det första förslaget och klassificerar sedan förslagen. Den största nackdelen med denna ram är att åtgärdsinstansförslagens gränser har höjts under klassificeringssteget. För att ta itu med denna fråga, föreslår vi en ny Single Shot Action Detector (SSAD) nätverk baserat på 1D temporal convolutional lager för att hoppa över förslaget generation steg via att direkt upptäcka åtgärder instanser i otrimmad video. I strävan efter att utforma ett specifikt SSAD-nätverk som kan fungera effektivt för att upptäcka temporala åtgärder söker vi empiriskt efter den bästa nätverksarkitekturen för SSAD på grund av att det saknas befintliga modeller som kan användas direkt. Dessutom undersöker vi indatafunktionstyper och fusionsstrategier för att ytterligare förbättra detektionsnoggrannheten. Vi utför omfattande experiment på två utmanande dataset: THUMOS 2014 och MEXAction2. Vid fastställandet av tröskelvärdet för intersektioner över unionen till 0,5 under utvärderingen kan SSAD avsevärt överträffa andra toppmoderna system genom att öka mAP från 10.02. till 24,6 % för THUMOS 2014 och från 7,4 % till 11,0 % för MEX-åtgärder2. | För att övervinna dessa begränsningar, Lin et al. I REF föreslås en enda åtgärdsdetektor (SSAD) med 1D temporal convolutional lager för att hoppa över förslaget generation steg. | 93,002 | Single Shot Temporal Action Detection | {'venue': "MM '17", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 7,863 |
Den cAnt-Miner algoritm är en Ant Colony Optimization (ACO) baserad teknik för klassificering regel upptäckt i problemdomäner som inkluderar kontinuerliga attribut. I detta dokument föreslår vi flera tillägg till cAntMiner. Den huvudsakliga utbyggnaden är baserad på användningen av flera feromontyper, en för varje klassvärde som ska förutsägas. I den föreslagna μcAnt-Miner-algoritmen väljer en myra först ett klassvärde som blir följden av en regel och termerna i antecedenten väljs baserat på feromonnivåerna i det valda klassvärdet; feromonuppdatering sker på motsvarande feromontyp av klassvärdet. Förvalet av ett klassvärde gör det också möjligt att använda mer exakta mått för den heuristiska funktionen och den dynamiska diskretiseringen av kontinuerliga attribut, och ytterligare gör det möjligt att använda en regelkvalitetsåtgärd som direkt tar hänsyn till regelns förtroende. Experimentella resultat på 20 referensdataset visar att vår föreslagna förlängning förbättrar klassificeringsnoggrannheten i en statistiskt signifikant utsträckning jämfört med cAnt-Miner, och har klassificeringsnoggrannhet liknande den välkända Ripper och PART regel induktionsalgoritmer. | Ytterligare förbättringar i cAnt-Miner finns i REF, där författarna föreslog användning av flera feromonnivåer för att extrahera regler som förutspår olika klassvärden. | 1,006,121 | Utilizing Multiple Pheromones in an Ant-Based Algorithm for Continuous-Attribute Classification Rule Discovery | {'venue': 'Appl. Soft Comput.', 'journal': 'Appl. Soft Comput.', 'mag_field_of_study': ['Computer Science']} | 7,864 |
De flesta mekanismer för medium åtkomst (MAC) kasserar kolliderade paket och anser att störningar är skadliga. Det senaste arbetet med Analog Network Coding (ANC) tyder på ett annat tillvägagångssätt, där flera störande sändningar är strategiskt planerade. Mottagande noder samla resultaten av kollisioner och sedan använda en avkodningsprocess, såsom ZigZag avkodning, för att extrahera paket som är inblandade i kollisionerna. I detta dokument presenterar vi en algebraisk representation av kollisioner och beskriver ett allmänt tillvägagångssätt för att återhämta kollisioner med ANC. För att studera effekterna av att använda ANC på prestandan hos MAC-lager utvecklar vi en ANC-baserad MAC-algoritm, CMAC, och analyserar dess prestanda i form av probabilistiska latensgarantier för lokal paketleverans. I synnerhet bevisar vi att CMAC genomför en abstrakt MAC-lagertjänst, enligt definitionen i [14, 13]. Denna studie visar att ANC kan avsevärt förbättra prestandan hos den abstrakta MAC-lagertjänsten jämfört med konventionella probabilistiska överföringsmetoder. Vi illustrerar hur denna förbättring i MAC-skiktet kan översätta till snabbare högre nivåer algoritmer, genom att analysera tids komplexiteten i en multi-message nätverk-omfattande sändningsalgoritm som använder CMAC. | Författarna i REF föreslår ZigZag avkodning, för att extrahera paketen som är inblandade i kollisionerna. | 3,060,163 | MAC design for analog network coding | {'venue': "FOMC '11", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 7,865 |
Objektsegmentering på institutionsnivå är en viktig men underexploaterad uppgift. De flesta av de senaste metoderna bygger på regionala förslagsmetoder för att extrahera kandidatsegment och sedan använda objektklassificering för att producera slutliga resultat. Att skapa tillförlitliga regionförslag i sig är dock en ganska utmanande och olöst uppgift. I detta arbete, föreslår vi ett förslag-fri nätverk (PFN) för att ta itu med instans-nivå objekt segmentering problem, som ger antalet fall av olika kategorier och pixel-nivå information om i) koordinaterna för instans avgränsande rutan varje pixel tillhör, och ii) förtroenden för olika kategorier för varje pixel, baserat på pixel-till-pixel djupa konvolutionella neurala nätverk. Alla utgångar tillsammans, genom att använda någon off-the-shälf klustering metod för enkel efterbehandling, kan naturligt generera den ultimata instans-nivå objekt segmentering resultat. Hela PFN kan enkelt tränas utan krav på en förslagsgenereringsfas. Omfattande utvärderingar av det utmanande riktmärket PASCAL VOC 2012 för semantisk segmentering visar hur effektiv den föreslagna PFN-lösningen är utan att förlita sig på några förslagsgenereringsmetoder. | REF har utvecklat algoritmer för den utmanande objektsegmenteringen på instansnivå. | 206,768,798 | Proposal-Free Network for Instance-Level Object Segmentation | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 7,866 |
Clustering är avgörande för många datorseende applikationer såsom robust spårning, objektdetektering och segmentering. Detta arbete presenterar en realtidsklusterteknik som drar nytta av de unika egenskaperna hos händelsebaserade visionsensorer. Eftersom händelsebaserade sensorer utlöser händelser endast när intensiteten ändras, är datan sparsam, med låg redundans. Således omdefinierar vårt tillvägagångssätt den välkända medelskiftande klustermetoden med asynkrona händelser istället för konventionella ramar. Potentialen i vårt tillvägagångssätt visas i ett multi-mål spårningsprogram med Kalman filter för att jämna ut banorna. Vi utvärderade vår metod på en befintlig dataset med mönster av olika former och hastigheter, och en ny dataset som vi samlat in. Sensorn var fäst vid Baxter roboten i en ögon-i-hand installation övervakning av verkliga objekt i en åtgärd manipulation uppgift. Klusternoggrannheten uppnådde ett F-mått på 0,95, vilket minskade beräkningskostnaden med 88 % jämfört med den rambaserade metoden. Det genomsnittliga felet för spårning var 2,5 pixlar och klustret uppnådde ett konsekvent antal kluster längs med tiden. | REF presenterar en Kalman filterbaserad objektspårningsmetod för flermålsspårning. | 49,650,797 | Real-Time Clustering and Multi-Target Tracking Using Event-Based Sensors | {'venue': '2018 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)', 'journal': '2018 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)', 'mag_field_of_study': ['Engineering', 'Computer Science']} | 7,868 |
Detta dokument ger en omfattande behandling av framtida säkerhet i samband med gemensamma nyckelbaserade kryptografiska primitiva, som ett praktiskt sätt att lindra de skador som orsakas av nyckelexponering. Vi tillhandahåller definitioner av säkerhet, praktiska beprövade konstruktioner och tillämpningar för de viktigaste primitiva inom detta område. Vi identifierar framåtsäkra pseudorandom bitgeneratorer som den centrala primitiva, ger flera konstruktioner och sedan visar hur framåtsäkra meddelande autentisering system och symmetriska krypteringssystem kan byggas på standardsystem för dessa problem tillsammans med framåtsäkra pseudorandom bit generatorer. Vi tillämpar sedan framtidssäkra system för autentisering av meddelanden på problemet med att upprätthålla säkra åtkomstloggar i närvaro av inbrott. | Bellare och Yee REF gav en omfattande behandling av säkerhet framåt i symmetrisk-nyckel kryptering inställning. | 9,213,665 | Forward-Security in Private-Key Cryptography | {'venue': 'CT-RSA', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 7,869 |
Mål: Metoder för att korrekt identifiera äldre patienter med hög sannolikhet för sjukhusvistelse eller senare återvändande till akutmottagningen (ED) kan underlätta utvecklingen av interventioner för att påskynda antagningsprocessen, förbättra patientvården och minska överbeläggningen. I denna studie försökte man identifiera variabler som fanns bland äldre ED-patienter som kunde förutsäga antingen sjukhusintagning eller återgå till ED. Alla besök av patienter som var 75 år eller äldre under 2007 på en akademisk ED som betjänade ett stort äldre samhälle granskades. Kliniska och demografiska data användes för att konstruera regressionsmodeller för att förutsäga intag eller ED-avkastning. Dessa modeller validerades sedan i en andra grupp patienter 75 år och äldre som presenterades under två 1-månadersperioder 2008. Resultat: Av 4 873 besök resulterade 3 188 i antagning (65,4 %). Regression modellering identifierade fem variabler statistiskt relaterade till sannolikheten för inträde: ålder, triage poäng, hjärtfrekvens, diastoliskt blodtryck, och huvudklagomål. Vid validering var c-statusen för mottagarens operativa karakteristiska (ROC) kurva 0,73, måttligt prediktiv för intag. Vi kunde inte producera modeller som förutspådde ED-återkomst för dessa äldre patienter. Slutsatser: En härledd och validerad triagebaserad modell presenteras som ger en måttligt korrekt sannolikhet för sjukhusintagning av äldre patienter. Om den valideras experimentellt kan denna modell påskynda antagningsprocessen för äldre ED-patienter. Våra modeller misslyckades, liksom andra, med att exakt förutsäga ED-återgången bland äldre patienter, och underbyggde utmaningen att identifiera de individer som löper risk för tidig ED-återkomst. AKADEMIC EMERGENCY MEDICIN 2010; 17:252-259 a | Användning av en rad kliniska och demografiska data avseende äldre patienter, LaMantia et al. REF använde logistisk regression för att förutsäga intag till sjukhus och ED-besök. | 1,276,082 | Predicting Hospital Admission and Returns to the Emergency Department for Elderly Patients | {'venue': 'Academic emergency medicine : official journal of the Society for Academic Emergency Medicine', 'journal': 'Academic emergency medicine : official journal of the Society for Academic Emergency Medicine', 'mag_field_of_study': ['Medicine']} | 7,870 |
Även om rumsliga objekt i vår värld har en inneboende tredimensionell (3D) natur, 3D-datamodellering och 3D-datahantering har hittills försummats i rumsliga databassystem och geografiska informationssystem, som kartlägger geometriska data främst till tvådimensionella abstraktioner. Men i allt högre grad blir den tredje dimensionen mer och mer relevant för tillämpningsområden som föroreningsbekämpning, vattenförsörjning, markteknik, stadsplanering och luftfart. Stora volymer av 3D-data kräver en behandling i ett databassammanhang för att representera, ifrågasätta och manipulera dem effektivt. Detta dokument syftar till att undersöka de komplexa inneboende egenskaperna hos 3D-data och presenterar en abstrakt, formell datamodell kallad SPAL3D (Spatial Algebra 3D). Datamodellen består av tredimensionella rumsliga datatyper tillsammans med en samling geometriska uppsättningar. | Författarnas arbete i REF ger en heltäckande och rigorös definition av 3D-datatyper. | 2,300,554 | An abstract model of three-dimensional spatial data types | {'venue': "GIS '04", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 7,871 |
Vi presenterar en probabilistisk tvåspråkig kapitalisering modell för att kapitalisera maskinöversättning outputs med villkorliga slumpmässiga fält. Experiment som utförs på tre språkpar och en mängd olika experimentförhållanden visar att vår modell avsevärt överträffar en stark enspråkig kapitaliseringsmodell, särskilt när man arbetar med små datauppsättningar och/eller europeiska språkpar. | REF utnyttjar tvåspråkig information för att skapa en probabilistisk kapitaliseringsmodell med villkorliga slumpmässiga fält. | 5,072,339 | Capitalizing Machine Translation | {'venue': 'Human Language Technology Conference And Meeting Of The North American Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 7,872 |
Abstract-Det är känt att för en stor magnitud push en människa eller en humanoid robot måste ta ett steg för att undvika ett fall. Trots vissa spridda resultat har man ännu inte kommit fram till en principiell strategi för "när och var man ska ta ett steg". Mot detta mål presenterar vi metoder för att beräkna fångstpunkter och fångstregionen, regionen på marken där en humanoid måste kliva till för att komma till ett fullständigt stopp. Skärningspunkten mellan Capture Region och Base of Support avgör vilken strategi roboten ska anta för att framgångsrikt stoppa i en given situation. Att beräkna fångstregionen för humanoider är i allmänhet mycket svårt. Med enkla promenadmodeller förenklas dock beräkningen av fångstregionen. Vi utökar den välkända Linear Inverted Pendulum-modellen med en svänghjulsstomme och visar hur man beräknar exakta lösningar av Capture Region för denna modell. Genom att lägga till rotationsstelhet kan humanoiden kontrollera sin centroida vinkelkraft, ungefär som människor gör, vilket avsevärt utvidgar fångstregionen. Vi presenterar simuleringar av en enkel planar bipad som kan återställa balansen efter en push genom att kliva till Capture Region och använda inre vinkel momentum. Pågående arbete innebär att tillämpa lösningen från den enkla modellen som en ungefärlig lösning till mer komplexa simuleringar av tvåfots gång, inklusive en 3D-dubbel med distribuerad massa. | I REF förlängs LIPM genom att lägga till en svänghjulskropp som gör det möjligt för humanoiden att styra sitt centroida vinkelmoment, och fångstregionen beräknas. | 9,572,165 | Capture Point: A Step toward Humanoid Push Recovery | {'venue': '2006 6th IEEE-RAS International Conference on Humanoid Robots', 'journal': '2006 6th IEEE-RAS International Conference on Humanoid Robots', 'mag_field_of_study': ['Computer Science']} | 7,873 |
Abstrakt. Snabb ökning av data inom olika områden har resulterat i breda tillämpningar av maskininlärning (ML) baserade intelligenta system i prediktiva beslutsfattande scenarier. Tyvärr ser dessa system ut som en "svart låda" för användare på grund av deras komplexa arbetsmekanismer och därför avsevärt påverka användarens förtroende för människa-maskin interaktioner. Detta beror delvis på den nära kopplade osäkerheten i ML-modellerna som ligger till grund för de prediktiva rekommendationerna om beslutsfattande. När sådana analysdrivna intelligenta system används inom moderna komplexa högriskområden (t.ex. luftfart) påverkas användares beslut, förutom förtroende, också av högre nivåer av kognitiv belastning. I detta dokument undersöks effekterna av osäkerhet och kognitiv belastning på användarnas förtroende för prediktivt beslutsfattande för att utforma effektiva användargränssnitt för sådana ML-baserade intelligenta system. Vår användarstudie av 42 försökspersoner i ett upprepat faktoriellt designexperiment visade att både osäkerhetstyper (risk och tvetydighet) och kognitiv arbetsbelastning påverkade användarnas förtroende för prediktivt beslutsfattande. Osäkerhetspresentation leder till ökat förtroende men endast under låga kognitiva belastningsförhållanden när användarna hade tillräckliga kognitiva resurser för att bearbeta informationen. Presentation av osäkerhet under hög belastning (när kognitiva resurser saknades) leder till minskat förtroende för systemet och dess rekommendationer. | Tidigare arbete REF ) undersökte faktorer som påverkar användarsystemets tillit, t.ex. modellosäkerhet och kognitiv belastning. | 34,547,071 | Effects of Uncertainty and Cognitive Load on User Trust in Predictive Decision Making | {'venue': 'INTERACT', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 7,874 |
Abstract-State-of-the-art objekt detekteringsnätverk är beroende av region förslag algoritmer för att hypothesize objekt platser. Framsteg som SPPnet [1] och Fast R-CNN [2] har minskat drifttiden för dessa detektionsnät, vilket exponerar beräkning av regionförslag som flaskhals. I detta arbete introducerar vi ett regionförslagsnätverk (RPN) som delar fullbildskonvolutionella funktioner med detektionsnätverket, vilket möjliggör nära nog kostnadsfria regionförslag. Ett RPN är ett helt konvolutionellt nätverk som samtidigt förutsäger objektgränser och objektitetspoäng vid varje position. RPN är utbildad end-to-end för att generera högkvalitativa regionförslag, som används av Fast R-CNN för detektion. Vi slår ytterligare samman RPN och Fast R-CNN till ett enda nätverk genom att dela deras konvolutionella funktioner-med hjälp av den nyligen populära terminologin för neurala nätverk med "attention" mekanismer, RPN komponenten talar om för det enhetliga nätverket var man ska leta. För den mycket djupa VGG-16-modellen [3] har vårt detektionssystem en bildhastighet på 5 fps (inklusive alla steg) på en GPU, samtidigt som vi uppnår toppmoderna objektdetektionsnoggrannhet på PASCAL VOC 2007, och MS COCO-datauppsättningar med endast 300 förslag per bild. I ILSVRC och COCO 2015 tävlingar, Snabbare R-CNN och RPN är grunden för den 1: a plats vinnande poster i flera spår. Koden har gjorts tillgänglig för allmänheten. Regionens förslagsmetoder är vanligtvis beroende av billiga funktioner och ekonomiska slutledningssystem. Selektiv sökning [4], en av de mest populära metoderna, sammansmälter girigt superpixel baserat på konstruerade låg nivå funktioner. Ändå jämfört med effektiva detektionsnätverk [2], Selektiv sökning är en storleksordning långsammare, på 2 sekunder per bild i en CPU-implementation. EdgeBoxar [6] ger för närvarande den bästa kompromissen mellan förslagskvalitet och hastighet, med 0,2 sekunder per bild. Trots detta konsumerar regionförslaget lika mycket drifttid som nätverket för upptäckt. Man kan notera att snabba regionbaserade CNN dra nytta av GPU, medan de regionala förslag metoder som används i forskning genomförs på CPU, vilket gör sådana runtime jämförelser ojämförliga. Ett självklart sätt att påskynda beräkningen av förslag är att återinföra det för GPU. Detta kan vara en effektiv teknisk lösning, men omgenomförandet bortser från down-stream detektion nätverk och därför missar viktiga möjligheter att dela beräkningar. I detta dokument visar vi att en algoritmisk förändringskomputerande förslag med en djup konvolutionell neural nätverk-leads till en elegant och effektiv lösning där förslagsberäkning är nästan gratis med tanke på detektionsnätverkets beräkning. I detta syfte introducerar vi nya regionala förslagsnätverk (RPN) som delar konvolutionella skikt med toppmoderna nätverk för objektdetektering [1], [2]. Genom att dela konvolutioner vid testtid är marginalkostnaden för datorförslag liten (t.ex. 10 ms per bild). Vår iakttagelse är att de konvolutionella funktionskartor som används av regionbaserade detektorer, som Fast R-CNN, också kan användas för att generera regionförslag. Ovanpå dessa konvolutionella funktioner konstruerar vi en RPN genom att lägga till några ytterligare konvolutionella lager som samtidigt regresserar regiongränser och objektitet poäng på varje plats på ett vanligt rutnät. RPN är således ett slags fullständigt konvolutionsnätverk [7] och kan utbildas från början till slut särskilt för uppgiften att ta fram förslag på detektering. RPN är utformade för att effektivt förutsäga regionala förslag med ett brett spektrum av skalor och proportioner. I motsats till vanliga metoder [1], [2], [8], [9] som använder pyramider av bilder (Fig. 1a) eller filterpyramider (Fig. 1b), Vi introducerar nya "anchor" rutor som fungerar som referenser på flera skalor och proportioner. Vårt schema kan ses som en pyramid av regressionsreferenser (Fig. 1c), som undviker att räkna upp bilder eller filter av flera skalor eller proportioner. Denna modell fungerar bra när den är tränad och testad med enskaliga bilder och därmed gynnar körhastigheten. För att förena RPNs med snabba R-CNN [2] objektdetekteringsnätverk, föreslår vi ett utbildningsprogram som alternerar S. Ren är med | Bortsett från detta, genom att återanvända convolutional funktion kartor, förslag generering och objekt detektering kan utföras samtidigt i en snabbare R-CNN mode REF. | 10,328,909 | Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 7,875 |
Konvolutionella neurala nätverk har framgångsrikt applicerats på semantiska segmenteringsproblem. Det finns dock många problem som i sig inte är pixelmässigt klassificeringsproblem men som ändå ofta formuleras som semantisk segmentering. Denna illa placerade formulering kräver därför handgjorda scenario-specifika och beräknings dyrt efterbehandlingsmetoder för att konvertera per pixel sannolikhetskartor till slutliga önskade utgångar. Generativa kontradiktoriska nätverk (GAN) kan användas för att göra semantiska segmenteringsnätverksutgången mer realistisk eller bättre strukturbevarande, vilket minskar beroendet av potentiellt komplex efterbehandling. I detta arbete föreslår vi EL-GAN: en GAN-ram för att mildra det problem som diskuteras med hjälp av en inbäddningsförlust. Med EL-GAN diskriminerar vi baserat på inlärda inbäddningar av både etiketter och förutsägelser på samma gång. Detta resulterar i mycket stabilare utbildning på grund av bättre diskriminativ information, som drar nytta av att se både "falska" och "verkliga" förutsägelser på samma gång. Detta stabiliserar avsevärt den kontradiktoriska träningsprocessen. Vi använder TuSimple lane märkning utmaning för att visa att med vårt föreslagna ramverk är det möjligt att övervinna de inneboende anomalier att posera det som ett semantiskt segmenteringsproblem. Produktionen är inte bara betydligt mer lik märkningen jämfört med konventionella metoder, den efterföljande efterbearbetningen är också enklare och överskrider konkurrenströskeln på 96 %. | Ghafoorian m.fl. I REF föreslås att man tillämpar ett generativt kontradiktoriskt nätverk för att göra det semantiska segmenteringsnätets utdata mer realistiska i samband med körfältsdetektering. | 49,213,112 | EL-GAN: Embedding Loss Driven Generative Adversarial Networks for Lane Detection | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 7,876 |
Kognitiv radio har mer omfattande tillämpning under de senaste åren, och den kan fungera i komplexa trådlösa miljötillstånd såsom kommunikationssystem med tid-variant multipat platt-fading kanal. Som en viktig teknik för kognitiv radio är de flesta befintliga spektrumavkänningsmetoder utformade för tidsinvarianta spridningskanal; därför kan det vara extremt svårt att uppnå godtagbar avkänningsprestanda när vi tillämpar dem för att hantera tid-variant multipat blekningskanal. För att övervinna detta hinder utformar vi en ny spektrumanalysmetod i denna undersökning. För det första föreslås en dynamisk state-space-modell där två olika dolda Markov-modeller används för att abstraktera utvecklingen av primärt användartillstånd och tidsvariant-multipat platt-fading kanalvinst. Baserat på den dynamiska state-space-modellen formuleras problemet med spektrumavkänning som problem med blinduppskattning. På grundval av största möjliga sannolikhetskriterium i efterhand och partikelfiltreringsteknik presenteras en gemensam skattningsalgoritm för den tidsvarianta kanalvinsten och det primära användartillståndet. Experimentella simuleringar visar den överlägsna prestandan hos vårt framlagda avkänningssystem, som kan användas potentiellt i realistiska kognitiva radiosystem. | I REF har en ny metod föreslagits för att förbättra avkänningsprestandan över en tid-variant multipat flat-fading (TVMFF) kanal. | 1,915,055 | Blind spectrum sensing for cognitive radio over time-variant multipath flat-fading channels | {'venue': None, 'journal': 'EURASIP Journal on Wireless Communications and Networking', 'mag_field_of_study': ['Computer Science']} | 7,877 |
Enords vektorrymdmodeller har varit mycket framgångsrika när det gäller att lära sig lexisk information. Men de kan inte fånga den kompositionella betydelsen av längre fraser, vilket hindrar dem från en djupare förståelse av språket. Vi introducerar en rekursiv neurala nätverk (RNN) modell som lär sig kompositionella vektor representationer för fraser och meningar av godtycklig syntaktisk typ och längd. Vår modell tilldelar en vektor och en matris till varje nod i ett parsträd: vektorn fångar komponentens inneboende betydelse, medan matrisen fångar hur den ändrar betydelsen av grannord eller fraser. Denna matris-vektor RNN kan lära sig innebörden av operatörer i propositionslogik och naturligt språk. Modellen får state of the art performance på tre olika experiment: förutsäga finkorniga känslofördelningar av adverb-adjektiv par; klassificera känslor etiketter av film recensioner och klassificera semantiska relationer såsom orsak-effekt eller ämne-meddelande mellan substantiv med hjälp av den syntaktiska vägen mellan dem. | REF presenterade ett rekursivt neuralt nätverk (RNN) för relationsklassificering för att lära vektorer i syntaktiska trädbanan som förbinder två nominella för att bestämma deras semantiska förhållande. | 806,709 | Semantic Compositionality through Recursive Matrix-Vector Spaces | {'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 7,878 |
I detta dokument behandlas problemet med motståndskraftig konsensus i närvaro av felbeteenden. Även om det är typiskt att anta kunskap om åtminstone en del icke-lokal information när man studerar säkra och feltoleranta konsensusalgoritmer, är detta antagande inte lämpligt för storskaliga dynamiska nätverk. För att avhjälpa detta betonar vi användningen av lokala strategier för att hantera motståndskraft mot säkerhetsöverträdelser. Vi studerar ett samförstånd protokoll som endast använder lokal information och vi anser värsta fall säkerhetsöverträdelser, där de komprometterade noderna har full kunskap om nätverket och de andra nodernas avsikter. Vi tillhandahåller nödvändiga och tillräckliga villkor för de normala noderna för att nå samförstånd trots påverkan av de skadliga noderna under olika hotantaganden. Dessa villkor anges i termer av en ny grafteoretisk egenskap som kallas näts robusthet. | För den skadliga felmodellen, LeBlanc et al. REF har på ett oberoende sätt uppnått strikta nödvändiga och tillräckliga villkor för att tolerera upp till det totala antalet fel i nätet. | 3,260,207 | Consensus of multi-agent networks in the presence of adversaries using only local information | {'venue': "HiCoNS '12", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 7,879 |
Multi-hop läsförståelse (RC) över dokument innebär ny utmaning över singeldokument RC eftersom det kräver resonemang över flera dokument för att nå det slutliga svaret. I detta dokument föreslår vi en ny modell för att ta itu med RC-problemet i flera länder. Vi introducerar en heterogen graf med olika typer av noder och kanter, som heter heter heterogen Document-Entity (HDE) graf. Fördelen med HDE-grafen är att den innehåller olika storleksnivåer av information, inklusive kandidater, dokument och enheter i specifika dokumentsammanhang. Vår föreslagna modell kan göra resonemang över HDE grafen med noder representation initieras med co-attention och själv-attention baserade sammanhang kodare. Vi använder Graph Neural Networks (GNN) baserade meddelande passerar algoritmer för att samla bevis på den föreslagna HDE grafen. Utvärderad på den blinda testuppsättningen av Qangaroo WIKIHOP-datauppsättningen, uppnår vår HDE-grafbaserade modell (enkel modell) toppmoderna resultat. | I studien i REF ) föreslogs ett heterogent diagram med dokument, kandidat- och enhetsnoder för att möjliggöra omfattande informationsinteraktion på olika granularitetsnivåer. | 158,046,817 | Multi-hop Reading Comprehension across Multiple Documents by Reasoning over Heterogeneous Graphs | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 7,880 |
ABSTRACT I detta dokument föreslår vi en drönare assisterad radioaccess nätverk arkitektur där drönarceller utnyttjas för att överföra data mellan basstationer och användare. Baserat på de toppmoderna drone-to-user- och drone-to-base station-modellerna (D2B) analyserar vi först användartäckningen och D2B backhaul-anslutningsfunktionerna hos drönarceller. Vi formulerar sedan 3D drone-cell distributionsproblem med målet att maximera användartäckningen samtidigt som D2B länkkvaliteter, för ett givet antal drönarceller som är utplacerade. För att lösa problemet är partikelsvärmens optimeringsalgoritm (PSO) utnyttjad för sina låga beräkningskostnader och unika funktioner som passar den rumsliga spridningen av drönarceller. Vi föreslår en per-drone iterated PSO (DI-PSO) algoritm som optimerar drone-cell distributioner för olika drone-cell nummer, och förhindrar nackdelarna med den rena PSO-baserade algoritmen som härrör från relaterade verk. Simuleringar visar att DI-PSO-algoritmen kan uppnå högre täckningsgrad med mindre komplexitet jämfört med den rena PSO-baserade algoritmen. INDEX TERMS Drönare, drönarkommunikation, radionät, partikelsvärmoptimering, D2U, D2B. | Ett annat arbete REF föreslår en metod för att placera ett team av UAVs för att maximera användartäckningsförhållandet i ett 5G-nätverk. | 4,119,124 | Multiple Drone-Cell Deployment Analyses and Optimization in Drone Assisted Radio Access Networks | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 7,881 |
En avgörande punkt process (DPP) är en probabilistisk modell av uppsättning mångfald kompakt parameteriserad av en positiv semi-definit kärna matris. För att passa en DPP till en given uppgift, skulle vi vilja lära sig posterna i dess kärnmatris genom att maximera log-likelihood för tillgängliga data. Loglikelihood är dock inte konvext i kärnmatrisens poster, och detta inlärningsproblem förmodas vara NP-hård [1]. Således har tidigare arbete istället fokuserat på mer begränsade konvexa inlärningsinställningar: lära sig bara en enda vikt för varje rad i kärnan matris [2], eller inlärningsvikter för en linjär kombination av DPPs med fasta kärnmatriser [3]. I detta arbete föreslår vi en ny algoritm för att lära sig den fullständiga kärnmatrisen. Genom att ändra kärnparameteriseringen från matrisposter till eigenvärden och eigenvekatorer, och sedan sänka sannolikheten i sättet att förvänta-maximeringsalgoritmer, får vi en effektiv optimeringsprocedur. Vi testar vår metod på en verklig produktrekommendation uppgift, och uppnå relativa vinster på upp till 16,5 % i test log-likelihood jämfört med den naiva metoden att maximera sannolikheten genom projicerad lutning stigning på posterna i kärnan matrisen. | Ref. REF presenterade en av de första metoderna för att lära sig en icke-parametrisk form av den full-ranka kärnmatrisen, vilket innebär en förväntan-maximization (EM) algoritm. | 6,690,654 | Expectation-Maximization for Learning Determinantal Point Processes | {'venue': 'Neural Information Processing Systems (NIPS), 2014', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 7,882 |
Melody harmonisering är ett månghundraårigt problem av lång tradition, och en kärnaspekt av komposition i västerländsk tonalmusik. I detta arbete beskriver vi FHARM, ett automatiserat system för melodiharmonisering baserat på en funktionell modell av harmoni. Vårt system genererar först flera harmoniskt välformade ackordsekvenser för en given melodi. Från de genererade sekvenserna väljs den bästa, genom att välja den med minsta avvikelse från harmonimodellen. Till skillnad från alla befintliga system garanterar FHARM att de genererade ackordsekvenserna följer de grundläggande reglerna för tonal harmoni. Vi utför två experiment för att utvärdera kvaliteten på våra harmoniseringar. I ett experiment, en panel av harmoni experter uppmanas att ge sin professionella åsikt och betyg de genererade ackord sekvenser för utvalda melodier. I ett annat experiment skapar vi en ackordsekvens för en utvald melodi, och jämför resultatet med den ursprungliga harmoniseringen som gavs av en harmoniforskare. Våra experiment bekräftar att FHARM genererar realistiska ackord för varje melodinot. Men vi drar också slutsatsen att harmoniseringen av en melodi med individuellt välformade ackordsekvenser från en harmonimodell inte garanterar en välljudande samstämmighet mellan ackorden och melodin. Vi reflekterar över erfarenheterna från vårt experiment och föreslår framtida förbättringar för att förbättra harmoniseringens kvalitet. | Ett exempel på ett sådant hybridsystem är REF, som kan harmonisera en viss melodi genom hjälp av en funktionell modell av tonal harmoni. | 207,206,638 | A functional approach to automatic melody harmonisation | {'venue': "FARM '13", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 7,883 |
Abstract-This paper tar upp problemet med måltäckning i trådlösa sensornätverk med justerbart sensorintervall. Kommunikation och avkänning förbrukar energi, vilket gör att effektiv energihantering kan förlänga nätets livslängd. I detta papper anser vi att ett stort antal sensorer med justerbart avkänningsområde som är slumpmässigt utplacerade för att övervaka ett antal mål. Eftersom mål är överflödigt täckta av fler sensorer, för att spara energiresurser, kan sensorer organiseras i uppsättningar, aktiveras successivt. I detta papper behandlar vi problemet med justerbara Range Set Covers (AR-SC) som har som mål att hitta ett maximalt antal set omslag och de intervall som är förknippade med varje sensor, så att varje sensor set täcker alla mål. En sensor kan delta i flera sensoruppsättningar, men summan av den energi som förbrukas i varje uppsättning begränsas av de ursprungliga energiresurserna. I denna uppsats modellerar vi matematiskt lösningar på detta problem och designheuristik som effektivt beräknar uppsättningarna. Simuleringsresultat presenteras för att verifiera våra metoder. | Vidare, Cardei et al. REF tog itu med problemet med justerbara Range Set Covers (AR-SC), där varje sensor har minst två sensorintervall och energiförbrukningen skiljer sig från sensorområdet. | 11,719,586 | Maximum network lifetime in wireless sensor networks with adjustable sensing ranges | {'venue': "WiMob'2005), IEEE International Conference on Wireless And Mobile Computing, Networking And Communications, 2005.", 'journal': "WiMob'2005), IEEE International Conference on Wireless And Mobile Computing, Networking And Communications, 2005.", 'mag_field_of_study': ['Computer Science']} | 7,884 |
Abstract-Prediction aktiekurs anses vara den mest utmanande och viktiga finansiella ämnet. Därför kunde dess komplexitet, icke-linjäritet och mycket annat karakteristiskt, en enda metod inte optimera ett bra resultat. Därför föreslår detta papper en hybrid ensemble modell baserad på BP neurala nätverk och EEMD för att förutsäga FTSE100 stängningspris. I detta dokument finns fem modeller för hybridförutsägelse, EEMD-NN, EEMD-Baging-NN, EEMD-Cross-validering-NN, EEMD-CV-Baging-NN och EEMD-NN-Proposed metod. Experimentellt resultat visar att EEMD-Baging-NN, EEMD-Cross-validering-NN och EEMD-CV-Baging-NN-modellernas prestanda är något högre än EEMD-NN och betydligt högre än en-NN-modellen. Dessutom visas EEMD-NN-Proposed metod prediktion prestanda överlägsenhet jämfört med alla presenterade modellen i detta papper, och var genomförbar och effektiv i förutsägelse FTSE100 stängningspris. Som ett resultat av det betydande resultatet av den föreslagna metoden, kan metoden användas för att förutsäga andra finansiella tidsserier data. | Referens Ref föreslår en hybrid ensemble modell baserad på BP neurala nätverk och EEMD för att förutsäga FTSE100 stängningspris. | 20,838,204 | A novel hybrid ensemble model to predict FTSE100 index by combining neural network and EEMD | {'venue': '2015 European Control Conference (ECC)', 'journal': '2015 European Control Conference (ECC)', 'mag_field_of_study': ['Engineering', 'Computer Science']} | 7,885 |
De statistiska uppgifterna om probabilistiska data har på senare tid rönt stor uppmärksamhet, eftersom de data som genereras från ett stort antal olika datakällor i sig är oklara eller osäkra. I detta dokument studerar vi en viktig statistisk fråga om probabilistiska data: att hitta de ofta förekommande posterna. En enkel metod för att identifiera de ofta förekommande posterna i en probabilistisk datauppsättning är att helt enkelt beräkna den förväntade frekvensen för en post och bestämma om den överstiger en viss del av den förväntade storleken på hela datamängden. Denna enkla definition saknar emellertid viktig information om de probabilistiska uppgifternas interna struktur och samspelet mellan alla osäkra enheter. Därför föreslår vi en ny definition baserad på möjliga världssemantik som har antagits allmänt för många frågetyper i osäker datahantering, försöker hitta alla objekt som sannolikt kommer att vara frekventa i en slumpmässigt genererad möjlig värld. Vårt tillvägagångssätt leder naturligtvis till en studie av rankning av frekventa poster baserade på förtroende också. Det visar sig vara mycket svårare att hitta ofta förekommande poster i probabilistiska data. Vi föreslår först exakta algoritmer för offlinedata med antingen kvadratisk eller kubisk tid. Därefter utformar vi nya samplingsbaserade algoritmer för streamingdata för att hitta alla cirka troligt frekventa objekt med teoretiskt garanterad hög sannolikhet och noggrannhet. Våra provtagningsprogram förbrukar sublinjärt minne och uppvisar utmärkt skalbarhet. Slutligen verifierar vi effektiviteten och effektiviteten hos våra algoritmer med hjälp av både verkliga och syntetiska datamängder med omfattande experimentella utvärderingar. | I REF föreslår författarna att ofta extrahera poster i probabilistiska data. | 5,896,498 | Finding frequent items in probabilistic data | {'venue': 'SIGMOD Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 7,886 |
Utmaningarna vid testning av robotprogramvara sträcker sig längre än traditionell testning av programvara. Giltiga, realistiska och intressanta tester måste genereras för flera program och hårdvara som körs samtidigt, distribueras i dynamiska miljöer med människor. Vi undersöker användningen av medel från Belief-Desire-Intention (BDI) som modeller för testgenerering, inom området människa-robotinteraktion (HRI) i simuleringar. Dessa modeller ger rationell myndighet, kausalitet och en motiveringsmekanism för planering, som efterliknar både intelligenta och adaptiva robotar, samt smarta testmiljöer som styrs av människor. Vi introducerar förstärkning lärande (RL) för att automatisera prospektering av BDI-modeller med hjälp av en belöning funktion baserad på täckning feedback. Vårt arbetssätt utvärderas med hjälp av ett samverkande tillverkningsexempel, där robotprogramvaran under test stimuleras indirekt via en simulerad mänsklig medarbetare. Vi drar slutsatsen att BDI-agenter tillhandahåller intuitiva modeller för testgenerering i HRI-domänen. Våra resultat visar att RL helt kan automatisera BDI-modellprospektering, vilket leder till mycket effektiv täckningsriktad testgenerering. | Giltiga, realistiska och intressanta tester måste genereras för flera program och maskinvara som körs samtidigt och som är avsedda för distribution i dynamiska miljöer REF. | 719,666 | Intelligent Agent-Based Stimulation for Testing Robotic Software in Human-Robot Interactions | {'venue': "MORSE '16", 'journal': None, 'mag_field_of_study': ['Engineering', 'Computer Science']} | 7,887 |
Vi rapporterar om en ny användning av metamorfa relationer (MRs) i maskininlärning: i stället för att genomföra metamorfa tester, använder vi MRs för förstärkning av maskinen lärande algoritmer själva. I synnerhet rapporterar vi om hur MR kan möjliggöra förbättringar av ett bildklassificeringsproblem hos bilder som innehåller dolda visuella markörer ("Artcodes"). Genom att arbeta med en originalklassificering, och med hjälp av egenskaperna hos två olika kategorier av bilder, användes två MR-värden, baserade på separation och ocklusion, för att förbättra klassificeringens prestanda. Våra experimentella resultat visar att MR-augmented classifier uppnår bättre prestanda än den ursprungliga clasfier, algoritmer, och utökar användningen av MR utanför ramen för programvarutestning. | Oavsett utförande MT, MRs har använts för förstärkning av maskininlärning modeller REF. | 49,563,561 | Enhancing supervised classifications with metamorphic relations | {'venue': "MET '18", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 7,888 |
Tillförlitlig uppskattning av visuell styrka möjliggör lämplig bearbetning av bilder utan förkunskaper om deras innehåll, och därmed förblir ett viktigt steg i många datorseende uppgifter inklusive bildsegmentering, objektigenkänning och adaptiv kompression. Vi föreslår en regional kontrastbaserad Saliency extraktionsalgoritm, som samtidigt utvärderar globala kontrastskillnader och rumslig samstämmighet. Den föreslagna algoritmen är enkel, effektiv och ger full upplösningskartor. Vår algoritm överträffade konsekvent befintliga detekteringsmetoder, vilket ger högre precision och bättre hämtningshastighet, när den utvärderas med hjälp av en av de största allmänt tillgängliga datamängderna. Vi visar också hur den extraherade saltkartan kan användas för att skapa högkvalitativa segmenteringsmasker för efterföljande bildbehandling. | Cheng m.fl. REF använder segmentering för att definiera en regional kontrastbaserad metod, som samtidigt utvärderar globala kontrastskillnader och rumslig samstämmighet. | 2,329,405 | Global contrast based salient region detection | {'venue': 'CVPR 2011', 'journal': 'CVPR 2011', 'mag_field_of_study': ['Computer Science']} | 7,889 |
Abstrakt. Det har varit många genombrott med förstärkning lärande under de senaste åren, kanske mest särskilt på Djup förstärkning Lära framgångsrikt spela och vinna relativt avancerade datorspel. Det finns utan tvekan en förväntan att Djup förstärkning Lärande kommer att spela en stor roll när den första AI mästare komplicerade spel som behövs för att slå en professionell Real-Time Strategy spelare. För att detta ska vara möjligt måste det finnas en spelmiljö som riktar sig till och främjar AI-forskning, och särskilt Deep Enhancement Learning. Vissa spelmiljöer finns dock redan, dessa är antingen alltför förenklade såsom Atari 2600 eller komplex som Starcraft II från Blizzard Entertainment. Vi föreslår en spelmiljö mellan Atari 2600 och Starcraft II, särskilt mål Djup förstärkning Lärande algoritm forskning. Miljön är en variant av Tower Line Wars från Warcraft III, Blizzard Entertainment. Som ett bevis på att miljön kan hysa algoritmer för djup förstärkning föreslår och tillämpar vi dessutom en arkitektur för djup Q-förstärkning. Arkitekturen förenklar tillståndsutrymmet så att det är tillämpligt på Q-learning, och i sin tur förbättrar prestandan jämfört med nuvarande toppmoderna metoder. Våra experiment visar att den föreslagna arkitekturen kan lära sig att spela miljön bra, och poäng 33% bättre än standard Deep Q-learning - vilket i sin tur bevisar nyttan av spelmiljön. | Andersen, etc. al., REF tillämpade djup förstärkning inlärning till Tower Line Wars, ett spel med komplexitet mellan Atari spel och Starcraft II. | 204,897,723 | Towards a Deep Reinforcement Learning Approach for Tower Line Wars | {'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science']} | 7,890 |
Vi presenterar en statslös modell som kontrollerar algoritmen för att verifiera samtidiga program som körs under RC11, en reparerad version av C/C+11-minnesmodellen utan beroendecykler. Till skillnad från de flesta tidigare metoder, som räknar trådkopplingar upp till några partiella förbättringar orderreduktion, fungerar vår strategi direkt på utförande grafer och (i avsaknad av RMW instruktioner och SC atomer) undviker redundant utforskning genom konstruktion. Vi har implementerat en modellkontroll, kallad RCMC, baserad på detta tillvägagångssätt och tillämpat det på ett antal utmanande samtidiga program. Våra experiment bekräftar att RCMC är betydligt snabbare, skalar bättre än andra modellkontrollverktyg, och är också mer motståndskraftig mot små förändringar i riktmärkena. | Kokologiannakis m.fl. REF bygger en statslös modellkontroll för RC11 som fungerar direkt på kördiagrammen. | 28,089,505 | Effective stateless model checking for C/C++ concurrency | {'venue': 'PACMPL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 7,891 |
Domänanpassning för visuellt erkännande har genomgått stora framsteg under de senaste åren. Icke desto mindre fungerar de flesta befintliga metoder i det så kallade slutna scenariot, förutsatt att de klasser som avbildas av målbilderna är exakt desamma som för källdomänen. I detta dokument tar vi itu med det mer utmanande, men mer realistiska fallet med öppen domänanpassning, där nya, okända klasser kan finnas med i måluppgifterna. I det oövervakade scenariot kan man inte förvänta sig att kunna identifiera varje specifik ny klass, men vi strävar efter att automatiskt upptäcka vilka prover som tillhör dessa nya klasser och kasta dem från igenkänningsprocessen. I detta syfte förlitar vi oss på intuitionen att de käll- och målprover som skildrar de kända klasserna kan genereras av en delad subrymd, medan målexemplaren från okända klasser kommer från en annan, privat subrymd. Vi inför därför en ram som tar hänsyn till data i delade och privata delar, samtidigt som vi uppmuntrar den gemensamma representationen att vara diskriminerande. Våra experiment med standardriktmärken visar att vårt tillvägagångssätt avsevärt överträffar den senaste tekniken inom öppen domänanpassning. | Dessutom föreslog REF en ram för att faktorisera data i delade och privata delområden och främja diskriminabilitet i förhållande till de gemensamma representationerna. | 44,143,558 | Learning Factorized Representations for Open-set Domain Adaptation | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 7,892 |
I detta dokument presenteras en ny ram för erkännande av mänskliga åtgärder från en 3D-skelettsekvens. Tidigare studier utnyttjar inte fullt ut de tidsmässiga sambanden mellan videosegment i en mänsklig handling. Vissa studier framgångsrikt använt mycket djupa Convolutional Neural Network (CNN) modeller men ofta lider av databrist problem. I denna studie segmenterar vi först en skelettsekvens till distinkta temporalsegment för att utnyttja korrelationerna mellan dem. De tidsmässiga och rumsliga egenskaperna hos en skelettsekvens extraheras sedan samtidigt genom att använda en fin-till-koarse (F2C) CNN-arkitektur optimerad för mänskliga skelettsekvenser. Vi utvärderar vår föreslagna metod på NTU RGB+D och SBU Kinect Interaktion Dataset. Det uppnår 79,6% och 84,6% av noggrannheten på NTU RGB+D med korsobjekt respektive korsvisa protokoll, som är nästan identiska med den senaste prestandan. Dessutom, vår metod avsevärt förbättrar noggrannheten av åtgärder i två-personers interaktioner. | Referensreferensreferensen utformade en fin-till-koarse Deep Convolutional Neural Network (CNN) tillsammans med fullt anslutna lager som extraherar spatio-temporala och rumsliga funktioner i en nyckelpunktskoordinatsekvens. | 44,156,695 | A Fine-to-Coarse Convolutional Neural Network for 3D Human Action Recognition | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 7,893 |
Vi introducerar en ny språklig representationsmodell kallad BERT, som står för dubbelriktade Encoder Representationer från Transformers. Till skillnad från senaste språk representation modeller (Peters et al., 2018; Radford et al., 2018), BERT är utformad för att pre-training djupa dubbelriktade representationer genom att gemensamt konditionering på både vänster och höger sammanhang i alla lager. Som ett resultat, kan de förtränade BERT representationer finjusteras med bara ett ytterligare utdatalager för att skapa state-of-theart modeller för ett brett spektrum av uppgifter, såsom frågesvar och språk inference, utan betydande uppgiftsspecifika arkitekturändringar. BERT är konceptuellt enkelt och empiriskt kraftfullt. Det får nya state-of-the-art resultat på elva naturliga språk bearbetningsuppgifter, inklusive att driva GLUE-riktmärket till 80,4 % (7,6 % absolut förbättring), MultiNLI noggrannhet till 86,7 % (5,6 % absolut förbättring) och SQuAD v1.1 frågesvar Test F1 till 93,2 (1,5 absolut förbättring), presterande mänskliga prestanda med 2,0. | REF är gemensamt beroende av både vänster och höger kontext och har uppnått toppmoderna resultat för elva uppgifter för behandling av naturligt språk. | 52,967,399 | BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 7,894 |
I detta arbete tar vi upp problemet med oövervakad inducering av del-av-tal genom att sammanföra flera delar av forskningen till en enda modell. Vi utvecklar en ny dold Markov modell som innehåller sofistikerad utjämning med hjälp av en hierarkisk Pitman-Yor processer tidigare, vilket ger ett elegant och principfast sätt att införliva lexiska egenskaper. Centralt för vårt tillvägagångssätt är en ny typbaserad provtagningsalgoritm för hierarkiska Pitman-Yor-modeller där vi spårar bråktabeller. I en empirisk utvärdering visar vi att vår modell konsekvent överträffar den nuvarande toppmoderna tekniken på tio språk. | REF använde en hierarkisk Pitman-Yor-process före övergången och utsläppsfördelningen för sofistikerad utjämning. | 13,341,920 | A Hierarchical Pitman-Yor Process HMM for Unsupervised Part of Speech Induction | {'venue': 'Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 7,895 |
Vi beskriver en sekvens av fem experiment om nätsäkerhet som i tur och ordning kastar studenter i roller som datoranvändare, programmerare och systemadministratör. Till skillnad från experiment som beskrivs i flera tidigare uppsatser undviker dessa experiment att placera eleverna i rollen som angripare. Varje experiment börjar med en demonstration av en attack av instruktören. Studenter lär sig sedan hur man använder open-source försvar verktyg lämpliga för den roll de spelar och attacken till hands. Hot som omfattas inkluderar tjuvlyssnande, ordbok, man-in-the-middle, port scanning, och fingeravtryck attacker. Försvarsfärdigheter som studenterna förvärvat inkluderar hur man vidarebefordrar portar med OpenSSH, hur man förhindrar svaga lösenord med CrackLib, hur man saltar lösenord, hur man skapar en enkel certifieringsmyndighet, utfärdar och verifierar certifikat, och garanterar kommunikationshemlighet och integritet med OpenSSL, och hur man konfigurerar brandväggar och IPsec-baserade virtuella privata nätverk. Vid två separata erbjudanden visade tester som gjordes före och efter varje experiment att var och en har en statistiskt signifikant och stor effekt på elevernas lärande. Dessutom visar undersökningar att studenterna avslutar sekvensen av experiment med stort intresse för fortsatta studier och arbete inom säkerhetsområdet. Dessa resultat tyder på att experimenten är väl lämpade för inledande säkerhets- eller nätverkskurser. | Bristoloni REF tilldelar studenterna tre typer av roller, som är som datoranvändare, programmerare och systemadministratörer. | 10,055,633 | Laboratory experiments for network security instruction | {'venue': 'JERC', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 7,896 |
Abstract-hög kvalitet stereo matchning i realtid har potential att möjliggöra olika datorseende applikationer inklusive semi-automatiserad robotik kirurgi, telemmersion och 3-D videoövervakning. En ny realtid stereo matchning metod presenteras som använder en två-pass approximation av adaptiv stödvikt aggregation, och en låg-komplexitet iterativ skillnad förfining teknik. Genom en utvärdering av beräkningseffektiva metoder för adaptiv stöd-vikt kostnadsaggregation, visas att två-pass metoden producerar en korrekt approximation av stödvikterna samtidigt avsevärt minska komplexiteten i aggregering. Den förfiningsteknik, konstruerad med hjälp av en probabilistisk ram, införlivar en additiv term i matchning kostnadsminimering och underlättar iterativ bearbetning för att förbättra noggrannheten i olikhetskartan. Denna metod har implementerats på massivt parallellt högpresterande grafik hårdvara med hjälp av Compute Unified Device Architecture computing motor. Resultaten visar att den föreslagna metoden är den mest korrekta bland alla stereomatchningsmetoder i realtid som listas på stereoriktmärket i Middlebury. | Iterative Raffinment Method for Adaptive SupportWeight Correspondenses (IRR) method REF har en strikt binär tilldelning av vikter nära gränser och använder en två-pass approximation av adaptiva stödvikter för att matcha kostnadsaggregation och en iterativ förfiningsteknik som upprätthåller konsekvens av skillnader. | 8,418,325 | Real-Time Stereo Matching on CUDA Using an Iterative Refinement Method for Adaptive Support-Weight Correspondences | {'venue': 'IEEE Transactions on Circuits and Systems for Video Technology', 'journal': 'IEEE Transactions on Circuits and Systems for Video Technology', 'mag_field_of_study': ['Computer Science']} | 7,897 |
Clustering är centralt för många datadrivna applikationsdomäner och har studerats i stor utsträckning när det gäller avståndsfunktioner och grupperingsalgoritmer. Relativt lite arbete har fokuserat på lärande representationer för kluster. I detta dokument föreslår vi Deep Embedded Clustering (DEC), en metod som samtidigt lär sig funktion representationer och klusteruppdrag med hjälp av djupa neurala nätverk. Dec lär sig en kartläggning från datarymden till ett mindre dimensionellt funktionsutrymme där det iterativt optimerar ett klustermål. Våra experimentella utvärderingar av bild och text corpora visar betydande förbättringar jämfört med toppmoderna metoder. | REF definierade metoden Deep Embedded Clustering (DEC) som samtidigt uppdaterar datapunkternas representationer, initierade från en förtränad AE, och klustercenter. | 6,779,105 | Unsupervised Deep Embedding for Clustering Analysis | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 7,898 |
Abstract-optimering processorer för specifika tillämpningar kan avsevärt förbättra energieffektiviteten. Med slutet av Den härdskalningen, och motsvarande minskning av energieffektivitetsvinster från teknikskalning, kan sådana strategier bli allt viktigare. Att utforma applikationsspecifika processorer kräver dock snabba verktyg för att utforska utrymme för att optimera de riktade tillämpningarna. Analytiska modeller kan vara en bra passform för sådan design utrymme prospektering eftersom de ger snabba prestandauppskattningar och insikt i samspelet mellan en applikations egenskaper och mikro-arkitektur av en processor. Tyvärr kräver nuvarande analytiska modeller vissa mikroarkitekturberoende ingångar, såsom cache miss-frekvenser, gren miss-frekvenser och minnesnivå parallellism. Detta kräver profilering av applikationerna för varje cache- och grenprediktorkonfiguration, vilket är mycket mer tidskrävande än att utvärdera de faktiska prestandamodellerna. I detta arbete presenterar vi en mikroarkitekturoberoende profilerare och tillhörande analytiska modeller som gör det möjligt för oss att producera prestanda- och effektuppskattningar över ett stort designutrymme nästan omedelbart. Vi visar att med hjälp av en mikro-arkitektur oberoende profil leder till en hastighetsökning på 25× för vår utvärderade design utrymme, jämfört med en analytisk modell som använder mikro-arkitektur beroende profiler. Över ett stort designutrymme har modellen ett 13% fel för prestanda och ett 7% fel för effekt, jämfört med cykelnivåsimulering. Modellen kan exakt bestämma den optimala processorkonfigurationen för olika applikationer under effekt- eller prestandabegränsningar, och den kan ge insikt i prestanda genom cykel stackar. | Dessutom visade REF en analytisk prestanda- och effektmodell, baserad på mikroarkitekturoberoende applikationsprofiler för att möjliggöra utvärdering av stora konstruktionsutrymmen med hjälp av en enda applikationsspecifik men arkitekturoberoende profil. | 14,077,526 | Micro-architecture independent analytical processor performance and power modeling | {'venue': '2015 IEEE International Symposium on Performance Analysis of Systems and Software (ISPASS)', 'journal': '2015 IEEE International Symposium on Performance Analysis of Systems and Software (ISPASS)', 'mag_field_of_study': ['Computer Science']} | 7,899 |
Koldioxidsnål ekonomi är en ny modell för ekonomisk utveckling i både internationella och inhemska miljöer och det enda sättet för hela mänskligheten att hantera klimatförändringarna och uppnå en hållbar ekonomisk utveckling. Förutom att kontrollera koldioxidutsläppen tyder den ekonomiska utvecklingen med låga koldioxidutsläpp på en energirevolution som i grunden kommer att förändra produktionen och människors sociala och ekonomiska livsstil. Utvecklingen med låga koldioxidutsläpp har fått stor uppmärksamhet från det internationella samfundet och har utvecklats till handling i många länder. Världen närmar sig gradvis en ålder med låga koldioxidutsläpp i huvudsak för att klara av låg energiförbrukning, låga utsläpp och hög effektivitet. Det ekonomiska samarbete med låga koldioxidutsläpp som syftar till miljödiplomati är också i färd med att aktivt och effektivt förhandla fram och genomföra. I detta dokument kommer man att införa strategier för ekonomisk utveckling med låga koldioxidutsläpp i Sydkorea och resultaten i praktiken hittills och sedan sammanfatta erfarenheterna och inspirationen från Sydkoreas praktiska betydelse för Kina. | Med tanke på klimatförändringarna och en hållbar ekonomisk utveckling är en ekonomi med låga koldioxidutsläpp en ny modell för ekonomisk utveckling REF. | 53,626,988 | Inspiration from Green Effect of South Korea’s Low-Carbon Economy Development to China | {'venue': None, 'journal': 'Low carbon economy', 'mag_field_of_study': ['Economics']} | 7,900 |
Vi försöker att upptäcka visuella relationer i bilder av formen av trillingar t = (ämne, predikat, objekt), såsom "person ridande hund", där utbildning exempel på de enskilda enheterna finns tillgängliga men deras kombinationer är sällsynta eller osynliga vid träning. Detta är en viktig uppställning på grund av den kombinatoriska karaktären av visuella relationer: samla in tillräckliga träningsdata för alla möjliga trioler skulle vara mycket svårt. Bidragen från detta arbete är trefaldiga. För det första lär vi oss en representation av visuella relationer som kombinerar (i) individuella inbäddningar för subjekt, objekt och predikat tillsammans med (ii) en visuell fras inbäddning som representerar relationen trilling. För det andra lär vi oss att överföra visuella uttryck inbäddade från befintliga träningstrillingar till osynliga testtrilletter med hjälp av analogier mellan relationer som involverar liknande objekt. För det tredje visar vi fördelarna med vår strategi för två utmanande dataset med sällsynta och osynliga relationer: på HICO-DET, vår modell uppnår betydande förbättringar jämfört med en stark baslinje, och vi bekräftar denna förbättring när det gäller hämtning av osynliga trillingar på UnRel sällsynta relation dataset. | Alternativt Peyre et al. REF lär sig en visuell relationsrepresentation som kombinerar kompositionsrepresentation för ämne, mål och predikat med en visuell frasrepresentation för HOI-detektion. | 55,701,786 | Detecting rare visual relations using analogies | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 7,901 |
För storskaliga grafanalyser på GPU har oegentligheten i dataåtkomst/kontrollflödet och komplexiteten i programmerings-GPU:er varit två stora utmaningar för att utveckla ett programmerbart grafbibliotek med hög prestanda. "Gunrock", vår high-level bulksynkrona graf-behandlingssystem riktat mot GPU, tar en ny metod för att abstraktera GPU grafanalys: snarare än att utforma en abstraktion kring beräkning, Gunrock istället implementerar en ny data-centrisk abstraktion centrerad på operationer på en vertex eller kanten gräns. Gunrock uppnår en balans mellan prestanda och uttrycksfullhet genom att koppla samman högpresterande GPU computing primitiver och optimeringsstrategier med en högnivåprogrammeringsmodell som gör det möjligt för programmerare att snabbt utveckla nya grafprimära med liten kodstorlek och minimal GPU programmeringskunskap. Vi utvärderar Gunrock på fem graf primitiva (BFS, BC, SSSP, CC, och PageRank) och visar att Gunrock har i genomsnitt åtminstone en storleksordning hastighetshöjning över Boost och PowerGraph, jämförbar prestanda med de snabbaste GPU hårdtrådade primitiva, och bättre prestanda än något annat GPU hög nivå graf bibliotek. * För närvarande anställd på Google. † För närvarande anställd vid IBM. implementeras och utvärderas i Gunrock, fokuserar vi i detta dokument på bredd-första sökning (BFS), en källkod kortaste vägen (SSSP), mellanhet centrality (BC), PageRank, och anslutna komponenter (CC). Även om GPU:s utmärkta toppkapacitet och energieffektivitet [17] har demonstrerats inom många tillämpningsområden, utnyttjar dessa tillämpningar ofta regelbunden, strukturerad parallellism. Den inneboende oegentligheten i diagramdatastrukturer leder till oegentlighet i dataåtkomst och kontrollflöde, vilket gör ett effektivt genomförande på GPU:er till en betydande utmaning. Vårt mål med Gunrock är att leverera prestandan hos anpassade, komplexa GPU hardwired graf primitiver med en hög nivå programmering modell som tillåter programmerare att snabbt utveckla nya graf primitiver. För att göra det måste vi ta itu med den största utmaningen i ett mycket parallellt grafbehandlingssystem: att hantera oegentlighet i arbetsdistributionen. Gunrock integrerar sofistikerade strategier för lastbalansering och arbetseffektivitet i sin kärna. Dessa strategier är dolda för programmeraren; programmeraren uttrycker i stället vilka åtgärder som ska utföras vid gränsen snarare än hur dessa åtgärder ska utföras. Programmerare kan montera komplexa och högpresterande grafer primitiva från operationer som manipulerar gränsen ("vad") utan att veta de interna av operationerna ("hur"). Våra bidrag är följande: 1. Vi presenterar en ny datacentrisk abstraktion för grafoperationer som gör det möjligt för programmerare att utveckla grafprimära på en hög abstraktionsnivå samtidigt som de levererar hög prestanda. Denna abstraktion, till skillnad från abstraktioner av tidigare GPU programmerbara ramar, kan elegant införliva lönsamma optimeringar-kärnfusion, push-pull traversal, idempotent traversal, och prioriterade köer-in i kärnan av dess genomförande. 2. Utgångspunkten är följande: Vi designar och genomför en uppsättning enkla och flexibla API:er som kan uttrycka ett brett utbud av graf bearbetning primitiver på en hög grad av abstraktion (minst lika enkelt, om inte mer, än andra programmerbara GPU ramar). 3. Vad är det som händer? Vi beskriver flera GPU-specifika optimeringsstrategier för minneseffektivitet, lastbalansering och arbetsbelastningshantering som tillsammans uppnår hög prestanda. Alla våra graf primitiver uppnå jämförbar prestanda med deras hårdtrådade motsvarigheter och betydligt överträffa tidigare programmerbara GPU abstraktioner. 4. Vad är det som händer? Vi ger en detaljerad experimentell utvärdering av våra graf primitiver med prestandajämförelser till flera CPU och GPU implementationer. Gunrock är för närvarande tillgängligt i ett arkiv med öppen källkod på http://gunrock.github.io/ och är för närvarande tillgängligt för användning av externa utvecklare. | Wang m.fl. REF utvecklade ett programmerbart grafbibliotek med hög prestanda, Gunrock, till abstraktion av GPU-grafanalys. | 2,770,614 | Gunrock: a high-performance graph processing library on the GPU | {'venue': "PPoPP '16", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 7,902 |
Abstract-Acquiring omedelbar fordonshastighet är önskvärt och en hörnsten för många viktiga fordonstillämpningar. Detta papper använder smartphone sensorer för att uppskatta fordonets hastighet, särskilt när GPS är otillgänglig eller felaktig i stadsmiljöer. I synnerhet uppskattar vi fordonets hastighet genom att integrera accelerometerns värden över tiden och hitta accelerationsfelen kan leda till stora avvikelser mellan den uppskattade hastigheten och den verkliga. Ytterligare analys visar att ändringarna av accelerationsfelen är mycket små över tiden som kan korrigeras vid vissa punkter, så kallade referenspunkter, där den verkliga fordonshastigheten kan uppskattas. Med hänsyn till denna observation föreslår vi ett exakt system för hastighetsuppskattning av fordon, SenSpeed, som känner av naturliga körförhållanden i stadsmiljöer, inklusive att svänga, stanna och passera ojämna vägytor, för att härleda referenspunkter och ytterligare eliminera de hastighetsuppskattningsavvikelser som orsakas av accelerationsfel. Omfattande experiment visar att SenSpeed är korrekt och robust i verkliga körmiljöer. I genomsnitt är estimeringsfelet i realtid på lokal väg 2:1 km=h, och estimeringsfelet offline är så lågt som 1:21 km/h. Medan det genomsnittliga felet för GPS är 5:0 respektive 4:5 km/h. | I REF föreslog författarna SenSpeed, som uppskattade fordonshastigheten genom att integrera accelerometerns avläsningar över tiden. | 6,562,189 | SenSpeed: Sensing Driving Conditions to Estimate Vehicle Speed in Urban Environments | {'venue': 'IEEE Transactions on Mobile Computing', 'journal': 'IEEE Transactions on Mobile Computing', 'mag_field_of_study': ['Computer Science']} | 7,903 |
Abstrakt. Målet med detta papper är att upptäcka en uppsättning diskriminerande fläckar som kan fungera som en helt oövervakad mellannivå visuell representation. De önskade fläckarna måste uppfylla två krav: 1) för att vara representativa, de måste förekomma tillräckligt ofta i den visuella världen; 2) för att vara diskriminerande, de måste vara tillräckligt annorlunda från resten av den visuella världen. Plåstren kan motsvara delar, objekt, "visuella fraser", etc. men är inte begränsade till att vara någon av dem. Vi framställer detta som ett oövervakat discriminativt klusterproblem på en enorm datauppsättning av bildlappar. Vi använder en iterativ procedur som växlar mellan klusterering och utbildning diskriminativa klassificeringar, samtidigt som vi tillämpar noggrann korsvalidering vid varje steg för att förhindra övermontering. Papperet demonstrerar experimentellt effektiviteten av discriminativa fläckar som en oövervakad mellannivå visuell representation, vilket tyder på att det kan användas i stället för visuella ord för många uppgifter. Discriminativa fläckar kan också användas i ett övervakat system, t.ex. scenklassificering, där de visar den senaste prestandan på MIT Indoor-67-datasetet. | Närmre vår strategi finner arbetet i REF en uppsättning diskriminativa och representativa bildlappar genom att använda en iterativ process av klusterering och utbildning. | 14,970,392 | Unsupervised Discovery of Mid-Level Discriminative Patches | {'venue': 'European Conference on Computer Vision, 2012', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 7,904 |
Affärsprocesser för webbtjänster är det nya paradigmet för den lätta integrationen av företag från olika företag. Medan säkerhets- och tillträdeskontrollpolicyerna för grundläggande webbtjänster och distribuerade system är väl studerade och nästan standardiserade, finns det ännu inte något omfattande förslag om en arkitektur för tillträdeskontroll för affärsprocesser. Den stora frågan är att en affärsprocess beskriver komplexa tjänster som korsar organisatoriska gränser och tillhandahålls av enheter som ser varandra som bara partners och ingenting annat. Detta kräver ett antal skillnader med traditionella aspekter av åtkomstkontrollarkitekturer som • credential vs klassisk användarbaserad åtkomstkontroll, • interaktiv och partnerbaserad vs en-server-samlar-alla förfrågningar om referenser från kunder, • kontrollerat utlämnande av information vs all-eller inget åtkomstkontrollbeslut, • abducera saknade referenser för att uppfylla förfrågningar vs deduting av giltiga förfrågningar från referenser i formella modeller, • "source-code" auktoriseringsprocesser vs data som beskriver policyer för kommunikation eller för att orkestrera arbetet med auktoriseringsservrar. När vi tittar på åtkomstkontrollfältet finner vi en god approximation av de flesta komponenter men inte deras syntes till en åtkomstkontrollarkitektur för affärsprocesser för webbtjänster, vilket är bidraget från detta dokument. | Koshutanski m.fl. REF föreslår en auktoriseringsmodell för affärsprocesser baserade på webbtjänster. | 14,838,113 | An access control framework for business processes for web services | {'venue': "XMLSEC '03", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 7,905 |
Abstract-Compressed sensing handlar om rekonstruktion av en högdimensionell signal från långt färre linjära mätningar, där signalen är känd för att medge en gles representation i ett visst linjärt utrymme. Den asymptotiska skalningen av antalet mätningar som behövs för återuppbyggnaden då signalens dimension ökar har studerats ingående. Detta arbete tar ett grundläggande perspektiv på problemet med att dra slutsatser om enskilda element i den glesa signalen med tanke på mätningarna, där systemets dimensioner blir allt större. Med hjälp av replikmetoden visar sig resultatet av slutsatsen om varje fast samling av signalelement vara asymptotiskt frikopplat, dvs. dessa element blir oberoende beroende av mätningarna. Dessutom medger problemet med att dra slutsatsen om varje signalelement en enbokstavskarakterisering i den meningen att den bakre fördelningen av elementet, som är en tillräcklig statistik, blir asymptotiskt identisk med den bakre delen av slutsatsen om samma element i skalära Gaussiskt buller. Resultatet leder till enkel karakterisering av alla andra elementära mätvärden av problemet med komprimerad avkänning, såsom det genomsnittliga kvadratfelet och felsannolikheten för att rekonstruera stöduppsättningen av den glesa signalen. Slutligen är karakteriseringen med en bokstav strikt motiverad i det speciella fallet med glesa mätmatriser där trosförökning blir asymptotiskt optimal. | Använda replika metod Guo et al. visade REF att den bakre fördelningen av uppskattningen av en enda koefficient blir asymptotiskt frikopplad från uppskattningen av andra koefficienter. | 16,572,276 | A single-letter characterization of optimal noisy compressed sensing | {'venue': '2009 47th Annual Allerton Conference on Communication, Control, and Computing (Allerton)', 'journal': '2009 47th Annual Allerton Conference on Communication, Control, and Computing (Allerton)', 'mag_field_of_study': ['Computer Science']} | 7,906 |
Mobile edge computing syftar till att tillhandahålla resurser till olika delay-känsliga applikationer. Detta är ett utmanande problem eftersom en kant cloud-tjänsteleverantör kanske inte har tillräckliga resurser för att tillgodose alla resursförfrågningar. Dessutom är det också svårt att fördela tillgängliga resurser optimalt till olika tillämpningar. Resursdelning mellan olika leverantörer av molntjänster kan ta itu med ovannämnda begränsning eftersom vissa tjänsteleverantörer kan ha tillgängliga resurser som kan "hyras" av andra tjänsteleverantörer. Men kant cloud tjänsteleverantörer kan ha olika mål eller verktyg. Det behövs därför en effektiv och effektiv mekanism för att dela resurser mellan tjänsteleverantörerna, samtidigt som man beaktar de olika tjänsteleverantörernas olika mål. Vi modellerar resursdelning som ett multiobjektivt optimeringsproblem och presenterar en lösningsram baserad på kooperativ spelteori (CGT). Vi överväger den strategi där varje tjänsteleverantör tilldelar resurser till sina egna applikationer först och delar de återstående resurserna med applikationer från andra tjänsteleverantörer. Vi bevisar att för en monoton, icke-decreasing nyttofunktion, spelet är kanonisk och konvex. Kärnan är därför inte tom och den stora koalitionen är stabil. Vi föreslår två algoritmer Gametheoretic Pareto optimal tilldelning (GPOA) och Polyandrous-Polygamous Matching baserad Pareto Optimal Allocation (PPMPOA) som ger tilldelningar från kärnan. Därför de erhållna tilldelningarna är Pareto optimal och den stora koalitionen av alla tjänsteleverantörer är stabil. Experimentella resultat bekräftar att vårt föreslagna ramverk för resursdelning förbättrar verktygen hos leverantörer av avancerade molntjänster och tillfredsställelsen med ansökan. | I REF modellerade vi resursdelning bland mobila kantmoln som ett samarbetsspel. | 209,531,643 | Let's Share: A Game-Theoretic Framework for Resource Sharing in Mobile Edge Clouds | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 7,907 |
Domänspecifika språk (DSL) är språk som är anpassade till en specifik applikationsdomän. De erbjuder betydande fördelar när det gäller uttrycklighet och användarvänlighet jämfört med allmänna programmeringsspråk inom deras tillämpningsområde. DSL-utveckling är svår och kräver både domänkunskap och språkutvecklingsexpertis. Få människor har båda. Det är inte förvånande att beslutet att utveckla en DSL ofta skjuts upp på obestämd tid, om det över huvud taget övervägs, och de flesta DSL aldrig kommer bortom programbibliotekets stadium. Även om många artiklar har skrivits om utvecklingen av vissa DSL, finns det mycket begränsad litteratur om DSL-utvecklingsmetoder och många frågor kvarstår om när och hur man ska utveckla en DSL. För att hjälpa DSL-utvecklaren identifierar vi mönster i besluts-, analys-, design- och genomförandefaserna för DSL-utveckling. Våra mönster förbättrar och utökar tidigare arbete med DSL-designmönster. Vi diskuterar också verktyg för domänanalys och språkutvecklingssystem som kan bidra till att påskynda DSL-utvecklingen. Slutligen presenterar vi ett antal öppna problem. | Till exempel identifierar Ref mönster som hjälper vid beslut, analys, utformning och genomförande av DSL. | 207,158,373 | When and how to develop domain-specific languages | {'venue': 'CSUR', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics']} | 7,908 |
I detta dokument föreslås en modell för djupt lärande för att effektivt upptäcka framträdande regioner i videofilmer. Den tar upp två viktiga frågor: 1) djup video saliency modell utbildning med avsaknad av tillräckligt stora och pixel-wise kommenterade videodata, och 2) snabb video saliency utbildning och detektion. Det föreslagna nätverket för djup videoljud består av två moduler för att fånga den rumsliga respektive tidsmässiga informationen. Den dynamiska Saliency-modellen, som explicit införlivar Saliency-skattningar från den statiska Saliency-modellen, producerar direkt spatiotemporal saliensinferens utan tidskrävande optisk flödesberäkning. Vi föreslår vidare en ny teknik för dataförstärkning som simulerar videoträningsdata från befintliga annoterade bilddataset, vilket gör det möjligt för vårt nätverk att lära sig mångsidig information och förhindrar överexekvering med det begränsade antalet träningsvideor. Genom att använda våra syntetiska videodata (150K-videosekvenser) och riktiga videor, lär sig vår modell för djup videolägsenhet framgångsrikt både rumsliga och temporala salthalter, vilket ger en exakt spatiotemporal salthaltsberäkning. Vi avancerar state-of-the-art på DAVIS dataset (MAE av.06) och FBMS dataset (MAE av.07), och gör det med mycket förbättrad hastighet (2fps med alla steg). Index Terms-Video salthalt, djupinlärning, syntetisk video data, framträdande objekt upptäckt, helt konvolutionell nätverk. | W Wang et al REF använder FCN för att fånga den rumsliga och temporala salientinformationen i detektionen av videorelativt objekt. | 206,726,827 | Video Salient Object Detection via Fully Convolutional Networks | {'venue': 'IEEE Transactions on Image Processing, Vol. 27, No. 1, pp 38-49, 2018', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Medicine']} | 7,909 |
Abstract-I detta dokument presenterar vi en förtroende etablering och ledning ram för hierarkiska trådlösa sensornätverk. Den trådlösa sensornätverksarkitektur vi anser består av en samling sensornoder, klusterhuvuden och en basstation arrangerad hierarkiskt. Ramen omfattar system för att skapa och förvalta förtroende mellan dessa olika enheter. Vi visar att det föreslagna ramverket bidrar till att minimera de omkostnader för minne, beräkning och kommunikation som är involverade i förtroendehantering i trådlösa sensornätverk. Vårt ramverk tar hänsyn till direkt och indirekt (grupp) förtroende för förtroendeutvärdering samt den energi som förknippas med sensornoder i valet av tjänst. Den tar också hänsyn till den dynamiska aspekten av förtroende genom att införa en tillitsvarierande funktion som skulle kunna anpassas för att ge större tyngd åt de senast erhållna förtroendevärdena i förtroendeberäkningen. Arkitekturen har också förmågan att hantera inter-cluster rörelse av sensornoder med hjälp av en kombination av certifikat baserat förtroende och beteende baserat förtroende. Trådlösa sensornätverk hjälper till att exakt samla in information, övervaka och reagera på händelser från den fysiska världen. En sensornod består av sensor(er), trådlös kommunikationsenhet, liten mikrocontroller och energikälla. WSN:er har vissa unika egenskaper både på sensornodnivå och på sensornätverksnivå. På sensornodnivå har varje sensornod begränsningar på resurser som energi, minne, beräkningshastighet och bandbredd. På sensornätverksnivå kan WSN:er ärva de trådlösa ad hoc-nätverkens infrastrukturlösa karaktär, och de kan ha dynamisk nättopologi och medlemskap, utan stöd från en förvaltningsmyndighet. Dessutom kan WSN användas i stor skala och kan vara mobilt men kan lida av brist på fysiskt skydd, samt allmänna misslyckanden som relaterar till nod- och kommunikationsnivå. WSN har många tillämpningar såsom övervakning av infrastruktur, habitatövervakning, hälso- och sjukvård och trafikövervakning. Många tillämpningar av WSN kräver säker kommunikation och servicekvalitet [1]. Men i praktiken, trådlösa sensornätverk är benägna att olika typer av skadliga attacker, såsom överbelastning, routing protokoll attacker samt replay attacker, sybil attacker, trafikanalys och fysiska attacker på noder. Traditionella kryptosystem kan inte förhindra sådana typer av skadliga attacker. Dessutom kan traditionella förtroendehanteringssystem som utvecklats för trådbundna och trådlösa nät vara olämpliga för nät med små sensornoder på grund av begränsad bandbredd och stränga nodbegränsningar när det gäller kraft och minne. Därför är det viktigt att utveckla system och protokoll för förvaltning av tillit som tar hänsyn till de inneboende egenskaperna hos de trådlösa sensornätverk som nämns ovan. Det finns flera förslag på förtroendehantering för WSNs Nyligen, Shaikh et al [8] har föreslagit en gruppbaserad trust management system (GTMS) för klustererade trådlösa sensornätverk. Det syftar till att upptäcka och förhindra själviska, felaktiga och skadliga noder. Det tar dock inte hänsyn till de dynamiska aspekterna av förtroende och förhandsdistribution kunskap om sensorn noder. Dessutom har GTMS betydande kommunikation overhead när det gäller beräkningar som behövs för att fastställa en nodes förtroendevärde. Vi har nyligen föreslagit en förvaltningsarkitektur för hierarkiska WSN för att åtgärda några av bristerna i GTMS [9]. Detta dokument bygger på den nya förvaltningsram för WSN som föreslogs [9] och syftar till att förbättra processen för att utvärdera förtroendet genom att ta hänsyn till de dynamiska aspekterna av förtroende. Vårt nya ramverk för förtroendehantering använder sig av den hierarkiska trådlösa sensornätverksarkitekturen för att minimera minnesomkostnaderna genom att använda klusterhuvudet i hanteringen av förtroendeinformation. Vår strategi minskar också kommunikationen overhead genom att få noderna att bara kommunicera med klusterhuvudet. Vi föreslår ett nytt förtroendevärdesberäkningssystem med en sönderfallande teknik, så att de senaste förtroendevärdena kan få mer (eller mindre) tyngd i den övergripande förtroendeberäkningen, och därmed ta hänsyn till förtroendets dynamiska natur. Det dåliga beteendet hos en nod kommer att minska dess förtroendevärde avsevärt. Dessutom är viktningen parameteriserad för att göra den tillräckligt flexibel för att passa olika tillämpningar. Vi tar också hänsyn till energinivån hos sensornoder för att undvika den korta livslängden för mycket pålitliga noder. Dessutom räknar vi med att noderna kan röra sig från ett kluster till ett annat, samtidigt som de behåller sina förtroenderegister. Dessutom stärker vi säkerheten för klusterhuvudet. Slutligen kombinerar vi det beteendebaserade förtroendet och certifikatbaserat förtroende genom att använda pre-deployment | Zhang m.fl. I REF föreslogs en dynamisk ram för inrättande och förvaltning av tillit, och en tillits varierande funktion definieras för att generera ett visst viktvärde för anpassning till nätverkets dynamiska förändringar. | 4,615,726 | A Dynamic Trust Establishment and Management Framework for Wireless Sensor Networks | {'venue': '2010 IEEE/IFIP International Conference on Embedded and Ubiquitous Computing', 'journal': '2010 IEEE/IFIP International Conference on Embedded and Ubiquitous Computing', 'mag_field_of_study': ['Computer Science']} | 7,910 |
Skalspråket används i stor utsträckning för olika systemadministrationsuppgifter på UNIX-maskiner, till exempel som en del av installationsprocessen för programvarupaket i FOSS-distributioner. Vårt mål på medellång sikt är att analysera dessa skript som en del av en pågående insats för att använda formella metoder för kvalitetssäkring av programvarudistributioner, för att bevisa deras korrekthet, eller för att identifiera fel. Men syntaxen och semantiken i POSIX-skalet är särskilt förrädiska. Vi föreslår ett nytt språk som heter CoLiS, som å ena sidan har väldefinierade statiska semantik och undviker några av skalets fallgropar, och å andra sidan är tillräckligt nära skalet för att vara målet för en automatiserad översättning av skripten i vår corpus. Språket har utformats så att det blir möjligt att automatiskt sammanställa ett stort antal skalskript till CoLiS-språket. Vi definierar formellt dess syntax och semantik i Why3, definiera en tolk för språket i WhyML programmeringsspråk, och presentera en automatiserad bevis i Why3 bevis miljö av sundhet och fullständighet av vår tolk med avseende på den formella semantik. | Nyligen, Jeannerod et al. REF verifierade en tolk för ett skalliknande språk som heter CoLiS med hjälp av Why3. | 2,440,055 | A Formally Verified Interpreter for a Shell-Like Programming Language | {'venue': 'VSTTE', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 7,911 |
CNN har gjort en obestridlig inverkan på datorseendet genom förmågan att lära sig modeller med hög kapacitet med stora kommenterade utbildningsset. En av deras anmärkningsvärda egenskaper är förmågan att överföra kunskap från en stor källa dataset till en (vanligtvis mindre) måldataset. Detta sker vanligtvis genom finjustering av ett nätverk med fast storlek på nya måldata. Faktum är att praktiskt taget varje modernt visuellt igenkänningssystem använder finjustering för att överföra kunskap från ImageNet. I detta arbete analyserar vi vilka komponenter och parametrar som förändras under finjusteringen, och upptäcker att ökad modellkapacitet möjliggör mer naturlig modellanpassning genom finjustering. Genom att göra en analogi med utvecklingslärande visar vi att "växande" ett CNN med ytterligare enheter, antingen genom att bredda befintliga skikt eller fördjupa det övergripande nätverket, avsevärt överträffar klassiska finjusterande metoder. Men för att kunna bygga upp ett nätverk på rätt sätt visar vi att nytillkomna enheter måste normaliseras på lämpligt sätt för att möjliggöra en inlärningstakt som överensstämmer med befintliga enheter. Vi validerar empiriskt vår strategi för flera referensdatauppsättningar och producerar toppmoderna resultat. | Wang m.fl. REF visar att "växande" ett CNN med ytterligare enheter för finjustering av en ny uppgift, nytillkomna enheter bör normaliseras på lämpligt sätt för att möjliggöra en inlärningstakt som överensstämmer med befintliga enheter. | 2,164,305 | Growing a Brain: Fine-Tuning by Increasing Model Capacity | {'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 7,912 |
Effektiv schemaläggning av arbetsflöden som representeras av viktade acykliska grafer (DAG) på en uppsättning heterogena processorer är avgörande för att uppnå hög prestanda. Optimeringsproblemet är NP-komplett i allmänhet. Några heuristiker för schemaläggning av heterogena system har nyligen föreslagits. Det är dock få av dem som anser att bearbetningsföretagen har olika kapacitet. I denna artikel presenterar vi en ny lista schemaläggning baserad algoritm för att hantera denna situation. Algoritmen (SDC) har två utmärkande drag. För det första tar algoritmen hänsyn till effekten av procent av kapacitetsprocessorer (PCP) när aktiviteten nod vikter. För två uppgiftsnoder med samma genomsnittliga beräkningskostnad tenderar vår vikttilldelningspolicy att ge större tyngd åt uppgiften med liten PCP. För det andra, under processorn urvalsfasen, algoritmen justerar den effektiva Earliest Finish Time-strategin genom att införliva den genomsnittliga kommunikationskostnaden mellan den nuvarande schemaläggning noden och dess barn. Jämförelsestudie visar att vår algoritm presterar bättre än relaterat arbete totalt sett. | I REF hävdar författarna att föreslagna heuristik för schemaläggning av heterogena system misslyckas genom att inte överväga processorer med olika kapacitet. | 17,966,295 | Scheduling workflow applications on processors with different capabilities | {'venue': 'Future Gener. Comput. Syst.', 'journal': 'Future Gener. Comput. Syst.', 'mag_field_of_study': ['Computer Science']} | 7,913 |
Abstrakt. I detta arbete tillhandahåller vi effektiva distribuerade protokoll för att generera andelar av slumpmässiga buller, säkra mot skadliga deltagare. Syftet med bullergenereringen är att skapa ett distribuerat genomförande av de databaser för skydd av privatlivet som beskrivs i de senaste tidningarna [14, 4, 13]. I dessa databaser, sekretess erhålls genom att störa det sanna svaret på en databas fråga genom att lägga till en liten mängd Gaussian eller exponentiellt distribuerat slumpmässigt buller. Den beräkningskraft av även en enkel form av dessa databaser, när frågan är just av formen, Det vill säga summan över alla rader i i databasen av en funktion f tillämpas på data i rad i, har visats i [4]. Ett distribuerat genomförande eliminerar behovet av en betrodd databasadministratör. Resultaten för bullergenerering är av oberoende intresse. Generationen av Gaussian buller introducerar en teknik för att distribuera andelar av många opartiska mynt med färre utföranden av kontrollerbara hemliga delning än vad som skulle behövas med hjälp av tidigare metoder (reduceras med en faktor av n). Generationen av exponentiellt distribuerat buller använder två grunda kretsar: en för att generera många godtyckligt men identiskt partiska mynt till en amortiserad kostnad av två opartiska slumpmässiga bitar styck, oberoende av fördomar, och den andra för att kombinera bitar av lämpliga fördomar för att få en exponentiell fördelning. | Dwork m.fl. REF tar bort behovet av en betrodd part genom att använda kontrollerbar hemlig delning av bullervärden som sedan kombineras för att generera buller. | 2,495,811 | Our Data, Ourselves: Privacy via Distributed Noise Generation | {'venue': 'In EUROCRYPT', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 7,914 |
Ett av de mest utmanande problemen vid utvinning av genuttrycksdata är att identifiera hur uttrycket för en viss gen påverkar uttrycket av andra gener. För att belysa sambanden mellan generna, en association regel mining (ARM) metod har tillämpats på microarray genuttrycksdata. En konventionell ARM-metod har dock en gräns för att extrahera tidsmässiga beroenden mellan genuttryck, även om tidsinformationen är nödvändig för att upptäcka underliggande regleringsmekanismer i biologiska vägar. I detta dokument föreslår vi en ny metod, kallad timlig föreningsregel gruvdrift (TARM), som kan extrahera tidsmässiga beroenden bland relaterade gener. En temporal association regel har formen [gen A↑, gen B↓] → (7 min) [gen C↑], som representerar den höga uttrycksnivån av gen A och betydande repression av gen B följt av betydande uttryck av gen C efter 7 minuter. Den föreslagna TARM-metoden testas med Saccharomyces cerevisiae cellcycle time-series microarray genuttrycksdata. I TARM:s parametermonteringsfas har den monterade parameteruppsättningen [tröskel = ± 0,8, stöd för ≥ 3 transaktioner, konfidensgrad ≥ 90%] med den bästa precisionspoängen för KEGG-cellcykelbanan valts för regelbrytningsfasen. Med den monterade parametern uppsättning, antal temporal association regler med fem transkriptionella tidsfördröjningar (0, 7, 14, 21, 28 minuter) extraheras från genuttryck data av 799 gener, som är föridentifierade cellcykeln relevanta gener. Från de extraherade tidsmässiga föreningsreglerna, associerade gener, som spelar samma roll biologiska processer inom kort transkriptionell tidsfördröjning och vissa tidsmässiga beroenden mellan gener med specifika biologiska processer identifieras. I detta arbete föreslog vi TARM, som är en tillämpad form av konventionell ARM. TARM visade högre precision än Dynamic Bayesian nätverk och Bayesian nätverk. Fördelar med TARM är att det talar om storleken på transkriptionell tidsfördröjning mellan associerade gener, aktivering och hämningsförhållande mellan gener, och uppsättningar av co-regulatorer. | För det andra skiljer sig begreppet "association" från det som förekommer i litteraturen om föreningsregeln gruvdrift REF, där en föreningsregel har formen [gen A", gen B;]? 7 min)[gen C" | 2,870,709 | Identification of temporal association rules from time-series microarray data sets | {'venue': 'BMC Bioinformatics', 'journal': 'BMC Bioinformatics', 'mag_field_of_study': ['Medicine', 'Computer Science', 'Biology']} | 7,915 |
En korrekt identifiering av tillämpningar är en av de centrala delarna i nätdrift och nätförvaltning för att tillhandahålla förbättrade nättjänster och nätsäkerhet. Även om den signaturbaserade metoden som undersöker paketinnehåll för identifiering är attraktiv med större noggrannhet än den traditionella tekniken som bygger på TCP-portnummer, är en potentiell utmaning flera matchningar som uppstår när mer än en applikation identifierar dataströmmen i fråga. I så fall kan inmatningsströmmen inte klassificeras på ett tillfredsställande sätt enbart med hjälp av programsignaturer, och det är nödvändigt att fastställa en ytterligare process som gör det möjligt att förena sådana multipla matchningar för att kunna fatta det slutliga beslutet om identifiering. I detta dokument tar vi itu med problemet med flera matcher genom att utveckla en uppsättning urval heuristik som hjälper till att exakt identifiera den applikation som är kopplad till inmatningsdataströmmen. Heuristiken väljer en av en uppsättning tillämpningar med hjälp av sin egen unika diskrimineringsfunktion, och inmatningstrafiken kan klassificeras i den valda applikationen. Våra experimentella resultat med en ny uppsättning trafikdata visar att vår föreslagna metod framgångsrikt hanterar flera matchningar, uppnå en hög grad av identifieringsnoggrannhet upp till 99% med avseende på precision och återkallande. | J. Tharp m.fl. REF, ta itu med detta problem med flera matchningar genom att utveckla en uppsättning selektiva heuristik som kan hjälpa till att korrekt identifiera den applikation som är kopplad till inmatningsdataströmmen unikt. | 16,189,321 | Reconciling Multiple Matches for the Signature-Based Application Identification | {'venue': 'JCM', 'journal': 'JCM', 'mag_field_of_study': ['Computer Science']} | 7,916 |
Vi noterar att vanliga implementationer av adaptiva gradientalgoritmer, såsom Adam, begränsar den potentiella nyttan av regularisering av viktförfall, eftersom vikterna inte sönderfaller multiplikativt (som man kan förvänta sig för standardviktförfall) utan genom en additiv konstant faktor. Vi föreslår ett enkelt sätt att lösa denna fråga genom att frikoppla vikt förfall och de optimering steg som vidtagits w.r.t. förlustfunktionen. Vi ger empiriska belägg för att vår föreslagna ändring (i) frikopplar det optimala valet av viktsönderfallsfaktor från fastställandet av inlärningsgraden för både standard SGD och Adam, och (ii) avsevärt förbättrar Adams generaliseringsprestanda, vilket gör det möjligt för den att konkurrera med SGD med momentum på bildklassificeringsdata (som den tidigare typiskt överträffades av den senare). Vi visar också att längre optimeringskörningar kräver mindre viktfallvärden för optimala resultat och inför en normaliserad variant av viktfall för att minska detta beroende. Slutligen föreslår vi en version av Adam med varma omstarter (AdamWR) som har stark när som helst prestanda samtidigt som man uppnår toppmoderna resultat på CIFAR-10 och ImageNet32x32. Vår källkod finns på https://github.com/loshchil/AdamW-and-SGDW | REF föreslog att fastställa vikt sönderfall legalisering i Adam genom att frikoppla vikt sönderfall från lutning uppdatering och detta förbättrar generalisering prestanda Adam. Förbättringen är dock marginell och den kan inte helt överbrygga gapet i generaliseringens resultat. | 3,312,944 | Fixing Weight Decay Regularization in Adam | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 7,917 |
Ett antal senaste resultaten om optimeringsproblem som involverar submodulära funktioner har använt sig av "multilinjär avkoppling" av problemet [3], [8], [24], [14], [13]. Vi presenterar en allmän strategi för att härleda omätbarhet resulterar i värdet orakelmodellen, baserat på begreppet "symmetrigap". Vårt huvudsakliga resultat är att för varje fast instans som uppvisar en viss "symmetrigap" i sin multilinjära avkoppling, finns det en naturligt relaterad klass av instanser för vilka en bättre approximationsfaktor än symmetrigapet skulle kräva exponentiellt många orakelfrågor. Detta förenar flera kända hårdhetsresultat för submodulär maximering, t.ex. optimaliteten av (1 −1/e)-uppskattning för monoton submodulär maximering under en kardinalitetsbegränsning [20], [7], och omöjligheten av ( 1 2 + )-uppskattning för okonstruerad (icke-monoton) submodulal maximering [8]. Det följer av vårt resultat att ( 1 2 + )-uppskattning är också omöjligt för icke-monoton submodulär maximering föremål för en (icke-trivial) matroid begränsning. På den algoritmiska sidan presenterar vi en 0,309 approximation för detta problem, vilket förbättrar den tidigare kända faktorn 1 4 − o(1) [14]. Som en annan tillämpning, anser vi problemet med att maximera en icke-monoton submodulär funktion över baserna i en matroid. A ( 1 6 − o(1)) - approximation har utvecklats för detta problem, förutsatt att matroiden innehåller två olika baser [14]. Vi visar att den bästa approximationen man kan uppnå verkligen är relaterad till förpackningar av baser i matroiden. Specifikt, för varje k ≥ 2, det finns en klass av matriser av fraktionerad bas förpackningsnummer v = k‐1, sådan att någon algoritm som uppnår en bättre än (1 - 1 v ) - approximation för denna klass skulle kräva exponentiellt många värdefrågor. På den positiva sidan presenterar vi en 1 2 (1 - 1 v - o(1)) approximationsalgoritm för samma problem. Våra hårdhetsresultat håller i själva verket för mycket speciella symmetriska fall. För sådana symmetriska fall visar vi att approximationsfaktorerna 1 2 (för submodulär maximering som är föremål för en matrisrestriktion) och 1 - 1 v (för en matrisbasrestriktion) kan uppnås algoritmiskt och därmed är optimala. | Problemet med att maximera en (inte nödvändigtvis monoton) submodulär funktion som är föremål för en allmän matrisrestriktion gavs en 0,309-approximering i referens REF. | 7,271,003 | Symmetry and Approximability of Submodular Maximization Problems | {'venue': '2009 50th Annual IEEE Symposium on Foundations of Computer Science', 'journal': '2009 50th Annual IEEE Symposium on Foundations of Computer Science', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 7,918 |
Cloud computing har antagits i stor utsträckning på grund av flexibiliteten i resursförsörjning och prissättningsmodeller på begäran. Hela kluster av virtuella maskiner (VM) kan dynamiskt tillhandahållas för att möta användarnas krav på beräkning. Ur en användares perspektiv är det dock fortfarande en utmaning att använda molnresurser effektivt. Detta beror på att det finns ett överväldigande brett utbud av resurstyper med olika priser och betydande variationer i prestanda. I detta dokument presenteras en undersökning och taxonomi av befintlig forskning för att optimera genomförandet av Bag-of-Task applikationer på molnresurser. En BoT-applikation består av flera oberoende uppgifter, som var och en kan utföras av en VM i valfri ordning; dessa tillämpningar används i stor utsträckning av både forskarsamhällen och kommersiella organisationer. Syftet med denna undersökning är följande: (i) att ge läsaren en koncis förståelse av befintlig forskning om optimering av utförandet av BoT-tillämpningar på molnet, (ii) att definiera en taxonomi som kategoriserar nuvarande ramverk för att jämföra och kontrastera dem, och (iii) att presentera aktuella trender och framtida forskningsriktningar inom området. | I REF, Thai et al. presentera en omfattande undersökning och taxonomi av befintlig forskning om schemaläggning av "bag-of-task"-tillämpningar i moln. | 11,336,879 | A Survey and Taxonomy of Resource Optimisation for Executing Bag-of-Task Applications on Public Clouds | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 7,919 |
Vi undersöker syntaktisk omordning inom en engelsk till arabisk översättning uppgift. Vi utvidgar en föröversättning syntaktisk reordering metod som utvecklats på ett nära språkpar (engelsk-danska) till det avlägsna språkparet, engelsk-arabiska. Vi uppnår betydande förbättringar i översättningskvalitet över relaterade tillvägagångssätt, mätt med manuella såväl som automatiska utvärderingar. Dessa resultat visar att detta tillvägagångssätt är genomförbart för främmande språk. | Syntaktisk omordning inom engelsk till arabisk översättning uppgift undersöker i REF. | 2,494,522 | Syntactic Reordering for English-Arabic Phrase-Based Machine Translation | {'venue': 'Proceedings of the EACL 2009 Workshop on Computational Approaches to Semitic Languages', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 7,920 |
Trots betydande framsteg på senare tid när det gäller erkännande av ansikte [10, 14, 15, 17] innebär genomförandet av kontroll av ansikte och erkännande på ett effektivt sätt stora utmaningar för de nuvarande strategierna. I detta papper presenterar vi ett system, som heter FaceNet, som direkt lär sig en kartläggning från ansiktsbilder till ett kompakt Euclidean utrymme där avstånden direkt motsvarar ett mått på ansikte likhet. När detta utrymme har producerats, uppgifter som ansiktsigenkänning, verifiering och klusterering kan enkelt genomföras med hjälp av standardtekniker med FaceNet inbäddningar som funktion vektorer. Vår metod använder ett djupt konvolutionsnätverk utbildat för att direkt optimera inbäddningen själv, snarare än en mellanliggande flaskhals lager som i tidigare djupt lärande metoder. För att träna använder vi trioler av ungefär samma matchande / icke-matchande ansiktsfläckar som genereras med hjälp av en ny online triolbrytningsmetod. Fördelarna med vårt tillvägagångssätt är mycket större representationseffektivitet: vi uppnår den senaste ansiktsigenkänningen med endast 128 byte per ansikte. På de allmänt använda Labeled Faces i datasetet Wild (LFW) uppnår vårt system en ny rekordnoggrannhet på 99,63 %. På YouTube Faces DB uppnår den 95.12%. Vårt system sänker felfrekvensen i jämförelse med det bäst publicerade resultatet [15] med 30 % för båda datauppsättningarna. | Olika, FaceNet REF använde en djup convolutional nätverk för att direkt optimera inbäddningen själv, snarare än en mellanliggande flaskhals lager. | 206,592,766 | FaceNet: A Unified Embedding for Face Recognition and Clustering | {'venue': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 7,921 |
Ökningen av moderna blockkedjor har underlättat uppkomsten av smarta kontrakt: autonoma program som lever och kör på blockkedjan. Smarta kontrakt har sett en snabb stigning till framskjuten ställning, med tillämpningar som förutspås inom juridik, näringsliv, handel och styrning. Smarta kontrakt är vanligtvis skrivna på ett språk på hög nivå som Ethereum's Solidity, och översatt till kompakt låg nivå bytekod för distribution på blockkedjan. När bytekoden är utplacerad, körs den autonomt, vanligtvis av en virtuell maskin. Som med alla program, smarta kontrakt kan vara mycket sårbara för skadliga attacker på grund av bristfälliga programmeringsmetoder, språk och verktygskedjor, inklusive buggy kompilatorer. Samtidigt är smarta kontrakt också högvärdiga mål, ofta med stora mängder kryptovaluta. Därför behöver utvecklare och revisorer säkerhetsramar som kan analysera bytekod på låg nivå för att upptäcka potentiella säkerhetssårbarheter. I detta dokument presenterar vi Vandal: en ram för säkerhetsanalys av Ethereums smarta kontrakt. Vandal består av en analys pipeline som omvandlar låg nivå Ethereum Virtual Machine (EVM) bytecode till semantiska logiska relationer. Användarna av ramverket kan uttrycka säkerhetsanalyser på ett deklarativt sätt: en säkerhetsanalys uttrycks i en logisk specifikation skriven på Soufflé-språket. Vi genomför en storskalig empirisk studie för en uppsättning gemensamma smarta kontrakt säkerhetssårbarheter, och visar effektiviteten och effektiviteten i Vandal. Vandal är både snabb och robust och analyserar framgångsrikt över 95% av alla 141k unika kontrakt med en genomsnittlig körtid på 4,15 sekunder; överträffar den nuvarande state of the art tools-Oynte, EthIR, Mythril, och Rattle-under likvärdiga förhållanden. * Gemensamt första upphovsmannaskap. | Vandal Ref presenterar en ram för säkerhetsanalys för Ethereum smarta kontrakt. | 52,190,385 | Vandal: A Scalable Security Analysis Framework for Smart Contracts | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 7,922 |
I många övervakningssystem finns det ett krav på att avgöra om en viss person av intresse redan har observerats över ett nätverk av kameror. I detta dokument presenteras två tillvägagångssätt för denna persons återidentifieringsproblem. I allmänhet skiljer sig det mänskliga utseende som erhålls i en kamera vanligtvis från det som erhålls i en annan kamera. För att identifiera människor på nytt bör den mänskliga signaturen hantera skillnader i belysning, pose och kameraparametrar. Våra utseendemodeller är baserade på haar-liknande egenskaper och dominerande färgdeskriptorer. AdaBoost-systemet tillämpas på båda deskriptorerna för att uppnå den mest invarianta och diskriminerande signaturen. Metoderna utvärderas med hjälp av referensvideosekvenser med olika kameravyer där människor automatiskt detekteras med hjälp av histogram av orientaliserade gradienter (HOG). Omidentifieringsprestandan presenteras med hjälp av den kumulativa matchande egenskapskurvan (CMC). | I REF applicerades AdaBoost för att extrahera de mest diskriminerande och invarianta haarliknande dragen. | 14,145,161 | Person Re-identification Using Haar-based and DCD-based Signature | {'venue': '2010 7th IEEE International Conference on Advanced Video and Signal Based Surveillance', 'journal': '2010 7th IEEE International Conference on Advanced Video and Signal Based Surveillance', 'mag_field_of_study': ['Computer Science']} | 7,923 |
Trådlösa sensornätverk har uppmärksammats av en mängd olika forskare, på grund av den unika kombinationen av distribuerade, resurs- och databearbetningsbegränsningar. Hittills har dock bristen på verkliga distributioner av sensornätverk resulterat i ad hoc-antaganden om ett brett spektrum av frågor, inklusive topologikarakteristika och datadistribution. I takt med att spridningen av sensornät blir allt vanligare [1, 2] måste många av dessa antaganden ses över. Detta dokument behandlar den grundläggande frågan om spatio-temporär oegentlighet i sensornätverk Vi argumenterar för förekomsten av sådan oregelbunden spatio-temporal provtagning, och visar att det påverkar många prestandaproblem i sensornätverk. Till exempel, dataaggregation system ger felaktiga resultat, kompressionseffektivitet minskas dramatiskt, datalagring skews lagringsbelastning bland noder och ådrar sig betydligt större routing overhead. För att minska oegentlighetens effekter skisserar vi ett spektrum av lösningar. För dataaggregation och komprimering föreslår vi användning av rumslig interpolering av data (först föreslagna av Ganeriwal et al in [3] ) och tidssignalsegmentering följt av anpassning. För att minska kostnaden för datacentrerad lagring och routing föreslår vi användning av virtualisering och gränsdetektering. | Den partiskhet som kan införas i beräkningen av aggregat på grund av icke-uniforma sensor platser erkändes i REF, där författarna föreslog användning av rumslig interpolering av data för att sampla data mer enhetligt i ett område. | 8,788,720 | Coping with irregular spatio-temporal sampling in sensor networks | {'venue': 'CCRV', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 7,924 |
I detta dokument studeras den andra ordningens asymptotik av Gaussian multiple-access-kanalen med degraderade meddelandeuppsättningar. För en fast genomsnittlig felsannolikhet (0,1) och en godtycklig punkt på kapacitetsregionens gräns, karakteriserar vi hastigheten för konvergensen av kurspar som konvergerar till denna gränspunkt för koder som har asymptotisk felsannolikhet inte större än ε. Vi gör det genom att klargöra tydliga samband mellan de hastighetspar som kan uppnås vid stora blocklängder och den lokala andra ordningens asymptotik, d.v.s. Den andra ordningen beteende av dessa hastighet par i närheten av en gränspunkt. Vi ger ett numeriskt exempel för att illustrera hur infallsvinkeln till en gränspunkt påverkar andra ordningens kodningshastighet. Detta är den första avgörande karakteriseringen av den andra ordningens asymptotik av ett problem med nätverksinformationsteorin där kapacitetsregionen inte är en polygon. | För Gaussian MAC med degraderade meddelandeuppsättningar, den kompletta andra ordningen asymptotics härleddes av Scarlett och Tan REF. | 2,077,533 | Second-Order Asymptotics for the Gaussian MAC with Degraded Message Sets | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 7,925 |
I detta dokument undersöks forskningen om energihanteringsteknik för högpresterande system. Dessa omfattar både kommersiella kluster med hög prestanda och vetenskapliga system med hög prestanda (HPC). Kraftförbrukningen har snabbt stigit till en oacceptabel skala. Detta leder till både höga driftskostnader och höga felfrekvenser, så det är nu en stor källa till oro. Det innebär nya utmaningar för utvecklingen av högpresterande system. I detta dokument går vi först igenom de grundläggande mekanismer som ligger till grund för energihanteringstekniker. Sedan undersöker vi två grundläggande tekniker för energihantering: mätvärden och profilering. Därefter går vi igenom forskningen för de två stora typerna av högpresterande system: kommersiella kluster och superdatorer. Baserat på detta diskuterar vi de nya möjligheter och problem som presenteras av den nyligen antagna virtualiseringstekniken, och återigen presenterar vi den senaste forskningen om detta. Slutligen sammanfattar och diskuterar vi framtida forskningsinriktningar. | Eftersom processorer dominerar systemets strömförbrukning i HPC-system REF, processornivå strömhantering är den mest behandlade aspekten på servernivå. | 206,510,536 | A survey of the research on power management techniques for high-performance systems | {'venue': 'Softw. Pract. Exp.', 'journal': 'Softw. Pract. Exp.', 'mag_field_of_study': ['Computer Science']} | 7,926 |
Att förbättra prestandan hos mobila ad hoc NET-works (MANETS) är en utmaning. MANETS kommunikation presenteras med många begränsningar såsom dynamisk topologi, otillförlitlighet av trådlösa länkar, och begränsad bandbredd och energiresurser. Routing i MANETS kan vara särskilt svårt på grund av allvarliga överbelastningsproblem. I detta dokument föreslås ett nytt protokoll för QoS (Quality of Service) i kombination med flödeskontrollmekanismen. Detta routing protokoll väljer de rutter som har mer resurser på ett intelligent sätt och inte förlitar sig på spridning. Det föreslagna routingprotokollet använder en ny mätmetod för att hitta rutten med högre överföringshastighet, mindre latens och bättre stabilitet. För att öka trängselundvikandet används en flödeskontrollmekanism för att anpassa överföringshastigheten för varje sträcka. Den föreslagna routinglösningen modelleras av myrsystem. De numeriska resultaten erhålls med hjälp av nätverkssimulatorn (NS2.31). Dessa resultat bekräftar att gemensamt övervägande av flödesstyrning och routing kan avsevärt förbättra nätverksprestandan jämfört med andra QoS routing protokoll såsom QoS-AODV (Ad hoc On Demand Vector med QoS) protokoll. | Belkadi Malika et al REF har föreslagit en ny lösning som kombinerar QoS (Kvalitet av tjänst) routing protokoll och flödeskontroll mekanism. | 11,515,591 | Intelligent Routing and Flow Control In MANETs | {'venue': 'CIT', 'journal': 'CIT', 'mag_field_of_study': ['Computer Science']} | 7,927 |
Förmågan att exakt modellera textens innehållsstruktur är viktig för många tillämpningar för behandling av naturligt språk. Detta dokument beskriver experiment med generativa modeller för att analysera diskursstrukturen i medicinska abstracts, som i allmänhet följer mönstret av "introduktion", "metoder", "resultat" och "slutsatser". Vi visar att Hidden Markov Modeller är kapabla att exakt fånga strukturen av sådana texter, och kan uppnå klassificering noggrannhet jämförbar med den av diskriminativa tekniker. Dessutom ger generativa metoder fördelar som kan göra dem att föredra framför diskriminerande tekniker som Support Vector Machines under vissa förhållanden. Vårt arbete ger två bidrag: på applikationsnivå rapporterar vi goda resultat på en intressant uppgift inom ett viktigt område; mer allmänt bidrar våra resultat till en pågående diskussion om kompromisser mellan generativa och diskriminativa tekniker. | REF ) använde en generativ modell som jämförde dem med diskriminerande modeller. | 65,485 | Generative Content Models For Structural Analysis Of Medical Abstracts | {'venue': 'BioNLP Workshop On Linking Natural Language And Biology', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 7,928 |
Abstract-Data Mining är mest känd för sin analytiska och förutsägelse förmåga. Det används inom flera områden såsom bedrägeri upptäckt, förutsäga klientens beteende, pengamarknad beteende, konkurs förutsägelse. Det kan också bidra till att skapa ett utbildningsekosystem, som upptäcker användbar kunskap, och hjälpa pedagoger att fatta proaktiva beslut för att öka studenternas prestationer och anställbarhet. Denna uppsats presenterar en empirisk studie som jämför olika klassificeringsalgoritmer på två datauppsättningar av MCA-studenter (Masters in Computer Applications) som samlats in från olika anslutna högskolor vid ett känt statligt universitet i Indien. Ett dataset innehåller endast primära attribut, medan andra dataset matas med sekundära psykometriska attribut i det. Resultaten visar att enbart primära akademiska attribut inte leder till smart förutsägelse noggrannhet av elevernas anställbarhet, när de fyrkantiga mäter inom det första året av deras utbildning. I studien analyseras och betonas den roll som sekundära psykometriska attribut spelar för bättre förutsägelsenoggrannhet och analys av studenternas prestationer. Tidsmässig förutsägelse och analys av studenternas prestationer kan hjälpa ledningen, lärare och studenter att arbeta med sina gråzoner för bättre resultat och sysselsättningsmöjligheter. | Undersökningar återspeglar betydelsen av sekundära attribut för bättre förutsägelsenoggrannhet REF. | 38,777,082 | Role of Secondary Attributes to Boost the Prediction Accuracy of Students Employability Via Data Mining | {'venue': '(IJACSA) International Journal of Advanced Computer Science and Applications, Vol. 6, No. 11, 2015', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 7,929 |
Den höga dynamiken i dagens sociala nät på nätet skapar nya utmaningar för deras infrastruktur och leverantörer. I synnerhet har dynamiken med kantskapande direkt konsekvenser för strategier för resursfördelning, datapartitionering och replikering. Att förstå nätverksdynamiken i samband med fysisk tid är ett viktigt första steg mot en prediktiv strategi för infrastrukturförvaltning i OSN. Trots ökade insatser för att studera dynamik i sociala nätverk fokuserar aktuella analyser främst på förändring över tid av statiska mätvärden som beräknas på ögonblicksbilder av sociala grafer. Den begränsade tidigare arbetsmodeller nätverk dynamik med avseende på en logisk klocka. I detta dokument presenterar vi resultat av att analysera ett stort tidsbegränsat dataset som beskriver den inledande tillväxten och utvecklingen av ett stort socialt nätverk i Kina. Vi analyserar och modellerar sprängningen av länkskapande processen, med hjälp av den andra derivatan, dvs.. examensaccelerationen. Detta gör det möjligt för oss att upptäcka sprickbildningar, och att karakterisera den sociala aktiviteten hos en OSN-användare som en av fyra faser: acceleration i början av en aktivitetsspricka, där länkskapandet ökar; retardation när sprickbildningen upphör och länkskapandet avtar; cruising, när nodaktiviteten är i ett stabilt tillstånd, och fullständig inaktivitet. | I det här dokumentet REF ) kom författarna samtidigt fram till liknande slutsatser som oss om sprickbildningen i utvecklingen av kontakt tillägg av användare. | 14,374,805 | On the bursty evolution of online social networks | {'venue': "HotSocial '12", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics']} | 7,930 |
Clustering är centralt för många datadrivna applikationsdomäner och har studerats i stor utsträckning när det gäller avståndsfunktioner och grupperingsalgoritmer. Relativt lite arbete har fokuserat på lärande representationer för kluster. I detta dokument föreslår vi Deep Embedded Clustering (DEC), en metod som samtidigt lär sig funktion representationer och klusteruppdrag med hjälp av djupa neurala nätverk. Dec lär sig en kartläggning från datarymden till ett mindre dimensionellt funktionsutrymme där det iterativt optimerar ett klustermål. Våra experimentella utvärderingar av bild och text corpora visar betydande förbättringar jämfört med toppmoderna metoder. | Nyligen föreslogs DEC REF för att lära sig funktionsrepresentationer och klusteruppdrag samtidigt med hjälp av djupa neurala nätverk. | 6,779,105 | Unsupervised Deep Embedding for Clustering Analysis | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 7,931 |
Clustering är centralt för många datadrivna applikationsdomäner och har studerats i stor utsträckning när det gäller avståndsfunktioner och grupperingsalgoritmer. Relativt lite arbete har fokuserat på lärande representationer för kluster. I detta dokument föreslår vi Deep Embedded Clustering (DEC), en metod som samtidigt lär sig funktion representationer och klusteruppdrag med hjälp av djupa neurala nätverk. Dec lär sig en kartläggning från datarymden till ett mindre dimensionellt funktionsutrymme där det iterativt optimerar ett klustermål. Våra experimentella utvärderingar av bild och text corpora visar betydande förbättringar jämfört med toppmoderna metoder. | Kluster förlust används för att justera parametrar och klustercenter samtidigt i Deep Embedded Clustering (DEC) REF. | 6,779,105 | Unsupervised Deep Embedding for Clustering Analysis | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 7,932 |
Krafthantering och konkurrenskraft Problemsättning: I ett allmänt scenario får vi en anordning som alltid finns i en av flera stater. I översiktsartiklar utöver det aktiva tillståndet kan det till exempel finnas standby-, suspensions-, sömn- och full-off-tillstånd. Dessa stater har individuella strömförbrukningsnivåer. Den energi som uppstår vid övergången från en högre makt till ett lägre makttillstånd är vanligtvis försumbar. En uppströmsdrift förbrukar dock en betydande mängd energi. Med tiden upplever enheten en alternerande sekvens av aktiva och inaktiva perioder. Under aktiva perioder måste systemet vistas i aktivt läge för att utföra de uppgifter som krävs. Under inaktiva perioder kan systemet flyttas till lägre effekttillstånd. En algoritm måste bestämma när övergången ska utföras och till vilka stater den ska flyttas. Målet är att minimera den totala energiförbrukningen. Eftersom energiförbrukningen under de aktiva perioderna är fast, förutsatt att föreskrivna uppgifter måste utföras, fokuserar vi på energiminimering i de inaktiva intervallerna. I själva verket fokuserar vi på alla sysslolösa perioder och optimerar energiförbrukningen i alla sådana tidsramar. Detta power management problem är ett online problem, det vill säga när som helst en enhet inte är medveten om framtida händelser. Mer specifikt, i en sysslolös period, systemet har ingen information när perioden slutar. Är det värt att flytta till en lägre makt och dra nytta av den minskade energiförbrukningen, med tanke på att systemet äntligen måste drivas upp igen till en kostnad för det aktiva läget? Prestandaanalys: Trots att det är svårt att inte känna till framtiden, bör en onlinestrategi uppnå ett tydligt bra resultat. Här använder sig algoritmerna av konkurrensanalys, där en online-algoritm ALG jämförs med en optimal offline-algoritm OPT. 38 OPT är en allvetande strategi som känner till hela framtiden och kan beräkna en statlig övergångsplan för minsta totala energi. Online-algoritm ALG kallas c-konkurrenskraft om för varje ingång, t.ex. för varje tomgångsperiod, den totala energiförbrukningen för ALG är högst c gånger den för OPT. Konkurrenskraftig analys ger en stark prestandagaranti i värsta fall. En online-strategi måste fungera bra på alla ingångar (idle perioder) som till och med kan genereras av en motståndare. Detta kontradiktoriska scenario kan verka pessimistiskt men det är förenligt med klassisk algoritmanalys som utvärderar strategier i termer av deras värsta-fall resurser, typiskt körtid eller minne krav. I detta avsnitt kommer vi främst att studera algoritmer med hjälp av konkurrensanalys men kommer också att överväga prestanda på indata som genereras enligt sannolikhetsfördelningar. I det följande kommer vi först att studera system som endast består av två stater. Då kommer vi att ta itu med system med flera stater. Vi betonar att vi överväger att minimera energin. Vi bortser från den försening som uppstår när ett system övergår från en lägre makt till ett högre makttillstånd. Överväga ett tvåstatssystem som kan vistas i ett aktivt tillstånd eller i ett viloläge. Låt r vara strömförbrukningen, mätt i energienheter per tidsenhet, i aktivt tillstånd. Energiförbrukningen i viloläge antas vara 0. Resultaten vi presenterar i följande generalisera till en godtycklig konsumtion i viloläge. Låt b energienheter, där b > 0, krävas för att omvandla systemet från vilotillståndet till det aktiva tillståndet. Vi antar att energin i övergången från det aktiva till sömntillståndet är 0. Om så inte är fallet kan vi helt enkelt vika den motsvarande energin till kostnaden b som uppstår i nästa power-up drift. Systemet upplever en tomgångsperiod vars längd T till en början är okänd. En optimal offline-algoritm OPT, som känner till T i förväg, är enkel att formulera. Vi jämför värdet av rT, vilket är den totala energi som förbrukas under tomgången när du bor i det aktiva läget, med power-up kostnaden för b. Om rT < b, förblir OPT i aktivt tillstånd under hela den inaktiva perioden eftersom övergången mellan de aktiva och vilolägen kostar mer. Om rT 3 b, med hjälp av viloläge är fördelaktigt. I detta fall övergår OPT till sömntillståndet redan i början av den tomgångsperiod och krafter fram till den aktiva staten i slutet av perioden. Följande deterministiska online-algoritm efterliknar beteendet hos OPT, som använder viloläge på tomgång perioder av längd minst b/r. Energin har blivit en ledande konstruktionsbegränsning för datorutrustning. maskinvaruingenjörer och systemdesigners utforskar nya riktningar för att minska energiförbrukningen av sina produkter. Överväga ett system med l stater s 1,..., s l. Låta r i vara strömförbrukning av s i. Vi numrerar staterna i ordning av minskande hastigheter, såsom r 1 >... > r l. Därför är s 1 den aktiva staten och s l representerar staten med lägsta energiförbrukning. Låt b i vara den energi som krävs för att övergången systemet från s i till det aktiva tillståndet s 1. Eftersom övergångar från lägre makt stater är dyrare har vi b 1 £... £ b l. Dessutom naturligtvis b 1 = 0. Vi antar återigen att övergångar från högre makt till lägre makt stater ådrar sig 0 kostnad eftersom motsvarande energi är vanligtvis försumbar. Målet är att skapa ett övergångsschema som minimerar den totala energiförbrukningen under en tomgång. Irani m.fl. 24 presenterade online och offline algoritmer. De antar att övergångsenergierna är additiva, såsom, övergång från en lägre makt tillstånd s j till en högre makt tillstånd s i, där i < j, ådrar sig en kostnad av b j − b i. En algoritm aLG-d: I en tomgångsperiod återstår först i det aktiva tillståndet. Efter b/r tidsenheter, om perioden ännu inte har avslutats, övergång till vilotillstånd. Det är lätt att bevisa att ALG-D är 2-konkurrenskraftigt. Vi behöver bara överväga två fall. Om rT < b, förbrukar ALG-D rT-enheter energi under tomgångsintervallet och detta är i själva verket lika med förbrukningen av OPT. Om rT 3 b, då ALG-D först förbrukar r. b/r = b energienheter för att förbli i aktivt tillstånd. En extra power-up-kostnad på b uppstår vid slutet av tomgångsintervallet. Därför är ALG-D:s totala kostnad 2b, medan OPT ådrar sig en kostnad på b för uppeffektdriften vid slutet av tomgångsperioden. Det är också lätt att verifiera att ingen deterministisk online-algoritm kan uppnå ett konkurrensförhållande mindre än 2. Om en algoritm övergår till vilotillståndet efter exakt t-tidsenheter, då i en tomgång period av längd t det ådrar sig en kostnad av tr + b medan OPT betalar min{rt, b} endast. Vi konstaterar att maktstyrning i tvåstatssystem motsvarar det berömda problemet med skidhyra, ett grundläggande problem i teorin om online-algoritmer, se till exempel Irani och Karlin. 26 Intressant nog är det möjligt att slå konkurrenskraften av 2 med hjälp av randomisering. En randomiserad algoritm övergår till vilotillståndet enligt en sannolikhetsdensitetsfunktion p(t). Sannolikheten för att systemet slår ner under de första t 0-tidsenheterna under en tomgångsperiod är ò 0 t 0 p(t)dt. Karlin m.fl. 28 bestämde den bästa sannolikhetsfördelningen. Den densitet funktion är den exponentiella funktionen e rt/b, multiplicerad med faktorn för att säkerställa att p(t) integrerad över hela tidshorisonten är 1, det vill säga, systemet är definitivt drivs ner någon gång. Algoritm alLG-r: Övergång till viloläge enligt sannolikhetstäthetsfunktionen ALG-R uppnår en avsevärt förbättrad konkurrenskraft, jämfört med deterministiska strategier. Resultat av Karlin et al. 28 innebär att ALG-R uppnår ett konkurrenskraftigt förhållande, Där e » 2.71 är det eulerska numret. Mer exakt är den förväntade energiförbrukningen för ALG-R inte mer än gånger den för OPT under någon tomgångsperiod. Återigen, är det bästa konkurrensförhållandet en randomiserad strategi kan få. Ur praktisk synvinkel är det också lärorikt att studera stokastiska inställningar där längden på tomgångsperioder styrs av sannolikhetsfördelningar. I praktiken kan korta perioder förekomma oftare. Sannolikhetsfördelning kan också modellera specifika situationer där antingen mycket korta eller mycket långa tomgångsperioder är mer benägna att inträffa, jämfört med perioder med medellång längd. Naturligtvis är en sådan sannolikhetsfördelning kanske inte känd i förväg men kan läras med tiden. I det följande antar vi att distributionen är känd. Låt Q = (q(T) ) 0£T <∞ vara en fast sannolikhetsfördelning på längden T av tomgångsperioder. För alla t 3 0, beakta den deterministiska algoritm ALG t som alltid driver ner efter exakt t tid enheter. Om tomgångsperioden slutar innan ALG t slår ner, t.ex. om T < t, förblir algoritmen i aktivt tillstånd under tomgångsintervallets varaktighet och använder en rT-energi. Om tomgångsperioden ännu inte har avslutats när ALG t slår ut, såsom, om T 3 t, då algoritmen ådrar sig en fast energi av rt + b eftersom en energi av rt förbrukas innan systemet i drivs ner och en kostnad b uppstår för övergången tillbaka till det aktiva läget. För att bestämma den förväntade kostnaden för ALG t, Vi måste integrera över alla möjligheter för längden T av overksam period med hjälp av sannolikhetsfördelningen Q. De två begreppen nedan representerar de två fallen. Observera att sannolikheten för att overksamhetsperioden ännu inte har avslutats när ALG t driver ner är (1) Karlin et al. 28 föreslog följande strategi som, med tanke på Q, helt enkelt använder den bästa algoritmen ALG t. algoritm alG-P: Med tanke på en fast Q, låt A Q * vara den deterministiska algoritm ALG t som minimerar ekvation 1. Karlin m.fl. visade att för alla Q, den förväntade energiförbrukningen av Intressant, för variabel T den optimala kostnaden har en enkel grafisk representation, se figur 1. Om vi anser att alla linjära funktioner f i (t) = r i t + b i, som representerar den totala energiförbrukningen med hjälp av tillstånd s i, då den optimala energiförbrukningen ges av den nedre delen av arrangemanget av linjer. Man kan använda denna lägre kuvert för att styra en online-algoritm för att välja vilket tillstånd som ska användas när som helst. Låt S OPT (t) betecknar det tillstånd som används av OPT i en tomgång period av total längd t, såsom, S OPT (t), det vill säga lösningen på ekvationen Här antar vi att stater vars funktioner inte förekommer på den lägre kuvert, när som helst, kastas. Vi noterar att algoritmen är en generalisering av ALG-D för tvåstatssystem. Irani m.fl. 24 bevisade att Lower-Envelope är 2-konkurrenskraftig. Detta är den bästa konkurrenskraften en deterministisk algoritm kan uppnå i godtyckliga statliga system. Irani m.fl. 24 studerade också den inställning där längden av tomgångsperioder genereras av en sannolikhetsfördelning Q = (q(T) ) 0£T <∞. De bestämmer tiden t i när en online-strategi bör gå från stat s i-1 till s i, 2 £ i £ l. I detta syfte överväga den deterministiska online-algoritm ALG t som övergår till lägre makt tillstånd efter exakt t tid enheter. Vi bestämmer den förväntade kostnaden för ALG t i en tomgång period vars längd T genereras enligt Q, förutsatt att endast tillstånd s i-1 och s i är tillgängliga. Till en början bor ALG t i staten s i−1. Om tomgångsperioden slutar innan ALG t övergår till lågeffekttillståndet, som t.ex. om T < t, är energiförbrukningen r i‐1 T. Om tomgångsperioden inte har avslutats ännu när ALG t övergår till lågeffekttillståndet, t.ex. om T 3 t, ådrar sig algoritmen en energi r i‐1 t medan den är bosatt i s i‐1 under de första t-tidenheterna och en ytterligare energi av r i (T − t) när den är i tillstånd i under de återstående T − t-tidsenheterna. Vid slutet av den tomgångsperiod, en power-up kostnad b i − b i‐1 betalas för övergången från s i tillbaka till s i‐1. Därför, i detta fall ALG t ådrar sig en total energi av r i‐1 t Den förväntade kostnaden för ALG t, förutsatt att endast s i‐1 och s i är tillgängliga, är Låta t i vara den tid t som minimerar ovanstående uttryck. Irani m.fl. 24 föreslog följande algoritm. Algoritm ALG-P(l): Ändra tillstånd vid övergångstiderna t 2,...,t l definieras ovan. ALG-P(l) är en generalisering av ALG-P för tvåstatssystem. Irani m.fl. bevisade att för varje fast sannolikhetsfördelning Q är den förväntade energiförbrukningen för ALG-P(l) inte mer än gånger den förväntade optimala förbrukningen. Dessutom Irani et al. presenterade en metod för att lära sig en till en början okänd Q. De kombinerade metoden med ALG-P(l) och utförde experimentella tester för en IBM mobil hårddisk med fyra power states. Det visar att det kombinerade systemet uppnår låg energiförbrukning nära den optimala och vanligtvis överträffar många enstaka värdeförutsägelsealgoritmer. Augustine m.fl. 5 undersöka generaliserade flerstatssystem där statsövergångsenergierna kan ta godtyckliga värden. Låt b ij 3 0 vara den energi som krävs för övergången från s i till s j, 1 £ i, j £ l. Augustine et al. visa att LowerEnvelope kan generaliseras och uppnå en konkurrenskraft på 3 + 2Ö2 på 5,8. Detta förhållande gäller för alla tillståndssystem. Bättre gränser är möjliga för specifika system. Augustine m.fl. Utforma en strategi som, för ett givet system S, uppnår ett konkurrensförhållande som är godtyckligt nära den bästa möjliga konkurrenskraften för S. Slutligen överväger författarna stokastiska inställningar och utvecklar optimala övergångstider. Många moderna mikroprocessorer kan köras med variabel hastighet. Exempel är Intel SpeedStep och AMD-processorn PowerNow. Höga hastigheter resulterar i högre prestanda men också hög energiförbrukning. Lägre hastigheter sparar energi men prestanda försämras. Den välkända kub-rot regel för CMOS-enheter anger att hastigheten s av en enhet är proportionell mot kub-roten av kraften eller, motsvarande, kraften är proportionell till s 3. Algoritmlitteraturen överväger en generalisering av denna regel. Om en processor körs i hastighet S, då den erforderliga effekten är s a, där en > 1 är en konstant. Det är uppenbart att energiförbrukningen är integrerad med tiden. Målet är att dynamiskt ställa in hastigheten på en processor för att minimera energiförbrukningen, samtidigt som den ger en önskad servicekvalitet. Dynamisk hastighetsskalning leder till många utmanande schemaläggningsproblem. När som helst måste en schemaläggare bestämma inte bara vilket jobb att utföra utan också vilken hastighet som ska användas. Följaktligen har det funnits ett stort forskningsintresse för utformning och analys av effektiva schemaläggningsalgoritmer. I detta avsnitt granskas de viktigaste resultaten från de senaste åren. Vi tar först upp schemaläggningsproblem med hårda jobbdeadlines. Sedan tänker vi på minimeringen av svarstider och andra mål. I allmänhet är två scenarier av intresse. I offline-inställningen är alla jobb som ska bearbetas kända i förväg. I online-miljö, jobb anländer över tid, och en algoritm, när som helst, måste fatta schemaläggning beslut utan kunskap om framtida jobb. Online-strategier utvärderas igen med hjälp av konkurrensanalys. Onlinealgoritm ALG är c-kompetitiv om, för varje insats, det objektiva funktionsvärdet (vanligtvis energiförbrukningen) för ALG ligger inom c gånger värdet av en optimal lösning. I en seminal tidning, initierar den algoritmiska studien av hastighetsskalning, Yao et al. 40 undersökte ett schemaläggningsproblem med strikta tidsgränser. Vid denna punkt är detta ramverk den överlägset mest studerade algoritmiska hastighetsskalning problem. Betrakta n jobb J 1,..., J n som måste bearbetas på en processor med variabel hastighet. Varje jobb J i anges av en release tid r i, en deadline d i, och en bearbetning volym w i. Frisläppningstiden och deadline markerar det tidsintervall under vilket jobbet måste utföras. Bearbetningsvolymen är den mängd arbete som måste göras för att slutföra arbetet. Intuitivt kan bearbetningsvolymen ses som antalet CPU cykler som krävs för att avsluta jobbet. Handläggningstiden för ett jobb beror på hastigheten. Om J i utförs med konstant hastighet s, det tar w i / s tid enheter för att slutföra jobbet. Företräde för arbetstillfällen är tillåtet, dvs. behandlingen av ett arbete kan avbrytas och återupptas senare. Målet är att skapa en genomförbar tidsplan som minimerar den totala energiförbrukningen. Ramverket av Yao et al. förutsätter att det inte finns någon övre gräns för den maximala processorns hastighet. Därför finns det alltid en genomförbar tidsplan som uppfyller alla tidsgränser. Dessutom antas ett kontinuerligt hastighetsspektrum finnas tillgängligt. Vi kommer senare att diskutera hur vi kan lätta på dessa antaganden. Grundläggande algoritmer: Yao et al. 40 först studera offline-inställningen och utveckla en algoritm för att beräkna optimala lösningar, minimera total energiförbrukning. Strategin kallas YDS som hänvisar till upphovsmännens initialer. Algoritmen fortsätter i en rad iterationer. I varje iteration identifieras ett tidsintervall med maximal densitet och ett motsvarande delschema konstrueras. Löst taget, densiteten i ett intervall I är den minsta genomsnittliga hastighet som krävs för att slutföra alla jobb som måste schemaläggas i I. En hög densitet kräver hög hastighet. Formellt är densiteten D I för ett tidsintervall I = [t, t ¢] det totala arbete som ska slutföras i I dividerat med längden på I. Mer exakt, låt S I vara den uppsättning av jobb J i som måste bearbetas i I eftersom deras release tid och deadline är i I, såsom Algorithm YDS upprepade gånger bestämmer intervallet I av maximal densitet. I ett sådant intervall I schemalägger algoritmen jobben för S I i hastighet D Jag använder Earliest Deadline First (EDF) policy. Denna välkända politik utför alltid jobbet med den tidigaste deadline, bland de tillgängliga oavslutade jobben. Efter detta uppdrag, YDS tar bort set S I samt tidsintervall jag från problem instans. Mer specifikt, för alla ledig jobb J i vars deadline är i intervallet I, den nya deadline är satt till början av I eftersom tidsfönstret jag inte är tillgänglig längre för behandling av J i. Formellt, för alla J i med d i I, den nya deadline tiden är inställd på d i := t. På samma sätt, för alla oplanerade J i vars releasetid är i I, den nya releasetiden är inställd på slutet av I. Återigen, formellt för alla J i med r i I, är den nya release tiden r i := t ¢. Tidsintervall Jag är kasserad. Denna process upprepas tills det inte finns fler lediga jobb. Vi ger en sammanfattning av algoritmen i pseudokod. granska artiklar den horisontella axeln. I den första iteration YDS identifierar I 1 = [3, 8] som intervall av maximal densitet, tillsammans med uppsättning S I 1 = { J 2, J 3 }. I I 1, det röda jobbet J 2 är föreslagen vid tidpunkten 5 för att ge företräde till orange jobb J 3 med en tidigare deadline. I den andra iterationen I 2 = [13, 20] är det maximala densitetsintervallet. De mörkgröna och ljusgröna jobben är planerade; företrädet används igen en gång. I den tredje iterationen är det återstående jobbet J 3 schemalagt i de tillgängliga ankomst- och avgångstiderna. När man identifierar intervaller av maximal densitet behöver YDS bara beakta intervaller vars gränser är lika med releasetider och tidsgränser för jobben. En enkel implementering av algoritmen har en körtid på O(n 3 ). Löjtnant m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m för m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. 34 visade att tiden kan minskas till O(n 2 log n). Ytterligare förbättringar är möjliga om arbetsintervallen bildar en trädstruktur. Om det inte är möjligt att genomföra en viss arbetsuppgift, är situationen mer känslig. I detta fall är det omöjligt att slutföra alla arbetstillfällen. Målet är att designa algoritmer som uppnår bra genomströmning, vilket är den totala bearbetningsvolymen av jobb som slutförs vid sin deadline, och samtidigt optimera energiförbrukningen. Papper 7, 17 presenterar algoritmer som även fungerar på nätet. Vid varje tidpunkt som strategierna upprätthåller en pool av jobb som de har för avsikt att slutföra. Nyanlända jobb kan komma in i poolen. Om poolen innehåller för stor bearbetning volym, arbetstillfällen utvisas så att genomströmningen inte minskas avsevärt. Algoritmen av Bansal et al. 7 är 4 konkurrenskraftiga när det gäller genomströmning och konstant konkurrenskraft i fråga om energiförbrukning. Temperaturminimering: Höga processorhastigheter leder till höga temperaturer, vilket försämrar en processors tillförlitlighet och livslängd. Bansal m.fl. 9 överväga minimering av den maximala temperatur som uppstår under bearbetning. De utgår från att kylningen följer Newtons lag, som säger att en kropps kylningshastighet står i proportion till temperaturskillnaden mellan kroppen och miljön. Bansal m.fl. 9 visar att algoritmer YDS och BKP har gynnsamma egenskaper. För alla jobb sekvens, är den maximala temperaturen inom en konstant faktor för minsta möjliga optimal schema för de nuvarande tillgängliga oavslutade jobb. Bansal m.fl. 9 gav en omfattande analys av ovanstående algoritm och visade att konkurrensförhållandet är exakt en. När det gäller konkurrenskraften är därför Optimal Tillgängligt bättre än genomsnittet. Bansal m.fl. 9 presenterade också en ny online-algoritm, kallad BKP enligt författarnas initialer, som kan ses som en approximering av de optimala hastigheterna för YDS på ett online sätt. Återigen, algoritmen tar hänsyn till intervalltätheter. För tider t, t 1, och t 2 med t 1 < t £ t 2, låt w(t, t 1, t 2 ) vara den totala bearbetningsvolymen av jobb som har anlänt med tid t, har en releasetid på minst t 1 och en deadline på högst t 2. Sedan, intuitivt, max t 1, t 2 w(t, t 1, t 2 )/(t 2 − t 1 ) är en uppskattning av den hastighet som används av YDS, baserat på kunskap om jobb som har anlänt med tiden t. Den nya algoritmen BKP approximerar denna hastighet genom att överväga specifika tidsfönster [et − (e − 1) t¢, t¢], för t¢ > t, av längd e(t¢ − t). Motsvarande nödvändiga hastighet multipliceras sedan med en faktor av e. algoritm BKP: När som helst t använda en hastighet av e. s(t), där tillgängliga oavslutade jobb bearbetas med EDF. Bansal m.fl. 9 visade att BKP uppnår ett konkurrenskraftigt förhållande av, vilket är bättre än konkurrenskraften för Optimal Tillgänglig för stora värden av a. Alla ovanstående online-algoritmer uppnår konstanta konkurrensförhållanden som beror på en och inga andra problemparameter. Beroendet av a är exponentiellt. För små värden av a, som förekommer i praktiken, är konkurrensförhållandena relativt små. Ett resultat av Bansal et al. 9 innebär att det exponentiella beroendet av a är en naturlig del av problemet. Varje randomiserad onlinealgoritm har en konkurrenskraft på minst W (4/3) a ). förfining-Bounded hastighet: Den problem inställning som anses hittills förutsätter en kontinuerlig, obegränsad spektrum av hastigheter. I praktiken är dock endast en begränsad uppsättning av diskreta hastighetsnivåer s 1 < s 2 <... < s d tillgängliga. De 23 undersöker en utökad problematik där en processor med variabel hastighet kan övergå till ett vilotillstånd. I viloläget, är energiförbrukningen 0 medan i aktivt tillstånd även vid hastighet 0 viss icke-negativ mängd energi förbrukas. Därför Irani et al. 23 kombinerar hastighetsskalning med power-down-mekanismer. I standardinställningen utan viloläge, algoritmer tenderar att använda låg hastighet nivåer som omfattas av release tid och deadline begränsningar. Däremot kan det i viloläge vara fördelaktigt att påskynda ett arbete för att generera inaktiva tider då processorn kan övergå till viloläge. Irani m.fl. 23 utveckla online- och offlinealgoritmer för denna utökade inställning. Baptiste m.fl. 11 och Demaine m.fl. 21 också studera schemaläggning problem där en processor kan ställas in sömn, om än i en inställning utan hastighetsskalning. Minimera Svarstid Ett klassiskt mål i schemaläggningen är minimeringen av svarstiderna. En användare som släpper en uppgift till ett system vill få feedback, säger resultatet av en beräkning, så snabbt som möjligt. Användarnöjdhet beror ofta på hur snabbt en enhet reagerar. Tyvärr, svarstid minimering och energiminimering strider mot målen. För att uppnå snabba svarstider måste ett system vanligtvis använda höga processorer hastigheter, vilket leder till hög energiförbrukning. För att spara energi bör däremot låga hastigheter användas, vilket leder till höga svarstider. Därför måste man hitta sätt att integrera båda målen. Betrakta n jobb J 1,..., J n som måste schemaläggas på en processor med variabel hastighet. Varje jobb J i anges av en release tid r i och en bearbetning volym w i. När ett arbete anländer är dess bearbetningsvolym känd. Företräde av 37 studera en problematik där en fast energi volym E ges och målet är att minimera den totala flödestiden för jobben. Författarna antar att alla jobb har samma bearbetningsvolym. Genom att skala, kan vi anta att alla jobb har enheter. Pruhs och Al. 37 överväga offline scenariot där alla jobb är kända i förväg och visa att optimala scheman kan beräknas i polynom tid. Inom detta ramverk med en begränsad energivolym är det dock svårt att konstruera bra online-algoritmer. Om framtida arbetstillfällen är okända är det oklart hur mycket energi som ska investeras för de uppgifter som för närvarande finns tillgängliga. energi plus flödestider: Albers och Fujiwara 2 föreslog ett annat tillvägagångssätt för att integrera energi och flödestidsminimering. De betraktar en kombinerad objektiv funktion som helt enkelt lägger till de två kostnaderna. Låt E betecknar energiförbrukningen i ett schema. Vi vill minimera. Genom att multiplicera energi eller flödestid med en skalar kan vi också överväga en viktad kombination av de två kostnaderna, vilket uttrycker det relativa värdet av de två termerna i den totala kostnaden. Albers och Fujiwara koncentrerar sig på jobb i enhetsstorlek och visar att optimala offlinescheman kan konstrueras i polynomtid med hjälp av en dynamisk programmeringsmetod. I själva verket algoritmen kan också användas för att minimera den totala flödestiden för jobb med tanke på en fast energivolym. Bansal m.fl. och Lam et al. 7, 32 föreslå algoritmer för inställningen att det finns en övre gräns på den maximala processorn hastighet. Alla ovanstående resultat antar att när ett arbete anländer, dess bearbetning volym är känd. Papper 18, 32 undersöker det svårare fallet att denna information inte är tillgänglig. De resultat som presenterats hittills gäller arkitekturer med en processor. Energiförbrukning är dock också ett stort problem i multiprocessormiljöer. För närvarande är relativt få resultat kända. Albers m.fl. 3 undersöka deadline-baserad schemaläggning för m identiska parallella processorer. Målet är att minimera den totala energin på alla maskiner. Författarna löser först komplexiteten i offline-problemet genom att visa att datorer optimala scheman är NP-hårda, även för enhet storlek jobb. Om inte P = NP kan optimala lösningar därför inte beräknas på ett effektivt sätt. Albers m.fl. 3 sedan utveckla polynom tid offline algoritmer som uppnår konstant faktor approximationer, såsom, för varje inmatning den förbrukade energin ligger inom en konstant faktor för den sanna optimal. De utformar också online-algoritmer som uppnår konstanta konkurrensförhållanden. Lam m.fl. 30 studiedeadlinebaserad schemaläggning på två hastighetsbegränsade processorer. De presenterar en strategi som är konstant konkurrenskraftig i termer av throughput maximization och energiminimering. Bunde 15 undersöker flödestidsminimering i multiprocessormiljöer, givet en fast energivolym. Han presenterar hårdhet resultat samt approximation garantier för enhet storlek jobb. Lam m.fl. 31 överväga den objektiva funktionen att minimera energi plus flödestider. De designar online-algoritmer som uppnår konstanta konkurrensförhållanden. Makespan minimization: En annan grundläggande objektiv funktion i schemaläggning är makespan minimization, det vill säga minimiseringen av den punkt i tiden när hela schemat slutar. Bunde 15 förutsätter att jobb anländer över tid och utvecklar algoritmer för enkel- och multiprocessormiljöer. Pruhs och Al. 36 överväga uppgifter som har företräde begränsningar som definieras mellan dem. De utformar algoritmer för parallella processorer med en fast energivolym. Trådlösa nätverk som ad hoc-nät och sensornätverk har fått stor uppmärksamhet under de senaste åren. Framträdande tillämpningar av sådana nätverk är observation av livsmiljöer, miljöövervakning och prognoser. Nätverksnoder har vanligtvis mycket begränsad batterikapacitet så att effektiva energihanteringsstrategier är nödvändiga för att förbättra ett näts livslängd. I den här undersökningen fokuserar vi på två algoritmiska problem som har fått stort intresse för forskarsamhället på senare tid. Dessutom kan dessa problem betraktas som planeringsproblem och är därmed relaterade till de ämnen som behandlas i de föregående avsnitten. nättopologier Trådlöst ad hoc-nätverk har ingen fast infrastruktur. Nätverket består i princip av en samling radiostationer med antenner för att sända och ta emot signaler. Under överföringen en station s måste välja en transmissionseffekt P s, med hänsyn till att signalstyrkan minskar över avstånd. Signalen tas emot med framgång av en station t endast om P s/dist(s,t) a > g. Här betecknar dist(s,t) avståndet mellan s och t, koefficienten a > 1 är dämpningshastigheten och g > 0 är en överföringskvalitetsparameter. I praktiken är dämpningshastigheten mellan 2 och 5. Utan förlust av allmängiltighet kan vi anta g = 1. Vid dataöverföring sänds en mycket grundläggande operation, där en viss källa nod vill skicka en bit information till alla andra noder i nätverket. Vi studerar problemet med att utforma topologier som möjliggör energieffektiv sändningsverksamhet i trådlösa nät. Överväg en uppsättning V av n noder som ligger i det verkliga planet R 2. En källa nod s V måste sprida ett meddelande till alla andra noder i nätverket. Men s behöver inte informera alla v ί V direkt. I stället kan noder fungera som relästationer. Om v tar emot meddelandet och överför det till w 1,..., w k, sedan v måste använda en effekt av P v = max 1 £ j k dist( v, w j ) a. Målet är att hitta en topologi, det vill säga ett överföringsschema som minimerar den totala effekten/energin E = S v V P v uppstår av alla noderna. Observera att ett sådant schema motsvarar ett träd T som är rotat på s och innehåller alla noder av V. Barnen i en nod v är noderna som v överför meddelandet. Clementi m.fl. 19 visade att beräkningen av optimala scheman är NP-hård. Därför tillgriper man approximationer. En algoritm ALG uppnår en c-uppskattning om för varje ingång, t.ex. för varje nodmängd V, den lösning som ALG beräknar medför en energiförbrukning på högst c gånger det optimala värdet. Wan m.fl. 39 undersöka olika algoritmer när det gäller deras approximativa garantier. Den mest studerade strategin är MST. För en given noduppsättning V beräknar MST en standard minsta spännvidd T, t.ex. ett träd med minsta totala kantlängd som innehåller alla hörn av V (se t.ex. Cormen et al. Europaparlamentets och rådets förordning (EU, Euratom) nr 966/2012 av den 25 oktober 2012 om finansiella regler för unionens allmänna budget och om upphävande av rådets förordning (EG, Euratom) nr 1605/2002 (EUT L 298, 26.10.2012, s. 1). Trädet är rotat vid källnoden s. Dataöverföring utförs längs kanterna på T, det vill säga varje nod sänder ett mottaget meddelande till alla sina barn i trädet. Intuitivt är denna algoritm förnuftig eftersom den lilla totala kantlängden på ett minsta spännträd bör leda till en liten total energiförbrukning. Algoritm MsT: För en given V, beräkna en minsta spännvidd träd rotad på s. Varje nod v överför ett givet meddelande till alla sina barn i T. Många och Wan et al. 39 innebär att approximationsgraden c av BIP uppfyller 13/3 £ c £ 6. Det skulle vara intressant att utveckla snäva gränser för denna algoritm. Som nämnts ovan används sensornätverk vanligtvis för att övervaka en miljö, mäta t.ex. temperatur eller ett kemiskt värde. Uppgifterna måste överföras till en utsedd diskbänksnod som kan utföra ytterligare åtgärder. Becchetti m.fl. 13 och Korteweg m.fl. utveckla energieffektiva protokoll för dataaggregation. Antag att överföringstopologin ges av ett träd T rotat vid diskhon s. Data som samlats in vid ett nätverk nod v överförs längs vägen från v till s i T. Nätverk noder har förmågan att kombinera data. Om två eller flera datapaket samtidigt befinner sig på en nod v, kan v sammanfoga dessa paket till en översiktsartiklar enstaka en och överföra den till den ursprungliga noden, i riktning mot s. Energin som uppstår av en nätverk nod är proportionell mot antalet paket som skickas. Becchetti m.fl. 13 anta att dataposter anländer över tid. Varje post i anges av noden v i där objektet uppstår, en ankomsttid r i och en deadline d i där uppgifterna måste nå diskbänken. Målet är att hitta ett genomförbart överföringsschema som minimerar den maximala energi som krävs vid någon nod. Becchetti m.fl. visa att offline problemet är NP-hård och presentera en 2- approximation algoritm. De utvecklar också distribuerade online-algoritmer för synkrona samt asynkrona kommunikationsmodeller. Korteweg m.fl. 29 studera en problemvariant där dataobjekten inte har tidsfrister men bör nå diskbänken med låg latens. De presenterar algoritmer som samtidigt approximerar energiförbrukning och latens, med tanke på återigen olika kommunikationsmodeller. I den här undersökningen har vi granskat algoritmiska lösningar för att spara energi. En annan undersökning om algoritmiska problem i makthantering skrevs av Irani och Pruhs. 27 Under de senaste månaderna har ett stort antal artiklar publicerats, och vi förväntar oss att energibevarande ur algoritmisk synvinkel kommer att fortsätta att vara ett aktivt forskningsämne. Det finns många vägar till framtida forskning. När det gäller t.ex. effektnedsättningsmekanismer skulle det vara intressant att utforma strategier som tar hänsyn till den latens som uppstår när ett system övergår från ett sömntillstånd till ett aktivt tillstånd. Dessutom behöver vi en bättre förståelse för hastighetsskalningsteknik i multiprocessormiljöer eftersom flerkärnig arkitektur blir allt vanligare inte bara på servrar utan även på stationära datorer och bärbara datorer. Dessutom förtjänar optimeringsproblem i nätverk ytterligare algoritmiska undersökningar. Här skulle det vara intressant att studera energieffektiva punkt-till-punkt-kommunikationer som kompletterar det befintliga arbetet med sändnings- och dataaggregateringsprotokoll. Sist men inte minst, de algoritmer som presenterats hittills måste analyseras i termer av deras genomförande och utförande kostnad: hur mycket extra energi uppstår vid genomförandet av algoritmer i realistiska miljöer. Susanne Albers är professor vid institutionen för datavetenskap vid Humboldt universitet, Berlin, Tyskland. | En relativt färsk undersökning av den algoritmiska energihanteringslitteraturen i allmänhet, och den hastighetsskalningslitteraturen i synnerhet, finns i REF. | 16,604,460 | Energy-efficient algorithms | {'venue': 'CACM', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 7,933 |
Även om säkerhet spelar en viktig roll i utvecklingen av multiagentsystem, visar en noggrann analys av programvaruutvecklingsprocesser att definitionen av säkerhetskrav vanligtvis beaktas efter utformningen av systemet. En av anledningarna är att agentorienterade programvarutekniska metoder inte har integrerat säkerhetsproblem under hela sin utvecklingsfas. Integrationen av säkerhetsproblem under hela utvecklingsfasen kan bidra till utvecklingen av säkrare multiagentsystem. I detta dokument introducerar vi utvidgningar av Tropos-metoden för att göra det möjligt för den att modellera säkerhetsproblem under hela utvecklingsprocessen. En beskrivning av de nya koncepten och modelleringsverksamheten ges tillsammans med en diskussion om hur dessa koncept och modelleringsverksamheter integreras i Tropos nuvarande skeden. En fallstudie i verkliga livet från hälso- och sjukvårdssektorn används för att illustrera detta synsätt. | Säkra Tropos REF-modeller säkerhetsproblem under hela utvecklingsprocessen. | 6,648,528 | SECURE TROPOS: A SECURITY-ORIENTED EXTENSION OF THE TROPOS METHODOLOGY | {'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science']} | 7,934 |
Vi utforskar oövervakade metoder för relationsutdragning mellan två namngivna enheter; till exempel det semantiska födsI förhållande till en person och plats enhet. Konkret föreslår vi en serie generativa probabilistiska modeller som i stort sett liknar ämnesmodeller, var och en som genererar en corpus av observerade tripletter av entitet nämner par och ytsyntaktisk beroendeväg mellan dem. Utmatningen av varje modell är en klustring av observerade relation tuples och deras tillhörande textuttryck till underliggande semantiska relation typer. Våra föreslagna modeller utnyttjar enhetstypbegränsningar inom ett förhållande samt funktioner på beroendebanan mellan företag nämner. Vi undersöker effektiviteten av vår strategi genom flera utvärderingar och visar 12% felminskning i precision över en toppmodern svagt övervakad baslinje. | I REF föreslogs en ny triplet-klustermetod genom en generativ probabilistisk modell. | 226,832 | Structured Relation Discovery using Generative Models | {'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 7,935 |
Abstrakt. Återkommande attacker är en toppmodern analysmetod för hashfunktioner. Dessa kryptoanalysmetoder är baserade på en väl vald differentialväg och har tillämpats på flera hashfunktioner från SHA-3 tävlingen, vilket ger den mest kända analysen i dessa fall. I detta dokument studerar vi återhämtningsattacker i detalj och konstaterar i ett stort antal fall att komplexiteten i de befintliga attackerna kan förbättras. Detta görs genom att identifiera problem som optimalt anpassar sig till den kryptoanalytiska situationen, och genom att använda bättre algoritmer för att hitta lösningar för differentialbanan. Våra förbättringar påverkar en viss operation som förekommer i de flesta rebound attacker och som ofta är flaskhalsen av attackerna. Denna operation, som varierar beroende på attacken, kan grovt beskrivas som sammanslagning av stora listor. Som ett resultat introducerar vi nya generella algoritmer för att möjliggöra ytterligare rebound analys att vara så presterande som möjligt. Vi illustrerar våra nya algoritmer på riktiga hashfunktioner. Mer exakt visar vi hur man kan minska komplexiteten i den mest kända analysen av fyra SHA-3-kandidater: JH, Grøstl, ECHO och Lane och om den mest kända rebound-analysen av SHA-3-kandidaten Luffa. | Vi hittar först partiella lösningar för den differentiala delen av vägen genom att använda idéerna från REF. | 7,205,877 | How to Improve Rebound Attacks | {'venue': 'In: Advances in Crypology: CRYPTO 2011. Lecture Notes in Computer Science', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 7,936 |
Det djupa konvolutionella neurala nätverket (CNN) är den toppmoderna lösningen för storskalig visuell igenkänning. Efter några grundläggande principer som att öka nätdjupet och bygga motorvägsanslutningar, har forskare manuellt utformat en hel del fasta nätverksarkitekturer och verifierat deras effektivitet. I detta dokument diskuterar vi möjligheten att lära sig de djupa nätverksstrukturerna automatiskt. Observera att antalet möjliga nätverksstrukturer ökar exponentiellt med antalet lager i nätverket, vilket motiverar oss att anta den genetiska algoritmen för att effektivt utforska detta stora sökområde. Kärnidén är att föreslå en kodningsmetod för att representera varje nätverksstruktur i en binär sträng med fast längd. Den genetiska algoritmen initieras genom att generera en uppsättning randomiserade individer. I varje generation definierar vi standardgenetiska operationer, t.ex. urval, mutation och crossover, för att generera konkurrenskraftiga individer och eliminera svaga. Varje individs konkurrenskraft definieras som dess igenkänningsnoggrannhet, som erhålls genom en fristående utbildningsprocess på ett referensdataset. Vi kör den genetiska processen på CIFAR10, en småskalig datauppsättning, visar sin förmåga att hitta högkvalitativa strukturer som är lite studerade tidigare. De lärda kraftfulla strukturerna kan också överföras till ILSVRC2012-datasetet för storskalig visuell igenkänning. Det är värt att betona att den genetiska algoritmen är beräknings dyrt, eftersom vi måste genomgå en komplett nätverk utbildningsprocess för varje genererad individ. Vi antar strategin för att köra den genetiska processen på en liten datauppsättning (CIFAR10), där vi observerar förmågan hos den genetiska algoritmen att hitta effektiva nätverksstrukturer, och sedan överföra de inlärda topprankade strukturerna för att utföra storskalig visuell igenkänning. De lärda strukturerna, av vilka de flesta har varit mindre studerade tidigare, presterar ofta bättre än de manuellt utformade i antingen småskaliga eller storskaliga experiment. Resten av detta dokument är organiserat enligt följande. I avsnitt 2 presenteras kortfattat relaterade arbeten. Avsnitt 3 visar hur man använder den genetiska algoritmen för att utforma nätverksstrukturer. Experiment visas i avsnitt 4 och slutsatser dras i avsnitt 5. | Xie och Al. REF kodade arkitekturen för varje DCNN i en binär sträng med fast längd, och föreslog därför en genetisk DCNN (GDCNN) metod för att generera DCNN arkitekturer automatiskt. | 206,770,867 | Genetic CNN | {'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']} | 7,937 |
Abstract-This paper undersöker kvantiseringsmetoder för att mata tillbaka kanalinformationen genom en låg-rate feedback-kanal i samband med multiple-input single-output (MISO) system. Vi föreslår ett nytt kvantizerdesignkriterium för kapacitetsmaximering och utvecklar motsvarande iterativ vektorquantization (VQ) designalgoritm. Kriteriet är baserat på maximering av medelvägd inre produkt (MSwIP) mellan den optimala och den kvantiserade strålformningsvektorn. Prestandan hos system med kvantiserad strålformning analyseras för det självständiga blekningsfallet. Detta kräver att man hittar densiteten av den squared inre produkten mellan den optimala och den kvantiserade strålformande vektorn, som erhålls genom att överväga en enkel approximation av kvantiseringscellen. Den ungefärliga densitetsfunktionen används för att minska kapacitetsförlusten på grund av kvantisering, avbrottsannolikheten, och bitfelsannolikheten. De resulterande uttrycken ger insikt i beroendet av utförandet av sändningsstrålkastande MISO-system på antalet sändningsantenner och återkopplingshastighet. Datorsimuleringar stöder analysresultaten och indikerar att de nedre gränserna är ganska snäva. Index Villkor-Bit felsannolikhet, kanalkapacitet, kanaltillstånd information, flera antenner, sända strålformning, avbrottsannolikhet, vektorquantization (VQ). | Författarna till REF föreslår att man maximerar den genomsnittliga viktade inre produkten mellan kanalvektorn och den kvantiserade vektorn, vilket visar sig leda till en sluten formdesignalgoritm som producerar kodböcker som enligt uppgift beter sig väl även för korrelerade kanalvektorer. | 2,151,930 | Transmit beamforming in multiple-antenna systems with finite rate feedback: a VQ-based approach | {'venue': 'IEEE Transactions on Information Theory', 'journal': 'IEEE Transactions on Information Theory', 'mag_field_of_study': ['Computer Science']} | 7,938 |
K-Means algoritm för klusteranalys är en av de mest inflytelserika och populära datautvinningsmetoderna. Dess enkla parallella formulering är väl lämpad för distribuerade minnessystem med tillförlitliga sammankopplingsnätverk, såsom massivt parallella processorer och kluster av arbetsstationer. I storskaliga geografiskt distribuerade system kan dock den enkla parallella algoritmen göras oanvändbar genom ett enda kommunikationsfel eller hög latens i kommunikationsvägar. Bristen på skalbara och feltoleranta globala kommunikations- och synkroniseringsmetoder i storskaliga system har hindrat antagandet av KMeans-algoritmen för tillämpningar i stora nätverksbaserade system som trådlösa sensornätverk, peer-to-peer-system och mobila ad hoc-nätverk. Detta arbete föreslår en helt distribuerad K-Means algoritm (Epidemic K-Means) som inte kräver global kommunikation och är i sig feltolerant. Den föreslagna distribuerade K-Means-algoritmen ger en klusterlösning som kan approximera lösningen av en idealisk centraliserad algoritm över aggregerade data så nära som önskas. En jämförande prestandaanalys görs mot de senaste provtagningsmetoderna och visar att den föreslagna metoden övervinner begränsningarna i de provtagningsbaserade metoderna för skeva klusterdistributioner. Den experimentella analysen bekräftar att den föreslagna algoritmen är mycket exakt och feltolerant under otillförlitliga nätverksförhållanden (meddelandeförlust och nodfel) och är lämplig för asynkrona nätverk av mycket stor och extrem skala. | Fatta m.fl. utformad en feltolerant epidemisk kluster algoritm som inte kräver global kommunikation REF. | 12,879,774 | Fault tolerant decentralised K-Means clustering for asynchronous large-scale networks | {'venue': 'J. Parallel Distributed Comput.', 'journal': 'J. Parallel Distributed Comput.', 'mag_field_of_study': ['Computer Science']} | 7,939 |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.