src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
Online-teknik för sociala nätverk gör det möjligt för enskilda personer att samtidigt dela information med ett antal jämlikar. En kvantifiering av dessa mediers orsakseffekt på informationsspridningen kräver inte bara identifiering av vem som påverkar vem, utan även om enskilda personer fortfarande skulle sprida information i avsaknad av sociala signaler om denna information. Vi undersöker de sociala nätverkens roll i informationsspridning online med ett storskaligt fältexperiment som randomiserar exponering för signaler om vänners informationsutbyte mellan 253 miljoner ämnen på plats. De som exponeras är betydligt mer benägna att sprida information, och gör det tidigare än de som inte exponeras. Vi undersöker vidare den relativa roll som starka och svaga band spelar för informationsspridningen. Vi visar att även om starkare band är individuellt mer inflytelserika, är det de mer rikliga svaga banden som är ansvariga för spridningen av ny information. Detta tyder på att svaga band kan spela en mer dominerande roll i spridningen av information på nätet än vad man för närvarande tror.
Ett framträdande inslag i informationsspridningen är sambandet mellan antalet vänner som ägnar sig åt att sprida information och sannolikheten att anta informationen REF.
12,734,918
The Role of Social Networks in Information Diffusion
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Physics']}
1,229
Abstract-Fully autonoma fordon (AV), dvs. AV med autonomi nivå 5, förväntas dominera vägtransporter i den nära framtiden och bidra med biljoner dollar till den globala ekonomin. Den allmänna allmänheten, statliga organisationer och tillverkare alla har betydande oro när det gäller motståndskraft och säkerhetsstandarder för det autonoma körsystemet (ADS) AVS. I detta arbete föreslog och utvecklade vi (a) "Kayotee" -ett felinjektionsbaserat verktyg för att systematiskt injicera fel i programvara och hårdvarukomponenter i ADS för att bedöma säkerheten och tillförlitligheten hos AV:er på fel och fel, och (b) en ontologimodell för att karakterisera fel och säkerhetsöverträdelser som påverkar AV:s tillförlitlighet och säkerhet. Kayotee kan karakterisera felutbredning och resiliens på olika nivåer -a) hårdvara, b) programvara, c) fordonsdynamik och d) trafikresiliens. Vi använde Kayotee för att studera en egenutvecklad ADS-teknik byggd av Nvidia corporation och använder för närvarande Kayotee till andra open-source ADS-system. Säkerhet och tillförlitlighet hos autonoma fordon är en viktig fråga för alla berörda parter. Vårt tidigare arbete [1] kännetecknade en California Department of Motor Vehicles (DMV) datauppsättning på rapporterade AV vägtester och visade att så många som 36% av urkopplingar orsakades av datorsystemproblem och 64% berodde på maskininlärningsproblem. AV-forskningen har traditionellt fokuserat på att förbättra maskininlärning och artificiell intelligens. Eftersom dessa modeller används i stor skala på datorplattformar är fokus dock att bedöma motståndskraften och säkerhetsegenskaperna hos den beräkningsstacken som driver AV. Effekterna av fel och fel i hårdvaran (GPU, processorer och andra processenheter) som kör AV programvara stacken är inte väl förstådd. Nyligen utfört arbete [2]-[5] fokuserar uteslutande på de djupa neurala nätverkens (DNN:er) motståndskraft mot maskinvarufel och fel utan att redovisa den inneboende resiliensen i programvarustacken. [6], [7] studera säkerheten hos AV genom att injicera sensorrelaterade permanenta fel som Gaussian brus, ocklusion, etc. till offentligt tillgängligt autonomt körsystem (t.ex. CARLA [8] och Open Pilot [9]). Dessa autonoma drivsystem (ADS) är dock alltför enkla med få sensorer och är inte representativa för en produktionsADS. Dessutom har sådana studier begränsad omfattning eftersom de inte kan karakterisera felmaskering och spridning av transienta och permanenta fel i ADS. Vi tror att vårt arbete är det första som studerar effekterna av övergående fel, intermittenta fel och permanenta fel (med vissa begränsningar) på AV säkerhet och tillförlitlighet.
Flera senaste arbeten försöker bedöma säkerheten i neurala nätverk, särskilt riktade autonoma körsystem REF.
54,088,143
Kayotee: A Fault Injection-based System to Assess the Safety and Reliability of Autonomous Vehicles to Faults and Errors
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
1,230
I databasen har arbetet med informationsutvinning (IE) kretsat kring två teman: hur man effektivt hanterar IE-uppgifter och hur man hanterar osäkerheter som uppstår i IE-processen på ett skalbart sätt. Det senaste arbetet har föreslagit en probabilistisk databas (PDB) baserad förklarande IE-system som stöder en ledande statistisk IE-modell, och en tillhörande inference algoritm för att svara top-k-stil frågor över den probabilistiska IE resultat. Ändå är det vidare problemet med att effektivt stödja allmän probabilistisk slutsats inom ett PDB-baserat deklarativt IE-system fortfarande öppet. I detta dokument utforskar vi implementationerna i databasen av en mängd olika inferencealgoritmer som lämpar sig för IE, inklusive två Markov-kedja Monte Carlo-algoritmer, Viterbi och totalproduktalgoritmer. Vi beskriver reglerna för att välja lämpliga inferensalgoritmer baserat på modellen, frågan och texten, med hänsyn till avvägningen mellan noggrannhet och körtid. Baserat på dessa regler beskriver vi en hybridmetod för att optimera genomförandet av en enda probabilistisk IE-fråga för att använda olika inferensalgoritmer som är lämpliga för olika poster. Vi visar att våra tekniker kan uppnå upp till 10-faldiga hastigheter jämfört med de icke-hybridlösningar som föreslås i litteraturen.
I REF presenterar författarna tekniker för att optimera inferensalgoritmer i en probabilistisk DBMS.
13,109,993
Hybrid in-database inference for declarative information extraction
{'venue': "SIGMOD '11", 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,231
Abstract-Förmågan att exakt förutsäga trafikhastigheten i ett stort och heterogent vägnät har många användbara tillämpningar, såsom ruttvägledning och undvikande av överbelastning. I princip kan datadrivna metoder, såsom stödvektorregression (SVR), förutsäga trafik med hög noggrannhet eftersom trafiken tenderar att uppvisa regelbundna mönster över tiden. I praktiken kan dock förutsägelsens prestanda variera avsevärt mellan nätverken och under olika tidsperioder. Insikt i dessa spatiotemporala trender kan förbättra prestandan hos intelligenta transportsystem. Traditionella förutsägelser felåtgärder, såsom det genomsnittliga absoluta procentfelet, ger information om de enskilda länkarna i nätverket men fångar inte globala trender. Vi föreslår oövervakade inlärningsmetoder, såsom k-means klustring, huvudkomponentanalys, och självorganiserande kartor, till min spatiotemporala prestandatrender på nätverksnivå och för individuella länkar. Vi utför förutsägelser för ett stort sammankopplat vägnät och för flera förutsägelsehorisonter med en SVR-baserad algoritm. Vi visar effektiviteten hos de föreslagna metoderna för prestandaanalys genom att tillämpa dem på SVR:s förutsägelsedata. Index Villkor-Stor skala nätverksförutsägelse, spatiotemporala feltrender.
Asif föreslog en oövervakad inlärningsmetoder för att härleda spatiotemporala mönster i en storskalig trafik hastighetsförutsägelse REF.
9,044,957
Spatiotemporal Patterns in Large-Scale Traffic Speed Prediction
{'venue': 'IEEE Transactions on Intelligent Transportation Systems', 'journal': 'IEEE Transactions on Intelligent Transportation Systems', 'mag_field_of_study': ['Computer Science']}
1,232
Nuförtiden upplever vi ett överflöd av Internetof-Things (IoT) middleware lösningar som ger anslutning för sensorer och ställdon till Internet. För att få ett brett antagande, dessa middleware lösningar, kallas plattformar, måste uppfylla förväntningarna hos olika aktörer i IoT ekosystemet, inklusive leverantörer av enheter, programutvecklare, och slutanvändare, bland annat. I den här artikeln utvärderar vi ett representativt urval av dessa plattformar, både egenutvecklade och öppna, på grundval av deras förmåga att uppfylla ekosystemets förväntningar. Utvärderingen kompletteras av en gapanalys av det nuvarande IoT-landskapet med avseende på i) stödet av heterogen hårdvara, ii) kapaciteten hos plattformen för datahantering, iii) stödet från programutvecklare, iv) de olika plattformarnas extensibilitet för bildandet av ekosystem, samt v) tillgången till särskilda marknadsplatser för sakernas internet. Syftet med gapanalysen är att belysa bristerna i dagens lösningar för att förbättra deras integration i morgondagens ekosystem. Baserat på resultatet av analysen avslutar vi denna artikel med en lista med rekommendationer för att utöka dessa IoT-plattformar för att fylla i luckorna.
REF tillhandahåller en gapanalys av de välkända IoT-plattformarna.
5,458,277
A gap analysis of Internet-of-Things platforms
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
1,233
I denna uppsats studerar vi nya neurala nätverk strukturer för att bättre modellera långsiktigt beroende i sekventiella data. Vi föreslår att fler minnesenheter används för att hålla reda på mer tidigare tillstånd i återkommande neurala nätverk (RNN), som alla regelbundet matas till de dolda skikten som återkoppling genom olika viktade vägar. Genom att utöka den populära återkommande strukturen i RNN ger vi modellerna bättre korttidsminnesmekanism för att lära sig långsiktigt beroende i sekvenser. Analogt med digitala filter i signalbehandling kallar vi dessa strukturer för högre order RNNs (HORNNs). Liksom RNNs, kan HORNNs också läras med hjälp av back-förökning genom tid metod. HORNN är i allmänhet tillämpliga på en mängd olika sekvensmodelleringsuppgifter. I detta arbete har vi undersökt HORNNs för språkmodellering uppgiften med hjälp av två populära datamängder, nämligen Penn Treebank (PTB) och engelska text8 datamängder. Experimentella resultat har visat att de föreslagna HORNN-värdena ger den senaste prestandan på båda datamängderna, vilket är betydligt bättre än de vanliga RNN-värdena och de populära LSTM-värdena.
I högre ordning RNNs föreslås av REF, fler minnesenheter används för att registrera fler tidigare tillstånd, som alla regelbundet matas till de dolda skikten som återkopplingar genom olika viktade vägar.
15,389,911
Higher Order Recurrent Neural Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
1,234
Abstract-In SOA applikationer byggs från enskilda tjänster som erbjuds av olika leverantörer. Vanligtvis består en ansökan av flera sådana tjänster som vanligtvis härrör från olika leverantörer och som leder till frågan om vilka tjänster som ska väljas ut och komponeras. Vi presenterar det nya begreppet kompositionskontext tillsammans med en ny servicevalsalgoritm. Metoden har utvärderats i vår testbädd och visar god skalbarhet.
I REF presenteras det nya begreppet kompositionskontext tillsammans med en ny algoritm för tjänsteval.
2,973,591
A Backwards Composition Context Based Service Selection Approach for Service Composition
{'venue': '2009 IEEE International Conference on Services Computing', 'journal': '2009 IEEE International Conference on Services Computing', 'mag_field_of_study': ['Computer Science']}
1,235
Vi undersöker användningen av spekulativt språk i MEDLINE abstracts. Resultaten från ett manuellt notationsexperiment tyder på att begreppet spekulativt straff på ett tillförlitligt sätt kan kommenteras av människor. Dessutom tyder ett experiment med automatiserade metoder också på att tillförlitliga automatiserade metoder också kan utvecklas. Distributionsobservationer presenteras också samt en diskussion om möjliga användningsområden för ett system som kan känna igen spekulativt språk.
REF analyserar användningen av spekulativt språk i MEDLINE abstacts.
10,761,611
The Language Of Bioscience: Facts, Speculations, And Statements In Between
{'venue': 'Workshop On Linking Biological Literature, Ontologies And Databases', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,236
Kompositionsbarriärfunktioner föreslås i detta dokument för att systematiskt komponera flera mål för grupper av mobila robotar. Målen är först kodade som barriärfunktioner och sedan sammansatta med hjälp av AND och OR logiska operatörer. Fördelen med detta tillvägagångssätt är att sammansättningsbarriärfunktioner kan garantera att alla sammansatta mål samtidigt uppfylls. De sammansatta barriärfunktionerna tillämpas på exemplet med att säkerställa kollisionsundvikande och statisk/dynamisk grafanslutning av grupper av mobila robotar. De resulterande kompositsäkerhets- och konnektivitetsbarriärcertifikaten verifieras experimentellt på ett team av fyra mobila robotar.
I REF används sammansättningsbarriärfunktioner för att garantera att sammansatta mål samtidigt uppfylls.
8,655,146
Multi-objective compositions for collision-free connectivity maintenance in teams of mobile robots
{'venue': '2016 IEEE 55th Conference on Decision and Control (CDC)', 'journal': '2016 IEEE 55th Conference on Decision and Control (CDC)', 'mag_field_of_study': ['Computer Science', 'Engineering', 'Mathematics']}
1,237
Abstract-Vi anser att problemet med att leverera innehåll cachad i ett trådlöst nätverk av noder slumpmässigt beläget på en kvadrat av område. Nätverksprestandan beskrivs av det trådlösa nätverkets -dimensionella cachingkapacitetsregion. Vi tillhandahåller en inre gräns på denna caching kapacitet region, och i den höga väg-förlust regim, en matchning (i skalnings bemärkelse) yttre gräns. För stora väg-förlust exponenten, ger detta en informationsteoretisk skalning karakterisering av hela cache kapacitet regionen. Det föreslagna kommunikationssystemet som uppnår den inre gränsen visar att problemen med val av cache och kanalkodning kan lösas separat utan förlust av ordningsoptimalitet. Å andra sidan visar våra resultat att den gemensamma arkitekturen för val av närmaste grannes cache kan vara godtyckligt dålig, vilket innebär att val av cache och lastbalansering måste utföras gemensamt.
De belastningsbalanserande fördelarna med caching i ad-hoc trådlösa nätverk undersöks i REF.
63,739,285
Caching in Wireless Networks
{'venue': 'IEEE Transactions on Information Theory', 'journal': 'IEEE Transactions on Information Theory', 'mag_field_of_study': ['Computer Science']}
1,238
Erfarenheten har visat att dålig strategi eller dålig taktik som används vid planering av ett programvaruprojekt påverkar produktens slutliga kvalitet, även när hela utvecklingsprocessen genomförs med en kvalitetsstrategi. I detta dokument behandlas kvalitetsattribut för strategin och taktiken i programvaruprojektplanen som bör finnas på plats för att leverera en bra programvaruprodukt. Den presenterar ett första arbete där en uppsättning nödvändiga kvalitetsattribut identifieras för att utvärdera kvaliteten på strategin och taktiken i programvaruprojektplanen, baserat på Business Motivation Model (BMM) och de kvalitetsattribut som finns i ISO 9126-standarden om programvaruproduktkvalitet.
I ett mycket bredare programvaruutvecklingssammanhang, Kherrai et al. REF diskuterar behovet av att använda en uppsättning kvalitetsattribut från ISO 9126 [54] och betonar behovet av att göra detta för strategin och taktiken i programvaruprojektplanen.
10,057,405
The Need to Evaluate Strategy and Tactics before the Software Development Process Begins
{'venue': 'JSEA', 'journal': 'JSEA', 'mag_field_of_study': ['Computer Science']}
1,239
Abstract-I detta papper, studerar vi det utmanande problemet med att kategorisera videor enligt hög nivå semantik såsom förekomsten av en viss mänsklig handling eller en komplex händelse. Även om omfattande insatser har ägnats under de senaste åren, de flesta befintliga verk kombinerade flera videofunktioner med hjälp av enkla fusionsstrategier och försummade utnyttjandet av inter-klass semantiska relationer. I detta dokument föreslås ett nytt enhetligt ramverk som gemensamt utnyttjar funktionsförhållandena och klassrelationerna för förbättrad kategorisering. Specifikt, dessa två typer av relationer uppskattas och utnyttjas genom strikt införande legaliseringar i inlärningsprocessen av ett djupt neuralt nätverk (DNN). En sådan legaliserad DNN (rDNN) kan effektivt realiseras med hjälp av en GPU-baserad implementation med en prisvärd utbildningskostnad. Genom att beväpna DNN med bättre kapacitet att utnyttja både funktionen och klassrelationerna är den föreslagna rDNN mer lämplig för modellering av videosemantik. Med omfattande experimentella utvärderingar visar vi att rDNN producerar överlägsen prestanda över flera toppmoderna metoder. På de välkända riktmärkena Hollywood2 och Columbia Consumer Video får vi mycket konkurrenskraftiga resultat: 66,9% respektive 73,5% i termer av genomsnittlig genomsnittlig precision. Dessutom, för att väsentligt utvärdera vår rDNN och stimulera framtida forskning om storskalig video kategorisering, samlar vi in och släpper en ny benchmarking dataset, kallad FCVID, som innehåller 91.223 Internet-videor och 239 manuellt kommenterade kategorier.
En legalisering för funktion/klassrelationer REF använder både regulariseringarna för att träna fusionslagren; varje regularisering utforskar både inter-feature och inter-class relationer och ger ett förbättrat igenkänningsresultat.
3,485,252
Exploiting Feature and Class Relationships in Video Categorization with Regularized Deep Neural Networks
{'venue': 'IEEE TPAMI 40.2 (2018): 352-364', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Medicine']}
1,240
Den grundläggande principen bakom komprimerad avkänning är att en signal, som är gles under någon grund representation, kan återvinnas från ett litet antal linjära mätningar. Förkunskaper om sparsamhetsgrunden är dock av avgörande betydelse för återhämtningsprocessen. Genom detta arbete introduceras begreppet blind komprimerad avkänning, vilket undviker behovet av att känna till sparsamhetsgrunden i både provtagnings- och återvinningsprocessen. Vi föreslår tre möjliga begränsningar på gleshetsbasis som kan läggas till problemet för att garantera en unik lösning. För varje begränsning, visar vi förutsättningar för unikhet, och föreslår en enkel metod för att hämta lösningen. Vi demonstrerar genom simuleringar att våra metoder kan uppnå resultat som liknar dem för standard komprimerad avkänning, som bygger på förkunskaper om sparsamhet, så länge signalerna är sparsamma nog. Detta erbjuder ett allmänt provtagnings- och återuppbyggnadssystem som passar alla glesa signaler, oavsett sparsamhet, under de förhållanden och begränsningar som presenteras i detta arbete.
Återvinning baserade DL-metoder bygger i huvudsak på begreppen blind komprimerad avkänning REF.
2,024,103
Blind Compressed Sensing
{'venue': 'IEEE Transactions on Information Theory', 'journal': 'IEEE Transactions on Information Theory', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
1,241
För närvarande kräver konstruktion av konvolutionella neurala nätverk (CNN) arkitekturer både mänsklig expertis och arbetskraft. Nya arkitekturer tillverkas hantverksmässigt genom noggranna experiment eller modifieras från en handfull befintliga nätverk. Vi föreslår en meta-modelleringsmetod baserad på förstärkningslärande för att automatiskt generera högpresterande CNN-arkitekturer för en given inlärningsuppgift. Lärande agenten tränas att sekventiellt välja CNN lager med Q-learning med arg prospektering strategi och erfarenhet replay. Agenten utforskar ett stort men ändligt utrymme av möjliga arkitekturer och upptäcker iterativt design med förbättrad prestanda på inlärningsuppgiften. När det gäller riktmärken för bildklassificering slår de agentdesignade nätverken (som endast består av standardkonvolution, poolning och fullt anslutna skikt) befintliga nätverk som är utformade med samma skikttyper och är konkurrenskraftiga mot de toppmoderna metoder som använder mer komplexa lagertyper. Vi överträffar också befintliga metamodelleringsmetoder för nätverksdesign på bildklassificeringsuppgifter.
Baker m.fl. REF använde RL för att sekventiellt välja CNN-skikt.
1,740,355
Designing Neural Network Architectures using Reinforcement Learning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
1,242
: Användaren definierar en upplyftskarta som anger en simuleringsdomän och den hastighet med vilken bergen växer. Den kombinerade effekten av upplyftning och hydraulisk erosion simuleras på en vektor representation av denna karta. Den senare omvandlas slutligen till en digital terrängmodell som överensstämmer med globala geomorfologiska processer. I stor skala är landskapen en följd av kombinationen av två stora processer: tektonik som genererar den största reliefen genom upplyftning av skorpan och väder som orsakar erosion. Detta papper presenterar den första metoden i datorgrafik som kombinerar upplyftning och hydraulisk erosion för att generera visuellt rimliga terränger. Med tanke på en användarmålad upplyftskarta skapar vi en strömkurva över hela domänen som inbäddar höjdinformation och strömflöde. Vår strategi bygger på strömkraftekvationen som infördes i geologin för hydraulisk erosion. Genom att kombinera crust uplift och strömkraft erosion genererar vi stora realistiska terränger till en låg beräkningskostnad. Slutligen konverterar vi grafen till en digital höjdmodell genom att blanda landformskärnor vars parametrar härleds från informationen i grafen. Vår metod ger hög kontroll över de storskaliga dendritiska strukturerna i de resulterande flodnätverken, vattendelarna och bergsryggarna.
Cordonnier m.fl. REF presenterade en metod som kombinerar tektonisk upplyftning och hydraulisk erosion för att uppnå realistiska terränger.
11,619,253
Large Scale Terrain Generation from Tectonic Uplift and Fluvial Erosion
{'venue': 'Comput. Graph. Forum', 'journal': 'Comput. Graph. Forum', 'mag_field_of_study': ['Computer Science']}
1,243
Medan minnet av de flesta maskiner är organiserat som en hierarki, programdata läggs ut i ett enhetligt adressutrymme. I detta dokument definieras en modell för referensaffinitet, som mäter hur nära en grupp av data nås tillsammans i ett referensspår. Det bevisar att modellen ger en hierarkisk partition av programdata. Högst upp är uppsättningen av alla data med den svagaste affiniteten. Längst ner finns varje dataelement med den starkaste affiniteten. Baserat på den teoretiska modellen presenterar tidningen k-distansanalys, ett praktiskt test för den hierarkiska affiniteten hos källnivådata. Vid användning för matrisomgruppering och strukturdelning överträffar k-distansanalys konsekvent dataorganisationer som ges av programmeraren, kompilatoranalys, frekvensprofilering, statistisk klusterbildning och alla andra metoder som vi har provat.
Zhong m.fl. definierad referensaffinitet och använt en heuristisk kallas k-distansanalys i strukturdelning och array omgruppering REF.
6,253,791
Array regrouping and structure splitting using whole-program reference affinity
{'venue': "PLDI '04", 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,244
Vi föreslår en oövervakad segmenteringsmetod baserad på ett antagande om språkdata: att den ökande punkten för entropi av på varandra följande tecken är platsen för en ordgräns. Ett storskaligt experiment utfördes med hjälp av 200 MB osegmenterade träningsdata och 1 MB testdata, och precision på 90 % uppnåddes med ett återkallande på cirka 80 %. Dessutom fann vi att precisionen var stabil på cirka 90% oberoende av storleken på inlärningsdata.
Jin och Tanaka-Ishii REF föreslår en oövervakad ordsegmenteringsalgoritm som baseras på entropi av på varandra följande tecken vid ordgränser.
13,325,500
Unsupervised Segmentation Of Chinese Text By Use Of Branching Entropy
{'venue': 'International Conference On Computational Linguistics And Annual Meeting Of The Association For Computational Linguistics - Poster Sessions', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,245
En av de senaste trenderna [31, 32, 14] inom nätverksarkitekturen är att stapla små filter (t.ex. 1x1 eller 3x3) i hela nätverket eftersom de staplade små filtren är effektivare än en stor kärna, med tanke på samma komplexa beräkning. Men när det gäller semantisk segmentering, där vi måste utföra tät perpixelförutsägelse, finner vi att den stora kärnan (och effektivt mottagligt fält) spelar en viktig roll när vi måste utföra klassificerings- och lokaliseringsuppgifter samtidigt. I enlighet med vår designprincip föreslår vi ett globalt konvolutionsnätverk för att ta itu med både klassificerings- och lokaliseringsfrågor för den semantiska segmenteringen. Vi föreslår också en restbaserad gränsförfining för att ytterligare förfina objektgränserna. Vår strategi uppnår state-of-art prestanda på två offentliga riktmärken och betydligt överträffar tidigare resultat, 82,2 % (vs 80,2 %) på PASCAL VOC 2012 dataset och 76,9 % (vs 71,8 %) på Cityscapes dataset.
GCN REF använder stora konvolutionskärnor och effektiva mottagliga fält för att ta itu med klassificerings- och lokaliseringsfrågor för semantisk segmentering.
8,238,530
Large Kernel Matters — Improve Semantic Segmentation by Global Convolutional Network
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
1,246
En exakt karakterisering av dessa säkerhetsprinciper som kan verkställas genom program omskrivning ges. Detta avslöjar och korrigerar också problem i tidigare arbete, vilket ger en bättre karakterisering av dessa säkerhetsstrategier som kan verkställas av exekutionsövervakare samt en taxonomi av verkställbara säkerhetsstrategier. Vissa men inte alla klasser kan identifieras med kända klasser från beräkningskomplex teori. Tillstånd att göra digitala eller hårda kopior av delar eller allt detta arbete för personligt bruk eller klassrum beviljas utan avgift under förutsättning att kopior inte görs eller distribueras för vinst eller direkt kommersiell fördel och att kopior visar detta meddelande på första sidan eller första skärmen av en skärm tillsammans med den fullständiga citering. Upphovsrätt till delar av detta verk som ägs av andra än ACM måste hedras. Abstraktering med kredit är tillåten. För att kopiera på annat sätt, för att återpublicera, för att posta på servrar, för att omfördela till listor, eller för att använda någon komponent i detta verk i andra verk krävs förhandsgodkännande och/eller avgift. Tillstånd kan begäras från publikationsavdelningen, ACM, Inc., 1515 Broadway, New York, NY 10036 USA, fax: +1 (212) 869-0481, eller behö[email protected]. Omfattande system, såsom webbläsare, som laddar ner och kör applet-program, eller operativsystem, som innehåller drivrutiner för nya enheter, måste se till att deras förlängningar beter sig på ett sätt som överensstämmer med avsikterna hos systemdesignern och dess användare. När oacceptabla beteende går okontrollerat, skador kan resultera-inte bara till systemet själv utan också till anslutna system. Mekanismer för säkerhetstillsyn används för att förhindra oacceptabelt beteende. På senare tid har uppmärksamheten riktats mot att formellt karakterisera olika typer av tillsynsmekanismer och identifiera de klasser av säkerhetspolitik som de kan tillämpa [Ligatti et al. 2003; Schneider 2000; Viswanathan 2000 ]. Detta arbete gör det möjligt för oss att bedöma kraften hos olika mekanismer, välja mekanismer som är väl lämpade för särskilda säkerhetsbehov, identifiera typer av attacker som fortfarande kan lyckas även efter det att en viss mekanism har införts, och få meningsfulla fullständighetsresultat för nyligen utvecklade mekanismer. Den abstrakta modell för säkerhetspolitik som utarbetats av Schneider [2000] och förfinats av Viswanathan [2000] kännetecknar en kategori av politik som syftar till att fånga upp vad som effektivt skulle kunna genomdrivas genom övervakning av genomförandet. Avrättning övervakare är verkställighetsmekanismer som arbetar genom att övervaka de beräkningssteg av opålitliga program och ingripa när genomförandet är på väg att bryta säkerhetspolicyn som upprätthålls. Avrättningskontroll kan dock ses som ett exempel på den mer allmänna tekniken med programredigering, där verkställighetsmekanismen omvandlar opålitliga program innan de utförs för att göra dem oförmögna att bryta mot den säkerhetspolitik som ska verkställas. Så vitt vi vet har ingen karakterisering av den klass av säkerhetspolicyer som kan verkställas genom programredigering utvecklats. Sedan många system [Deutsch and Grant 1971; Small 1997; Wahbe et al. 1993; Schneider 2000a, 2000b; Evans och Twynman 1999] använder programredigering på sätt som går utöver vad som kan modelleras som en exekveringsövervakare, en karakterisering av den kategori av policyer som kan verkställas av programreskrivare skulle vara användbar. Så vi här utökar Schneiders och Viswanathans modell för att karakterisera denna nya klass av policys, RWenforceable policys, som motsvarar vad som effektivt kan genomdrivas genom program-rewriting. Avrättning övervakning kan ses som en instans av program-rewriting, så man skulle förvänta sig klass EM orig av politik som kännetecknas av Schneider och Viswanathan att vara en underklass av RW-genomförbar politik. Vi visar dock att detta förvånansvärt nog inte är fallet. Det finns vissa policyer i EM orig som inte är verkställbara av någon programredigerare. Vår analys av denna politik visar att de faktiskt inte kan verkställas av en avrättningsövervakare heller, och avslöjar att EM orig faktiskt utgör en övre gräns för den policyklass som kan verkställas av exekutionsövervakare i stället för en exakt gräns, som man tidigare trott. Vi visar sedan att det faktum att EM-orig skärs samman med RW-genomförbar politik ger exakt den politik som faktiskt kan genomföras av en verkställande övervakare, den EM-genomförbara politiken. Vi fortsätter på följande sätt. Vi fastställer en formell modell för säkerhetstillsyn i avsnitt 2. Nästa, i Avsnitt 3 använder vi den modellen för att karakterisera och relatera
Dessutom visade det att program omskrivning är en extremt kraftfull teknik som kan användas för att genomdriva egenskaper utöver dem som kan verkställas av exekutionsövervakare REF.
15,456,713
Computability classes for enforcement mechanisms
{'venue': 'TOPL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,247
Trots den förbättrade noggrannheten hos djupa neurala nätverk har upptäckten av kontradiktoriska exempel gett upphov till allvarliga säkerhetsproblem. De flesta befintliga metoder för att skapa kontradiktoriska exempel kräver viss kunskap (arkitektur, parametrar osv.) om det nätverk som finns. I detta dokument fokuserar vi på bildsorterare och föreslår en funktionsstyrd blackbox-strategi för att testa säkerheten hos djupa neurala nätverk som inte kräver någon sådan kunskap. Vår algoritm använder objekt detektion tekniker som SIFT (Scale Invariant Feature Transform) för att extrahera funktioner från en bild. Dessa funktioner omvandlas till en mutabel Saliency fördelning, där hög sannolikhet tilldelas pixlar som påverkar sammansättningen av bilden med avseende på det mänskliga visuella systemet. Vi formulerar skapandet av kontradiktoriska exempel som ett stokastiskt spel med två spelare, där den första spelarens mål är att minimera avståndet till ett kontradiktoriskt exempel genom att manipulera funktionerna, och den andra spelaren kan vara samarbetsvillig, kontraarisk eller slumpmässig. Vi visar att teoretiskt sett kan tvåspelarspelet konvergera till den optimala strategin, och att den optimala strategin representerar en globalt minimal negativ bild. För Lipschitz nätverk identifierar vi också villkor som ger säkerhet garantier för att det inte finns några kontradiktoriska exempel. Med hjälp av Monte Carlo trädsökning utforskar vi gradvis speltillståndsutrymmet för att söka efter kontradiktoriska exempel. Våra experiment visar att, trots svart-box-inställningen, manipulationer som styrs av en perception-baserad Saliency distribution är konkurrenskraftiga med state-of-the-art metoder som förlitar sig på vit-box saliency matriser eller sofistikerade optimeringsförfaranden. Slutligen visar vi hur vår metod kan användas för att utvärdera robustheten hos neurala nätverk i säkerhetskritiska applikationer som trafikteckenigenkänning i självkörande bilar.
Wicker m.fl. REF extraherade funktioner från bilder och beräknade kontradiktoriska exempel med hjälp av ett tvåspelarvänt stokastiskt spel.
3,404,328
Feature-Guided Black-Box Safety Testing of Deep Neural Networks
{'venue': 'Lecture Notes in Computer Science', 'journal': 'Lecture Notes in Computer Science', 'mag_field_of_study': ['Computer Science']}
1,248
Dimensionality Reduction (DR) drar till sig mer uppmärksamhet nu för tiden som ett resultat av det ökande behovet av att hantera enorma mängder data effektivt. DR-metoder gör det möjligt att minska antalet initiala funktioner avsevärt tills en uppsättning av dem hittas som gör det möjligt att bevara de ursprungliga egenskaperna hos uppgifterna. Användningen av dem medför dock en inneboende kvalitetsförlust som sannolikt kommer att påverka förståelsen av uppgifterna när det gäller dataanalys. Denna kvalitetsförlust kan vara avgörande när man väljer en DR-metod, på grund av varje metods karaktär. I detta dokument föreslår vi en metod som gör det möjligt att analysera och jämföra olika DR-metoder när det gäller kvalitetsförlusten som de producerar. Denna metod använder sig av konceptet att bevara geometrin (kriterier för kvalitetsbedömning) för att bedöma kvalitetsförlusten. Experiment har utförts med hjälp av de mest kända DR-algoritmerna och kvalitetsbedömningskriterierna, baserade på litteraturen. Dessa experiment har tillämpats på 12 verkliga datauppsättningar. De resultat som hittills uppnåtts visar att det är möjligt att fastställa en metod för att välja den lämpligaste DR-metoden, uttryckt som minsta kvalitetsförlust. Experiment har också visat på några intressanta samband mellan kriterierna för kvalitetsbedömning. Slutligen gör metoden det möjligt att på lämpligt sätt välja dimensionalitet för att minska data, samtidigt som den ger upphov till en lägsta kvalitetsförlust.
En metod för att jämföra DR-teknik i termer av kvalitetsförlust i syfte att bevara geometrin för datamängder har också föreslagits REF.
23,283,932
A methodology to compare Dimensionality Reduction algorithms in terms of loss of quality
{'venue': 'Inf. Sci.', 'journal': 'Inf. Sci.', 'mag_field_of_study': ['Computer Science']}
1,249
ABSTRACT Cloudlet är ett nytt paradigm inom mobila molntjänster för att tillhandahålla resurser till närliggande mobila användare via trådlösa en-hop-anslutningar. I detta dokument utnyttjar vi den sociala bindningsstrukturen bland mobila användare för att uppnå ömsesidigt fördelaktiga beräkningar utanför beslutsfattandet och därmed förbättra den systemomfattande prestandan. Med hjälp av en social grupp verktyg maximization (SGUM) ram, vi kastar användares beslut om huruvida att avlasta eller inte som en socialt medveten beräkning offloading spel (COG). Vi studerar den SGUM-baserade COG för både starka och svaga informationsfall. För det starka informationsfallet, där varje användare har kunskap om andra användares handlingar och den perfekta observationen av dess uppnådda sociala gruppnytta, visar vi att det finns en socialt medveten Nash-jämvikt (SNE). Vi utformar sedan en distribuerad algoritm för att uppnå SNE och kvantifiera dess prestandagap med avseende på den sociala optimala lösningen. För den svaga information fall, där varje användare inte har kännedom om andra användares åtgärder och observerar en buller-korrupted social grupp verktyg, utvecklar vi en distribuerad förstärkning lärande algoritm, som visas att konvergera nästan säkert till en -SNE. De numeriska resultaten visar att avlastningsprestandan kan förbättras avsevärt genom att utnyttja de sociala banden mellan användarna.
Tang och al. REF utformade ett socialt välbekant mobilnät och modellerade problemet med avlastning som en socialt medveten beräkningsavlastning.
21,159,576
When Social Network Meets Mobile Cloud: A Social Group Utility Approach for Optimizing Computation Offloading in Cloudlet
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
1,250
Resursavsättning i beräkningsmoln kräver ofta en uppskattning av kapacitetsbehoven för virtuella maskiner. Den uppskattade VM-storleken är grunden för att fördela resurser som står i proportion till efterfrågan. I motsats till den traditionella praxisen att uppskatta storleken på virtuella maskiner individuellt, föreslår vi en gemensam avsättningsmetod där flera virtuella maskiner konsolideras och tillhandahålls tillsammans, baserat på en uppskattning av deras sammanlagda kapacitetsbehov. Denna nya metod utnyttjar statistisk multiplexing bland arbetsbelastningsmönstren hos flera virtuella maskiner, dvs. topparna och dalarna i ett arbetsmönster sammanfaller inte nödvändigtvis med de andra. Således kan oanvända resurser för en lågutnyttjad VM lånas av de andra samlokaliserade virtuella maskiner med högt utnyttjande. Jämfört med individuell VM-baserad avsättning skulle gemensam VM-avsättning kunna leda till ett mycket högre resursutnyttjande. I detta dokument presenteras tre konstruktionsmoduler för att möjliggöra ett sådant koncept i praktiken. Särskilt en prestandabegränsning som beskriver kapacitetsbehoven hos en virtuell dator för att uppnå en viss nivå av applikationsprestanda; en algoritm för att uppskatta den sammanlagda storleken av multiplexade virtuella maskiner; en algoritm för val av virtuella maskiner som försöker hitta dessa kombinationer av virtuella maskiner med kompletterande arbetsbelastningsmönster. Vi visar upp att de föreslagna tre modulerna sömlöst kan anslutas till applikationer som resursavsättning och ge resursgarantier för virtuella maskiner. Den föreslagna metoden och tillämpningarna utvärderas med hjälp av prestandadata som samlas in från omkring 16 tusen virtuella maskiner i kommersiella datacenter. Resultaten visar på mer än 45 % förbättringar när det gäller det totala resursutnyttjandet.
Ett liknande tillvägagångssätt intas av Meng et al. REF, som föreslår ett gemensamt tillvägagångssätt för tillhandahållande av virtuella maskiner som, baserat på uppskattningar av de sammanlagda kraven på VM-kapacitet, fördelar och konsoliderar virtuella maskiner.
11,023,164
Efficient resource provisioning in compute clouds via VM multiplexing
{'venue': "ICAC '10", 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,251
Cloud computing leverantörer har inrättat flera datacenter på olika geografiska platser över Internet för att optimalt tillgodose behoven hos sina kunder runt om i världen. Befintliga system stöder dock inte mekanismer och policyer för dynamisk samordning av lastfördelning mellan olika molnbaserade datacenter för att fastställa optimal plats för hosting av applikationstjänster för att uppnå rimliga QoS-nivåer. Dessutom kan leverantörerna av molntjänster inte förutsäga geografisk distribution av användare som konsumerar sina tjänster, och därför måste belastningssamordningen ske automatiskt, och distributionen av tjänster måste förändras som svar på förändringar i belastningen. För att motverka detta problem förespråkar vi skapandet av federerad molndatamiljö (InterCloud) som underlättar just-in-time, opportunistisk och skalbar tillhandahållande av applikationstjänster, konsekvent uppnå QoS-mål under varierande arbetsbelastning, resurs- och nätverksförhållanden. Det övergripande målet är att skapa en datormiljö som stöder dynamisk expansion eller krympning av kapacitet (VM, tjänster, lagring och databas) för att hantera plötsliga variationer i servicekrav. I detta dokument presenteras visioner, utmaningar och arkitektoniska delar av InterCloud för verktygsorienterad federation av Cloud computing-miljöer. Den föreslagna InterCloud-miljön stöder skalning av applikationer över flera leverantörsmoln. Vi har validerat vår strategi genom att genomföra en rigorös utvärderingsstudie med hjälp av verktygslådan CloudSim. Resultaten visar att den federerade molndatamodellen har en enorm potential eftersom den erbjuder betydande resultatvinster när det gäller svarstid och kostnadsbesparingar under dynamiska arbetsbelastningsscenarier.
Syftet med en federerad molndatamiljö, t.ex. REF, är att "samordna lastfördelning mellan olika molnbaserade datacenter för att bestämma optimal plats för hosting applikationstjänster ".
14,755,515
InterCloud: Utility-Oriented Federation of Cloud Computing Environments for Scaling of Application Services
{'venue': 'Proceedings of the 10th International Conference on Algorithms and Architectures for Parallel Processing (ICA3PP 2010, Busan, South Korea, May 21-23, 2010), LNCS, Springer, Germany, 2010.', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,253
I en multi-etikett textklassificering uppgift, där flera etiketter kan tilldelas en text, etikett co-occurrence i sig är informativ. Vi föreslår en ny neural nätverk initialisering metod för att behandla några av neuronerna i det slutliga dolda lagret som dedikerade neuroner för varje mönster av etikett co-occurence. Dessa dedikerade neuroner initieras för att ansluta till motsvarande co-occurring etiketter med starkare vikter än andra. I experiment med ett naturligt språk frågeklassificering uppgift, vilket kräver multi-märkning klassificering, vår initieringsmetod förbättrade klassificeringsnoggrannhet utan några beräkningsmässiga overhead i utbildning och utvärdering.
REF utnyttjar märkningens samtidiga förekomst för att förbättra klassificeringen av flera märken.
6,437,046
Improved Neural Network-based Multi-label Classification with Better Initialization Leveraging Label Co-occurrence
{'venue': 'HLT-NAACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,254
Trådlösa sensornätverk (WSN) presenteras som en lämplig lösning för övervakning av skogsbränder. Denna tillämpning kräver dock en utformning av WSN med hänsyn till nätverkets livslängd och den skuggeffekt som träden genererar i skogsmiljön. Kooperativ kommunikation är en lovande lösning för WSN som vid varje humle använder resurser från flera noder för att överföra sina data. Genom att dela resurser mellan noderna förbättras därför överföringskvaliteten. I detta dokument använder vi tekniken för att förstärka lärande genom motståndare modellering, optimera ett samarbete kommunikationsprotokoll baserat på RSSI och nod energiförbrukning i ett konkurrenskraftigt sammanhang (RSSI/energy-CC), det vill säga ett energi-och kvalitet-of-service medvetna-baserade samarbetskommunikation routing protokoll. Simuleringsresultat visar att den föreslagna algoritmen fungerar bra när det gäller nätverkets livslängd, paketförsening och energiförbrukning.
I REF föreslår författarna ett routingprotokoll för övervakning av skogsbränder.
16,101,192
QoS and Energy Aware Cooperative Routing Protocol for Wildfire Monitoring Wireless Sensor Networks
{'venue': 'The Scientific World Journal', 'journal': 'The Scientific World Journal', 'mag_field_of_study': ['Medicine']}
1,255
Abstract-För att reagera på nödsituationer på ett snabbt och effektivt sätt, är det av avgörande betydelse att ha effektiva evakueringsplaner som leder till minimala trafikstockningar. Även om nödevakueringssystem har studerats tidigare, är de befintliga tillvägagångssätten, främst baserade på multiobjektiva optimeringar, inte tillräckligt skalbara när det rör sig om många tidsvariabla parametrar, såsom trafikvolym, säkerhetsstatus och väderförhållanden. I detta dokument föreslår vi en skalbar evakueringstjänst, kallad MacroServ, som rekommenderar evakueringar med de bästa rutterna mot säkra platser under en katastrof. Till skillnad från många befintliga metoder som modellerar system med statiska nätverksegenskaper, beaktar vår strategi vägförhållanden i realtid för att beräkna den maximala flödeskapaciteten för rutter i transportnätet. Evakueringarna är riktade mot de vägar som är säkra och som har minst trängsel vilket leder till minskad evakueringstid. Vi använde sannolikhetsfördelningar för att modellera de verkliga stokastiska beteendena hos evakuerade personer under nödsituationer. Resultaten visar att rekommendationen om lämpliga rutter under katastrofscenarier spelar en avgörande roll för en snabbare och säker evakuering av befolkningen.
Khan och Al. REF föreslog en skalbar evakueringstjänst, kallad MacroServ, som rekommenderar evakueringar med de bästa rutterna mot säkra platser i katastrofsituationer.
691,324
MacroServ: A Route Recommendation Service for Large-Scale Evacuations
{'venue': 'IEEE Transactions on Services Computing', 'journal': 'IEEE Transactions on Services Computing', 'mag_field_of_study': ['Computer Science']}
1,256
Abstrakt. Vi föreslår en ny kommunikationsstrategi inspirerad av tydliga signalmekanismer hos ryggradsdjur, för att förbättra prestandan hos självorganiserad flockning för en svärm av mobila robotar. Kommunikationsstrategin används för att få robotarna att matcha varandras rubriker. Robotarnas uppgift är att samordna arbetet mot en gemensam målriktning, som kan hålla sig fast eller förändras över tiden. Vi utför simuleringsbaserade experiment där vi utvärderar riktigheten av flockning med avseende på en given målriktning. I våra inställningar är det bara några av robotarna som informeras om målriktningen. Experiment genomförs i stationära och icke-stationära miljöer. I den stationära miljön förändras inte målriktningen och de informerade robotarna under försöket. I den icke-stationära miljön ändras målriktningen och de informerade robotarna över tid. I båda miljöerna skalas den föreslagna strategin väl med avseende på svärmens storlek och är robust när det gäller buller.
I REF föreslog vi en ny kommunikationsstrategi för riktningsanpassning som kallas ICS där informerade robotar kommunicerar målriktningen och de oinformerade robotarna skickar sina grannars genomsnittliga orientering.
329,021
Flocking in stationary and non-stationary environments: a novel communication strategy for heading alignment
{'venue': 'PPSN', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,257
Abstract-Wireless LANs bär en blandning av trafik, med olika fördröjning och genomströmningskrav. Det vanliga sättet att tillhandahålla lågförseningstjänster är att prioritera sådan trafik. Detta skapar dock ett incitament för genomströmningskänslig trafik att också använda denna tjänst, vilket försämrar den övergripande nätprestandan. Vi visar, analytiskt och genom simulering, att prestandan hos både fördröjnings- och genomströmningskänslig trafik kan förbättras genom att skala IEEE 802.11 CW min och TXOP gränsparametrar i lika proportion. Detta minskar, men eliminerar inte, incitamenten för användare av bulkdata att använda lågdelay-tjänsten. Vi visar vidare att detta incitament kan tas bort, samtidigt som det ger bättre prestanda till båda klasserna, genom att minska CW-min av den höga genomströmningsklassen med en konstant som är oberoende av trafikbelastningen.
Det system som föreslås i Ref förbättrar både fördröjning och genomströmning genom att öka gränsvärdena för CW min och TXOP.
10,345,503
Service Differentiation without Prioritization in IEEE 802.11 WLANs
{'venue': 'IEEE Transactions on Mobile Computing', 'journal': 'IEEE Transactions on Mobile Computing', 'mag_field_of_study': ['Computer Science']}
1,258
Abstract-Software mätning är en nyckelfaktor för att hantera, kontrollera och förbättra programvaruutvecklingsprocesserna. Programvarans kvalitet är en av de viktigaste faktorerna för att bedöma den globala konkurrenspositionen för alla mjukvaruföretag. Kvantifiering av kvalitetsparametrar och integrering av dem i kvalitetsmodeller är därför mycket viktigt. Kvalitetskriterier för programvara är inte särskilt lätta att mäta och kvantifiera. Många försök har gjorts att exakt kvantifiera kvalitetsparametrarna för programvaran med hjälp av olika modeller som ISO/IEC 9126 Kvalitetsmodell, Boehms modell, McCalls modell, etc. I detta dokument har ett försök gjorts att tillhandahålla ett verktyg för exakt kvantifiering av kvalitetsfaktorer för programvara med hjälp av kvalitetsfaktorer som anges i ISO/IEC 9126-modellen. På grund av den oförutsägbara karaktären av programkvalitet attribut, har den suddiga multi kriterier metod använts för att utveckla kvaliteten på programvaran.
Arbetet i REF ger en metod för att uppskatta kvalitetskriterierna för programvara med hjälp av fuzzy multi criteria approach.
18,688,987
Integrated Software Quality Evaluation: A Fuzzy Multi-Criteria Approach
{'venue': 'JIPS', 'journal': 'JIPS', 'mag_field_of_study': ['Computer Science']}
1,259
Med tanke på en befintlig utbildad neurala nätverk, är det ofta önskvärt att lära sig nya förmågor utan att hindra prestanda för dem som redan lärt sig. Befintliga metoder lär sig antingen suboptimala lösningar, kräver gemensam utbildning eller medför en betydande ökning av antalet parametrar för varje tillagd domän, vanligtvis lika många som det ursprungliga nätverket. Vi föreslår en metod som kallas Deep Adaptation Modules (DAM) som begränsar nyinlärda filter till linjära kombinationer av befintliga. DAMs exakt bevara prestanda på den ursprungliga domänen, kräver en bråkdel (vanligtvis 13 procent, beroende på nätverksarkitektur) av antalet parametrar jämfört med standard finjusterande förfaranden och konvergera i färre cykler av utbildning till en jämförbar eller bättre nivå av prestanda. I kombination med vanliga nätverkskvantiseringstekniker minskar vi ytterligare parameterkostnaden till cirka 3 procent av originalet med försumbar eller ingen förlust i noggrannhet. Den lärda arkitekturen kan styras för att växla mellan olika lärda representationer, vilket gör det möjligt för ett enda nätverk att lösa en uppgift från flera olika domäner. Vi utför omfattande experiment som visar effektiviteten av vår metod på en rad bildklassificeringsuppgifter och utforskar olika aspekter av dess beteende.
De senaste Deep Adaptation Networks (DAN) REF gör det möjligt att lära sig nya filter som är linjära kombinationer av befintliga filter.
3,285,974
Incremental Learning Through Deep Adaptation
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
1,260
I detta dokument föreslår vi en effektiv ansiktskompletteringsalgoritm med hjälp av en djup generativ modell. Annorlunda än välstuderad bakgrundskomplettering är uppgiften att slutföra ansiktet mer utmanande eftersom det ofta kräver att generera semantiskt nya pixlar för de saknade nyckelkomponenterna (t.ex. ögon och munnar) som innehåller stora variationer i utseendet. Till skillnad från befintliga icke-parametriska algoritmer som söker efter patchar att syntetisera, genererar vår algoritm direkt innehåll för saknade regioner baserat på ett neuralt nätverk. Modellen är tränad med en kombination av en rekonstruktion förlust, två motgångar förluster och en semantisk parsing förlust, som garanterar pixel trohet och lokalt-global innehåll konsekvens. Med omfattande experimentella resultat visar vi kvalitativt och kvantitativt att vår modell kan hantera ett stort område med saknade pixlar i godtyckliga former och generera realistiska resultat i ansiktet.
REF använder två kontradiktoriska förluster för att säkerställa det lokala globala innehållets enhetlighet och inför ett semantiskt tolkningsnätverk för att bevara den semantiska informationen.
9,459,250
Generative Face Completion
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
1,261
Detta dokument föreslår romanen Pose Guidad Person Generation Network (PG 2 ) som gör det möjligt att syntetisera personbilder i godtyckliga poser, baserat på en bild av den personen och en roman pose. Vår generations ramverk PG 2 använder pose information explicit och består av två viktiga steg: pose integration och bildförfining. I det första steget är tillståndet bilden och målet pose matas in i ett U-Net-liknande nätverk för att generera en initial men grov bild av personen med målet pose. Det andra steget förfinar sedan det inledande och suddiga resultatet genom att träna en U-Net-liknande generator på ett kontradiktoriskt sätt. Omfattande experimentella resultat på både 128×64 återidentifierande bilder och 256×256 modebilder visar att vår modell genererar högkvalitativa personbilder med övertygande detaljer. * Lika lön.
PG 2 REF-modellen föreslår en tvåstegsprocess med ett U-Net-liknande nätverk för att generera en initial grov bild av den person som är beroende av målet pose och sedan förfina resultatet baserat på skillnaden karta.
30,484,693
Pose Guided Person Image Generation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
1,262
Vi undersöker användningen av djupa dubbelriktade LSTMs för gemensam utvinning av åsikter enheter och IS-FROM och IS-ABOUT relationer som förbinder dem - det första sådana försök med hjälp av en djupt lärande strategi. Kanske överraskande, vi finner att standard LSTM:er inte är konkurrenskraftiga med en toppmodern CRF+ILP gemensam slutsats metod (Yang och Cardie, 2013) att bedöma enheter utvinning, utför nedan även den fristående sekvensering CRF. Inkorporera mening-nivå och en ny relation-nivå optimering, dock, tillåter LSTM att identifiera åsiktsrelationer och att utföra inom 1-3% av den senaste gemensamma modellen för opinionsbildare och IS-FROM-relationen; och att utföra såväl som state-of-t heart för IS-ABOUT-relationen - allt utan tillgång till åsiktslexikon, tolker och andra förbehandlingskomponenter som krävs för den funktionsrika CRF+ILP-metoden.
I vårt tidigare arbete REF, som förklarades tidigare, föreslog vi en LSTM-baserad modell för gemensam utvinning av opinionsbildare och relationer, men inga relationstyper.
15,768,663
Investigating LSTMs for Joint Extraction of Opinion Entities and Relations
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,263
SYFTE – I denna studie undersöks om förekomsten av akuta diabeteskomplikationer har minskat under de senaste åren och om geografiska faktorer påverkar dessa trender. FORSKNING DESIGN OCH METODER - En populationsbaserad tid-trend analys av akuta komplikationer av diabetes genomfördes med hjälp av kopplade administrativa och folkräkningsdata från Ontario, Kanada. Studiepopulationen omfattade alla vuxna som identifierades genom ett områdesomfattande elektroniskt diabetesregister mellan 1994 och 1999 (n 577 659). Det primära resultatet var sjukhusvistelser för hyper- och hypoglykemi och akutmottagningsbesök för diabetes. RESULTAT - Mellan 1994 och 1999 minskade antalet sjukhusvistelser för hyper- och hypoglykemiska nödsituationer med 32, 5 respektive 76, 9%; akutmottagningsbesök för diabetes minskade med 23, 9%. På multivariat analys, räkenskapsåret var en oberoende prediktor av akuta diabetes komplikationer, med individer i vår kohort upplever en minskning av risken för 6% per år för antingen läggas in på sjukhus med hyper-eller hypoglykemi eller kräver en akut avdelning besök för diabetes. Efter att ha redovisat variationen i läkartjänsten var det nästan dubbelt så sannolikt att personer med diabetes som bor på landsbygden eller i aboriginska samhällen skulle få en akut komplikation, medan de som bodde i avlägsna områden i provinsen var nästan tre gånger så benägna att uppleva en händelse. SLUTSATSER -Även om våra fynd tyder på en övergripande förbättring av diabetesvården i Ontario, vissa subgrupper av befolkningen fortsätter att uppleva högre frekvens av komplikationer som kan förebyggas genom god ambulatorisk vård. Åtgärder för att förbättra tillgången till snabb och effektiv öppenvård kan ytterligare minska antalet akuta komplikationer bland befolkningen med diabetes. Resultat från randomiserade studier som publicerats under det senaste årtiondet har visat vikten av strikt glykemisk kontroll för att förhindra kroniska komplikationer av diabetes (1,2). Trots dessa framsteg i fråga om kunskap finns det dock fortfarande en stor klyfta mellan den vårdnivå som rekommenderas i evidensbaserade riktlinjer och den faktiska praxisen (3,4). Ett brett spektrum av leverantörsfaktorer har identifierats som hinder för att införa bevis i praktiken (5,6). Minskad tillgång till hälso- och sjukvård kan också hindra ett optimalt tillhandahållande av vård, vilket bidrar till klyftor mellan resultaten i den allmänna populationen och de som uppnås i kliniska prövningar. Eftersom sjukhusvistelser för akuta diabeteskriser i stor utsträckning bör kunna undvikas, ger dessa episoder ett mått på kvaliteten på den diabetesvård som ges i den ambulatoriska miljön. Översättningen av bevis om snäv glykemisk kontroll i klinisk praxis kan resultera i lägre nivåer av sjukhusvistelser för hyperglykemi men kan också leda till en ökning av användningen av akutvård för att hantera svår hypoglykemi. Studier från flera länder har misslyckats med att identifiera en minskning av akut hyperglykemisk intagning per capita. Sådana trender kan dock ha maskerats av en samtidig ökning av förekomsten av diabetes (7,8) eller ökande hinder för att få tillgång till effektiv öppenvård i rätt tid. I Kanada omfattas både öppenvården och sjukhussjukvården i allmänhet av provinsiella sjukförsäkringsplaner. Skillnader i hälsoeffekter relaterade till diabetes har dock observerats i olika geografiska regioner, vilket gynnar städer i förhållande till landsbygdsområden (9–11). Skillnader i tillgång till öppenvård skulle kunna förklara dessa resultat. En ökande brist på läkare under det senaste årtiondet kan ha skapat ytterligare begränsningar för att ge vård till patienter med diabetes och andra kroniska sjukdomar i landsbygdsområden i landet (12). Vi genomförde en populationsbaserad tid-trend analys av påverkbara sjukhus och akutmottagning besök relaterade till hyper-eller hypoglykemi i Ontario, Kanada mellan 1994 och 1999 - en period under vilken ett antal studier publicerades om nyttan av snäv glykemisk kontroll. Det primära syftet med denna studie var att undersöka om kvaliteten på diabetesvården
Dessutom har avlägsna och aboriginala samhällen observerats ha ökad risk för komplikationer med diabetes REF.
6,266,654
Time Trends and Geographic Disparities in Acute Complications of Diabetes in Ontario, Canada
{'venue': 'Diabetes care', 'journal': 'Diabetes care', 'mag_field_of_study': ['Medicine']}
1,264
Abstrakt. Att beskriva webbresurser med hjälp av formell kunskap (dvs. att skapa metadata enligt en formell representation av en diskursdomän) är kärnan i nästa utvecklingssteg på webben, som kallas Semantic Web. W3C:s RDF/S (Resource Description Framework/Schema Language) möjliggör skapande och utbyte av resursmetadata som normal webbdata. I detta dokument undersöker vi användningen av RDFS scheman som ett medel för kunskapsrepresentation och utbyte inom olika tillämpningsområden. För att kunna resonera om kvaliteten på befintliga RDF-scheman fungerar ett riktmärke som grundval för en statistisk analys som utförs med hjälp av VRP, validerande RDF Parser. De statistiska data som extraheras leder till korollarier om storleken och morfologin av RDF/S scheman. Dessutom drar studien av de insamlade scheman användbara slutsatser om den faktiska användningen av RDF modellering konstruktioner och frekventa missbruk av RDF/S syntax och / eller semantik.
Det finns ett forskningsarbete i benchmarking RDF schemata, som utför statistisk analys om storleken och morfologin av RDF schemata REF.
6,764,539
Benchmarking RDF Schemas for the Semantic Web
{'venue': 'In Proc. of the International Semantic Web Conference (ISWC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,265
Vi introducerar ett begrepp om universalitet i samband med optimeringsproblem med partiell information. Universalitet är en ram för att hantera osäkerhet genom att garantera en viss godhetskvalitet för alla möjliga kompletteringar av den partiella informationen. Universala varianter av optimeringsproblem kan definieras som är både naturliga och välmotiverade. Vi överväger universella versioner av tre klassiska problem: TSP, Steiner Tree och Set Cover. Vi presenterar en polynom-tidsalgoritm för att hitta en universell tur på en given metriska utrymme över och hörn så att för varje delmängd av hörnen, den sub-tur som induceras av delmängd är inom Ç" — Ó —Ó — Ó till μ av en optimal tur för delmängd. På samma sätt visar vi att med tanke på ett metriska utrymme över hörn och en rot vertex, kan vi hitta ett universellt spänne träd så att för varje delmängd av hörn som innehåller roten, delträdet som induceras av delmängd är inom Ç ́ —Ó —Ó — — Ó till μ av en optimal Steiner träd för delmängd. Våra algoritmer förlitar sig på en ny uppfattning om glesa partitioner, som kan vara av oberoende intresse. För det speciella fallet med dubbleringsmått, som inkluderar både konstant-dimensionella Euclidean och tillväxtbegränsade mätvärden, våra algoritmer uppnå en Ç" — Ó och μ övre gräns. Vi kompletterar våra resultat för det universella Steiner-trädet med en nedre gräns för en "Ó" --Ó --Ó --Ó ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------ Vi visar också att en liten generalisering av det universella Steiner Tree problemet är coNP-hård och presenterar nästan tighta övre och nedre gränser för en universell version av Set Cover.
Jia m.fl. I REF föreslogs först en universal approximationsmodell för TSP-, Steiner- och Set Cover-problemen.
7,046,258
Universal approximations for TSP, Steiner tree, and set cover
{'venue': "STOC '05", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
1,266
Vi föreslår ett fullt fungerande identitetsbaserat krypteringssystem (IBE). Systemet har valt chiffertext säkerhet i slumpmässiga oraklet modell antar en variant av beräknings DiffieHellman problem. Vårt system är baserat på tvålinjära kartor mellan grupper. Den Weil parning på elliptiska kurvor är ett exempel på en sådan karta. Vi ger exakta definitioner för säkra identitetsbaserade krypteringssystem och ger flera tillämpningar för sådana system.
Det första praktiska identitetsbaserade krypteringssystemet beskrevs i REF med hjälp av en tvåradig karta.
734,165
Identity-based encryption from the Weil pairing
{'venue': 'SIAM J. of Computing', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
1,267
Abstract-Motivated av den pågående diskussionen om samordnade multipoint i trådlösa cellulära standard organ, i detta dokument behandlar problemet med basstation samarbete i nedlänken av heterogena cellulära nätverk. Fokus för detta dokument är det gemensamma överföringsscenariot, där ett idealiskt backhaul-nätverk tillåter en uppsättning slumpmässigt placerade basstationer, eventuellt tillhörande olika nätverksnivåer, att gemensamt överföra data, att minska intercellinterferens och därmed förbättra täckning och spektral effektivitet. Med hjälp av verktyg från stokastisk geometri, ett integral uttryck för nättäckning sannolikhet härleds i scenariot där den typiska användaren ligger på en godtycklig plats, dvs. den allmänna användaren, tar emot data från en pool av basstationer som väljs baserat på deras genomsnittliga mottagna effektnivåer. Ett uttryck för täckningsannolikheten härleds också för den typiska användaren som befinner sig på samma punkt från tre basstationer, som vi kallar den sämsta användaren. I det särskilda fallet där samarbetet är begränsat till två basstationer visar numeriska utvärderingar att sannolikheten för täckning ökar med upp till 17 % för den allmänna användaren och 24 % för den sämsta användaren jämfört med det icke samarbetsvilliga fallet. Det visas också att ingen mångfaldsvinst uppnås med hjälp av icke-sammanhängande gemensam överföring, medan full mångfaldsvinst kan uppnås hos mottagaren om de sändande basstationerna har kanalstatsinformation.
REF analyserar täckningsannolikheten för en allmän användare som lokaliserar på en godtycklig plats.
2,856,585
Coordinated Multipoint Joint Transmission in Heterogeneous Networks
{'venue': 'IEEE Transactions on Communications', 'journal': 'IEEE Transactions on Communications', 'mag_field_of_study': ['Computer Science']}
1,268
Abstract-Building på den senaste kodade-cache genombrott av Maddah-Ali och Niesen, arbetet här anser K -användare cache-stödd trådlös multi-antenna symmetriska kanal med slumpmässig blekning och ofullständig feedback, och analyserar genomströmningen prestanda som en funktion av feedback statistik och cache storlek. I detta sammanhang identifierar detta dokument de optimala cachestödda graderna av frihet (DoF) inom en faktor på 4, genom att identifiera nästan optimala system som utnyttjar en ny synergi mellan kodad cachelagring och försenad CSIT, samt genom att utnyttja det outforskade samspelet mellan cachelagring och feedback-kvalitet. De DoF uttryck avslöjar en initial vinst på grund av nuvarande CSIT, och en ytterligare vinst på grund av kodad caching, vilket är exponentiellt i den meningen att varje linjär minskning av den nödvändiga DoF prestanda, möjliggör en exponentiell minskning av den önskade cachestorleken. I slutändan avslöjar detta dokument tre nya aspekter av caching: en synergi mellan minne och försenad feedback, en avvägning mellan minne och nuvarande CSIT, och en kraftfull förmåga att tillhandahålla cache-stödda feedback besparingar.
I samband med att man drar nytta av CC-vinster i trådlösa nät beaktar författarna i REF effekten av fördröjd kanalstatsinformation vid sändaren (CSIT) och uppvisar en synergi mellan CSIT och caching.
1,290,185
Fundamental Limits of Cache-Aided Wireless BC: Interplay of Coded-Caching and CSIT Feedback
{'venue': 'IEEE Transactions on Information Theory', 'journal': 'IEEE Transactions on Information Theory', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
1,269
ABSTRACT I dokumentet föreslås en ny metod för riktningsuppskattning av en rörlig fotgängare som uppfattas i en 2-D-koordinat av fältkamera. Den föreslagna metoden för riktningsuppskattning är avsedd för fotgängarövervakning i trafikstyrningssystem. Förutom trafikstyrning, riktning rörelse uppskattning är också mycket viktigt i systemet för undvikande av olyckor för smarta bilar, assisterade boendesystem, i ocklusion förutsägelse för sömlös spårning i visuell övervakning, och så vidare. Den föreslagna videobaserade riktningsberäkningsmetoden utnyttjar begreppet förvrängning av perspektivet som uppfattas i monokulära visioner av 2-D-kamerakoordinat. Det tidsmässiga mönstret för förändring av fotgängarens dimension i en ramsekvens är unikt för varje riktning; därför används den dimensionella förändringsbaserade funktionen för att uppskatta rörelseriktningen; åtta diskreta rörelseriktningar beaktas och den dolda Markov-modellen används för klassificering. Experimenten utförs över CASIA Dataset A, CASIA Dataset B, och över en självförvärvad dataset: NITR Conscious Walk Dataset. Den balanserade noggrannheten i riktningsuppskattningen för dessa experiment ger tillfredsställande resultat med noggrannhetsindex som 94,58%, 90,87% respektive 95,83%. Experimentet rättfärdigar också med lämpliga testförhållanden om de karakteristiska egenskaperna, såsom robusthet mot felaktig segmentering, partiell ocklusion, och förändrad orientering av huvud eller kropp under gång av en fotgängare. Den föreslagna metoden kan användas som ett fristående system eller kan integreras med befintliga rambaserade riktningsuppskattningsmetoder för att implementera ett fotgängarövervakningssystem. INDEX TERMS Visuell övervakning, ocklusionshantering, mätning av fotgängares riktning, perspektivförvrängning, dold Markov-modell.
Direkt uppskattning av fotgängarövervakning studerades i REF där videobaserad riktningsuppskattningsmetod utnyttjar begreppet perspektivförvrängning som uppfattas i monokulära visioner.
21,314,816
Direction Estimation for Pedestrian Monitoring System in Smart Cities: An HMM Based Approach
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
1,270
Randomiserade tekniker gör det möjligt att kortfattat representera mycket stora språkmodeller. Men eftersom de är batch-baserade är de olämpliga för modellering av en obegränsad ström av språk samtidigt som en konstant felfrekvens bibehålls. Vi presenterar en ny randomiserad språkmodell som använder en perfekt hashfunktion online för att effektivt hantera obundna textströmmar. Översättningsexperiment över en textström visar att vår online randomiserade modell matchar prestandan hos batch-baserade LMs utan att ådra sig de beräkningsmässiga overhead i samband med full omskolning. Detta öppnar upp möjligheten av randomiserade språkmodeller som kontinuerligt anpassar sig till de massiva volymer av texter som publiceras på webben varje dag.
REF utvidgar randomiserade språkmodeller till stream-baserade språkmodeller.
12,650,146
Stream-based Randomised Language Models for SMT
{'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,271
Även om olika tekniker har föreslagits för att generera kontradiktoriska prover för vit-box attacker på text, har liten uppmärksamhet ägnats åt en svart-box attack, vilket är ett mer realistiskt scenario. I det här dokumentet presenterar vi en ny algoritm, DeepWordBug, för att effektivt generera små textstörningar i en svart-box-miljö som tvingar en djuplärande klassificerare att felklassificera en textinmatning. Vi utvecklar nya scoring strategier för att hitta de viktigaste orden för att ändra så att de djupa clasfier gör en fel förutsägelse. Enkla tecken-nivå transformationer tillämpas på de högst rankade orden för att minimera redigeringsavståndet för perturbationen. Vi utvärderade DeepWordBug på två verkliga textdataset: Enron spam e-post och IMDB filmrecensioner. Våra experimentella resultat indikerar att DeepWordBug kan minska klassificeringsnoggrannheten från 99% till 40% på Enron och från 87% till 26% på IMDB. Våra resultat visar starkt att de genererade kontradiktoriska sekvenserna från en djuplärande modell på liknande sätt kan undgå andra djupa modeller. 50 2018 IEEE Symposium om säkerhet och integritet Workshops
REF presenterar en DeepWordBug algoritm för att generera små perturbationer i teckennivån för Black-box attack.
4,858,173
Black-Box Generation of Adversarial Text Sequences to Evade Deep Learning Classifiers
{'venue': '2018 IEEE Security and Privacy Workshops (SPW)', 'journal': '2018 IEEE Security and Privacy Workshops (SPW)', 'mag_field_of_study': ['Computer Science']}
1,272
En stor utmaning när det gäller att stärka inlärningen är intelligent utforskning, särskilt när belöningarna är glesa eller vilseledande. Två Atari spel fungerar som riktmärken för sådana hård-exploration domäner: Montezuma's Revenge och Pitfall. På båda spelen, nuvarande RL algoritmer presterar dåligt, även de med inneboende motivation, vilket är den dominerande metoden för att uppmuntra prospektering och förbättra prestanda på hårdexploration domäner. För att ta itu med denna brist, introducerar vi en ny algoritm som kallas Go-Explore. Den utnyttjar följande principer: 1) komma ihåg stater som tidigare har besökts, 2) först återvända till ett lovande tillstånd (utan utforskning), sedan utforska från det, och 3) lösa simulerade miljöer genom att utnyttja alla tillgängliga medel (inklusive genom att införa determinism), sedan stärka (skapa en politik som tillförlitligt kan utföra lösningen) via imitation lärande. De kombinerade effekterna av dessa principer ger dramatiska resultatförbättringar på svåra undersökningsproblem. På Montezumas hämnd, utan att ges någon domän kunskap, Go-Explore poäng över 43.000 poäng, nästan 4 gånger den tidigare state of the art. Go-Explore kan också enkelt utnyttja mänsklig-tillhandahållen domän kunskap, och när den utökas med det Go-Explore poäng ett genomsnitt på över 650.000 poäng på Montezuma's Revenge. Dess maximala prestanda på nästan 18 miljoner överträffar det mänskliga världsrekordet med en storleksordning och motsvarar därmed även den strängaste definitionen av "övermänskliga" prestationer. På Pitfall är Go-Explore med domänkunskap den första algoritmen att göra mål över noll. Dess genomsnittliga prestanda på nästan 60.000 poäng överstiger också expert mänskliga prestanda. Eftersom Go-Explore kan producera många högpresterande demonstrationer automatiskt och billigt, överträffar det också tidigare imitationslärande där lösningen tillhandahölls i form av en mänsklig demonstration. Go-Explore öppnar upp många nya forskningsriktningar för att förbättra den och väva in sina insikter i nuvarande RL-algoritmer. Det kan också möjliggöra framsteg på tidigare olösliga svårt utforskande problem inom en rad olika områden, särskilt de många som ofta utnyttjar en simulator under träning (t.ex. robotteknik).
Go-Explore REF använde en sökbaserad algoritm för att lösa svåra prospekteringsproblem.
59,413,825
Go-Explore: a New Approach for Hard-Exploration Problems
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
1,273
Inledning: Vid ischemisk strokevård är snabb reperfusion nödvändig för funktionsnedsättningsfri överlevnad. Det är okänt om bypassing trombolyscenter till förmån för endovaskulär trombektomi (moderskap) överväger transport till närmaste trombolyscenter för alteplas och sedan överföring för endovaskulär trombektomi (dropp- och-skepp). Vi använder villkorlig sannolikhetsmodellering för att bestämma hur behandlingstiderna påverkar transportbesluten vid akut ischemisk stroke. Material och metoder: Sannolikheten för ett gott resultat modellerades med hjälp av ett tidigare publicerat ramverk, data från Irish National Stroke Register och ett endovaskulärt trombektomiregister vid ett tertiärt referenscentrum i Irland. Irland var uppdelat i 139 regioner, transporttider mellan varje region och sjukhus uppskattades med hjälp av Googles Application Program Interface Distance Matrix. Resultaten kartlades med ArcGIS 10.3. Resultat: Användning av nuvarande behandlingstider, dropp-och-skepp förutspår sällan de bästa resultaten. Men om tiden från dörr till nål minskas till 30 minuter, blir dropp-och-skeppet mer fördelaktigt; ännu mer om vändtiden (tid från trombolys till avgång för endovaskulär trombektomi centrum) också minskas. Att minska dörr till ljumske punkteringstider förutspår bättre resultat med moderskeppsmodellen. Diskussion: Detta är den första fallstudien som modellerar prehospital transport för ischemisk stroke som utnyttjar verkliga behandlingstider i ett avgränsat geografiskt område. En måttlig förbättring av behandlingstiderna resulterar i betydande förutsedda förändringar av optimeringen av en nationell strategi för patienttransport med akut stroke. Slutsatser: Modellering av patienttransport för systemnivåplanering är känslig för behandlingstider vid både trombolys- och trombektomicenter och har viktiga konsekvenser för den framtida planeringen av trombektomitjänster.
Holodinsky m.fl. REF studerar hur behandlingstiderna påverkar beslutsfattandet före sjukhustransport för patienter med ischemisk stroke, där de jämför två olika behandlingsprotokoll, d.v.s. dropp och skepp och direkt till endovaskulär trombektomi.
57,838,385
Drip and ship versus direct to endovascular thrombectomy: The impact of treatment times on transport decision-making
{'venue': None, 'journal': 'European Stroke Journal', 'mag_field_of_study': ['Medicine']}
1,274
Vi introducerar ett nytt tillvägagångssätt för att rita diagram. Vår strategi är att använda en teknik som vi kallar sammanflytande ritning för att visualisera icke-planära grafer på ett plant sätt. Detta tillvägagångssätt gör att vi kan rita, på ett korsfritt sätt, grafer-såsom programinteraktion diagram-som normalt skulle ha många korsningar. Huvudtanken med detta tillvägagångssätt är ganska enkel: vi tillåter att grupper av kanter slås samman och dras som "spår" (liknar tågspår). Att producera sådana sammanflytande ritningar automatiskt från en graf med många korsningar är dock ganska utmanande, men vi erbjuder en heuristisk algoritm (en version för oriktade grafer och en version för riktade grafer) för att testa om en icke-planar graf kan ritas effektivt på ett konfluent sätt. Dessutom identifierar vi flera stora klasser av grafer som helt kan kategoriseras som antingen konfluenta dragbara eller konfluenta icke-drabara.
I en sammanflätad ritning kanter slås samman till spår som är föreningen av lokalt monotona kurvor REF.
126,023,693
Confluent Drawings: Visualizing Non-planar Diagrams in a Planar Way
{'venue': 'J. Graph Algorithms Appl.', 'journal': 'J. Graph Algorithms Appl.', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
1,275
Abstrakt. I detta dokument presenteras en beskrivning av SensLAB (Very Large Scale Open Wireless Sensor Network Testbed) som har utvecklats och använts för att möjliggöra utvärdering genom experiment med skalbara protokoll och tillämpningar för trådlösa sensorer. SensLAB:s viktigaste och viktigaste mål är att erbjuda ett exakt open access-verktyg för flera användare för att stödja designen, utvecklingsinställningen och experimentet med verkliga storskaliga sensornätverksapplikationer. SensLAB testbädden består av 1024 noder över 4 platser. Varje plats rymmer 256 sensornoder med specifika egenskaper för att erbjuda ett brett spektrum av möjligheter och heterogenitet. Inom en viss webbplats, kan var och en av de 256 noderna både kommunicera via sitt radiogränssnitt till sina grannar och konfigureras som en diskbänk nod för att utbyta data med någon annan "sink node". Hårdvaru- och programvaruarkitekturer som gör det möjligt att reservera, konfigurera, distribuera firmwares och samla experimentell data och övervakningsinformation beskrivs. Vi presenterar också demonstrationsexempel för att illustrera användningen av SensLAB-testbädden och uppmuntra forskare att testa och jämföra sina tillämpningar/protokoll på en storskalig WSN-testbädd.
SensLAB är en storskalig trådlös sensor nätverk testbädd, vilket ger forskare tillgång till hundratals sensornoder fördelade på flera platser REF.
17,598,361
Using SensLAB as a First Class Scientific Tool for Large Scale Wireless Sensor Network Experiments
{'venue': 'Networking', 'journal': None, 'mag_field_of_study': ['Engineering', 'Computer Science']}
1,276
Bombningen i Boston Marathon ger en sällsynt möjlighet att studera hur en störande händelse kan utlösa interkommunala känslor och uttryck - där medlemmar i en gemenskap uttrycker känslor om och stöd för medlemmar i en avlägsen gemenskap. I detta arbete använder vi över 180 miljoner geokodade tweets under en hel månad för att studera hur Twitter-användare från olika städer uttryckte tre olika känslor: rädsla, sympati och solidaritet, som reaktion på bombningarna. Vi fångar spikar i rädsla i olika städer genom att använda känslor och tidsserier analyser, och spåra uttryck för sympati och solidaritet baserat på den framväxande användningen av två hashtaggar, #prayforboston och #bostonstrong, allmänt antagna efter bombningarna. Vi finner först att i vilken utsträckning samhällen utanför Boston uttrycker dessa känslor är korrelerad med deras geografiska närhet, sociala nätverk anslutningar, och invånarnas direkta, fysiska erfarenheter med Boston (fångas av antalet medborgare som hade besökt Boston nyligen). Denna allmänna effekt visar dock intressanta skillnader mellan olika typer av känslor. Analyser visar att i vilken utsträckning invånarna i en stad besöker Boston är den bästa förutsägaren av rädsla och solidaritetsuttryck, liksom en stark förutsägare av uttryck för sympati. Rädslans uttryck hänger också direkt samman med solidariteten. Vår studie har teoretiska implikationer när det gäller spridning av information och emotionell smitta samt praktiska implikationer för att förstå hur viktig information och socialt stöd effektivt kan samlas in och distribueras till behövande befolkningar.
När det gäller metoden använder Lin och Margolin REF två hashtaggar (#prayforboston och #bostonstrong) för att mäta socialt stöd.
12,398,994
The ripple of fear, sympathy and solidarity during the Boston bombings
{'venue': 'EPJ Data Science', 'journal': 'EPJ Data Science', 'mag_field_of_study': ['Computer Science']}
1,277
Vi föreslår en algoritm för meta-lärande som är modellagnostisk, i den meningen att den är kompatibel med alla modeller som är utbildade med lutningsnedstigning och kan tillämpas på en mängd olika inlärningsproblem, inklusive klassificering, regression och förstärkningslärande. Målet med meta-lärande är att utbilda en modell på en mängd olika inlärningsuppgifter, så att den kan lösa nya inlärningsuppgifter med bara ett litet antal träningsprover. I vårt tillvägagångssätt tränas modellens parametrar explicit så att ett litet antal gradientsteg med en liten mängd träningsdata från en ny uppgift ger bra generaliseringsprestanda på den uppgiften. I själva verket tränar vår metod modellen för att vara lätt att finjustera. Vi visar att detta tillvägagångssätt leder till state-of-the-art prestanda på två få bilder klassificering riktmärken, ger goda resultat på få-shot regression, och påskyndar finjustering för policy gradient förstärkning lärande med neurala nätverk politik.
Modell-Agnostic Meta-Learning (MAML) REF syftar till att utbilda en modell på en mängd olika inlärningsuppgifter och lösa en ny uppgift med bara några exempel på utbildning.
6,719,686
Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
1,278
Långa frågor innehåller ofta många främmande termer som hindrar hämtning av relevanta dokument. Vi presenterar tekniker för att minska långa frågor till effektivare kortare som saknar dessa främmande termer. Vårt arbete motiveras av observationen att perfekt minska långa TREC-beskrivning frågor kan leda till en genomsnittlig förbättring på 30% i genomsnitt precision. Vår strategi innebär att omvandla minskningsproblemet till ett inlärningsproblem för att rangordna alla deluppsättningar av den ursprungliga frågan (sub-queries) baserat på deras förutsagda kvalitet, och välja den bästa sub-query. Vi använder olika mått av frågekvalitet som beskrivs i litteraturen som funktioner för att representera underqueries, och träna en klassificerare. Att ersätta den ursprungliga långa frågan med den topprankade subquery som valts av rankaren resulterar i en statistiskt signifikant genomsnittlig förbättring på 8% på våra testuppsättningar. Analys av resultaten visar att frågereduktion är väl lämpad för måttligt presterande långa frågor, och en liten uppsättning frågekvalitet prediktorer är väl lämpade för uppgiften att rangordna subqueries.
Andra relaterade arbete som minskar långa frågor inkluderar rankning alla undergrupper av den ursprungliga frågan REF.
11,839,047
Reducing long queries using query quality predictors
{'venue': 'SIGIR', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,279
Den allmänt kända linjära tid algoritmen för att beräkna den maximala area triangeln i en konvex polygon hittades felaktig av Keikha et. Detta beslut träder i kraft dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning. Vi presenterar en alternativ algoritm i den här tidningen. Jämfört med den enda tidigare kända rätta lösningen är vår mycket enklare och effektivare. Dessutom kan det enkelt utvidgas för att beräkna den minsta area triangeln som omger en konvex polygon. Vår nya strategi verkar också vara kraftfull när det gäller att lösa andra relaterade problem. Dessutom, i den andra delen av detta papper (avsnitt 4), utökar vi vår algoritm för att beräkna alla generellt tre stabila trianglar, dvs.. de trianglar vars hörn ligger i P: s gräns och vars område inte kan förbättras genom att justera ett hörn. Detta leder vidare till en ny linjär tidslösning för beräkning av minsta omslutningstriangeln. Vi presenterar nu kortfattat Chandrans och Mounts metod. De definierar först de P-stabila trianglar (utanför P ). Alla sidor av en P-stabil triangel måste vidröras av P. I synnerhet, två av dem måste ha sina midpoints vidrörda av P ; dessa två kallas benen medan den återstående kallas basen. Dessutom gäller något av följande. (1) Basen är spola med P (nämligen, innehåller det en kant av P ). (2) Ett av benen är spolning med en kant av P och har som mittpunkt en vertex av denna kant. Observera att om (1) håller, det sägs P-anchored. De P-anchored trianglar införs i själva verket i [17], där det bevisas att de innehåller alla lokala minimum av omslutande trianglar av P. Det bevisas sedan i [22] att alla P-anchored trianglar är "intersperding" -om vi flyttar basen till nästa kant, de midpoints av två ben kommer båda flytta i medurs. Genom att använda den roterande caliper tekniken ([26]) tillsammans med några smarta algoritmiska tricks, [22] räknar alla P-anchored trianglar i linjär tid och på så sätt hitta den minsta omslutande trianglar. Algoritmen är något involverad och beskrivning markeras och så detaljer om genomförandet ges i [23]. Senare, genom att använda några "mer involverade" (som sägs i tidningen) observationer och tekniker, [7] lyckades räkna upp alla P-stabila trianglar i linjär tid. Deras algoritm är faktiskt ett fantastiskt exempel på den roterande caliper tekniken. Dessutom har det bevisats att genom att räkna upp alla P-stabila trianglar, kan man enkelt få alla lokala maximum av trianglar inneslutna i P. För att sammanfatta, beräknar den kända algoritmen i [7] faktiskt alla de maximala area trianglar som omges i P och alla minsta area trianglar som omsluter P samtidigt. Som jämförelse, vår algoritm för att beräkna den maximala area trianglar är mer direktit behöver inte överväga alla dessa trianglar som omsluter P alls. En annan stor skillnad är att vi inte tillämpar den roterande caliper-tekniken. I den roterande caliper metoden, brukar vi först bestämma ett objekt (som ett hörn) och sedan upprätthålla de andra objekten på motsvarande sätt. I vår strategi, kort vi först bestämma ett par objekt (som två hörn) och sedan upprätthålla den andra på motsvarande sätt. Svårigheten att utforma algoritmer baserade på roterande kaliper teknik ligger i att upprätthålla motsvarande hörn effektivt, medan vår svårighet ligger i att bestämma det första paret av objekt effektivt. Se mer i underavsnitt 1.3. Problemen med att söka efter extrem figurer med speciella egenskaper inuti eller utanför en polygon initierades i [10, 5, 8], och har sedan dess studerats i stor utsträckning. Den minsta areatriangeln som omger en konvex polygon finns i O(n log 2 n) time [17] eller till och med i O(n) time [22]. Den minsta omkrets triangeln som omsluter en konvex polygon är löst i O(n) tid [4]. Den maximala omkrets triangeln som omges av en konvex polygon kan lösas i O(n log n) tid [5]. Det är intressant att veta om detta kan optimeras till linjär tid. Som utökad forskning av att hitta extrem trianglar, [5, 2, 3, 8, 1, 21] studerade extrem k-gon (när det gäller område eller omkrets) inuti eller utanför en konvex polygon. I synnerhet kan den maximala k- gon beräknas i O (n log n) tid när k är en konstant. Det är intressant att veta om detta kan optimeras till linjär tid (genom vår strategi). En annan riktning är att hitta maximal area trianglar inuti en enkel polygon [19]. Dessutom kan vi fråga denna typ av problem i tredimensionella rymden; pionjärforskning i denna riktning är [28, 27]. Istället för k-gon, människor bryr sig om extrem figurer som medger mer geometriska egenskaper, såsom liksidig triangel och kvadrater, rektanglar och parallellogram, diskar och ellipser.
Senare föreslog Jin Ref en annan linjär tid algoritm för problemet med att hitta den största triangeln inuti en konvex polygon.
3,345,866
Maximal Area Triangles in a Convex Polygon
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
1,280
I det här dokumentet presenterar vi Epsilon Wizard Language (EWL), ett verktygsbaserat språk för att specificera och utföra automatiserade uppdateringsomvandlingar i det lilla baserat på befintliga modellelement och indata från användaren. Vi diskuterar kraven och designbesluten samt vilken infrastruktur språket har utvecklats på. Vi ger också konkreta arbetsexempel för att visa hur EWL kan användas för att automatisera processen med att konstruera och refaktorisera modeller i praktiken.
Här ger Epsilon Epsilon Wizard Language (EWL) REF.
6,926,509
Update Transformations in the Small with the Epsilon Wizard Language
{'venue': 'Journal of Object Technology (JOT), Special Issue for TOOLS Europe', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,281
Låt Dist(f; g) = Pr u f (u)6 =g (u) ] betecknar det relativa avståndet mellan funktioner f; g kartläggning från en grupp G till en grupp H, och låt Dist(f) betecknar det minsta, över alla linjära funktioner (homomorphisms) g, av Dist(f; g). Med tanke på en funktion f : G! H vi låter Err(f) = Pr u;v f (u)+f(v)6 =f(u+v) ] betecknar sannolikheten för avstötning av BLR (Blum-Luby-Rubinfeld) linearitetstest. Linjäritetstestning är studien av förhållandet mellan Err(f) och Dist(f), och i synnerhet studien av nedre gränser på Err(f) när det gäller Dist(f). Fallet vi är intresserade av är när de underliggande grupperna är G=GF (2) n och H = GF(2). I detta fall beskriver insamlingen av linjära funktioner en Hadamard-kod för blocklängd 2 n och för en godtycklig funktion f kartläggning GF (2) n till GF(2) mäter avståndet Dist(f) dess avstånd till en Hadamard-kod (normaliserad så att det blir ett reellt tal mellan 0 och 1). Mängden Err(f) är en parameter som är \lätt att mäta" och linearitet testning studier förhållandet mellan denna parameter till avståndet f. Koden och motsvarande provning används i konstruktionen av e e ccient probabilistically kontrollerbara bevis och därifrån i härledning av hårdhet approximations resultat. I detta sammanhang leder förbättrade analyser till bättre icke-tillnärmelsebara resultat. Flera analyser av relationen mellan Err(f) och Dist(f) är dock kända, men ingen är tight. Vi presenterar en beskrivning av förhållandet mellan Err(f) och Dist(f) som är nästan komplett i alla dess aspekter, och helt komplett (dvs. tight) i vissa. I synnerhet presenterar vi funktioner L; U : 0; 1]! 0; 1] så att för alla x 2 0; 1] vi har L(x) Err(f) U (x) när Dist(f) = x, med den övre gränsen är tight på hela området, och den nedre gränsen tight på en stor del av området och nära på resten. En del av vår förstärkning uppnås genom att visa en ny koppling mellan linearitetstestningsproblemet och Fourier analys, en koppling som kan vara av oberoende intresse. Våra resultat används av Bellare, Goldreich och Sudan för att presentera de mest kända hårdhetsresultaten för Max-3SAT och andra MaxSNP problem 7].
Bellare m.fl. REF gav ett nästan snävt samband mellan avståndet till homomorfismen och sannolikheten för avvisande av BLR-testaren.
12,913,126
Linearity testing in characteristic two
{'venue': 'IEEE Transactions on Information Theory', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
1,282
Detta dokument fokuserar på att uppskatta energiförbrukningen i nätverksanslutna, inbyggda system under de tidiga skedena av konstruktionen. I sådana system med långa utvecklingscykler har tidiga beslut om hårdvara och programvara en stor inverkan på energiförbrukningen, vilket begränsar konstruktionen under senare skeden av utvecklingsprocessen. Huvudsyftet med detta dokument är att modellera energiförbrukningen under hela konstruktionsprocessen och att tillhandahålla en struktur för mer detaljerade modeller och validering. Detta kräver att man fastställer vilka konstruktionsbeslut och systemparametrar som finns tillgängliga i varje utvecklingsfas. Med detta tillvägagångssätt som grund skapas energiförbrukningsmodeller för varje fas. Genom att förlita sig på olika skattningsmetoder formuleras uppskattningar av energiförbrukningen utifrån den information som finns tillgänglig i varje utvecklingsfas. Huvudsyftet är att illustrera ett designflöde som ger allt mer exakta uppskattningar i varje fas.
Den presenterade modellen energiuppskattning av detta dokument är utformad för att uppskatta energiförbrukningen av samtidiga programvarukomponenter och deras påverkan på inbyggda system med hjälp av information som finns tillgänglig under utvecklingsfasen "System Design" REF.
35,829,136
Early Energy Estimation in the Design Process of Networked Embedded Systems
{'venue': 'PECCS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,283
Abstract-En allmän ram för att lösa bild inversa problem med bitvis linjära skattningar införs i detta dokument. Tillvägagångssättet är baserat på Gaussian blandning modeller, som uppskattas via en maximal a posteriori förväntan-maximization algoritm. En dubbel matematisk tolkning av den föreslagna ramen med en strukturerad gles uppskattning beskrivs, vilket visar att den resulterande bitvis linjära uppskattningen stabiliserar uppskattningen jämfört med traditionella glesa inversa problemtekniker. Vi visar att samma enkla och beräkningseffektiva algoritm ger samma bollplank som den senaste tekniken i ett antal omvänt bildproblem, inklusive interpolering, zoomning och avblåsning av smala kärnor.
Detta är exakt den metod som används i REF, där den maximala en afteriori förväntan-maximization (MAP-EM) algoritm användes för kluster syfte.
479,845
Solving Inverse Problems With Piecewise Linear Estimators: From Gaussian Mixture Models to Structured Sparsity
{'venue': 'IEEE Transactions on Image Processing', 'journal': 'IEEE Transactions on Image Processing', 'mag_field_of_study': ['Computer Science', 'Medicine', 'Mathematics']}
1,284
Denna uppsats ger en översikt över utvecklingen inom området Knowledge Engineering under de senaste 15 åren. Vi diskuterar paradigmskiftet från en överföringsvy till en modelleringsvy och beskriver två tillvägagångssätt som avsevärt formade forskningen inom Knowledge Engineering: Role-limiting Methods och Generic Tasks. För att illustrera olika begrepp och metoder som utvecklats under de senaste åren beskriver vi tre modellering ramar: CommonKADS, MIKE och PROTÉGÉ-II. Denna beskrivning kompletteras med en mer detaljerad diskussion av några viktiga metodologiska utvecklingar: specificering av språk för kunskapsbaserade system, problemlösningsmetoder och ontologier. Vi avslutar med att beskriva relationen mellan Knowledge Engineering och Software Engineering, Information Integration och Knowledge Management. Knowledge Engineering, Knowledge Acquisition, Problem-Solving Method, Ontology, Information Integration I tidigare dagar var forskning inom Artificiell Intelligence (AI) fokuserad på utveckling av 2 formalismer, inference mekanismer och verktyg för att operationalisera Knowledge-based Systems (KBS). Vanligtvis var utvecklingsinsatserna begränsade till förverkligandet av små KBS för att studera genomförbarheten av de olika tillvägagångssätten. Även om dessa studier gav ganska lovande resultat, misslyckades i många fall överföringen av denna teknik till kommersiell användning för att bygga stora KBS. Situationen var direkt jämförbar med en liknande situation vid konstruktion av traditionella mjukvarusystem, som kallas "programvarakris" i slutet av sextiotalet: medlen för att utveckla små akademiska prototyper skalade inte upp till utformning och underhåll av stora, långlivade kommersiella system. På samma sätt som programvarukrisen resulterade i att disciplinen Software Engineering inrättades klargjordes behovet av fler metodologiska metoder i den otillfredsställande situationen när det gäller att konstruera KBS. Så målet med den nya disciplinen Knowledge Engineering (KE) liknar målet för Software Engineering: att omvandla processen att bygga KBS från en konst till en teknisk disciplin. Detta kräver analys av själva bygg- och underhållsprocessen och utveckling av lämpliga metoder, språk och verktyg som är specialiserade för att utveckla KBS. Därefter kommer vi först att ge en översikt över några viktiga historiska utvecklingar i KE: särskild tonvikt kommer att läggas på paradigmskiftet från den så kallade överföringsstrategin till den så kallade modelleringsmetoden. Detta paradigmskifte betraktas ibland också som en överföring från första generationens expertsystem till andra generationens expertsystem [43]. På grundval av denna diskussion kommer avsnitt 2 att avslutas med en beskrivning av två framträdande utvecklingar i slutet av åttiotalet: Role-limiting Methods [99] och Generic Tasks [36]. I avsnitt 3 kommer vi att presentera några modellering ramar som har utvecklats under de senaste åren:, och PROTÈGÈ-II [123]. I avsnitt 4 ges en kort översikt över specifikationsspråk för KBS. Problemlösningsmetoder har varit ett stort forskningsämne inom KE under det senaste årtiondet. Grundläggande egenskaper hos (bibliotek för) problemlösningsmetoder beskrivs i avsnitt 5. Ontologier, som har fått stor betydelse under de senaste åren, diskuteras i avsnitt 6. Dokumentet avslutas med en diskussion om den aktuella utvecklingen inom KE och deras förhållande till andra discipliner. I KE har man också lagt ner mycket arbete på att utveckla metoder och stödja verktyg för kunskapsutveckling (jämför [48] Historiska rötter I detta avsnitt kommer vi först att diskutera några huvudprinciper som kännetecknar utvecklingen av KE redan från början. "Denna överföring och omvandling av problemlösningsexpertis från en kunskapskälla till ett program är kärnan i expertsystemutvecklingsprocessen." [81] I början av åttiotalet har utvecklingen av en KBS betraktats som en överföringsprocess av mänsklig 3 kunskap till en genomförd kunskapsbas. Denna överföring byggde på antagandet att den kunskap som krävs enligt KBS redan existerar och bara måste samlas in och genomföras. Oftast fick man den kunskap som krävdes genom att intervjua experter om hur de löser specifika uppgifter [108]. Vanligtvis genomfördes denna kunskap i någon form av produktionsregler som verkställdes av en tillhörande regeltolk. En noggrann analys av de olika regelkunskapsbaserna visade dock att produktionsreglernas ganska enkla representationsformalitet inte stödde en adekvat representation av olika typer av kunskap [38]: t.ex. i MYCIN-kunskapsbasen [44] strategisk kunskap om i vilken ordning målen ska uppnås (t.ex. "överväga vanliga orsaker till en sjukdom först") blandas ihop med domänspecifika kunskaper om till exempel orsaker till en viss sjukdom. Denna blandning av kunskapstyper och bristen på tillräckliga motiveringar till de olika reglerna gör det mycket svårt och tidskrävande att upprätthålla sådana kunskapsbaser. Därför var denna överföringsmetod endast möjlig för utveckling av små prototypsystem, men den lyckades inte producera stora, tillförlitliga och underhållbara kunskapsbaser. Vidare erkändes att antagandet om överföringsmetoden, dvs. att kunskapsinhämtning är insamling av redan befintliga kunskapsfaktorer, var fel på grund av den viktiga roll som tyst kunskap spelar för en experts problemlösningsförmåga. Dessa brister ledde till ett paradigmskifte från övergången till modellen. I dag råder det en allmän enighet om att processen för att bygga upp en KBS kan ses som en modellverksamhet. Att bygga en KBS innebär att bygga en datormodell i syfte att förverkliga problemlösningsmöjligheter som är jämförbara med en domänexpert. Den är inte avsedd att skapa en kognitiv lämplig modell, dvs. Att simulera de kognitiva processerna hos en expert i allmänhet, men att skapa en modell som erbjuder liknande resultat i problemlösning för problem på området. Experten kan medvetet formulera vissa delar av sin kunskap, men han eller hon kommer inte att vara medveten om en betydande del av denna kunskap eftersom den är dold i hans eller hennes färdigheter. Denna kunskap är inte direkt tillgänglig utan måste byggas upp och struktureras under kunskapsinhämtningsfasen. Därför ses denna kunskapsinhämtningsprocess inte längre som en överföring av kunskap till en lämplig datorrepresentation, utan som en modellkonstruktionsprocess ([41], [106] ). Denna modellbild av byggprocessen i en KBS har följande konsekvenser: • Liksom varje modell är en sådan modell bara en approximation av verkligheten. Modelleringsprocessen är i princip oändlig, eftersom den är en oupphörlig aktivitet i syfte att tillnärma det avsedda beteendet. • Modelleringsprocessen är en cyklisk process. Nya observationer kan leda till en förfining, ändring eller komplettering av den redan inbyggda modellen. Å andra sidan kan modellen leda till ytterligare kunskapsinhämtning. • Modelleringsprocessen är beroende av kunskapsingenjörens subjektiva tolkningar. Därför är denna process vanligtvis felaktig och en utvärdering av modellen med avseende på verkligheten är nödvändig för att skapa en lämplig modell. Enligt denna återkopplingsslinga måste modellen därför kunna ses över i varje steg av modelleringsprocessen. 4 I [39] Clancey rapporterade om analysen av en uppsättning första generationens expertsystem som utvecklats för att lösa olika uppgifter. Även om de förverkligades med hjälp av olika representation formalismer (t.ex. produktionsregler, ramar, LISP), upptäckte han ett vanligt problemlösningsbeteende. Clancey kunde abstraktera detta vanliga beteende till ett generiskt inferensmönster kallat Heuristic Classification, som beskriver dessa systems problemlösningsbeteende på en abstrakt nivå, den så kallade kunskapsnivån [113]. Denna kunskapsnivå gör det möjligt att beskriva resonemang i termer av mål som ska uppnås, åtgärder som krävs för att uppnå dessa mål och kunskap som krävs för att genomföra dessa åtgärder. En beskrivning på kunskapsnivå av en problemlösningsprocess abstracts från detaljer som rör genomförandet av resonemangsprocessen och resulterar i begreppet problemlösningsmetod (PSM). En PSM kan karakteriseras enligt följande (jämför [20]): • En PSM anger vilka slutsatser som måste göras för att lösa en given uppgift. • En PSM bestämmer i vilken ordning dessa åtgärder måste aktiveras. • Dessutom bestämmer så kallade kunskapsroller vilken roll domänkunskapen spelar i varje slutledningsåtgärd. Dessa kunskapsroller definierar en domänoberoende generisk terminologi. När vi betraktar PSM Heuristic Classification i lite mer detalj (Figur 1) kan vi identifiera de tre grundläggande inferens åtgärder abstrakt, heuristic match, och förfina. Dessutom definieras fyra kunskapsroller: observerbara, abstrakta observerbara, lösningsabstractioner och lösningar. Det är viktigt att se till att en sådan beskrivning av en PSM ges på ett generiskt sätt. Således möjliggörs återanvändning av en sådan PSM inom olika områden. När man överväger en medicinsk domän, en observerbar som "41 0 C" kan abstrakteras till "hög temperatur" av inference handlingen abstrakt. Denna abstracted observable kan matchas till en lösning abstraction, t.ex. "infektering", och slutligen kan lösningens abstraktion hierarkiskt förfinas till en lösning, t.ex. Sjukdomen "influenca". Under tiden har olika PSM identifierats, som t.ex. Täck-och-diferentiat för att lösa diagnostiska uppgifter [99] eller för parametriska konstruktionsuppgifter. PSM kan utnyttjas i den kunskapsbaserade processen på olika sätt:
PSM utformades ursprungligen för att förbättra återanvändningen av konstruktionskomponenter till kunskapsbaserade system (ursprunget beskrivs i REF ).
2,521,178
Knowledge Engineering: Principles and Methods
{'venue': 'Data Knowl. Eng.', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,286
Komponentbaserad mjukvaruutveckling (CBSD) strävar efter att leverera kostnadseffektiva och kvalitetsprogram genom urval och integration av kommersiellt tillgängliga programvarukomponenter. CBSD betonar utformningen och utvecklingen av programvarusystem med hjälp av befintliga komponenter. Återanvändbarhet av programvarukomponenter är en oumbärlig del av komponentbaserad programvaruutvecklingslivscykel (CBSDLC), som förbrukar en betydande mängd av organisationens resurser, det vill säga tid och ansträngning. Det är praktiskt i komponentbaserat programvarusystem (CBSS) att välja de mest lämpliga och lämpliga programvarukomponenter som ger alla nödvändiga funktioner. Att välja de lämpligaste komponenterna är avgörande för hela systemets framgång. Beslut om återanvändning av programvarukomponenter fattas dock ofta på ett ad hoc-sätt, vilket i slutändan resulterar i tidsfördröjning och sänker hela kvalitetssystemet. I detta dokument har vi diskuterat den analytiska nätverksprocessen (ANP) metoden för urval av programvarukomponenter. Metoden förklaras och bedöms med hjälp av en fallstudie i verkligheten.
AL REF på grundval av kvalitetskriterier som använts ANP för val av programvarukomponent.
34,654
Software Component Selection Based on Quality Criteria Using the Analytic Network Process
{'venue': None, 'journal': 'Abstract and Applied Analysis', 'mag_field_of_study': ['Mathematics']}
1,287
Problemet med navigationssystemets utformning av autonoma flygplanslandningar tas upp. Nya ickelinjära filterstrukturer införs för att uppskatta ett flygplans position och hastighet med avseende på en eventuellt rörlig landningsplats, såsom ett örlogsfartyg, baserat på mätningar som tillhandahålls av luftburna sikt- och tröghetssensorer. Genom att utforska navigationsproblemets geometri gjuts navigationsfiltrets dynamik inom ramen för linjära parametriskt varierande system (LPV). Med hjälp av denna uppsättning studeras filterprestanda och stabilitet i en H 1-miljö genom att ta till teorin om linjär matrisojämlikhet (LMI). Utformningen av ickelinjära, regionalt stabila filter för att uppfylla tillräckliga H1-prestandaåtgärder omvandlas därmed till att bestämma genomförbarheten av en relaterad uppsättning LMI och hitta en lösning på dem, om det finns. Detta görs genom att använda allmänt tillgängliga numeriska verktyg som lånar från konvex optimeringsteknik. Den matematiska ram som krävs för konstruktion av integrerade visions-/inertialnavigeringssystem utvecklas och ett konstruktionsexempel för ett luftfartyg som landar på ett lufttrafikföretag beskrivs närmare.
På samma sätt, Kaminer, et al. REF beskriver en online-metod för att uppskatta ett luftfartygs position i förhållande till ett fjärran lufttrafikföretag, som behandlas som en punkt.
123,462,355
Application of nonlinear filtering to navigation system design using passive sensors
{'venue': None, 'journal': 'IEEE Transactions on Aerospace and Electronic Systems', 'mag_field_of_study': ['Mathematics']}
1,288
I den här artikeln presenterar vi en tyst algoritm för att hitta cut-nodes och broar i godtyckligt rotade nätverk. Denna algoritm måste vara sammansatt med en algoritm från Collin och Dolev. Denna senare algoritm är också tyst och beräknar en djup Första Sök ( ) Spanning Tree av nätverket. Sammansättningen av dessa två algoritmer är självstabiliserande: från och med varje godtycklig konfiguration, kräver det ett begränsat antal steg för att konvergera till en legitim konfiguration och systemtillståndet förblir legimerat därefter. Minneskravet för denna sammansatta algoritm är
Algoritmen i REF beräknar cut-nodes och broar på ansluten graf utrustad med ett djupförst spanning träd.
977,296
A silent self-stabilizing algorithm for finding cut-nodes and bridges
{'venue': 'Parallel Processing Letters', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,289
Kommunikation från avlägsna områden som kan vara av intresse är fortfarande ett problem. Många innovativa projekt som tillämpas på avlägsna platser står inför kommunikationssvårigheter. GOLDFISH-projektet var ett EU-finansierat projekt för övervakning av flodföroreningar i utvecklingsländerna. Den hade flera sensorkluster, med flytande WiFi-antenner, utplacerade längs en nedströms flodbana. Sensorkluster skickade meddelanden till en Gateway installerad på flodstranden. Denna gateway skickade meddelandena, genom en backhaul-teknik, till en Internetserver där data aggregerades över en karta. Kommunikationsutmaningen i detta scenario skapades av antennernas rörelse och nätverks tillgänglighet. Eftersom antennerna flöt på floden, kunde man när som helst avbryta kommunikationen. Dessutom var 2G/3G tillgänglighet nära floden inte konstant. För icke-realtidstillämpningar föreslår vi en lösning baserad på Delayy/Disruption Tolerant Network (DTN) där alla noder har ihållande lagringskapacitet och DTN-protokoll för att kunna vänta minuter eller timmar att överföra. En mekanisk backhaul kommer regelbundet att besöka flodbanken där porten är installerad och den kommer automatiskt att samla in sensordata som ska transporteras till en Internet-täckt plats. Det föreslagna vidaresändningsprotokollet ger cirka 98 % av meddelandena för detta scenario och fungerar bättre än andra välkända DTN routingprotokoll.
Många innovativa projekt som tillämpas på avlägsna platser står inför svårigheter som beror på tillgången till kommunikation på landsbygden är inte konstant Ref.
14,775,132
Delay/Disruption Tolerant Network-Based Message Forwarding for a River Pollution Monitoring Wireless Sensor Network Application
{'venue': 'Sensors', 'journal': 'Sensors', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']}
1,290
Abstract-Under flera år, slutförandet tid och avkodning fördröjningsproblem i Omedelbart Decodable Network Coding (IDNC) övervägdes separat och ansågs helt agera mot varandra. Nyligen, några verk syftar till att balansera effekterna av dessa två viktiga IDNC-mått men ingen av dem studerade en ytterligare optimering av en genom att styra den andra. I detta dokument studerar vi effekten av att kontrollera avkodningsfördröjningen för att minska avslutningstiden under dess för närvarande mest kända lösning. Vi härleder först de avkodning-delay-beroende uttrycken för användarna' och deras totala slutförandetider. Även om användningen av sådana uttryck för att hitta den optimala totala slutförandet tid är NP-hård, använder vi en heuristic som minimerar sannolikheten för att öka den maximala avkodning-delayberoende slutförande tid uttryck efter varje överföring genom en skiktad kontroll av deras avkodning förseningar. Simuleringsresultat visar att denna nya algoritm uppnår både en lägre genomsnittlig avslutningstid och en genomsnittlig fördröjning av avkodning jämfört med den mest kända heurismen för tidsreduktion. Bristen på prestanda blir betydande för tuffa raderingsscenarier.
På samma sätt inför författarna i REF en delay-baserad ram för att minska tiden för slutförandet.
988,867
Completion time reduction in instantly decodable network coding through decoding delay control
{'venue': '2014 IEEE Global Communications Conference', 'journal': '2014 IEEE Global Communications Conference', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
1,291
Vi tar itu med problemet med att hitta realistiska geometriska korrigeringar till ett förgrundsobjekt så att det verkar naturligt när det är sammansatt i en bakgrundsbild. För att uppnå detta föreslår vi en ny Generative Adversarial Network (GAN) arkitektur som använder rumsliga Transformer Networks (STNs) som generator, som vi kallar rumsliga Transformer GANs (ST-Gans). ST-Gan söker bildrealism genom att arbeta i den geometriska warpparametern utrymme. I synnerhet utnyttjar vi ett iterativt STN warping system och föreslår en sekventiell utbildningsstrategi som ger bättre resultat jämfört med naiv utbildning av en enda generator. En av de viktigaste fördelarna med ST-GAN är dess tillämplighet på högupplösta bilder indirekt eftersom de förutsagda warpparametrarna är överförbara mellan referensramar. Vi demonstrerar vårt tillvägagångssätt i två tillämpningar: 1) visualisera hur inomhusmöbler (t.ex. från produktbilder) kan uppfattas i ett rum, (2) hallucinera hur tillbehör som glasögon skulle se ut när matchas med verkliga porträtt.
Nyligen använde REF rumsliga transformatornätverk som en generator genom att utföra geometriska korrigeringar för att warp ett maskerat objekt för att anpassa sig till en fast bakgrundsbild.
3,692,201
ST-GAN: Spatial Transformer Generative Adversarial Networks for Image Compositing
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
1,292
Rörliga objektmiljöer kännetecknas av ett stort antal rörliga objekt och många samtidiga kontinuerliga frågor över dessa objekt. Effektiv utvärdering av dessa frågor som svar på rörelsen av objekten är avgörande för att stödja godtagbara svarstider. I sådana miljöer lider det traditionella tillvägagångssättet att bygga ett index på objekten (data) av behovet av frekventa uppdateringar och resulterar därmed i dålig prestanda. I själva verket ger en brute force, no-index strategi bättre resultat i många fall. Varken det traditionella tillvägagångssättet eller brute force-strategin uppnår rimliga frågebehandlingstider. Detta dokument utvecklar nya tekniker för effektiv och skalbar utvärdering av flera kontinuerliga frågor om rörliga objekt. Vår lösning utnyttjar två kostnadsfria tekniker: Query Indexing och Velocity Constomed Indexing (VCI). Fråga Indexering bygger på i) stegvis utvärdering, ii) vända rollen av frågor och data, och iii) utnyttja relativa platser objekt och frågor. VCI utnyttjar största möjliga hastighet av objekt för att fördröja den dyra driften av uppdatering av ett index för att återspegla förflyttning av objekt. I motsats till en tidigare teknik [29] som kräver exakt kunskap om föremålens rörelse, är VCI inte beroende av sådan information. Medan Query Indexing överträffar VCI, det inte effektivt hantera ankomsten av nya frågor. Hastighetsbegränsning indexering, å andra sidan, påverkas inte av förändringar i frågor. Vi visar att en kombination av Query Indexing och Velocity Constomed Indexing möjliggör skalbar körning av införande och radering av frågor utöver behandling av pågående frågor. Vi utvecklar också flera optimeringar och presenterar en detaljerad experimentell utvärdering av våra tekniker. De experimentella resultaten visar att de föreslagna systemen överträffar de traditionella tillvägagångssätten med nästan två storleksordningar.
Prabhakar m.fl. REF utformade två metoder som kallas frågeindexering och hastighetsbegränsad indexering med begreppet säkra regioner för att minska antalet uppdateringar.
2,176,402
Query Indexing and Velocity Constrained Indexing: Scalable Techniques for Continuous Queries on Moving Objects
{'venue': 'IEEE Trans. Computers', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,293
I de flesta Wyner-Ziv videokodning tillvägagångssätt, den tidsmässiga korrelationen av nyckelramar utnyttjas inte eftersom de är helt enkelt intrakodade och avkodade. I detta dokument, med hjälp av den tidigare avkodade nyckelramen som sidoinformation för nyckelramen som ska avkodas, föreslår vi nya metoder för kodning av nyckelramar för att förbättra prestandan för hastighetssnedvridning. Dessa system som bygger på byte mellan intraläge och Wyner-Ziv-läge för ett visst block eller ett givet frekvensband försöker utnyttja både rumslig och tidsmässig korrelation av nyckelramar samtidigt som de uppfyller kravet på kodning med låg komplexitet för distribuerad videokodning (DVC). Simuleringsresultat visar att man med de föreslagna metoderna kan uppnå upp till 5 dB förbättring jämfört med konventionell intrakodning för relativt låga rörelsesekvenser och upp till 1,3 dB förbättring för relativt höga rörelsesekvenser.
Esmaili och Cosman REF lägga till hoppa och Wyner-Ziv kodade block till nyckelramarna.
471,702
Low Complexity Spatio-Temporal Key Frame Encoding for Wyner-Ziv Video Coding
{'venue': '2009 Data Compression Conference', 'journal': '2009 Data Compression Conference', 'mag_field_of_study': ['Computer Science']}
1,294
Abstract-Direct observation och inspelade färgbilder av samma scener är ofta slående olika eftersom människans visuella uppfattning beräknar den medvetna representationen med levande färg och detaljer i skuggor, och med motstånd mot spektral skiftningar i scenen belysning. En beräkning för färgbilder som närmar sig fidelity till scen observation måste kombinera dynamisk spännvidd kompression, färgkonsistens-en beräkning analog för mänsklig vision färg kontinuitet-och färg och ljushet tonal rendition. I detta papper, vi utvidgar en tidigare utformad enskalig center / surround retinex till en flerskalig version som uppnår samtidig dynamisk spännvidd kompression / färg konsistens / ljushet rendition. Denna förlängning misslyckas med att producera bra färgåtergivning för en klass av bilder som innehåller kränkningar av grå-världen antagande implicit till den teoretiska grunden för retinex. Därför definierar vi en metod för färgåterställelse som korrigerar för denna brist på bekostnad av en blygsam utspädning i färgkonsistens. Omfattande testning av multiscale retinex med färgrenovering på flera testscener och över hundra bilder visade inte något patologiskt beteende.
Inspirerad av en modell av ljushet och färguppfattning av mänsklig vision, REF föreslog en flerskalig center / surround retinex som uppnår samtidig dynamisk spännvidd kompression, färgkonsistens, och ljushet rendition.
8,430,295
A multiscale retinex for bridging the gap between color images and the human observation of scenes
{'venue': 'IEEE Transactions on Image Processing', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics', 'Medicine']}
1,295
Sammanfattning av denna webbsida: I detta dokument föreslås ett trådlöst kommunikationsnät (WCPN) med hjälp av backscatterkommunikation (BackCom). Denna modell består av ett kraftverk, en informationsmottagare och flera användare som kan arbeta i antingen BackCom-läge eller skördeläge (HTT). Tidsblocket är huvudsakligen uppdelat i två delar som motsvarar databackscattering respektive överföringsperioder. Användare första backscatter data till informationsmottagaren i tidsdelning flera åtkomst (TDMA) under data backscattering period. När en användare arbetar i BackCom-läget får de andra användarna energi från kraftverket. Under dataöverföringsperioden beaktas två system, dvs. icke-ortogonal multipelåtkomst (NOMA) och TDMA. För att maximera systemgenomströmningen erhålls den optimala tidstilldelningspolicyn. Simuleringsresultat visar den föreslagna modellens överlägsenhet.
Upphovsmän i REF har föreslagit ett trådlöst kommunikationsnät med stöd av backscatterkommunikation.
3,619,201
Optimal Time Allocation in Backscatter Assisted Wireless Powered Communication Networks
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']}
1,296
Vi studerar problemet med video-till-video syntes, vars mål är att lära sig en kartfunktion från en indatakälla video (t.ex. en sekvens av semantiska segmentering masker) till en utgående fotorealistisk video som exakt avbildar innehållet i källvideon. Medan dess bildmotsvarighet, bild-till-bild översättningsproblem, är ett populärt ämne, video-till-video syntes problemet är mindre utforskad i litteraturen. Utan att modellera temporal dynamik, direkt tillämpa befintliga bildsyntes närmar sig en inmatningsvideo ofta resulterar i temporalt inkonsekventa videor av låg visuell kvalitet. I detta dokument föreslår vi en metod för video-till-videosyntes inom ramen för det generativa kontradiktoriska lärandet. Genom noggrant utformade generatorer och discriminatorer, tillsammans med ett spatio-temporärt kontradiktoriskt mål, uppnår vi högupplösta, fotorealistiska, tidssammanhängande videoresultat på en mängd olika indataformat inklusive segmenteringsmasker, skisser och poser. Experiment på flera referensvärden visar fördelen med vår metod jämfört med starka basvärden. I synnerhet, vår modell är kapabel att syntetisera 2K upplösning videos av gatuscener upp till 30 sekunder lång, vilket avsevärt avancerar state-of-the-art av video syntes. Slutligen tillämpar vi vår metod för framtida video förutsägelse, överträffar flera konkurrerande system. Kod, modeller och fler resultat finns tillgängliga på vår hemsida.
Vid2Vid REF föreslog ett nätverk för video-till-video-översättning från segmenteringsmasker, kantmasker och mänsklig pose.
52,049,245
Video-to-Video Synthesis
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
1,297
Abstract-convolutional Neural Network (CNN) har visat lovande prestanda i enmärkt bildklassificeringsuppgifter. Hur CNN bäst hanterar flermärkta bilder är dock fortfarande ett öppet problem, främst på grund av de komplexa underliggande objektlayouterna och otillräckliga flermärkta utbildningsbilder. I detta arbete föreslår vi en flexibel djup CNN-infrastruktur, kallad Hypoteser-CNN-Pooling (HCP), där ett godtyckligt antal objektsegment hypoteser tas som indata, då en delad CNN är ansluten till varje hypotes, och slutligen CNN-utgången resultat från olika hypoteser aggregeras med max pooling för att producera de ultimata multi-etikett förutsägelser. Några unika egenskaper hos denna flexibla djupa CNN-infrastruktur inkluderar: 1) ingen fältinformation krävs för utbildning; 2) hela HCP-infrastrukturen är robust för att möjligen bullriga och/eller överflödiga hypoteser; 3) ingen uttrycklig hypotesmärkning krävs; 4) det gemensamma CNN kan vara väl förträngda med en storskalig enmärkning av bilddata, t.ex. ImageNet; och 5) det kan naturligt producera multi-label förutsägelse resultat. Experimentella resultat på Pascal VOC2007 och VOC2012 flermärkta bilddata visar tydligt hur överlägsen den föreslagna HCP-infrastrukturen är jämfört med andra toppmoderna. I synnerhet når mAP 84,2 % av HCP endast och 90,3 % efter fusionen med vårt kompletterande resultat i [47] baserat på handgjorda funktioner på VOC2012 dataset, vilket avsevärt överträffar state-of-the-arts med en stor marginal på mer än 7 %.
I Ref föreslogs en djupgående CNN-infrastruktur, som kallas Hypoteser-CNN-Pooling, för klassificering av flermärkta bilder.
47,497,910
CNN: Single-label to Multi-label
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
1,298
Abstract-När vi blir gamla, vår önskan att vara oberoende minskar inte medan vår hälsa behöver övervakas oftare. Olyckor som att falla kan vara ett allvarligt problem för de äldre. Ett exakt automatiskt falldetekteringssystem kan hjälpa äldre människor att vara säkra i alla situationer. I detta papper har ett midja slitet fall detektionssystem föreslagits. En triaxiell accelerometer (ADXL345) användes för att fånga upp rörelsesignaler från människokroppen och upptäcka händelser som att gå och falla till en rimlig grad av noggrannhet. En uppsättning laboratoriebaserade fall och aktiviteter i det dagliga livet (ADL) utfördes av friska frivilliga med olika fysiska egenskaper. Denna uppsats presenterar jämförelsen av olika maskininlärning klassificering algoritmer med Waikato Environment for Knowledge Analysis (WEKA) plattform för att klassificera fallande mönster från ADL mönster. Syftet med detta dokument är att undersöka prestandan hos olika klassificeringsalgoritmer för en uppsättning registrerade accelerationsdata. Algoritmerna är Multilayer Perceptron, Naive Bayes, Beslutsträd, Stöd Vector Machine, ZeroR och OneR. Accelerationsdata med totalt 6962 instanser och 29 attribut användes för att utvärdera prestandan hos de olika klassificeringsalgoritmerna. Resultat visar att flerskiktsperceptronalgoritm är det bästa alternativet bland andra nämnda algoritmer, på grund av dess höga noggrannhet i falldetektering.
Multilayer perceptron, Naive Bayes, beslutsträd, SVM, ZeroR och OneR implementeras i REF för att undersöka prestandan hos olika klassificeringsalgoritmer för en uppsättning registrerade accelerationsdata.
15,058,652
Evaluation of fall detection classification approaches
{'venue': '2012 4th International Conference on Intelligent and Advanced Systems (ICIAS2012)', 'journal': '2012 4th International Conference on Intelligent and Advanced Systems (ICIAS2012)', 'mag_field_of_study': ['Engineering']}
1,299
Affärstransaktioner online innebär en inneboende misstro mellan deltagande parter eftersom det ibland inte finns något tidigare samband mellan dem. Sådan misstro kan vara en återvändsgränd i en transaktion där köparen inte vill utföra betalningen förrän säljaren skickar varorna och säljaren inte vill göra det förrän köparen betalar för köpet. I detta dokument presenterar vi ett rättvist protokoll för datahandel där den kommersiella affären, när det gäller att leverera data och utföra betalningen, är atomisk, eftersom säljaren inte kan lösa in betalningen om inte köparen får uppgifterna och köparen inte kan få uppgifterna utan att utföra betalningen. Protokollet är baserat på Bitcoin skriptspråk och rättvisan i protokollet kan probabilistically genomdrivas.
Till exempel den metod som presenteras i REF för ett rättvist protokoll för datahandel använder låsta transaktioner, där säljaren inte kan lösa in betalningen om hon inte ger en hemlighet; detta är den privata nyckel som används av köparen för att dekryptera de digitala varorna.
3,985,685
A fair protocol for data trading based on Bitcoin transactions
{'venue': 'IACR Cryptology ePrint Archive', 'journal': 'IACR Cryptology ePrint Archive', 'mag_field_of_study': ['Computer Science', 'Business']}
1,300
Abstrakt. För att stödja informellt lärande kompletterar vi den formella kunskap som representeras av ontologier som utvecklats av domänexperter med den informella kunskap som uppstår genom social märkning. I detta syfte har vi utvecklat en anrikningsrörledning för ontologi som automatiskt kan berika en domän ontologi med hjälp av: data som extraheras av en krypare från sociala medieapplikationer, likhetsåtgärder, DBpedia kunskapsbas, en disambiguationsalgoritm och flera heuristiker. Huvudsyftet är att tillhandahålla dynamiska och personliga domän ontologier som inkluderar kunskap om användargemenskapen.
P. Monachesi och T. Markus i REF föreslog en anrikningsrörledning för ontologi som automatiskt kan berika en domän ontologi med hjälp av: data som extraheras av en krypare från sociala medieapplikationer, likhetsåtgärder, DBpedia kunskapsbas, en disambiguationsalgoritm och flera heuristiker.
33,307,562
Using social media for ontology enrichment
{'venue': 'ESWC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,301
Modern teknik för testfallsgenerering kan automatiskt uppnå hög kodtäckning. Om de arbetar på enhetsnivå löper de risken att generera indata som är ogenomförbara i verkligheten, vilket, när de orsakar fel, är smärtsamt att identifiera och eliminera. Köra en enhet testgenerator på fem öppen källkod Java program, Vi fann att alla 181 rapporterade misslyckanden var falska misslyckanden - det vill säga, indikerar ett problem i det genererade testfallet snarare än programmet. Genom att generera testfall på GUI-nivå kan vår EXSYST-prototyp undvika sådana falsklarm genom konstruktion. I vår utvärdering uppnår det högre täckning än sökbaserade testgeneratorer på enhetsnivå; ändå kan varje fel visas orsakas av en verklig sekvens av inmatningshändelser. När ett systemgränssnitt är tillgängligt rekommenderar vi att man överväger att testa ett sökbaserat system som ett alternativ för att undvika felaktiga fel.
Andra metoder använder sökbaserade tekniker för att utföra åtgärder och observera tillstånd av ett visst beteende i källkoden REF för att generera testfall på GUI-nivå.
6,327,703
Search-based system testing: high coverage, no false alarms
{'venue': 'ISSTA 2012', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,302
På senare år har de sociala nätverken ökat i popularitet. En viktig aspekt i forskningen om sociala nätverk är att identifiera viktig information som saknas och som inte uttryckligen finns representerad i nätverket, eller som inte är synlig för alla. Hittills har denna forskning oftast fokuserat på att hitta de kopplingar som saknas mellan noder, en utmaning som vanligtvis kallas länken förutsägelse problem. I denna artikel introduceras problemet med identifiering av nod som saknas, där saknade medlemmar i den sociala nätverksstrukturen måste identifieras. I detta problem antas tecken på saknade noder finnas. Med tanke på dessa indikationer och ett partiellt nätverk måste vi bedöma vilka indikationer som kommer från samma saknade nod och fastställa hela nätverksstrukturen. För att lösa detta problem presenterar vi den saknade nodidentifieringen genom spektralklustringsalgoritm (MISC), ett tillvägagångssätt baserat på en spektral klusteralgoritm, kombinerat med nodernas parvisa affinitetsåtgärder som antogs från länkförutsägelseforskning. Vi utvärderar resultatet av vår strategi i olika probleminställningar och scenarier, med hjälp av verkliga data från Facebook. Resultaten visar att vårt tillvägagångssätt har goda resultat och kan vara effektivt när det gäller att lösa problemet med identifiering av nod som saknas. Dessutom presenterar denna artikel också R-MISC, som använder en sparsam matris representation, effektiva algoritmer för att beräkna nodernas parvisa affinitet, och en egenutvecklad dimension reduktion teknik för att möjliggöra skalning MISC algoritm till stora nätverk av mer än 100.000 noder. Slutligen tar vi hänsyn till probleminställningar där vissa av indikationerna är okända. Två algoritmer föreslås för detta problem: spekulativ MISC, baserat på MISC, och saknas länk avslutning, baserat på klassisk länk förutsägelse litteratur. Vi visar att spekulativ MISC överträffar den felande länken.
MISC utvecklades för att ta itu med problemet med saknade nodidentifiering när informationen om anslutningar mellan saknade noder och observerbara noder antas vara tillgänglig REF.
1,128,819
Predicting and Identifying Missing Node Information in Social Networks
{'venue': 'TKDD', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,303
Vi undersöker det allmänna problemet med att reproducera färgbilder på en offsetpress med hjälp av anpassade bläck i alla kombinationer och nummer. Även om detta problem har undersökts tidigare för fallet med två bläck, det finns ett antal nya matematiska och algoritmiska utmaningar som uppstår när antalet bläck ökar. Dessa utmaningar omfattar mer komplexa karteringsstrategier, effektivare strategier för färgval och snabba och numeriskt korrekta metoder för att beräkna bläcksepareringar i situationer som kan vara över- eller underkonstruerade. Dessutom kräver kraven på högkvalitativa färgtryck en exakt fysisk modell av de färger som följer av övertryck av flera bläck med hjälp av halvtoning, inklusive effekterna av fångst, prickvinst, och interreflekterande av ljus mellan bläckskikt. I detta papper utforskar vi dessa frågor relaterade till utskrift med flera anpassade bläck, och adresserar dem med nya algoritmer och fysiska modeller. Slutligen presenterar vi några tryckta exempel som visar löftet om våra metoder.
Stollenitz m.fl. REF undersöker problemet med att skriva ut en färgbild med ett godtyckligt antal bläck.
18,170
Reproducing color images using custom inks
{'venue': "SIGGRAPH '98", 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,304
En av de viktigaste prioriteringarna för smarta städer är att förbättra invånarnas livskvalitet. Trafikbuller är en av de föroreningskällor som inverkar negativt på medborgarnas livskvalitet och som uppmärksammas av myndigheterna. Europeiska kommissionen har främjat miljöbullerdirektivet 2002/49/EG (END) för att informera medborgarna och förebygga de skadliga effekterna av bullerexponering. Mätningen av akustiska nivåer med hjälp av bullerkartor är en strategisk fråga i handlingsplanen END. Bullerkartor beräknas vanligen genom beräkning av det genomsnittliga bullret under ett år och uppdateras vart femte år. Därför skulle införandet av dynamiska bullerkartläggningssystem kunna leda till kortsiktiga planåtgärder, förutom att bidra till att bättre förstå bullernivåernas utveckling under lång tid. På senare tid har vissa projekt startat övervakning av bullernivåer i stadsområden med hjälp av akustiska sensornätverk som ligger på strategiska platser över hela staden, medan andra har utnyttjat samverkande medborgaranalys av mobila tillämpningar. I detta dokument beskriver vi utformningen av ett akustiskt lågkostnadssensornät installerat på allmänna bussar för att mäta trafikbullret i staden i realtid. Dessutom räknas och diskuteras de utmaningar som ett allmänt tillgängligt system för akustisk mätning av bussar innebär. Analysen tar särskilt hänsyn till extraheringen av ljudsignalen, identifieringen och separationen av trafikbuller från stadstrafikbuller, maskinvaruplattformen för att mäta och bearbeta den akustiska signalen, anslutningen mellan de olika noderna i det akustiska sensornätverket för att lagra data och slutligen bullerkartornas genereringsprocess. Genomförandet och utvärderingen av förslaget i ett verkligt scenario lämnas till det framtida arbetet.
Arbetet av Alsina-Pagés m.fl. designar och utvärderar ett bussbaserat sensornätverk för att övervaka buller i en smart stad REF.
5,819,269
Design of a Mobile Low-Cost Sensor Network Using Urban Buses for Real-Time Ubiquitous Noise Monitoring
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Computer Science', 'Medicine']}
1,305
Abstract-Under de senaste åren har det skett en dramatisk ökning av användningen av obemannade luftfartyg (UAV), särskilt för små UAV, på grund av deras överkomliga priser, bred tillgänglighet och relativt lätt drift. Befintliga och framtida tillämpningar av UAV omfattar fjärrövervakning och fjärrövervakning, hjälpinsatser, paketleverans och infrastruktur för kommunikationsbackhaul. Dessutom ses UAV som en viktig komponent i 5G trådlös teknik och utanför. De unika tillämpningsscenarierna för UAV kräver exakta förökningskanalmodeller för airto-ground (AG) för utformning och utvärdering av UAV-kommunikationslänkar för styrning/icke-payload samt överföring av nyttolastdata. Dessa AG-förökningsmodeller har inte undersökts i detalj i förhållande till terrestra förökningsmodeller. I detta dokument ges en omfattande undersökning om tillgängliga AG-kanalmätningskampanjer, stora och små kanalmodeller som bleknar, deras begränsningar och framtida forskningsanvisningar för UAV-kommunikationsscenarier. Index Terms-Air-to-ground (AG), kanalmätning, kanalmodellering, drönare, stor och liten blekning, ljud, obemannade luftfartyg (UAV).
Khawaja m.fl. REF tillhandahöll en omfattande undersökning av tillgängliga luft-till-mark-kanaler för UAV-kommunikation.
64,792,997
A Survey of Air-to-Ground Propagation Channel Modeling for Unmanned Aerial Vehicles
{'venue': 'IEEE Communications Surveys & Tutorials', 'journal': 'IEEE Communications Surveys & Tutorials', 'mag_field_of_study': ['Engineering', 'Computer Science']}
1,306
Alexis Mignon, Frédéric Jurie. PCCA: Ett nytt tillvägagångssätt för distansundervisning från glesa parvisa begränsningar. I detta dokument introduceras Pairwise Constomized Component Analysis (PCCA), en ny algoritm för att lära sig distansmått från glesa parvisa likhet / olikartade begränsningar i högdimensionellt ingångsutrymme, problem för vilka de flesta befintliga distans metrisk inlärningsmetoder inte är anpassade. PCCA lär sig en projektion in i ett lågdimensionellt utrymme där avståndet mellan par av datapunkter respekterar de önskade begränsningarna och uppvisar goda generaliseringsegenskaper i närvaro av data med hög dimension. I dokumentet visas också hur man effektivt kan finjustera tillvägagångssättet. PCCA är experimentellt validerat på två utmanande visionsuppgifter, ansiktsverifiering och personidentifiering, för vilka vi får toppmoderna resultat.
Mignon m.fl. REF utvecklade en metrisk inlärningsmetod som kallas PCCA och som anpassar sig till glesa parvisa likhets-/diversifieringsbegränsningar i högdimensionellt ingångsutrymme.
425,268
PCCA: A new approach for distance learning from sparse pairwise constraints
{'venue': '2012 IEEE Conference on Computer Vision and Pattern Recognition', 'journal': '2012 IEEE Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
1,307
Djupa konvolutionella neurala nätverk (CNN) har blivit den mest lovande metoden för objektigenkänning, upprepade gånger visar rekord bryta resultat för bildklassificering och objektdetektering under de senaste åren. Ett mycket djupt CNN omfattar dock i allmänhet många lager med miljontals parametrar, vilket gör lagringen av nätverksmodellen till extremt stor. Detta förbjuder användning av djupa CNNs på resurs begränsad hårdvara, särskilt mobiltelefoner eller andra inbyggda enheter. I detta dokument tar vi itu med denna modelllagringsfråga genom att undersöka informationsteoretiska vektorkvantiseringsmetoder för att komprimera CNN:s parametrar. I synnerhet har vi funnit i termer av komprimera de mest lagring krävande täta anslutna lager, vektorquantization metoder har en tydlig vinst över befintliga matris factorization metoder. Att helt enkelt applicera k-medelskluster på vikterna eller genomföra produktquantization kan leda till en mycket bra balans mellan modellstorlek och igenkänningsnoggrannhet. För den 1000-kategori klassificering uppgift i ImageNet utmaning, kan vi uppnå 16-24 gånger kompression av nätverket med endast 1% förlust av klassificering noggrannhet med hjälp av den senaste CNN.
Gong m.fl. REF tillämpar k-medel kluster på nätverksparametrar och gav 20× komprimering med endast 1% noggrannhet droppe.
6,251,653
Compressing Deep Convolutional Networks using Vector Quantization
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
1,308
Vi konstruerar ett utbildningsramverk som övervakas av människor i kretsloppet och som integrerar crowdsourcing-återkoppling och lokal kunskap för att upptäcka jobbrelaterade tweets från individuella konton och företagskonton. Med hjälp av datadriven etnografi undersöker vi diskurs om arbete genom att sammanställa språkbaserad analys med tids-, geosparations- och arbetsstatistikinformation.
Det mest parallella arbete som vi kan utnyttja här är den metod och corpus som utvecklats av REF, som är ett effektivt övervakat utbildningssystem för att upptäcka jobbrelaterade tweets från enskilda konton och affärskonton.
3,210,324
Understanding Discourse on Work and Job-Related Well-Being in Public Social Media
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Medicine', 'Computer Science']}
1,309
Abstract-Nowdays företag allt mer aggregera lokaliseringsdata från olika källor på Internet för att erbjuda lokaliseringsbaserade tjänster som att uppskatta aktuella trafikförhållanden, och hitta de bästa nattliv platser i en stad. Dessa tjänster har dock också orsakat oro över integritetsfrågor. När den mängd lokaliseringsdata som aggregeras ökar, kommer bekvämligheten av att dela var man befinner sig med allmänheten i stort oundvikligen att minska. Befintliga sätt att samla lokaliseringsdata i integritetslitteraturen är till stor del centraliserade genom att de förlitar sig på en betrodd platsbaserad tjänst. Istället föreslår vi en programvara (SpotME) som kan köras på en mobiltelefon och som kan uppskatta antalet personer på geografiska platser på ett integritetsbevarande sätt: exakta uppskattningar görs möjliga i närvaro av integritetsmedvetna användare som, förutom sina faktiska platser, rapporterar ett mycket stort antal felaktiga platser. De felaktiga platserna väljs ut av en randomiserad svarsalgoritm. Vi utvärderar exaktheten hos SpotME när det gäller att uppskatta antalet personer på två mycket olika realistiska spår av rörlighet: rörligheten för fordon i stads-, förorts- och landsbygdsområden samt rörligheten för tågresenärer i tunnelbanan i Stor London. Vi finner att felaktiga platser har liten effekt på uppskattningarna (i båda spåren är felet under 18% för en situation där mer än 99% av platserna är felaktiga), men de garanterar att användarna inte kan lokaliseras med hög sannolikhet. Dessutom är omkostnaderna för beräkning och lagring för en mobiltelefon som kör SpotME försumbara, och kommunikationsomkostnaderna är begränsade.
Tillvägagångssättet i REF liknar LDP i det att en randomiserad svarsalgoritm används för att störa den ursprungliga användarens platsdata.
15,454,609
SpotME If You Can: Randomized Responses for Location Obfuscation on Mobile Phones
{'venue': '2011 31st International Conference on Distributed Computing Systems', 'journal': '2011 31st International Conference on Distributed Computing Systems', 'mag_field_of_study': ['Computer Science']}
1,310
Vi demonstrerar en metod för samarbetsrankning av framtida händelser. Tidigare arbete på recommender system förlitar sig vanligtvis på feedback på ett visst objekt, såsom en film, och generaliserar detta till andra objekt eller andra människor. Däremot undersöker vi en inställning där det inte finns någon återkoppling på just den punkten. Eftersom direkt feedback inte finns för händelser som inte har ägt rum, rekommenderar vi dem baserat på individers preferenser för tidigare händelser, i kombination med andra människors gillande och ogillande. Vi undersöker ämnet osynlig objektrekommendation genom en användarstudie av akademiska (vetenskapliga) prat rekommendation, där vi syftar till att korrekt uppskatta en ranking funktion för varje användare, förutsäga vilka samtal skulle vara av mest intresse för dem. Genom att bryta ner användarparametrar i delade och individuella dimensioner, framkallar vi en likhetsmått mellan användare baserat på i vilken utsträckning de delar dessa dimensioner. Vi visar att de gemensamma rankningsprognoserna för framtida händelser är mer effektiva än en ren innehållsbaserad rekommendation. För att ytterligare minska behovet av explicit feedback från användarna föreslår vi slutligen ett aktivt lärande för att få feedback och en metod för att införliva tillgängliga implicita användarsignaler.
Einat m.fl. REF demonstrerade en metod för samarbetsrankning av framtida händelser, som rekommenderar de händelser som bygger på individers preferenser för tidigare händelser, i kombination med andra människors gillande och ogillande. Men alla dessa metoder tar inte hänsyn till egenskaperna hos offline-nätverk.
207,183,230
Collaborative future event recommendation
{'venue': "CIKM '10", 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,311
Neurala nätverk är kända för att vara sårbara för kontradiktoriska exempel. Noggrant utvalda perturbationer till verkliga bilder, men omärkliga för människor, framkalla felklassificering och hota tillförlitligheten hos djupinlärningssystem i det vilda. För att skydda oss mot kontradiktoriska exempel tar vi inspiration från spelteorin och kastar problemet som ett minimax nollsummespel mellan motståndaren och modellen. I allmänhet, för sådana spel, den optimala strategin för båda spelarna kräver en stokastisk politik, även känd som en blandad strategi. Mot denna bakgrund föreslår vi Stochastic Activation Pruning (SAP), en blandad strategi för kontradiktoriskt försvar. SAP beskär en slumpmässig undergrupp av aktiveringar (företrädesvis beskära dem med mindre magnitud) och skala upp de överlevande för att kompensera. Vi kan tillämpa SAP på förtränade nätverk, inklusive kontradiktoriskt utbildade modeller, utan finjustering, vilket ger robusthet mot kontradiktoriska exempel. Experiment visar att SAP ger robusthet mot attacker, ökad noggrannhet och bibehållen kalibrering.
I REF utför författarna stokastisk aktivering beskärning för kontradiktoriskt försvar.
3,604,396
Stochastic Activation Pruning for Robust Adversarial Defense
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
1,312
I detta dokument föreslår vi ett globalt optimeringsbaserat tillvägagångssätt för att gemensamt matcha en uppsättning bilder. De uppskattade korrespondenserna maximerar samtidigt parvis funktionsaffinitet och cykelkonsistens över flera bilder. Till skillnad från tidigare konvexa metoder som bygger på semidefinit programmering, vi formulerar problemet som en låg-rank matris återhämtning problem och visar att den önskade semidefinitenessen av en lösning kan spontant uppfyllas. Den lågrankade formuleringen gör det möjligt för oss att härleda en snabbt alternerande minimeringsalgoritm för att hantera praktiska problem med tusentals funktioner. Både simulering och verkliga experiment visar att den föreslagna algoritmen kan uppnå en konkurrenskraftig prestanda med en magnitudhastighetsökning jämfört med den toppmoderna algoritmen. I slutändan visar vi tillämpligheten av den föreslagna metoden för att matcha bilder av olika objekt instanser och som ett resultat av möjligheten att rekonstruera kategori-specifika objekt modeller från dessa bilder.
Zhou m.fl. REF föreslog en snabb alternerande minimeringsalgoritm för multi-image matchning.
2,456,469
Multi-image Matching via Fast Alternating Minimization
{'venue': '2015 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2015 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
1,313
I detta dokument föreslår vi ett nytt ordningssystem för att förbättra prestandan hos en Laplacian Mesh Smoothing (LMS). Medan Laplacians utjämningsalgoritm är väl optimerad och studerad, visar vi hur en enkel omordning av nätver kan avsevärt förbättra exekveringstiden för utjämningsalgoritmen. Idén med vår omordning är baserad på (i) postulatet att cache missar är en mycket tidskrävande del av genomförandet av LMS, och (ii) studien av återanvändning avstånd mönster av olika utföranden av LMS algoritm. Vår omordning algoritm är mycket enkel men möjliggör enorma prestandaförbättringar. Vi körde det på en Westmere-EX plattform och fick en hastighetshöjning på 75 på 32 kärnor jämfört med den enda kärnan utförande utan omordning, och en vinst i genomförandet på 32% på 32 kärnor jämfört med den senaste tekniken omordning. Slutligen visar vi att vi lämnar lite utrymme för en bättre beställning genom att minska L2 och L3 cache missar till ett minimum.
Aupy m.fl. REF föreslog vertex reordering tekniker med användning av återanvändningsavståndet metrisk, vilket minskade exekveringstiden genom att förbättra cacheutnyttjandet.
9,487,643
Locality-Aware Laplacian Mesh Smoothing
{'venue': '2016 45th International Conference on Parallel Processing (ICPP)', 'journal': '2016 45th International Conference on Parallel Processing (ICPP)', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
1,314
Abstrakt. I detta dokument föreslår vi en metod för att upptäcka människor i bilder tagna från en UAV. Detta är ett utmanande problem på grund av ett litet antal pixlar på målet, vilket gör det svårare att skilja människor från bakgrund skräp, och resulterar i mycket större sökyta. Vi föreslår en metod för mänsklig detektion baserad på ett antal geometriska begränsningar som erhålls från metadata. I synnerhet får vi orienteringen av markplanet normalt, orienteringen av skuggor som kastas av människor i scenen, och förhållandet mellan mänskliga höjder och storleken på deras motsvarande skuggor. I de fall där metadata inte finns tillgängliga föreslår vi en metod för att automatiskt uppskatta skuggorientering från bilddata. Vi använder ovanstående information i en geometribaserad skugga, och mänsklig blob detektor, som ger en första uppskattning för platser av människor i scenen. Dessa kandidat platser klassificeras sedan som antingen mänskliga eller skräp med hjälp av en kombination av wavelet funktioner, och en Support Vector Machine. Vår metod fungerar på en enda ram, och till skillnad från rörelsedetekteringsbaserade metoder, kringgår den den globala rörelsekompensationsprocessen, och gör det möjligt att upptäcka stationära och långsamma rörliga människor, samtidigt som man undviker sökningen över hela bilden, vilket gör den mer exakt och mycket snabb. Vi visar imponerande resultat på sekvenser från VIVID-datasetet och våra egna data, och ger jämförande analys.
Att utsättas för liknande begränsningar är en detekteringsmetod i REF baserad på geometriska begränsningar av en persons skuggorientering på scenen med avseende på metadata (global position, tid) och förhållandet mellan genomsnittlig personhöjd och storleken på dess motsvarande skugga.
7,018,553
Geometric Constraints for Human Detection in Aerial Imagery
{'venue': 'Proc. European on Computer Vision', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,315
Vi föreslår en förlust för att lära sig djupa inbäddningar. Den nya förlusten inför inte parametrar som behöver justeras och resulterar i mycket bra inbäddningar i en rad datauppsättningar och problem. Förlusten beräknas genom att uppskatta två fördelningar av likheter för positiva (matchning) och negativa (icke-matchning) provpar, och sedan beräkna sannolikheten för att ett positivt par har en lägre likhetspoäng än ett negativt par baserat på den uppskattade likhetsfördelningen. Vi visar att sådana operationer kan utföras på ett enkelt och bitvis olika sätt med hjälp av 1D-histogram med mjuka uppdragsoperationer. Detta gör den föreslagna förlusten lämplig för att lära djupa inbäddningar med hjälp av stokastisk optimering. I experimenten presterar den nya förlusten positivt jämfört med de nyligen föreslagna alternativen.
Ustinova och Lempitsky REF föreslog en histogramförlustfunktion som beräknas genom att uppskatta två fördelningar av likheter för positiva och negativa par.
15,402,687
Learning Deep Embeddings with Histogram Loss
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
1,316
Det finns ett ökande behov av att inta, hantera och ifrågasätta stora volymer grafstrukturerade data som uppstår i tillämpningar som sociala nätverk, kommunikationsnät, biologiska nätverk och så vidare. Grafiska databaser som uttryckligen kan resonera om den grafiska karaktären hos data, som kan stödja flexibla scheman och nodecentriska eller kantcentriska analyser och frågor, är idealiska för lagring av sådana data. Även om det finns mycket arbete på singlesite grafdatabaser och på att effektivt utföra olika typer av frågor över stora grafer, hittills finns det inte mycket arbete med att förstå utmaningarna i distribuerade grafdatabaser, som behövs för att hantera den stora skalan av sådana data. I detta dokument föreslår vi utformningen av en in-minne, distribuerade grafdatahanteringssystem som syftar till att hantera en storskalig dynamiskt föränderlig graf, och stödja låg latent frågebehandling över den. Den viktigaste utmaningen i en distribuerad graf databas är att, partitionera en graf över en uppsättning maskiner i sig resulterar i ett stort antal distribuerade traversaler över partitioner för att svara på även enkla frågor. Vi föreslår aggressiv replikering av noderna i grafen för att stödja låga latensförfrågan, och undersöka tre nya tekniker för att minimera kommunikationsbandbredden och lagringskraven. Först utvecklar vi en hybrid replikation policy som övervakar node läs-skriv frekvenser för att dynamiskt bestämma vilka data att replikera, och om att göra ivrig eller lat replikering. För det andra föreslår vi ett klusterbaserat tillvägagångssätt för att avskriva kostnaderna för att fatta dessa beslut. Slutligen föreslår vi att man använder ett rättvisande kriterium för att bestämma hur beslut om replikering ska fattas. Vi tillhandahåller både teoretisk analys och effektiva algoritmer för de optimeringsproblem som uppstår. Vi har implementerat vårt ramverk som en middleware på toppen av CouchDB nyckelvärde butik med öppen källkod. Vi utvärderar vårt system på en social graf, och visar att vårt system kan hantera mycket stora grafer effektivt, och att det minskar nät bandbredd förbrukningen avsevärt.
Mondal m.fl. i REF föreslå en aggressiv replikeringsmetod för låga latensförfrågningar.
16,166,412
Managing large dynamic graphs efficiently
{'venue': 'SIGMOD Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,317
Vi föreslår en ny nätverksbaserad metod för lokaliseringsuppskattning i sociala medier som integrerar belägg för den sociala bindningsstyrkan mellan användare för förbättrad lokaliseringsuppskattning. Konkret föreslår vi en platsskattare -FriendlyLocation - som utnyttjar förhållandet mellan styrkan i kopplingen mellan ett par användare och avståndet mellan paret. Baserat på en undersökning av över 100 miljoner geokodade tweets och 73 miljoner Twitter-användarprofiler, identifierar vi flera faktorer såsom antalet följare och hur användarna interagerar som starkt kan avslöja avståndet mellan ett par användare. Vi använder dessa faktorer för att träna ett beslut träd för att skilja mellan par av användare som är benägna att bo i närheten och par av användare som är benägna att leva i olika områden. Vi använder resultaten av detta beslut träd som indata till en maximal sannolikhet estimator för att förutsäga en användares plats. Vi finner att denna föreslagna metod avsevärt förbättrar resultaten av lokaliseringsuppskattning i förhållande till en toppmodern teknik. Vårt system minskar det genomsnittliga felavståndet för 80% av Twitter-användare från 40 miles till 21 miles med endast information från användarens vänner och vänner, vilket har stor betydelse för att öka traditionella sociala medier och berika platsbaserade tjänster med mer förfinade och exakta lokaliseringsberäkningar.
McGee och Al. REF förutspådde platsen för användarna med hjälp av slip styrka av medlemmarna i Twitter.
207,206,685
Location prediction in social media based on tie strength
{'venue': 'CIKM', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,318
Vi studerar problemet med att lära sig multivariat log-concave densiteter med avseende på en global förlust funktion. Vi får den första övre gränsen på provet komplexitet av den maximala sannolikheten estimator (MLE) för en log-konkav densitet på R d, för alla d ≥ 4. Före detta arbete var ingen ändlig övre provbindning känd för denna estimator i mer än 3 dimensioner. I mer detalj, Vi bevisar att för alla d ≥ 4 och > 0, givet Õ d ((1/ ) (d+3)/2 ) prover som tagits från en okänd log-konkav densitet f 0 på R d, MLE utgångar en hypotes h att med hög sannolikhet är -nära f 0, i kvadrat Hellinger förlust. För varje d ≥ 2 var en prov komplexitet lägre gräns för d ((1/ ) (d+1)/2 ) tidigare känd för alla lärande algoritmer som uppnår denna garanti. Vi fastställer således att provets komplexitet i log-concave MLE är nära optimal för d ≥ 4, upp till en Õ(1/ ) faktor.
I det senaste arbetet, Carpenter et al. REF visade en prov komplexitet övre gräns för Õ d (1/ på) (d+3)/2 för multivariat logconcave MLE med avseende på squared Hellinger förlust, vilket ger den första finita prov komplexitet övre gräns för denna uppskattning i dimension d ≥ 4.
1,603,246
Near-Optimal Sample Complexity Bounds for Maximum Likelihood Estimation of Multivariate Log-concave Densities
{'venue': 'COLT 2018 proceedings version', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
1,319
Automatisk syntes av realistiska bilder från text skulle vara intressant och användbart, men nuvarande AI-system är fortfarande långt ifrån detta mål. Under de senaste åren har dock generiska och kraftfulla återkommande neurala nätverksarkitekturer utvecklats för att lära sig diskriminativa textfunktionsrepresentationer. Samtidigt har djupa konvolutionella generativa kontrariska nätverk (GANS) börjat generera mycket övertygande bilder av specifika kategorier, såsom ansikten, skivomslag och rumsinteriörer. I detta arbete utvecklar vi en ny djup arkitektur och GAN-formulering för att effektivt överbrygga dessa framsteg inom text- och bildmodellering, översätta visuella begrepp från tecken till pixlar. Vi visar vår modells förmåga att generera trovärdiga bilder av fåglar och blommor från detaljerade textbeskrivningar.
Reed m.fl. i REF föreslå ett gemensamt representationsutrymme för att villkora generativa kontrariska nätverk för syntetisering av bilder från textbeskrivningar.
1,563,370
Generative Adversarial Text to Image Synthesis
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
1,320
Informellt är en obfuscator O en (effektiv, probabilistisk) "kompilator" som tar som ingång ett program (eller krets) P och producerar ett nytt program O(P ) som har samma funktionalitet som P ännu är "oförståelig" i någon mening. Obfuscators, om de finns, skulle ha en mängd olika kryptografiska och komplexa-teoretiska tillämpningar, allt från programvaruskydd till homomorfisk kryptering till komplexa-teoretiska analoger av Ris teorem. De flesta av dessa tillämpningar är baserade på en tolkning av "oförståelig" villkor i obfuscation som innebär att O(P ) är en "virtuell svart låda", i den meningen att allt man effektivt kan beräkna givet O(P ), man kan också effektivt beräkna given orakle tillgång till P. I detta arbete, inleder vi en teoretisk undersökning av obfuscation. Vårt huvudsakliga resultat är att även under mycket svaga formaliseringar av ovanstående intuition är obfuscation omöjlig. Vi bevisar detta genom att bygga en familj av effektiva program P som är oobfuscatable i den meningen att (a) med tanke på alla effektiva program P som beräknar samma funktion som ett program P på P, kan "källkod" P effektivt rekonstrueras, men (b) ges orakle tillgång till ett (slumpvis utvalda) program P P P, ingen effektiv algoritm kan rekonstruera P (eller ens skilja en viss bit i koden från slumpmässig) utom med försumbar sannolikhet. Vi utökar vår omöjlighet resulterar i ett antal sätt, inklusive även obfuscators som (a) inte nödvändigtvis kan beräknas i polynom tid, (b) bara ungefär bevara funktionaliteten, och (c) behöver bara arbeta för mycket begränsade modeller av beräkning (TC 0 ). Vi utesluter också flera potentiella tillämpningar av obfuscators, genom att bygga "oobfuscatable" signatursystem, krypteringssystem och pseudorandom funktionsfamiljer. I detta arbete inleder vi en teoretisk undersökning av obfuscation. Vi undersöker olika formaliseringar av begreppet, i ett försök att förstå vad vi kan och inte kan hoppas på att uppnå. Vårt huvudresultat är negativt, vilket visar att obfuscation (som det vanligtvis förstås) är omöjligt. Innan vi beskriver detta resultat och andra mer i detalj beskriver vi några av de potentiella tillämpningarna av obfuscators, både för motivation och för att förtydliga begreppet. Programvaruskydd.. De mest direkta tillämpningarna av obfuscators är för olika former av programvaruskydd. Genom definition, obfuscing ett program skyddar det mot omvänd ingenjörskonst. Till exempel, om en part, Alice, upptäcker en mer effektiv algoritm för factoring heltal, kan hon vilja sälja en annan part, Bob, ett program för till synes svagare uppgifter (såsom bryta RSA cryptosystem) som använder factoring algoritm som en subrutin utan att faktiskt ge Bob en factoring algoritm. Alice kan hoppas att uppnå detta genom att fördunkla programmet hon ger till Bob. Intuitivt, obfuscators skulle också vara användbart i vattenmärkning programvara (jfr, [CT; NSS]). En programvaruleverantör kan ändra ett programs beteende på ett sätt som unikt identifierar den person till vilken det säljs, och sedan fördunkla programmet för att garantera att detta "vattenmärke" är svårt att ta bort. Tar bort slumpmässiga orakler. Random Oracle Model [BR] är en idealiserad kryptografisk miljö där alla parter har tillgång till en verkligt slumpmässig funktion. Det är (heuritiskt) hoppats att protokoll utformade i denna modell kommer att förbli säker när den genomförs med hjälp av en effektiv, offentligt beräknande kryptografisk hash funktion i stället för den slumpmässiga funktionen. Även om det är känt att detta inte är sant i allmänhet [CGH], är det okänt om det finns effektivt beräkningsbara funktioner med tillräckligt starka egenskaper för att säkert användas i stället för den slumpmässiga funktionen i olika specifika protokoll 2. Man kan hoppas på att få sådana funktioner genom att fördunkla en familj av pseudorandom funktioner [GGM], vars input-output beteende är per definition oskiljaktiga från en verkligt slumpmässig funktion. Omvandla Privat-Key kryptering till Public-Key kryptering.. Obfuscation kan också användas för att skapa nya krypteringssystem med öppen nyckel genom att obfuscera ett krypteringssystem med privat nyckel. Med tanke på en hemlig nyckel K i en privat nyckel krypteringsschema, kan man publicera en obfuscation av krypteringsalgoritmen Enc K. Detta tillåter alla att kryptera, men bara en som har den hemliga nyckeln K bör kunna dekryptera. Intressant nog, i den ursprungliga tidningen av Diffie och Hellman [DH] var det ovan angivna skälet till att tro att public-key kryptosystem kan existera även om det inte fanns några kandidater kända ännu. Det vill säga, de föreslog att det skulle vara möjligt att fördunkla ett krypteringssystem med privat nyckel. 3 2 Vi noterar att resultaten av [CGH] också kan ses som att utesluta en mycket stark "virtuell svart låda" definition av obfuscators. Detta beror på att deras resultat innebär att ingen obfuscator tillämpas på någon pseudorandom funktion familj skulle kunna fungera för alla protokoll, medan en mycket stark virtuell svart låda definition skulle garantera detta. Vi konstaterar emellertid att våra viktigaste resultat utesluter en till synes mycket svagare definition av fördunkladhet. Dessutom noterar vi att utesluta starka virtuella svarta box definitioner är nästan omedelbar: Till exempel, en sak som kan beräknas effektivt från O(P ) är programmet O(P ) själv. Men för alla program P som motsvarar en funktion som är svår att lära sig från frågor, skulle det vara omöjligt att producera något program som motsvarar P i funktionalitet ges endast oracle tillgång till P. 3 Från [DH]: "En mer praktisk metod för att hitta ett par lätt beräknade inversa algoritmer E och D; sådan att D är svårt att sluta sig till från E, använder sig av svårigheten att analysera program i låg nivå språk. Alla som har försökt avgöra vilken operation som utförs av någon annans maskinspråksprogram vet att E själv (dvs. vad E gör) kan vara svårt att dra slutsatsen från en algoritm för E. Om programmet skulle göras avsiktligt förvirrande genom tillägg av onödiga variabler och uttalanden, då impossibilitet av Applikationer.. Att ge ytterligare bevis för att vårt omöjlighetsresultat inte är en artefakt av definitionsval, utan snarare är inneboende i den "virtuella svarta rutan" som bestämmer en omvänd algoritm kan göras mycket svårt. Naturligtvis måste E vara tillräckligt komplicerat för att förhindra dess identifiering från input-output par. Vad som i huvudsak krävs är en enkelriktad kompilator: en som tar ett lättförståeligt program skrivet på ett språk på hög nivå och översätter det till ett obegripligt program på något maskinspråk. Kompilatorn är enkelriktad eftersom det måste vara möjligt att göra sammanställningen, men omöjlig att vända processen. Eftersom effektivitet i storlek på programmet och körtid inte är avgörande i detta program, sådana kompilatorer kan vara möjligt om strukturen i maskinen språket kan optimeras för att hjälpa till i förvirringen." A:5 idé, vi visar också att flera av tillämpningarna av obfuscators är omöjliga. Vi gör detta genom att bygga oobfuscatable signatursystem, krypteringssystem och pseudorandom funktioner. Dessa är objekt som uppfyller standarddefinitionerna av säkerhet, men för vilka man effektivt kan beräkna den hemliga nyckeln K från alla program som signerar (eller krypterar eller utvärderar pseudorandom-funktionen, resp.) I förhållande till K. Därför är det mycket osäkert att dela ut "obfuskerade former" av dessa nyckeltalgoritmer. I synnerhet kompletterar vi Canetti et. Detta beslut träder i kraft dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning.Kritik mot slumpmässig orakelmetodologi [CGH]. De visar att det finns (kontrigerade) protokoll som är säkra i den idealiserade Random Oracle Model (av [BR]), men är osäkra när den slumpmässiga oraklet ersätts med någon (effektivt beräknande) funktion. Våra resultat innebär att även för naturliga protokoll som är säkra i slumpmässiga orakel modellen, (t.ex. Fiat-Shamir typ system [FS]), finns det (kontrived) pseudorandom funktioner, så att dessa protokoll är osäkra när slumpmässiga orakel ersätts med något program som beräknar (kontrived) pseudorandom funktion. Vi nämner att efter vårt arbete, Barak [Bar1] konstruerade utan tvekan naturliga protokoll som är säkra i den slumpmässiga orakelmodellen (t.ex. De som erhålls genom tillämpning av Fiat-Shamir heuristic [FS] på hans argument om nollkunskap för offentliga mynt) men är osäkra när det slumpmässiga oraklet ersätts av någon effektivt beräkningsbar funktion. Definition 2.1 (TM obfuscator). En probabilistisk algoritm O är en TM obfuscator för samlingen F av Turing maskiner om följande tre villkor håller: 5 Se Fotnot 7.
Tyvärr, obfuscing ett program anses vara en svag form av skydd, som visas av Barak et al. Hoppa över det.
2,409,597
On the (Im)possibility of Obfuscating Programs
{'venue': 'IACR Cryptology ePrint Archive', 'journal': 'IACR Cryptology ePrint Archive', 'mag_field_of_study': ['Computer Science']}
1,321
Autoregressiva sekvensmodeller baserade på djupa neurala nätverk, såsom RNN, Wavenet och Transformer uppnå state-of-the-art resultat på många uppgifter. De är dock svåra att parallellisera och är därför långsamma med att bearbeta långa sekvenser. RNN saknar parallellism både under träning och avkodning, medan arkitekturer som WaveNet och Transformer är mycket mer parallelliserbara under träning, men ändå fungerar sekventiellt under avkodning. Vi presenterar en metod för att förlänga sekvensmodeller med hjälp av diskreta latenta variabler som gör avkodning mycket mer parallellizable. Vi först autokoda målsekvensen i en kortare sekvens av diskret latent variabler, som vid inference tid genereras autoregressivt, och slutligen avkoda utdatasekvensen från denna kortare latent sekvens parallellt. I detta syfte introducerar vi en ny metod för att konstruera en sekvens av diskreta latenta variabler och jämföra den med tidigare införda metoder. Slutligen utvärderar vi vår modell end-to-end på uppgiften att neural maskinöversättning, där det är en storleksordning snabbare vid avkodning än jämförbara autoregressiva modeller. Medan lägre i BLEU än rent autoregressiva modeller, vår modell uppnår högre poäng än tidigare föreslagna icke-autoregressiva översättningsmodeller.
REF konstruerade LatentTransformer som automatiskt kodar målsekvensen i en kortare sekvens av diskreta latenta variabler och genererar den slutliga målsekvensen från denna kortare latenta sekvens parallellt.
4,720,016
Fast Decoding in Sequence Models using Discrete Latent Variables
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
1,322
Gatubelysning är en allmänt utbredd nytta, men att upprätthålla sin verksamhet innebär en tung ekonomisk och miljömässig börda. Många system har föreslagits som selektivt dämpat ljus för att förbättra energieffektiviteten, men föga hänsyn har tagits till nyttan med det resulterande gatubelysningssystemet. I detta dokument föreslås ett adaptivt belysningssystem i realtid som upptäcker förekomsten av fordon och fotgängare och dynamiskt anpassar deras ljusstyrka till den optimala nivån. Detta förbättrar energieffektiviteten i gatubelysningen och dess användbarhet; en användningsmodell för gatubelysning presenteras för att utvärdera detta. Det föreslagna systemet simuleras med hjälp av en miljö som modellerar ett vägnät, dess användare och ett nätverksanslutet kommunikationssystem – och överväger en verklig gatubelysning topologi från ett bostadsområde. Det föreslagna systemet ger liknande eller förbättrad nytta som befintliga system, samtidigt som det konsumerar så lite som 1-2 % av den energi som krävs av konventionella och toppmoderna tekniker.
Ref. I Ref föreslås ett adaptivt belysningssystem i realtid som upptäcker förekomsten av fordon och fotgängare och dynamiskt anpassar deras ljusstyrka till den optimala nivån.
12,857,779
A traffic-aware street lighting scheme for Smart Cities using autonomous networked sensors
{'venue': 'Comput. Electr. Eng.', 'journal': 'Comput. Electr. Eng.', 'mag_field_of_study': ['Computer Science']}
1,323
Oförutsedda stora datavolymer blir tillgängliga med tillväxten av den avancerade mätinfrastrukturen. Dessa förväntas gynna planering och drift av de framtida kraftsystemen och hjälpa kunderna att övergå från en passiv till en aktiv roll. I detta dokument undersöker vi för första gången i det smarta nätet fördelarna med att använda djupt förstärkande lärande, en hybrid typ av metoder som kombinerar förstärkande lärande med djupt lärande, att utföra on-line optimering av scheman för att bygga energihanteringssystem. Inlärningsproceduren utforskades med hjälp av två metoder, Deep Q-learning och deep policy gradient, som båda har utvidgats för att utföra flera åtgärder samtidigt. Det föreslagna tillvägagångssättet validerades i den storskaliga databasen Pecan Street Inc... Denna mycket dimensionella databas innehåller information om solceller kraftproduktion, elfordon och byggnader apparater. Dessutom skulle dessa strategier för energiplanering online kunna användas för att ge konsumenterna feedback i realtid för att främja en effektivare användning av el. Index Terms-djup förstärkning lärande, efterfrågerespons, djupa neurala nätverk, smart rutnät, strategisk optimering.
Till exempel Mocanu et al. föreslå en djup förstärkning inlärningsmetod för att föreställa sig en online-optimering för att bygga energihanteringssystem i REF.
327,425
On-Line Building Energy Optimization Using Deep Reinforcement Learning
{'venue': 'IEEE Transactions on Smart Grid', 'journal': 'IEEE Transactions on Smart Grid', 'mag_field_of_study': ['Engineering', 'Computer Science', 'Mathematics']}
1,324
På senare år, på grund av de omfattande tillämpningarna av osäkra data, har gruvdrift frekventa artiklar över osäkra databaser väckt stor uppmärksamhet. I osäkra databaser är stödet för en itemset en slumpmässig variabel istället för en fast händelseräkning av denna itemset. Till skillnad från motsvarande problem i deterministiska databaser där de ofta förekommande objekten har en unik definition, har de ofta förekommande objekten under osäkra miljöer hittills två olika definitioner. Den första definitionen, som kallas den förväntade stödbaserade ofta förekommande itemseten, använder sig av förväntan om stöd från en itemset för att mäta om denna itemset är frekvent. I den andra definitionen, kallad den probabilistiska ofta förekommande itemseten, används sannolikheten för stöd av en itemset för att mäta dess frekvens. Således är det befintliga arbetet med gruvdrift frekventa artiklar över osäkra databaser indelat i två olika grupper och ingen studie utförs för att på ett heltäckande sätt jämföra de två olika definitionerna. Eftersom det inte finns någon enhetlig experimentell plattform ger de nuvarande lösningarna för samma definition till och med inkonsekventa resultat. I detta dokument syftar vi för det första till att klargöra förhållandet mellan de två olika definitionerna. Genom omfattande experiment verifierar vi att de två definitionerna har en snäv koppling och kan förenas när datastorleken är tillräckligt stor. För det andra tillhandahåller vi basalimplementeringar av åtta befintliga representativa algoritmer och testar deras prestanda med enhetliga åtgärder på ett rättvist sätt. Slutligen, enligt rättvisa tester över många olika referensdatauppsättningar, klargör vi flera befintliga inkonsekventa slutsatser och diskuterar några nya rön.
Nyligen, Tong et al. REF implementerade befintliga representativa algoritmer och testa deras prestanda med enhetliga åtgärder på ett rättvist sätt.
647,525
Mining Frequent Itemsets over Uncertain Databases
{'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']}
1,325
Abstrakt. I detta dokument diskuteras fördelarna med genomförandet av Tate parning beräkning i dedikerad hårdvara. Den viktigaste observationen ligger i det faktum att aritmetiska arkitekturer i förlängningsfältet GF (3 6m ) är bra kandidater för parallellisering, vilket leder till en liknande beräkningstid i hårdvara som för operationer över basfältet GF (3 m ). Med hjälp av detta tillvägagångssätt föreslås en arkitektur för maskinvaruimplementeringen av Tate-parningsberäkningen baserad på en modifierad Duursma-Lee-algoritm.
Detta beslut träder i kraft dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. föreslår en Tate pairing implementation REF baserad på den modifierade Duursma-Lee algoritmen.
6,325,877
Efficient Hardware for the Tate Pairing Calculation in Characteristic Three
{'venue': 'CHES', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,326
Frågornas klassificering spelar en viktig roll när det gäller att besvara frågor. Egenskaper är nyckeln till att få en korrekt frågeklassare. I motsats till Lis och Roths strategi (2002), som använder sig av mycket rikt funktionsutrymme, föreslår vi en kompakt men ändå effektiv funktionsuppsättning. I synnerhet föreslår vi huvudord funktion och presentera två metoder för att öka semantiska funktioner i sådana huvud ord med WordNet. Dessutom, Lesk s ord sense disambiguation (WSD) algoritm är anpassad och djupet av hypernym funktionen är optimerad. Med ytterligare förstärkning av andra standardfunktioner som Unigrams når våra linjära SVM- och Maximum Entropy-modeller noggrannheten på 89,2 % respektive 89,0 % över ett standardriktmärke, vilket överträffar den bästa tidigare rapporterade noggrannheten på 86,2 %.
Till exempel tillämpade REF klassificeringar baserade på linjära SVM- och maximal Entropy-modeller på problemet med frågeklassificering.
17,519,578
Question Classification using Head Words and their Hypernyms
{'venue': 'Conference On Empirical Methods In Natural Language Processing', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,327
Sammanfattning av denna webbsida: Ett datorstödd detektionssystem (CAD) är till hjälp för radiologer för att upptäcka pulmonella knölar på ett tidigt stadium. I detta dokument föreslår vi en ny pulmonell detektionsmetod baserad på hierarkisk blockklassificering. Det föreslagna CAD-systemet består av tre steg. I det första steget är inmatningskalkylerade tomografibilder uppdelade i tredimensionella blockbilder, och vi tillämpar entropianalys på blockbilderna för att välja informativa block. I det andra steget är de valda blockbilderna segmenterade och anpassade för att upptäcka nodulekandidater. I det sista steget klassificerar vi nodulens kandidatbilder till noduler och icke-noduler. Vi extraherar har vektorer av objekten i de valda blocken. Slutligen används stödvektorn för att klassificera de extraherade vektorerna. Det föreslagna systemets prestanda utvärderas i Lung Image Database Consortiums databas. Den föreslagna metoden har avsevärt minskat de falska positiva effekterna i nodulenkandidaterna. Det uppnådde 95,28% känslighet med endast 2,27 falska positiva per skanning.
Choi och Choi REF införde en pulmonell detektionsmetod med hierarkisk blockklassificering.
9,267,756
Article Automated Pulmonary Nodule Detection System in Computed Tomography Images: A Hierarchical Block Classification Approach
{'venue': 'Entropy', 'journal': 'Entropy', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
1,328
Problemet med att automatiskt upptäcka beroende och parallelism i prologprogram har hittills inte studerats. I detta dokument diskuterar vi viktiga frågor som är involverade i att använda statisk analys för att upptäcka beroende och-parallellism i Prolog-program. Vi presenterar en statisk analysteknik baserad på abstrakt tolkning som upptäcker (fruktfull) beroende och-parallellism. Vår metod använder sig av flera typer av information om programmets delning och frihet, granularitet undermål och bindningstider av programvariabler som beräknas med hjälp av abstrakt tolkning. Den information som samlas in från olika källor används för att producera en lämplig annotering av det ursprungliga programmet. Denna notering identi es: i) de mest fruktbara källorna till parallellism; och ii) de beroenden som måste respekteras under verkställandet. En prototypkompilator som innehåller dessa idéer har implementerats och testats på ACE- och-eller parallellprologsystemet. De (mycket uppmuntrande) resultat som erhållits redovisas här.
Det mest närbesläktade arbetet med vårt skapade parallellismanteckningar för ACE och/eller parallelsystemet REF.
15,372,397
Automatic Compile-Time Parallelization of Prolog Programs for Dependent And-Parallelism
{'venue': 'In International Conference on Logic Programming', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,329
Abstract-Ett antal problem i nätverksdrift och teknik kräver nya metoder för trafikanalys. De flesta befintliga trafikanalysmetoder är i grunden tidsbundna, men det finns ett tydligt behov av att analysera trafiken över flera nätverkslänkar - det vill säga för rumslig trafikanalys. I detta dokument ger vi exempel på problem som kan lösas genom rumslig trafikanalys. Vi föreslår sedan en formell strategi för rumslig trafikanalys baserad på våget transform. Vårt tillvägagångssätt (graph wavelets) generaliserar den traditionella wavelet transform så att det kan tillämpas på dataelement som är anslutna via en godtycklig graf topologi. Vi utforskar de nödvändiga och önskvärda egenskaperna hos detta tillvägagångssätt och överväger några av dess möjliga förverkliganden. Vi tillämpar sedan grafvågor på mätningar från ett operativsystem. Våra resultat visar att grafvågor är mycket användbara för våra motiverande problem; till exempel kan de användas för att bilda högt sammanfattade vyer av ett helt näts trafikbelastning, för att få insikt i ett näts globala trafikrespons på ett länkfel, och för att lokalisera omfattningen av en felhändelse inom nätverket.
Crovella och Kolaczyk REF introducerade wavelets på grafer för analys av nätverkstrafik.
874,996
Graph wavelets for spatial traffic analysis
{'venue': 'IEEE INFOCOM 2003. Twenty-second Annual Joint Conference of the IEEE Computer and Communications Societies (IEEE Cat. No.03CH37428)', 'journal': 'IEEE INFOCOM 2003. Twenty-second Annual Joint Conference of the IEEE Computer and Communications Societies (IEEE Cat. No.03CH37428)', 'mag_field_of_study': ['Computer Science']}
1,330