src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
Abstrakt. I många tillämpningar är det nödvändigt att algoritmiskt kvantifiera likheten som visas av två strängar som består av symboler från ett finit alfabet. Ett stort antal liknande åtgärder har föreslagits. Särskilt välkända åtgärder är baserade på redigeringsavstånd och längden på den längsta gemensamma undersekvensen. Vi utvecklar ett begrepp om n-gram likhet och avstånd. Vi visar att redigera avstånd och längden på den längsta gemensamma undersekvensen är specialfall av n-gram avstånd respektive likhet. Vi tillhandahåller formella, rekursiva definitioner av n-gram likhet och avstånd, tillsammans med effektiva algoritmer för att beräkna dem. Vi formulerar en familj av ordlika åtgärder baserade på n-gram, och rapporterar resultaten av experiment som tyder på att de nya åtgärderna överträffar deras Unigram motsvarigheter.
Dessutom generaliserar REF Levenshtein-avståndet med n-grammåttet.
7,481,332
N-gram similarity and distance
{'venue': 'Proc. Twelfth Int’l Conf. on String Processing and Information Retrieval', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
10,996
Skapandet av semantiskt relevanta kluster är av avgörande betydelse i påsar av visuella ord modeller som är kända för att vara mycket framgångsrika för att uppnå bildklassificering uppgifter. I allmänhet används oövervakade klusteralgoritmer, såsom K-medel, för att skapa sådana kluster från vilka visuella ordböcker härleds. K-medel uppnår en svår uppgift genom att koppla varje bilddeskriptor till klustret med närmaste medelvärde. På så sätt minimeras den inom-kluster summan av kvadrater av avstånd. En begränsning av detta tillvägagångssätt i samband med bildklassificering är att det vanligtvis inte använder någon övervakning som begränsar den diskriminativa kraften hos de resulterande visuella orden (vanligtvis centroiderna i klusteren). På senare tid föreslogs att vissa metoder för att skapa lexikon baserade på både övervakad information och datapassning skulle leda till mer diskriminerande visuella ord. Men ingen av dem anser den osäkerhet som finns på både bilddeskriptor och klusternivåer. I detta dokument föreslår vi en övervakad inlärningsalgoritm baserad på en Gaussisk Blandning modell som inte bara generaliserar K-means algoritm genom att tillåta mjuka uppdrag, men också utnyttjar övervakad information för att förbättra den diskriminerande kraften i kluster. Tekniskt sett syftar vår algoritm till att optimera, med en EM-baserad metod, en konvex kombination av två kriterier: den första är oövervakad och bygger på sannolikheten för utbildningsdata; den andra övervakas och tar hänsyn till renheten i kluster. Vi visar på två välkända dataset att vår metod kan skapa mer relevanta kluster genom att jämföra dess beteende med toppmoderna ordboksskapande metoder.
Den metod som beskrivs i REF föreslår en övervakad inlärningsalgoritm som generaliserar k-means algoritmen genom att tillåta mjuka uppdrag och utnyttja övervakad information för att förbättra den diskriminerande kraften i ordförrådet.
15,707,089
Supervised Learning of Gaussian Mixture Models for Visual Vocabulary Generation
{'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science']}
10,997
Vi presenterar en oövervakad inlärningsalgoritm som bryter stora textkorpora för mönster som uttrycker implicita semantiska relationer. För en given ingång ordpar Y X : med några ospecificerade semantiska relationer, är motsvarande output lista över mönster rankas enligt hur väl varje mönster i P uttrycker förhållandet mellan X och Y. Till exempel, givet struts = X och fågel = Y, de två högsta rankingutgångsmönster är "X är den största Y" och "Y såsom X". Utdatamönstren är avsedda att vara användbara för att hitta ytterligare par med samma relationer, för att stödja byggandet av lexikon, ontologier och semantiska nätverk. Mönstren sorteras efter pertinens, där betydelsen av ett mönster i P för ett ord par Y X : är den förväntade relationen likhet mellan det givna paret och typiska par för i P. Algoritmen är empiriskt utvärderad på två uppgifter, lösa flera val SAT ord analoga frågor och klassificera semantiska relationer i noun-modifier par. På båda uppgifterna uppnår algoritmen toppmoderna resultat, som presterar betydligt bättre än flera alternativa mönsterrankningsalgoritmer, baserade på tf-idf.
I arbetet för att visas, presenterar Turney REF en oövervakad algoritm för gruvdrift webben för mönster som uttrycker implicita semantiska relationer.
405
Expressing Implicit Semantic Relations Without Supervision
{'venue': 'International Conference On Computational Linguistics And Annual Meeting Of The Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']}
10,998
Katriel och Bodlaender [7] ändrar algoritmen som föreslagits av Alpern et al. [2] för att upprätthålla den topologiska ordningen av n noderna i en riktad acyklisk graf samtidigt infoga m-kanter och bevisa att deras algoritm körs i O(min {m 3/2 log n, m 3/2 + n 2 log n}) tid och har en (m 3/2 ) lägre gräns. I det här dokumentet ger vi en snäv analys av deras algoritm genom att visa att den körs i tid (m 3/2 + mn 1/2 log n) 1.
I REF bevisade vi att Katriel-Bodlaender-algoritmen tar tid för att infoga m-kanter (m 3/2 + mn 1/2 log n).
16,527,623
A Tight Analysis of the Katriel-Bodlaender Algorithm for Online Topological Ordering
{'venue': 'Theor. Comput. Sci.', 'journal': 'Theor. Comput. Sci.', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
10,999
Cell Bredbandsmotorprocessorn använder flera acceleratorer, så kallade synergistiska processelement (SPE), för hög prestanda. Varje SPE-bolag har en snabb lokal butik ansluten till huvudminnet genom direkt minnesåtkomst (DMA), men en nackdel med denna design är att den lokala butiken inte är tillräckligt stor för hela applikationskoden eller data. Det måste sönderdelas i bitar som är tillräckligt små för att passa in i det lokala minnet, och de måste bytas ut genom DMA utan att förlora prestandavinsten för flera SPE-bolag. Vi föreslår en ny programmeringsmodell, MPI microtask, baserad på standardprogrammeringsmodellen Message Passing Interface (MPI) för distribuerade parallella maskiner. I vår nya modell behöver programmerare inte hantera den lokala butiken så länge de delar in sin applikation i en samling små mikrotask som passar in i den lokala butiken. Mikrouppgifter genom att utnyttja explicit kommunikation i MPI-modellen. Vi har skapat en prototyp som innehåller en ny statisk schemaläggare för sådana optimeringar. Våra första experiment har visat några uppmuntrande resultat.
Ohara m.fl. REF presenterar en ny programmeringsmodell, MPI microtask, baserad på den vanliga MPI-programmeringsmodellen för distribuerade parallella maskiner.
17,303,162
MPI microtask for programming the Cell Broadband Engine e processor &
{'venue': 'IBM Syst. J.', 'journal': 'IBM Syst. J.', 'mag_field_of_study': ['Computer Science']}
11,000
Programanalysverktyg som används i programvaruunderhåll måste vara robusta och bör vara korrekta. Många datadrivna tolkningsmetoder som utvecklats för naturliga språk är robusta och har ganska hög noggrannhet när de tillämpas på tolkning av programvara. Vi visar detta för programmeringsspråken Java, C/C++ och Python. Ytterligare studier visar att efterbehandling kan nästan helt ta bort de återstående felen. Slutligen kan träningsdata för att direktimera den generiska datadrivna tolken genereras automatiskt för formella språk, i motsats till manuell utveckling av trädbankar för naturliga språk. Därför skulle vår strategi kunna förbättra robustheten hos verktyg för programvaruunderhåll, förmodligen utan att visa en betydande negativ effekt på deras noggrannhet.
Nilson m.fl. REF hävdar att datadrivna tolkningsmetoder som utvecklats för naturliga språk är robusta och har ganska hög noggrannhet när de tillämpas på tolkning av programvara.
18,263,964
Parsing Formal Languages using Natural Language Parsing Techniques
{'venue': 'Proceedings of the 11th International Conference on Parsing Technologies (IWPT’09)', 'journal': None, 'mag_field_of_study': ['Computer Science']}
11,001
I denna uppsats studerar vi MapReduce beräkningar ur ett komplext-teoretiskt perspektiv. Först formulerar vi en enhetlig version av MRC-modellen av Karloff et al. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning. Vi visar sedan att klassen av vanliga språk, och dessutom hela sublogaritmiska rymden, ligger i konstant runt MRC. Detta resultat gäller även MPC-modellen [1]. Dessutom bevisar vi att, beroende på en variant av Exponential Time Hypotes, det finns strikta hierarkier inom MRC så att öka antalet rundor eller mängden tid per processor ökar kraften i MRC. Såvitt vi vet är vi först med att närma oss MapReduce-modellen med komplexa-teoretiska tekniker, och vårt arbete lägger grunden för ytterligare analys av MapReduce till etablerade komplexitetsklasser.
Fisk m.fl. REF var kanske först med att upprätta ett samband mellan MPC-modellen och klassiska komplexitetsklasser.
5,524,549
On the Computational Complexity of MapReduce
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
11,002
Merging mobile edge computing (MEC) funktionalitet med tät utbyggnad av basstationer (BS) ger enorma fördelar som en verklig närhet, låg latency tillgång till datorresurser. Den planerade integrationen skapar dock många nya utmaningar, bland vilka mobilitetshanteringen (MM) är av avgörande betydelse. En enkel tillämpning av befintliga system för tillträde till radioutrustning leder till dålig prestanda, främst på grund av att de MEC-aktiverade systemen för radioåtkomst och datatjänster är samförmedlade. I detta dokument utvecklar vi ett nytt system för användarcentrerad energimedveten mobilitetshantering (EMM), för att optimera fördröjningen på grund av både radioåtkomst och beräkning, under användarens långsiktiga energiförbrukningsbegränsning. Baserat på Lyapunov optimering och multi-armad bandit teorier, EMM arbetar på ett online-mode utan framtida systemstat information, och effektivt hanterar den ofullkomliga systemstat information. Teoretisk analys tar uttryckligen hänsyn till kostnader för radioöverlämning och beräkning av migrering och visar på en begränsad avvikelse i både fördröjningsprestanda och energiförbrukning jämfört med orakellösningen med exakt och fullständig framtida systeminformation. Den föreslagna algoritmen hanterar också effektivt scenariot där kandidaten BSs slumpmässigt slår på/av under avlastningsprocessen för en uppgift. Simuleringar visar att de föreslagna algoritmerna kan uppnå nära optimal fördröjningsprestanda samtidigt som användarens energiförbrukning begränsas. Index Terms-Mobile edge computing, mobilitetshantering, Lyapunov optimering, multi-armad bandit, överlämningskostnad.
I ett nära relaterat arbete föreslås ett system för hantering av transporter som är energimedvetna för att minimera den totala förseningen (inklusive både kommunikations- och beräkningsfördröjning) under den långsiktiga energiförbrukningen.
6,538,096
EMM: Energy-Aware Mobility Management for Mobile Edge Computing in Ultra Dense Networks
{'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
11,003
Figur 1: Vi introducerar en metod för reducerad formoptimering av 2-manifolder som använder offsetytor för att deformera formen. Vänster: En flaskmodell genereras med offsetytor med konstanta förskjutningar. Det resulterande föremålet kan inte stå. Center: Förskjutningarna är optimerade så att flaskan kan stå om den är tom, men om den fylls är den instabil. Höger: Modellen är optimerad för att stå både tom och fylld. För att ta hänsyn till detta tillsätts offsetytor inuti och utanför den ursprungliga formen. Med tanke på den 2-manifold ytan av ett 3d-objekt föreslår vi en ny metod för beräkning av en offsetyta med varierande tjocklek så att den fasta volymen mellan ytan och dess offset uppfyller en uppsättning föreskrivna begränsningar och samtidigt minimerar en given objektiv funktion. Eftersom både begränsningar och objektiv funktion enkelt kan anpassas till specifika tillämpningskrav, ger vår metod ett flexibelt och kraftfullt verktyg för formoptimering. Vi använder mångahanda övertoner för att härleda en reducerad ordning formulering av optimeringsproblem, vilket garanterar en jämn offset yta och snabbar upp beräkningen oberoende av indata mesh upplösning utan att påverka kvaliteten på resultatet. Det begränsade optimeringsproblemet kan lösas på ett numeriskt robust sätt med råvarulösare. Dessutom gör metoden det möjligt att samtidigt optimera en inre och en yttre offset för att öka graderna av frihet. Vi demonstrerar vår metod i ett antal exempel där vi kontrollerar de fysiska massegenskaperna hos styva föremål för 3d-printing.
Interiören optimeras av en reducerad ordning parameterisering av offset ytor i REF.
11,905,037
Reduced-order shape optimization using offset surfaces
{'venue': 'TOGS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
11,004
Bristen på förutsägbarhet för citeringsbaserade åtgärder som ofta används för att mäta påverkan, från konsekvensanalyser till kortsiktiga citeringar, väcker en grundläggande fråga: Finns det långsiktig förutsägbarhet i citeringsmönstren? Här tar vi fram en mekanistisk modell för citeringsdynamiken i enskilda tidningar, vilket gör att vi kan kollapsa citeringshistorierna av papper från olika tidskrifter och discipliner till en enda kurva, vilket tyder på att alla papper tenderar att följa samma universella temporalmönster. De observerade mönstren hjälper oss inte bara att upptäcka grundläggande mekanismer som styr vetenskapliga effekter, utan erbjuder också tillförlitliga åtgärder för inflytande som kan få potentiella politiska konsekvenser.
Ref använde parametrar från ett dokuments citeringshistorik för att kvantifiera långsiktig vetenskaplig påverkan (totalt antal citeringar under dess livstid).
803,694
Quantifying Long-Term Scientific Impact
{'venue': 'Science 4 October 2013: Vol. 342 no. 6154 pp. 127-132', 'journal': None, 'mag_field_of_study': ['Medicine', 'Economics', 'Computer Science', 'Physics']}
11,005
Signalrekonstruktion är en utmanande aspekt av datortomografi eftersom det ofta innebär att lösa illa placerade inversa problem. Nyligen, djupt feed-forward neurala nätverk har lett till toppmoderna resultat i att lösa olika inversa bildproblem. Eftersom dessa nätverk är specifika måste de dock läras ut för varje omvänt problem. Å andra sidan skulle ett mer flexibelt tillvägagångssätt vara att lära sig en djup generativ modell en gång och sedan använda den som en signal innan för att lösa olika inversa problem. I detta dokument visar vi att bland de olika toppmoderna djupa generativa modellerna är autoregressiva modeller särskilt lämpliga för vårt syfte av följande skäl. För det första modellerar de explicit pixelnivån beroenden och kan därför rekonstruera detaljer på låg nivå, såsom texturmönster och kanter bättre. För det andra ger de ett uttryckligt uttryck för bilden tidigare, som sedan kan användas för MAP-baserad slutledning tillsammans med framåtmodellen. För det tredje kan de modellera lång räckvidd beroenden i bilder som gör dem idealiska för att hantera global multiplexing som påträffas i olika komprimerande bildsystem. Vi visar effektiviteten i vårt föreslagna tillvägagångssätt för att lösa tre datortomografiproblem: Single Pixel Camera, LiSens, och FlatCam. För både verkliga och simulerade fall får vi bättre rekonstruktioner än de senaste metoderna när det gäller perceptuella och kvantitativa mätvärden. Index Terms-inversa problem, komprimerande bildåterhämtning, djupa generativa modeller, linslös bildrekonstruktion, autoregressiva modeller, MAP inference.
Slutligen, mest nära relaterat till vårt arbete, REF introducerar idén om att modellera föregående explicit på pixel-nivå med hjälp av en djup generativ modell.
3,564,572
Solving Inverse Computational Imaging Problems Using Deep Pixel-Level Prior
{'venue': 'IEEE Transactions on Computational Imaging', 'journal': 'IEEE Transactions on Computational Imaging', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
11,006
I detta dokument föreslås en multi-grid metod för att lära energi-baserade generativa ConvNet modeller av bilder. För varje rutnät lär vi oss en energibaserad probabilistisk modell där energifunktionen definieras av ett nedifrån-och-upp-konvolutionellt neuralt nätverk (ConvNet eller CNN). Att lära sig en sådan modell kräver att man skapar syntetiserade exempel från modellen. Inom varje iteration av vår inlärningsalgoritm, för varje observerad träningsbild, genererar vi syntetiserade bilder vid flera rutnät genom att initiera det finita steget MCMC provtagning från en minimal 1 × 1 version av träningsbilden. Den syntetiserade bilden vid varje efterföljande rutnät erhålls genom en finit-steg MCMC initieras från den syntetiserade bilden som genereras vid föregående grövre rutnät. Efter att ha erhållit de syntetiserade exemplen uppdateras modellernas parametrar vid flera rutnät separat och samtidigt baserat på skillnaderna mellan syntetiserade och observerade exempel. Vi visar att denna multi-grid metod kan lära sig realistiska energi-baserade generativa ConvNet modeller, och det överträffar den ursprungliga kontrasterande divergens (CD) och persistent CD.
Till exempel föreslår REF en multi-grid metod för att lära energibaserade generativa ConvNet modeller.
4,566,195
Learning Generative ConvNets via Multi-grid Modeling and Sampling
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
11,007
I de flesta algoritmiska tillämpningar som jämför två distributioner är informationsteoretiska avstånd mer naturliga än standard p normer. I detta papper designar vi streaming och sublinear tid egendom testa algoritmer för entropi och olika information teoretiska avstånd. Batu et al poserade problemet med egendomsprövning med avseende på Jensen-Shannon avstånd. Vi presenterar optimala algoritmer för att uppskatta avgränsade, symmetriska f-divergences (inklusive Jensen-Shannon divergens och Hellinger avstånd) mellan distributioner i olika egendom testramar. Längs vägen stänger vi ett (log n)/H gap mellan de övre och nedre gränserna för uppskattning av entropi H, vilket ger en optimal algoritm över alla värden av entropi. I en dataströmsinställning (sublinjärt utrymme) ger vi den första algoritmen för att uppskatta entropi för en distribution. Vår algoritm körs i polylogaritmiskt utrymme och ger en asymptotisk konstant faktor approximation schema. En integrerad del av algoritmen är en intressant användning av en F0 (antalet olika element i en uppsättning) uppskattningsalgoritm; vi ger också andra resultat längs mellanslag/tid/ungefärlig avräkningskurva. Våra resultat har intressanta strukturella implikationer som förbinder sublinjär tid och utrymme begränsade algoritmer. Medlingsmodellen är den slumpmässiga streamingmodellen, som förutsätter att indatan är en slumpmässig permutation av ett multiset och först övervägdes av Munro och Paterson 1980. Vi visar att alla egenskapstestande algoritmer i den kombinerade orakelmodellen för beräkning av permutationsinvarianta funktioner kan simuleras i den slumpmässiga ordermodellen i ett enda pass. Detta tar upp en fråga som togs upp av Feigenbaum et al om förhållandet mellan testning av egendom och strömalgoritmer. Dessutom ger vi en polylog-rymden PTAS för att uppskatta entropi av en ett pass slumpmässig ordning ström. Denna gräns kan inte uppnås i den kombinerade oraklet (generaliserad egenskapstestning).
Streaming algoritmer med en statistisk smak inkluderar arbetet av Guha et al. REF, som anser en pass algoritmer för att uppskatta entropi av en distribution från prover i en ström.
3,274
Streaming and sublinear approximation of entropy and information distances
{'venue': "SODA '06", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
11,008
Mänsklig aktivitetsförståelse med 3D/djupsensorer har fått ökad uppmärksamhet inom multimediabearbetning och interaktion. Detta arbete syftar till att utveckla en ny djup modell för automatisk aktivitetsigenkänning från RGB-D-videor. Vi representerar varje mänsklig aktivitet som en ensemble av kubikliknande videosegment, och lär oss att upptäcka de timliga strukturerna för en kategori av aktiviteter, dvs.. hur de verksamheter som ska brytas ned när det gäller klassificering. Vår modell kan betraktas som en strukturerad djup arkitektur, eftersom den utökar de konvolutionella neurala nätverken (CNN) genom att införliva strukturalternativ. Speciellt bygger vi nätverket som består av 3D-konvolutioner och maximal-pooling operatörer över videosegmenten, och introducerar latenta variabler i varje convolutional lager som manipulerar aktiveringen av neuroner. Vår modell går alltså framåt i två avseenden: i) den verkar direkt på de råa insatsvarorna (djupdata i grayskala) för att göra erkännande i stället för att förlita sig på handgjorda funktioner, och ii) modellens struktur kan anpassas dynamiskt med hänsyn till de tidsmässiga variationerna i människans aktiviteter, dvs. Nätverkskonfigurationen får delvis aktiveras vid slutsatsen. För modellträning föreslår vi en EM-typoptimeringsmetod som iterativt (i) upptäcker den latenta strukturen genom att bestämma de nedbrutna åtgärderna för varje utbildningsexempel, och (ii) lär sig nätverksparametrarna genom att använda back-propagation algoritmen. Vårt tillvägagångssätt är validerat i utmanande scenarier och överträffar toppmoderna metoder. Dessutom presenteras en stor databas för mänsklig aktivitet med RGB-D-videor.
Wang m.fl. REF byggde nätverket bestående av 3D-konvolutioner och maxpoolande operatörer över videosegmenten för automatisk aktivitetsigenkänning från RGB-D-videor.
10,751,352
3D Human Activity Recognition with Reconfigurable Convolutional Neural Networks
{'venue': "MM '14", 'journal': None, 'mag_field_of_study': ['Computer Science']}
11,009
Sammanfattning av denna webbsida: Underwater Wireless Sensor Networks (UWSNs) ger nya möjligheter att observera och förutsäga vattenmiljöers beteende. I vissa applikationer som målspårning eller katastrofförebyggande, är sensed data meningslös utan platsinformation. I detta dokument föreslår vi ett nytt centraliserade 3D-system för lokalisering av mobila trådlösa sensornätverk under vatten, kallat Reverse Localization Scheme eller RLS i korthet. RLS är en händelsedriven lokaliseringsmetod som utlöses av detektorsensorer för att starta lokaliseringsprocessen. RLS lämpar sig för övervakningstillämpningar som kräver mycket snabba reaktioner på händelser och som kan rapportera platsen för händelsen. I denna metod, mobila sensor noder rapportera händelsen mot ytan ankare så snart de upptäcker det. De behöver inte vänta på att få platsinformation från ankare. Simuleringsresultat bekräftar att det föreslagna systemet förbättrar energieffektiviteten och minskar avsevärt lokalisering responstiden med en korrekt nivå av noggrannhet när det gäller rörlighet modell av vattenströmmar. Viktiga bidrag från denna metod ligger i att minska antalet meddelandeutbyte för lokalisering, spara energi och minska den genomsnittliga lokalisering responstid.
Omvänd lokaliseringsschema REF är ett händelsedrivet lokaliseringssystem där noder lokaliseras för att rapportera ett känt fenomen.
897,167
A Reverse Localization Scheme for Underwater Acoustic Sensor Networks
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Computer Science', 'Medicine']}
11,010
Abstract-This paper tar upp hela område täckning problem av en känd miljö av flera-robotar. Fullständig områdestäckning är problemet med att flytta en end-effector över allt tillgängligt utrymme samtidigt som befintliga hinder undviks. I sådana uppgifter, med hjälp av flera robotar kan öka effektiviteten i området täckning i form av att minimera drifttiden och öka robustheten i ansiktet av robot atttrition. Tyvärr är problemet med att hitta en optimal lösning för ett sådant område täckning problem med flera robotar är känd för att vara NPfullständig. I detta dokument presenterar vi två approximativa heuristiker för att lösa problemet med multirobottäckning. Den första lösning som presenteras är en direkt förlängning av en effektiv enkel robot täckning algoritm, baserat på en exakt cellulär nedbrytning. Den andra algoritmen är en girig strategi som delar upp området i lika regioner och tillämpar en effektiv enrobot täckning algoritm för varje region. Vi presenterar experimentella resultat för två algoritmer. Resultaten visar att våra strategier ger bra täckningsfördelning mellan robotar och minimerar arbetsbelastningen per robot, samtidigt som vi säkerställer fullständig täckning av området. Index Terms-Multiple och distribuerade robotar, banplanering, täckning.
Ett effektivt sätt att ta itu med problemet med planering av flera robotvägar är att bryta ner området i flera celler, och sedan täcka dessa enskilda celler med hjälp av etablerade enskilda robotalgoritmer REF.
11,462,169
Efficient Multi-Robot Coverage of a Known Environment
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
11,011
Abstract-Teknologi har gjort det möjligt för alla med en internetuppkoppling att enkelt skapa och dela sina idéer, åsikter och innehåll med miljontals andra människor runt om i världen. En stor del av innehållet som läggs ut och konsumeras online är multimodalt. Med miljarder telefoner, surfplattor och datorer frakt idag med inbyggda kameror och en mängd nya video-utrustade bärbara som Google Glass på horisonten, kommer mängden video på Internet bara att fortsätta att öka. Det har blivit allt svårare för forskare att hålla jämna steg med denna flod av multimodalt innehåll, för att inte tala om att organisera eller förstå det. Gräva användbar kunskap från video är ett kritiskt behov som kommer att växa exponentiellt, i takt med den globala tillväxten av innehåll. Detta är särskilt viktigt i känsloanalysen, eftersom både service- och produktrecensioner gradvis skiftar från enmodal till multimodal. Vi presenterar en ny metod för att extrahera funktioner från visuella och textmässiga metoder med hjälp av djupa konvolutionella neurala nätverk. Genom att mata sådana funktioner till en flerkärnig inlärningsklassificerare överträffar vi avsevärt den senaste tekniken av multimodala känsloigenkännings- och känsloanalys på olika datauppsättningar.
Poria m.fl. Ref presenterade ett multimodalt tillvägagångssätt som kombinerar visuella, ljud- och textbaserade metoder med hjälp av djupa CNN.
5,749,615
Convolutional MKL Based Multimodal Emotion Recognition and Sentiment Analysis
{'venue': '2016 IEEE 16th International Conference on Data Mining (ICDM)', 'journal': '2016 IEEE 16th International Conference on Data Mining (ICDM)', 'mag_field_of_study': ['Computer Science']}
11,012
Användarupplevelsen är en viktig komponent i utvecklingen av virtuella miljösystem och tillämpningar. För att skapa en effektiv användarupplevelse för virtuella miljösystem är det absolut nödvändigt att genomföra empiriska studier för att undersöka faktorer som bidrar till en ökad närvaro, eller nedsänkning, för användare som i allt högre grad kräver en upplevelse i en virtuell miljö som verkar så verklig som möjligt. Den primära hypotesen i denna studie är att deltagarna kommer att uppleva högre närvaronivåer i en uppslukande visualiseringsmiljö (IVE) än i en traditionell virtuell verklighetsmiljö (TVRE). Den empiriska metoden består av två olika experiment utformade, utvecklade och genomförda med sjuttio deltagare. Ett simulerat virtuellt flygplansscenario skapades och genomfördes för varje deltagare. Efter avslutad simuleringssession fick varje deltagare ett frågeformulär som mätte deltagarens närvaro i antingen virtuella eller verkliga miljöer. Analysen av de insamlade uppgifterna visade att det fanns en statistiskt signifikant skillnad i närvaronivån för deltagarna mellan TVRE- och IVE-systemen. Den primära slutsatsen är att deltagarna upplevde en högre känsla av närvaro i IVE-experimentet jämfört med TVRE-experimentet, vilket indikerar betydligt mer naturlig och rikare användarupplevelse genom IVE-systemets gränssnitt.
REF rapporterar om närvaro i traditionella och uppslukande virtuella miljöer.
43,533,210
A Comparative Study of Sense of Presence of Traditional Virtual Reality and Immersive Environments
{'venue': 'Australasian J. of Inf. Systems', 'journal': 'Australasian J. of Inf. Systems', 'mag_field_of_study': ['Computer Science']}
11,013
(V2V) och Vehicle-toInfrastructure (V2I) är efemära trådlösa nätverk med kort varaktighet som är utformade för att förbättra den övergripande körupplevelsen genom utbyte av mångfaldig information mellan fordon och infrastruktur. Rapport om incidenter i realtid är en viktig applikationsdomän som kan utnyttja fördelarna med fordonsnätverk för att avsevärt förbättra körsäkerheten. Men med tanke på förekomsten av skadliga enheter, blint lita på en sådan incident rapport (även den som mottagits via en kryptografiskt säker kanal) kan leda till oönskade konsekvenser. I detta dokument föreslår vi ett tillvägagångssätt för att fastställa sannolikheten för att V2V-incidenterrapporter ska vara korrekta, baserat på tillförlitligheten hos rapportens upphovsman och de fordon som vidarebefordrar den. Den föreslagna metoden drar nytta av befintliga V2I-kommunikationsanläggningar som används och förvaltas av centrala trafikmyndigheter, som kan användas för att samla in information om fordonens beteende på ett crowd-sourcing-sätt för att skapa en mer heltäckande bild av fordonens tillförlitlighet. För att validera vårt system har vi implementerat en V2V/V2I trust simulator genom att utöka en befintlig V2V simulator med trust management kapacitet. Preliminär analys av modellen visar lovande resultat. Genom att kombinera vår förtroendemodelleringsteknik med en tröskelbaserad beslutsstrategi, observerade vi i genomsnitt 85% noggrannhet.
Liao m.fl. REF, rekommenderas mätning av tillförlitligheten hos fordon med olycksrapporter i fordonet till fordonskommunikation och kommuniceras till dessa fordon.
14,366,345
A trust model for vehicular network-based incident reports
{'venue': '2013 IEEE 5th International Symposium on Wireless Vehicular Communications (WiVeC)', 'journal': '2013 IEEE 5th International Symposium on Wireless Vehicular Communications (WiVeC)', 'mag_field_of_study': ['Engineering', 'Computer Science']}
11,014
Abstrakt. I detta dokument studeras RDF-modellen ur ett databasperspektiv. Ur denna synvinkel jämförs det med andra databasmodeller, särskilt med diagramdatabasmodeller, som är mycket nära i motiveringar och använder fall till RDF. Vi koncentrerar oss på frågespråk, analyserar aktuella RDF-trender, och föreslår införlivandet till RDF frågespråk av primitiva som inte är närvarande idag, baserat på erfarenhet och tekniker av grafdatabas forskning.
En behandling av RDF ur ett diagram databasperspektiv kan hittas i REF.
5,870,320
Querying RDF Data from a Graph Database Perspective
{'venue': 'ESWC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
11,015
Deformerbara isoytor, implementerade med nivå-set metoder, har visat en stor potential i visualisering för tillämpningar såsom segmentering, ytbehandling, och ytrekonstruktion. Deras användbarhet har dock begränsats av deras höga beräkningskostnader och beroende av betydande parameterinställning. Detta dokument presenterar en lösning på dessa utmaningar genom att beskriva grafikprocessorbaserade algoritmer (GPU) för att lösa och visualisera levelset-lösningar till interaktiva priser. Vår effektiva GPU-baserade lösning bygger på att paketera nivåuppsättningen isoytans data i ett dynamiskt, glest texturformat. Som nivåuppsättningen flyttar, uppdateras denna glesa datastruktur via en ny GPU till CPU meddelande passerar schema. När den nivåinställda lösaren är integrerad med en volymåtergivare i realtid som arbetar på samma förpackade format kan en användare visualisera och styra den deformerbara nivåinställda ytan när den utvecklas. Dessutom kan den resulterande isoytan fungera som en region av intresse specifier för volymåterförsäljaren. Detta dokument visar kapaciteten hos denna teknik för interaktiv volymvisualisering *
Lefohn m.fl. REF matchade nivåuppsättningen iso ytdata till ett dynamiskt, glest texturformat.
11,756,454
Interactive deformation and visualization of level set surfaces using graphics hardware
{'venue': 'IEEE Visualization, 2003. VIS 2003.', 'journal': 'IEEE Visualization, 2003. VIS 2003.', 'mag_field_of_study': ['Computer Science']}
11,016
Sammanfattning av denna webbsida: Cloud computing förändrar hur programvara utvecklas och hanteras i företag, vilket förändrar sättet att göra affärer på så sätt att dynamiskt skalbara och virtualiserade resurser betraktas som tjänster via Internet. Traditionella tillverkningssystem som supply chain management (SCM), kundrelationshantering (CRM) och företagsresursplanering (ERP) utvecklas ofta från fall till fall. Ett effektivt samarbete mellan olika system, plattformar, programmeringsspråk och gränssnitt har dock föreslagits av forskare. I molnbaserade system inkapslas distribuerade resurser in i molntjänster och hanteras centralt, vilket möjliggör hög automatisering, flexibilitet, snabb tillhandahållande och enkel integration till låga kostnader. Integrationen mellan fysiska resurser och molntjänster kan förbättras genom att kombinera sakernas internet (IoT) teknik och Software-as-a-Service (SaaS) teknik. I denna studie föreslås ett nytt tillvägagångssätt för att utveckla molnbaserade tillverkningssystem baserade på en fyra-lagers SaaS-modell. Det finns tre huvudsakliga bidrag i detta dokument: 1) företag kan utveckla sina egna molnbaserade logistikhanteringssystem baserat på det tillvägagångssätt som föreslås i detta dokument; 2) en fallstudie baserad på litteraturgranskningar med experimentella resultat föreslås för att verifiera att systemets prestanda är anmärkningsvärd; 3) utmaningar som uppstått och återkoppling som samlats in från T Company i fallstudien diskuteras i detta dokument i syfte att utveckla företaget.
I REF introducerar författarna ett nytt tillvägagångssätt för att integrera IoT- och software-as-a-service (SaaS)-modell för logistiksystem.
18,936,746
A New Approach to Integrate Internet-of-Things and Software-as-a-Service Model for Logistic Systems: A Case Study
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Computer Science', 'Medicine']}
11,017
Abstrakt. Museer runt om i världen har byggt databaser med metadata om miljontals objekt, deras historia, de människor som skapade dem, och de enheter de representerar. Dessa data lagras i egna databaser och är inte lätt tillgängliga för användning. Nyligen omfattade museer den semantiska webben som ett sätt att göra denna data tillgänglig för världen, men erfarenheten hittills visar att publicering av museidata till det länkade datamolnet är svårt: databaserna är stora och komplexa, informationen är rikt strukturerad och varierar från museum till museum, och det är svårt att koppla data till andra datauppsättningar. Detta dokument beskriver processen och lärdomarna i publiceringen av data från Smithsonian American Art Museum (SAAM). Vi lyfter fram komplexiteten i databas-till-RDF-kartläggningsprocessen, diskuterar vår erfarenhet av att länka SAM-dataset till navdataset som DBpedia och Getty Vocabularies, och presenterar vår erfarenhet av att låta SAM-personal granska informationen för att verifiera att den uppfyller Smithsonians höga standarder. Med hjälp av våra verktyg hjälpte vi SAM att publicera högkvalitativa länkade data om deras kompletta innehav (41 000 objekt och 8 000 konstnärer).
Till exempel Smithsonian American Art Museum 1 använde KARMA REF för att publicera sina data som länkade data, ett verktyg som försöker automatisera kartläggningsprocessen och gör det möjligt för användarna att justera de genererade kartorna.
7,097,772
G.: Connecting the Smithsonian American Art Museum to the Linked Data Cloud
{'venue': 'In: Proceedings of the 10th Extended Semantic Web Conference (ESWC) (2013', 'journal': None, 'mag_field_of_study': ['Computer Science']}
11,018
Abstract-Kvaliteten på trådlösa länkar lider av tidsvarierande kanalnedbrytningar såsom interferens, platt-fading och frekvens-selektiv blekning. Nuvarande radioapparater är begränsade i sin förmåga att anpassa sig till dessa kanalvariationer eftersom de är utformade med fasta värden för de flesta systemparametrar såsom ramlängd, felstyrning och bearbetningsvinst. Värdena för dessa parametrar är vanligtvis en kompromiss mellan kraven på sämsta tänkbara kanalförhållanden och behovet av låga genomförandekostnader. Under godartade kanalförhållanden kan därför dessa kommersiella radioapparater förbruka mer batterienergi än vad som behövs för att upprätthålla en önskad länkkvalitet, medan de i en allvarligt försämrad kanal kan förbruka energi utan att tillhandahålla någon kvalitet på tjänsten (QoS). Medan tekniker för att anpassa radioparametrar till kanalvariationer har studerats för att förbättra länkprestandan, används de i detta papper för att minimera batterienergi. Speciellt håller en adaptiv radio på att utformas som anpassar ramens längd, felstyrning, bearbetningsvinst och utjämning till olika kanalförhållanden, samtidigt som batteriets energiförbrukning minimeras. Experimentella mätningar och simuleringsresultat presenteras i detta dokument för att illustrera adaptiv radios energibesparingar. Index Terms-Adaptive radio, hybrid automatisk upprepa begäran (ARQ), maximal sannolikhet sekvensuppskattning (MLSE), spridningsspektrum, trådlöst.
I REF-teknik för att anpassa radioparametrar (t.ex. ramlängd, felstyrning, processvinst och utjämning) till kanalvariationer studeras för att förbättra länkprestandan samtidigt som batteriets energiförbrukning minimeras.
9,047,963
Adaptive radio for multimedia wireless links
{'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': None, 'mag_field_of_study': ['Computer Science']}
11,019
Detta är den ospecificerade versionen av tidningen. Denna version av publikationen kan skilja sig från den slutliga publicerade versionen. Abstract-Surname (familjenamn) analys används i geografi för att förstå befolkningens ursprung, migration, identitet, sociala normer och kulturella seder. En del av dessa lär ha utvecklats under generationer. Efternamn uppvisar goda statistiska egenskaper som kan användas för att extrahera information i namn datauppsättning såsom automatisk upptäckt av etniska grupper eller samhällsgrupper i namn. En e-postadress innehåller ofta efternamn som en understräng. Denna inneslutning kan vara fullständig eller partiell. En e-postadress kategorisering baserad på semantik av efternamn är syftet med detta dokument. Detta uppnås i två faser. Första fasen handlar om efternamnsrepresentation och klusterbildning. Här föreslås en vektorrymdmodell där latent semantisk analys utförs. Clustering görs med hjälp av den metod som kallas medellänkningsmetod. I den andra fasen kategoriseras ett e-postmeddelande som tillhör en av kategorierna (upptäckt i den första fasen). För detta krävs substring matchning, vilket görs på ett effektivt sätt genom att använda suffix träd datastruktur. Vi utför experimentell utvärdering av de 500 vanligaste efternamnen i Indien och Storbritannien. Dessutom kategoriserar vi de e-postadresser som har dessa efternamn som understrängar. Permanent databaslänk
Därför har en avancerad statistisk analysmetod utvecklats för e-postadress kategorisering baserad på semantik av efternamn REF.
4,602,207
E-mail address categorization based on semantics of surnames
{'venue': '2013 IEEE Symposium on Computational Intelligence and Data Mining (CIDM)', 'journal': '2013 IEEE Symposium on Computational Intelligence and Data Mining (CIDM)', 'mag_field_of_study': ['Computer Science']}
11,020
Med den ökande närvaron, skalan och komplexiteten hos distribuerade system blir resursfel ett viktigt och praktiskt ämne inom datavetenskaplig forskning. Även om det finns många felmodeller och felmedvetna algoritmer, har deras jämförelse hindrats av bristen på offentliga feldatamängder och databehandlingsverktyg. För att underlätta design, validering och jämförelse av feltoleranta modeller och algoritmer, har vi skapat Misslyckande Trace Archive (FTA)-ett online, offentligt arkiv av felspår som samlats in från olika parallella och distribuerade system. I detta arbete beskriver vi först utformningen av arkivet, särskilt av standard FTA-dataformatet, och utformningen av en verktygslåda som underlättar automatiserad analys av spårdatamängder. Vi diskuterar också användningen av frihandelsavtalet för olika nuvarande och framtida ändamål. För det andra, efter att ha tillämpat verktygslådan på över femton felspår som samlats in från distribuerade system som används inom olika applikationsområden (t.ex. HPC, Internetdrift och olika onlineapplikationer), presenterar vi en jämförande analys av fel i olika distribuerade system. Vår analys presenterar olika statistiska insikter och typiska statistiska modelleringsresultat för tillgängligheten av individuella resurser i olika distribuerade system. Analysresultaten understryker behovet av att allmänheten får tillgång till spårdata från olika distribuerade system. Sist visar vi hur olika tolkningar av betydelsen av feldata kan resultera i olika slutsatser för felmodellering och arbetsschemaläggning i distribuerade system. Våra resultat för olika tolkningar visar att det kan finnas ett behov av att ytterligare se över befintliga felmedvetna algoritmer, när de tillämpas för allmänna snarare än för domänspecifika distribuerade system.
Nyligen har felspårsarkivet (FTA) publicerat en verktygslåda för analys av felspårsdata REF.
11,991,974
The Failure Trace Archive: Enabling the Comparison of Failure Measurements and Models of Distributed Systems
{'venue': 'J. Parallel Distributed Comput.', 'journal': 'J. Parallel Distributed Comput.', 'mag_field_of_study': ['Computer Science']}
11,021
GPGPU är en kraftfull och energieffektiv lösning för många problem. För högre prestanda eller större problem är det nödvändigt att fördela problemet över flera GPU:er, vilket ökar den redan höga programmerings komplexiteten. I den här artikeln fokuserar vi på att abstraktera komplexiteten i multi-GPU programmering för schablonberäkning. Vi visar att den bästa strategin beror inte bara på schablonoperatören, problemstorlek, och GPU, men också på PCI express layout. Detta tillför icke-uniforma egenskaper till en till synes homogen uppsättning, vilket orsakar upp till 23% prestandaförlust. Vi tar itu med detta problem med en autotuner som optimerar distributionen över flera GPU:er.
PARTANS REF är en automatisk ram för schablonberäkning på flera GPU:er.
11,554,824
PARTANS: An autotuning framework for stencil computation on multi-GPU systems
{'venue': 'TACO', 'journal': None, 'mag_field_of_study': ['Computer Science']}
11,022
Kluster är ett grundläggande förfarande vid analys av vetenskapliga data. Det används allmänt i vetenskaperna. Trots årtionden av forskning har befintliga klusteralgoritmer begränsad effektivitet i höga dimensioner och kräver ofta inställningsparametrar för olika domäner och datauppsättningar. Vi presenterar en klusteralgoritm som uppnår hög noggrannhet över flera domäner och skalor effektivt till höga dimensioner och stora datauppsättningar. Den presenterade algoritmen optimerar ett smidigt kontinuerligt mål, som bygger på robust statistik och gör att starkt blandade kluster kan redas ut. Målets kontinuerliga karaktär gör det också möjligt att integrera kluster som en modul i end-to-end-rörledningar för lärande. Vi demonstrerar detta genom att utöka algoritmen för att utföra gemensam klustring och dimensionalitetsminskning genom att effektivt optimera ett kontinuerligt globalt mål. Den presenterade metoden utvärderas på stora datauppsättningar av ansikten, handskrivna siffror, objekt, nyhetstråd artiklar, sensor avläsningar från rymdfärjan, och protein uttrycksnivåer. Vår metod uppnår hög noggrannhet i alla datauppsättningar och överträffar den bästa tidigare algoritmen med en faktor på 3 i genomsnitt. klustrering av dataanalys på oövervakad inlärning C lystering är en av de grundläggande experimentella förfarandena i dataanalys. Den används inom praktiskt taget alla naturvetenskaper och samhällsvetenskaper och har spelat en central roll inom biologi, astronomi, psykologi, medicin och kemi. Data-kluster algoritmer har utvecklats för mer än ett halvt sekel (1). Betydande framsteg under de senaste två decennierna inkluderar spektralklustring (2-4), generaliseringar av klassiska centerbaserade metoder (5, 6), blandningsmodeller (7, 8), medelförskjutning (9), affinitetsförökning (10), subrymdsklustring (11-13), icke-parametriska metoder (14, 15) och funktionsval (16) (17) (18) (19) (20). Trots denna utveckling har ingen enskild algoritm dykt upp för att tränga undan k - medelschemat och dess varianter (21). Detta trots de kända nackdelarna med sådana centerbaserade metoder, inklusive känslighet för initiering, begränsad effektivitet i högdimensionella utrymmen, och kravet på att antalet kluster ska sättas i förväg. Uthålligheten av dessa metoder är delvis på grund av deras enkelhet och delvis på grund av svårigheter förknippade med några av de nya teknikerna, såsom ytterligare hyperparametrar som behöver justeras, höga beräkningskostnader, och varierande effektivitet mellan olika domäner. Följaktligen måste forskare som analyserar stora högdimensionella datauppsättningar med okänd distribution upprätthålla och tillämpa flera olika klusteralgoritmer i hopp om att man ska lyckas. Böcker har skrivits för att vägleda utövare genom landskapet av data-clustering tekniker (22). Vi presenterar en klusteralgoritm som är snabb, enkel att använda och effektiv i höga dimensioner. Algoritmen optimerar ett tydligt kontinuerligt mål, med hjälp av vanliga numeriska metoder som skalas till massiva datauppsättningar. Antalet kluster behöver inte vara känt i förväg. Algoritmens funktion kan förstås genom att jämföra den med andra populära klustertekniker. I centerbaserade algoritmer som k - medel (1, 24) initieras en liten uppsättning putativa klustercenter från datan och sedan iterativt förfinas. Vid affinitetsutbredning (10) kommunicerar datapunkterna över en grafstruktur för att välja en undergrupp av punkterna som representanter. I den presenterade algoritmen har varje datapunkt en särskild representant, som ursprungligen var placerad vid datapunkten. Under algoritmens gång rör sig representanterna och smälter samman till lättåtkomliga kluster. Utvecklingen av algoritmen visualiseras i bild. 1................................................................ Vår formulering är baserad på senaste konvexa avslappningar för kluster (25, 26). Men vårt mål är medvetet inte konvext. Vi använder reescending robusta estimatorer som tillåter även kraftigt blandade kluster att redas ut genom att optimera ett enda kontinuerligt mål. Trots att målet inte är konvext kan optimeringen fortfarande utföras med hjälp av vanliga linjära leasquare-lösare, som är mycket effektiva och skalbara. Eftersom algoritmen uttrycker klusterbildning som optimering av ett kontinuerligt mål baserat på robust uppskattning, kallar vi det robust kontinuerlig klusterbildning (RCC). En av egenskaperna hos den presenterade formuleringen är att klustering reduceras till optimering av ett kontinuerligt mål. Detta gör det möjligt att integrera kluster i end-to-end-rörledningar för lärande. Vi visar detta genom att utvidga RCC till att utföra gemensam klusterbildning och dimensionalitetsminskning. Den utökade algoritmen, som kallas RCC-DR, lär sig en inbäddning av data i ett lågdimensionellt utrymme där den är hopsamlad. Inbäddning och klusterering utförs gemensamt av en algoritm som optimerar ett tydligt globalt mål. Vi utvärderar RCC och RCC-DR på ett stort antal datauppsättningar från en mängd olika domäner. Dessa inkluderar bilddatauppsättningar, dokumentdatauppsättningar, en datauppsättning av sensoravläsningar från rymdfärjan, och en datauppsättning av proteinuttrycksnivåer i möss. Experiment visar att vår metod avsevärt överträffar tidigare toppmoderna tekniker. RCC-DR är särskilt robust över datauppsättningar från olika domäner, överträffar den bästa tidigare algoritmen med en faktor på 3 i genomsnitt rang. Vi anser att det är ett problem att samla en uppsättning n-datapunkter. Ingången betecknas med X = [x1, x2,. .., xn ], där xi R D. Vår strategi fungerar på en uppsättning representanter U = [u1, u2,. .., un ], där ui R D. Representanterna U initieras på motsvarande datapunkter X. Optimeringen fungerar på representationen U, som smälter samman för att avslöja klusterstrukturen latent i data. Därför är antalet kluster Clustering ett grundläggande experimentellt förfarande i dataanalys. Den används inom praktiskt taget alla naturvetenskaper och samhällsvetenskaper och har spelat en central roll inom biologi, astronomi, psykologi, medicin och kemi. Trots betydelsen av klusterbildning och allestädes närvarande algoritmer lider av en mängd olika nackdelar och ingen universell lösning har dykt upp. Vi presenterar en klusteralgoritm som på ett tillförlitligt sätt uppnår hög noggrannhet över domäner, hanterar hög datadimensionalitet och skalor till stora datauppsättningar. Algoritmen optimerar ett smidigt globalt mål med hjälp av effektiva numeriska metoder. Experiment visar att vår metod överträffar toppmoderna klusteralgoritmer genom betydande faktorer inom flera områden.
Shah och Koltun REF löser gemensamt uppgifterna att klustra och minska dimensionaliteten genom att effektivt optimera ett kontinuerligt globalt mål baserat på robust statistik, vilket gör det möjligt att reda ut starkt blandade kluster.
30,950,680
Robust continuous clustering
{'venue': 'Proceedings of the National Academy of Sciences of the United States of America', 'journal': 'Proceedings of the National Academy of Sciences of the United States of America', 'mag_field_of_study': ['Computer Science', 'Medicine']}
11,023
Abstract-Robots utför dagliga uppgifter som matlagning i ett kök måste kunna hantera variationer i hushållsredskap som kan finnas tillgängliga. Med tanke på en viss uppgift och en uppsättning verktyg som finns tillgängliga måste roboten kunna bedöma vilket som skulle vara det bästa verktyget för uppgiften, och även var man kan förstå verktyget och hur man kan orientera det. Detta kräver en förståelse för vad som är viktigt i ett verktyg för en given uppgift, och hur greppet och orienteringen relaterar till prestation i uppgiften. En robot kan lära sig detta genom att testa många exempel. Detta lärande kan gå snabbare om dessa försök görs i simulering med hjälp av verktygsmodeller som förvärvats från webben. Vi tillhandahåller en halvautomatisk pipeline för att bearbeta 3D-modeller från webben, så att vi kan träna från många olika verktyg och deras användning i simulering. Vi representerar ett verktygsobjekt och dess grepp och orientering med hjälp av 21 parametrar som fångar former och storlekar av huvuddelar och relationer mellan dem. Vi lär oss sedan en "task funktion" som kartlägger denna 21 parameter vektor till ett värde som beskriver hur effektivt det är för en viss uppgift. Vårt utbildade system kan sedan bearbeta den osegmenterade punktmoln av ett nytt verktyg och utdata en poäng och ett sätt att använda verktyget för en viss uppgift. Vi jämför vår strategi med den närmaste i litteraturen och visar att vi uppnår betydligt bättre resultat.
Abelha m.fl. REF använder en simulator för att uppskatta hur ett visst verktyg fungerar i en given uppgift: de aktar sig för parametrarna för åtgärden att använda ett verktyg för att uppskatta den bästa parameteriseringen baserat på en "task-funktion".
19,427,686
Learning how a tool affords by simulating 3D models from the web
{'venue': '2017 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)', 'journal': '2017 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)', 'mag_field_of_study': ['Computer Science']}
11,024
Predikatkryptering är ett nytt krypteringsparadigm som ger en mästerlig hemlig nyckelägare finkornig kontroll över åtkomst till krypterad data. Den mästare hemliga nyckelägaren kan generera hemliga nyckel polletter som motsvarar predikat. En kryptering av data x kan utvärderas med hjälp av en hemlig token som motsvarar en predikat f; användaren lär sig om data uppfyller predikatet, dvs., om f (x) = 1. Tidigare arbete om predikat för öppen nyckel kryptering har fokuserat på begreppet data eller rentext integritet, egenskapen som chiffertexts avslöjar ingen information om krypterad data till en angripare annat än vad som i sig avslöjas av polletter angriparen har. I detta dokument överväger vi ett nytt begrepp som kallas predicate privacy, egenskapen som polletter avslöjar ingen information om den kodade frågepredikatet. Predicera integritet är i sig omöjligt att uppnå i den offentliga nyckelinställningen och har därför fått liten uppmärksamhet i tidigare arbete. I detta arbete, vi anser predicate kryptering i symmetrisk-nyckel inställning och presentera en symmetrisk nyckel predicera krypteringsschema som stöder inre produktfrågor. Vi bevisar att vår plan uppnår både klartext integritet och predikat integritet.
En lösning i den hemliga nyckelinställningen har publicerats i REF.
515,698
Predicate Privacy in Encryption Systems
{'venue': 'IACR Cryptology ePrint Archive', 'journal': 'IACR Cryptology ePrint Archive', 'mag_field_of_study': ['Computer Science']}
11,025
Sammanfattning av denna webbsida: Med utvecklingen av webbteknik och dess tillväxt finns det en enorm mängd data på webben för internetanvändare och en hel del data genereras också. Internet har blivit en plattform för lärande online, utbyte av idéer och åsiktsutbyte. Sociala nätverkssajter som Twitter, Facebook, Google+ blir snabbt allt populärare eftersom de gör det möjligt för människor att dela och uttrycka sina åsikter om ämnen, ha diskussioner med olika samhällen eller skicka meddelanden över hela världen. Det har varit mycket arbete inom området för känsloanalys av twitterdata. Denna undersökning fokuserar främst på känsloanalys av twitterdata som är till hjälp för att analysera informationen i tweets där åsikter är mycket ostrukturerade, heterogena och antingen positiva eller negativa, eller neutrala i vissa fall. I detta dokument ger vi en enkät och en jämförande analys av befintliga tekniker för åsiktsutvinning som maskininlärning och lexikonbaserade metoder, tillsammans med utvärderingsmått. Med hjälp av olika maskininlärningsalgoritmer som Naive Bayes, Max Entropy och Support Vector Machine, tillhandahåller vi en forskning om twitter dataströmmar. Vi har också diskuterat allmänna utmaningar och tillämpningar av Sentiment Analysis på Twitter.
Författarna i Ref. REF föreslår att använda Naive Bayes, Max Entropy och Support Vector Machine algoritmer på twitter dataströmmar och sedan gav en bra undersökning om maskininlärning baserad och lexikonbaserad metod för känsloanalys med utvärdering metriska, utmaningar och möjliga lösningar.
15,847,221
Sentiment Analysis of Twitter Data: A Survey of Techniques
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
11,026
Ordningen och arrangemanget av dimensioner (variater) är avgörande för effektiviteten av ett stort antal visualisering tekniker såsom parallella koordinater, spridningsplotter, rekursiva mönster, och många andra. I detta dokument beskriver vi ett systematiskt tillvägagångssätt för att ordna dimensionerna efter deras likhet. Den grundläggande idén är att omorganisera datadimensionerna så att dimensioner som visar ett liknande beteende placeras bredvid varandra. För likhetskluster av dimensioner måste vi definiera likhetsåtgärder som bestämmer den partiella eller globala likheten av dimensioner. Vi betraktar sedan problemet med att hitta ett optimalt en- eller tvådimensionellt arrangemang av dimensionerna baserat på deras likhet. Teoretiska överväganden visar att både det ena och det tvådimensionella arrangemanget är förvånansvärt svåra problem, dvs. De är NP-kompletterade. Vår lösning på problemet är därför baserad på heuristiska algoritmer. En empirisk utvärdering med hjälp av ett antal olika visualiseringstekniker visar den höga effekten av vår likhetsklustring av dimensioner på visualiseringsresultaten. Visualiseringstekniker blir allt viktigare för analys och prospektering av stora flerdimensionella datamängder, som också kallas datautvinning [Kei 97]. En stor fördel med visualiseringstekniker framför andra (semi-)automatiska data mining tekniker (från statistik, maskininlärning, artificiell intelligens, etc.) är att visualiseringar möjliggör en direkt interaktion med användaren och ger en omedelbar återkoppling samt användarstyrning, vilket är svårt att uppnå i de flesta icke-visuella strategier. Den praktiska betydelsen av visuella data mining tekniker ökar därför stadigt, och i princip alla kommersiella data mining system försöker införliva visualisering tekniker av ett eller annat slag (vanligtvis ganska enkla) [KDD]. Det finns dock också ett antal kommersiella datautvinningsprodukter som använder avancerad visualiseringsteknik för att förbättra datautvinningsprocessen. Ett stort antal visualiseringstekniker som används i dessa system lider dock av ett välkänt problem - det tillfälliga arrangemanget av data dimensionerna 1 i displayen. Det grundläggande problemet är att datadimensionerna måste placeras i något en- eller tvådimensionellt arrangemang på skärmen, och detta görs oftast mer eller mindre av en slump -nämligen i den ordning som dimensionerna råkar visas i databasen. Dimensionernas utformning har emellertid en stor inverkan på visualiseringens uttrycksfullhet. Grundtanken med vårt tillvägagångssätt för att hitta en effektiv dimensionsordning är att ordna dimensionerna efter deras likhet. För detta ändamål måste vi först definiera likhetsåtgärder som avgör likheten mellan två dimensioner. Dessa likhetsåtgärder kan grunda sig på en partiell eller global likhet mellan de berörda dimensionerna (jfr. Avsnitt 2). För att fastställa likheten får ett enkelt Euclidean- eller mer komplext (t.ex. Fourier-baserade) avståndsmått användas. Baserat på likhetsmåttet måste vi sedan bestämma likhetsarrangemanget av dimensioner. Efter att formellt ha definierat de en- och tvådimensionella arrangemangsproblemen (jfr. Underavsnitt 3.1), i underavsnitt 3.2 visar vi att alla varianter av arrangemanget problem är beräknings svårt problem som är NP-komplett. För att lösa problemen måste vi därför använda heuristiska algoritmer (jfr. Underavsnitt 3.3. Avsnitt 4 innehåller en experimentell utvärdering av vår nya idé, som visar dess inverkan på de parallella koordinaterna, cirkelsegmenten och rekursiv mönsterteknik. Problemet med att bestämma likheten av dimensioner (variater) kan karakteriseras som följande: Databasen som innehåller N objekt med d-dimensioner kan beskrivas som d matriser A i, var och en innehåller N reella tal,. Vi är intresserade av att definiera en likhet åtgärd S, som kartlägger två matriser till ett reellt tal (S: ). Alla meningsfulla likhetsåtgärder S måste ha följande egenskaper: där. 1. Vad är det för fel på dig? I samband med detta dokument använder vi termen datadimension som kan utbytas med termen variater (statistiktermiologi) och attribut (databastermiologi).
Sikta på dimension omordning, Ankerst et al. Ref presenterade en metod baserad på likhetsklustring av dimensioner, där liknande dimensioner placerades nära varandra.
12,170,274
Similarity clustering of dimensions for an enhanced visualization of multidimensional data
{'venue': 'Proceedings IEEE Symposium on Information Visualization (Cat. No.98TB100258)', 'journal': 'Proceedings IEEE Symposium on Information Visualization (Cat. No.98TB100258)', 'mag_field_of_study': ['Computer Science']}
11,027
Abstract - Nätverkskodning har använts för att öka transportkapaciteten i trådlösa nätnät. I nät med maskor beror kodningsmöjligheterna på samlokaliseringen av flera trafikflöden. Med fasta rutter som ges av ett routingprotokoll är kodningsmöjligheterna begränsade. I detta dokument presenteras ett nytt protokoll kallat BEND, som kombinerar funktionerna för nätkodning och opportunistisk vidarebefordring i 802.11-baserade nätnät för att skapa fler kodningsmöjligheter i nätverket. Med fördel av redundans av paket bland skotare kandidater, vårt protokoll böjer rutter lokalt och dynamiskt för att uppnå bättre kodningsmöjligheter. Denna högre kodningsvinst verifieras med hjälp av en nätverkssimulator.
Ett protokoll som kallas BEND föreslås i REF, som kombinerade funktionerna för nätkodning och opportunistisk vidaresändning i 802.11-baserade mesh-nätverk för att skapa fler kodningsmöjligheter i nätverket.
15,852,267
Network Coding via Opportunistic Forwarding in Wireless Mesh Networks
{'venue': '2008 IEEE Wireless Communications and Networking Conference', 'journal': '2008 IEEE Wireless Communications and Networking Conference', 'mag_field_of_study': ['Computer Science']}
11,028
Nya bärbara konsumentinbäddade enheter måste köra multimediatillämpningar (t.ex. 3D-spel, videospelare och programvara för signalbehandling osv.) som kräver omfattande minnesåtkomst och minnesanvändning vid låg energiförbrukning. Dessutom måste de starkt förlita sig på Dynamic Memory (DM) på grund av oförutsägbarheten av inmatningsdata och systembeteende. I detta sammanhang, konsekvent design metoder som kan hantera effektivt komplexa DM beteende av dessa multimedia applikationer är i stort behov. I den här artikeln presenterar vi en ny designram, baserad på genetisk programmering, som gör att vi kan utforma anpassade DM-hanteringsmekanismer, optimera minnesåtkomst, minnesanvändning och energiförbrukning för målet inbäddade systemet. För det första beskriver vi det stora designutrymmet för DM förvaltningsbeslut för multimedia inbäddade applikationer. Sedan föreslår vi ett lämpligt sätt att korsa denna design utrymme med hjälp av grammatiska evolution och konstruera anpassade DM chefer som minimera DM som används av dessa mycket dynamiska applikationer. Som ett resultat, vår metodik uppnår betydande förbättringar i minnesåtkomst (23% mindre i genomsnitt), minnesanvändning (38% mindre i genomsnitt) och energiförbrukning (minskningar på 21% i genomsnitt) i verkliga fall studier över den nuvarande state-of-the-art DM chefer som används för dessa typer av dynamiska applikationer. Såvitt vi vet är detta det första sättet att effektivt utforma DM-hanterare för inbyggda system med hjälp av evolutionsberäkning och grammatikutveckling.
För det första, med utgångspunkt från alla möjliga DMM-implementationer som ovan nämnda metod föreslår REF, definierar vi automatiskt det relevanta designutrymmet för dynamiska minneshanteringsbeslut för optimal prestanda, minnesanvändning och energiförbrukning.
15,177,198
Optimization of dynamic memory managers for embedded systems using grammatical evolution
{'venue': "GECCO '09", 'journal': None, 'mag_field_of_study': ['Computer Science']}
11,029
Ahstract-The real world human aktivitet dataset är av stor betydelse för utvecklingen av nya maskininlärningsmetoder för automatisk igenkänning av mänskliga aktiviteter i smarta miljöer. I denna studie presenterar vi detaljer om ARAS (Activity Recognition with Ambient Sensing) mänskliga aktivitetsigenkänningsdata som samlas in från två riktiga hus med flera invånare under två månader. Datauppsättningarna innehåller sanningsetiketter för 27 olika aktiviteter. Varje hus var utrustat med 20 binära sensorer av olika typer som kommunicerar trådlöst med ZigBee-protokollet. En hel månad av information som innehåller sensordata och aktivitetsetiketter för båda invånarna samlades in från varje hus, vilket resulterade i totalt två månaders data. I tidningen förklarar vi särskilt detaljerna kring sensorval, riktade aktiviteter, utplacering av sensorerna och egenskaperna hos insamlade data och ger resultaten av våra preliminära experiment på dataseten.
ARAS REF är en smart hem data som samlas in från två hus med flera invånare.
8,505,103
ARAS human activity datasets in multiple homes with multiple residents
{'venue': '2013 7th International Conference on Pervasive Computing Technologies for Healthcare and Workshops', 'journal': '2013 7th International Conference on Pervasive Computing Technologies for Healthcare and Workshops', 'mag_field_of_study': ['Computer Science']}
11,030
Den explosiva ökningen av den globala mobiltrafiken har lett till en snabb ökning av energiförbrukningen i kommunikationsnäten. I detta dokument fokuserar vi på energi-medveten design av nätverksval, subkanal, och kraftfördelning i cellulära och Wi-Fi-nätverk, samtidigt som hänsyn tas till trafikfördröjningen för mobila användare. Baserat på två-tidsskalan Lyapunov optimering teknik, vi först utforma en online Energy-Aware Network Val och resursallokering (ENSRA) algoritm, som ger en effektförbrukning inom O 1 V bundet av det optimala värdet, och garanterar en O (V ) trafikfördröjning för någon positiv kontroll parameter V. Motiverad av den senaste utvecklingen i den exakta uppskattningen och förutsägelsen av användarens rörlighet, kanalförhållanden och trafikkrav, utvecklar vi ytterligare en ny prediktiv Lyapunov optimeringsteknik för att utnyttja den prediktiva informationen, och föreslå en Prediktiv Energy-Aware Network Val och resursallokering (P-ENSRA) algoritm. Vi karakteriserar P-ENSRA:s prestandagränser teoretiskt sett när det gäller effektfördröjningen. För att minska komplexiteten i beräkningen föreslår vi slutligen en Greedy Predictive Energy-Aware Network Selection and Resource Allocation (GP-ENSRA) algoritm, där operatören löser problemet i P-ENSRA ungefärligt och iterativt. Numeriska resultat visar att GP-ENSRA avsevärt förbättrar effektfördröjningsprestandan över ENSRA i det stora fördröjningssystemet. För ett brett spektrum av systemparametrar minskar GP-ENSRA trafikförseningen över ENSRA med 20–30 % under samma strömförbrukning. Index Terms-Energy-aware kommunikation, gemensamt nätverksval och resursfördelning, cellulär och Wi-Fi-integration, stokastisk optimering.
Yu m.fl. REF undersökte problemet med gemensamt val av nätverk, underkanal och kraftfördelning i integrerade cellulära och Wi-Fi-nätverk.
7,604,693
Power-Delay Tradeoff With Predictive Scheduling in Integrated Cellular and Wi-Fi Networks
{'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science']}
11,031
Abstract-Topology kontroll i ett sensornätverk balanserar belastningen på sensornoder och ökar nätverkets skalbarhet och livslängd. Klustersensorn noder är en effektiv topologi kontroll metod. I detta dokument föreslår vi en ny distribuerad klusterstrategi för långlivade ad hoc-sensornätverk. Vårt föreslagna tillvägagångssätt gör inga antaganden om förekomsten av infrastruktur eller om nodkapacitet, förutom tillgängligheten av flera effektnivåer i sensornoder. Vi presenterar ett protokoll, HEED (Hybrid Energy-Efficient Distribuated clustering), som periodiskt väljer klusterhuvuden enligt en hybrid av noden restenergi och en sekundär parameter, såsom nod närhet till sina grannar eller nod grad. HEED avslutas i Oð1 ska iterationer, ådrar sig låga budskap overhead, och uppnår ganska enhetlig kluster huvud distribution över nätverket. Vi bevisar att, med lämpliga gränser på nodtäthet och intrakluster och intercluster överföringsintervall, kan HEED asymptotiskt säkert garantera anslutning av klustererade nätverk. Simuleringsresultat visar att vårt föreslagna tillvägagångssätt är effektivt för att förlänga nätverkets livslängd och stödja skalbar dataaggregation.
Ett lågt overhead-protokoll som med jämna mellanrum väljer klusterhuvuden enligt nodrestenergin för att stödja skalbar dataaggregation etableras i REF.
2,012,679
HEED: a hybrid, energy-efficient, distributed clustering approach for ad hoc sensor networks
{'venue': 'IEEE Transactions on Mobile Computing', 'journal': 'IEEE Transactions on Mobile Computing', 'mag_field_of_study': ['Computer Science']}
11,032
Vi undersöker paradigmiska framställningar av ordkontext inom området oövervakad syntaktisk kategoriförvärv. Paradigmatiska representationer av ordkontext är baserade på potentiella substitut av ett ord i motsats till syntagmatiska representationer baserade på egenskaper grannord. Vi jämför en bigrambaserad baslinjemodell med flera paradigmamodeller och visar betydande framsteg i noggrannhet. Vår bästa modell baserad på Euclidean co-occurence inbäddning kombinerar paradigmatisk kontext representation med morfologiska och ortografiska funktioner och uppnår 80% många-till-en noggrannhet på en 45-tag 1M ord corpus.
REF betraktar vektorparadigmiska framställningar av ord tillsammans med morfologiska och ortografiska likheter som egenskaper och använder en modifierad k-means klusterbildning för att bestämma syntaktiska kategorier.
13,398,019
Learning Syntactic Categories Using Paradigmatic Representations of Word Context
{'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
11,033
Abstract-This paper presents INGRESS, ett robotsystem som följer instruktioner om mänskligt naturligt språk för att välja och placera vardagliga objekt. Kärnfrågan här är grundandet av hänvisningsuttryck: sluta objekt och deras relationer från inmatningsbilder och språkuttryck. INGRESS möjliggör okonstruerade objektkategorier och okonstruerade språkuttryck. Vidare ställs frågor för att på ett interaktivt sätt disambiguera hänvisningar till uttryck. För att uppnå dessa tar vi utgångspunkten för varje generation och föreslår en tvåstegsmodell för neurala nätverk för jordning. Det första steget använder ett neuralt nätverk för att generera visuella beskrivningar av objekt, jämför dem med inmatningsspråket uttryck, och identifierar en uppsättning kandidatobjekt. Det andra steget använder ett annat neuralt nätverk för att undersöka alla parvisa relationer mellan kandidaterna och sluter sig till det mest sannolika refererade objektet. Samma neurala nätverk används för både jordning och frågegenerering för disambigering. Experiment visar att INGRESS överträffade en toppmodern metod på RefCOCO-datauppsättningen och i robotexperiment med människor.
På samma sätt tog REF itu med samma typ av problem med hjälp av en tvåstegsmodell för att förutsäga det sannolika målet från språkuttrycket och de parvisa sambanden mellan olika målkandidater.
46,980,062
Interactive Visual Grounding of Referring Expressions for Human-Robot Interaction
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Engineering']}
11,034
Att ge exakta förutsägelser är utmanande för maskininlärningsalgoritmer när antalet funktioner är större än antalet prover i data. Förkunskaper kan förbättra modeller för maskininlärning genom att ange relevanta variabler och parametervärden. Men denna förkunskap är ofta underförstådd och endast tillgänglig från domänexperter. Vi presenterar ett nytt tillvägagångssätt som använder interaktiv visualisering för att framkalla den tysta förkunskapen och använder den för att förbättra noggrannheten hos förutsägelsemodeller. Huvudkomponenten i vår strategi är en användarmodell som modellerar domänexpertens kunskap om relevansen av olika funktioner för en förutsägelseuppgift. I synnerhet, baserat på expertens tidigare input, styr användarmodellen valet av de funktioner på vilka för att locka användarens kunskap nästa gång. Resultaten av en kontrollerad användarstudie visar att användarmodellen avsevärt förbättrar förkunskaper och förutsägelsenoggrannhet vid beräkning av relativa citeringsvärden för vetenskapliga dokument inom ett visst område.
Andra arbeten har fokuserat på interaktivt funktionsval för maskininlärning genom att utveckla användarmodeller baserade på tidigare interaktioner REF.
907,244
Interactive Elicitation of Knowledge on Feature Relevance Improves Predictions in Small Data Sets
{'venue': "IUI '17", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
11,035
Abstract-Traditional Saliency modeller antar vanligtvis handgjorda bildfunktioner och mänskliga-designade mekanismer för att beräkna lokala eller globala kontraster. I detta dokument föreslår vi en ny beräkningskraftsmodell, dvs. djup rumslig kontextuell långsiktig återkommande konvolutionsnätverk (DSCLRCN), för att förutsäga var människor tittar i naturliga scener. DSCLRCN lär sig först automatiskt servicerelaterade lokala funktioner på varje bildplats parallellt. Sedan kan DSCLRCN, i motsats till de flesta andra djupnätverksbaserade saliency-modeller som innehåller saliency i lokala sammanhang, härma de kortikala laterala inhibitionsmekanismerna i det mänskliga visuella systemet för att införliva globala sammanhang för att bedöma saliensen i varje bildplats genom att utnyttja modellen för djup rumsligt långtidsminne (DSLSTM). Dessutom integrerar vi scenkontextmodulering i DSLSTM för saliency inference, vilket leder till en ny modell för djup rumslig kontextuell LSTM (DSCLSTM). Hela nätverket kan tränas end-to-end och fungerar effektivt vid testning. Experimentella resultat på två referensdatauppsättningar visar att DSCLRCN kan uppnå toppmodern prestanda när det gäller detektion av soliditet. Dessutom kan den föreslagna DSCLSTM-modellen avsevärt öka prestandan för detektering av hållfasthet genom att införliva både globala rumsliga sammanlänkningar och scenkontextmodulering, vilket kan avslöja ny inspiration för studier om dem i beräkningsmodeller.
Dessa idéer vidareutvecklas i de senaste arbeten som kallas DSCLRCN REF, där den föreslagna modellen lär sig Saliency relaterade lokala funktioner på varje bildplats parallellt och sedan lär sig att samtidigt införliva globala sammanhang och scensammanhang för att dra slutsatser.
1,773,932
A Deep Spatial Contextual Long-Term Recurrent Convolutional Network for Saliency Detection
{'venue': 'IEEE Transactions on Image Processing', 'journal': 'IEEE Transactions on Image Processing', 'mag_field_of_study': ['Computer Science', 'Medicine', 'Mathematics']}
11,037
I detta dokument presenteras en strategi för erkännande av mänskliga åtgärder genom att hitta de diskriminerande nyckelramarna från en videosekvens och representera dem med distribution av lokala rörelsefunktioner och deras spatiotemporala arrangemang. I detta tillvägagångssätt, de viktigaste ramarna i videosekvensen väljs ut av deras diskriminerande kraft och representeras av de lokala rörelsefunktioner som upptäcks i dem och integreras från deras timliga grannar. I nyckelramens representation fångas rörelsefunktionernas rumsliga arrangemang in i en hierarkisk rumslig pyramidstruktur. Genom att använda ram för ram röstning för igenkänning, experiment har visat förbättrade resultat över de flesta av de andra kända metoder på den populära referensdatamängder.
Deras metod använder en hierarkisk rumslig pyramidstruktur som ger mycket goda resultat över standard referensdatauppsättningar REF.
5,071,132
Information theoretic key frame selection for action recognition
{'venue': 'In BMVC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
11,038
Federerat lärande innebär nya utmaningar för statistik och system när det gäller utbildning av maskininlärningsmodeller över distribuerade nätverk av enheter. I detta arbete visar vi att multi-task lärande är naturligt lämpad för att hantera de statistiska utmaningarna i denna miljö, och föreslå en ny system-medveten optimeringsmetod, MOCHA, som är robust för praktiska systemfrågor. Vår metod och teori tar för första gången upp frågor om höga kommunikationskostnader, stragglers och feltolerans för distribuerat lärande med flera uppgifter. Den resulterande metoden uppnår betydande hastigheter jämfört med alternativ i den federerade inställningen, som vi demonstrerar genom simuleringar på verkliga federerade datauppsättningar. Mobiltelefoner, bärbara enheter och smarta hem är bara några få av de moderna distribuerade nätverk som genererar enorma mängder data varje dag. På grund av den växande lagrings- och beräkningskraften hos enheter i dessa nätverk blir det allt mer attraktivt att lagra data lokalt och driva mer nätverksberäkning till kanten. Det nascent fält av federerat lärande utforskar utbildning statistiska modeller direkt på enheter [35]. Exempel på potentiella tillämpningar är: inlärningskänsla, semantisk plats, eller aktiviteter för mobiltelefonanvändare; förutsäga hälsohändelser som lågt blodsocker eller hjärtinfarkt risk från bärbara enheter; eller upptäcka inbrott i smarta hem [3, 37, 40]. Efter [24, 34, 25] sammanfattar vi de unika utmaningarna med federerat lärande nedan. 1. Vad är det för fel på dig? Statistiska utmaningar: Syftet med federerat lärande är att passa en modell till data, {X 1,. .., X m }, genereras av m distribuerade noder. Varje nod, t... [m] samlar in data på ett icke-ID sätt över nätverket, med data om varje nod som genereras av en distinkt distribution X t... P t. Antalet datapunkter på varje nod, n t, kan också variera avsevärt, och det kan finnas en underliggande struktur närvarande som fångar förhållandet mellan noder och deras tillhörande distributioner. 2. Utgångspunkten är följande: Systemutmaningar: Det finns vanligtvis ett stort antal noder, m, i nätverket, och kommunikation är ofta en betydande flaskhals. Dessutom kan lagrings-, beräknings- och kommunikationskapaciteten för varje nod variera på grund av variationer i hårdvara (CPU, minne), nätverksanslutning (3G, 4G, WiFi) och effekt (batterinivå). Dessa systemutmaningar, tillsammans med obalanserade data och statistisk heterogenitet, gör frågor som t.ex. stragglers och feltolerans betydligt vanligare än i typiska datacentermiljöer. I detta arbete föreslår vi en modelleringsmetod som skiljer sig avsevärt från tidigare arbete med federerat lärande, där målet hittills har varit att utbilda en enda global modell över hela nätverket [24, 34, 25]. Istället tar vi itu med statistiska utmaningar i den federerade inställningen genom att lära sig separata modeller för varje nod, {w 1,. ..................................................... Detta kan naturligt fångas genom en multi-task lärande (MTL) ram, där målet är att överväga att passa separata men relaterade modeller samtidigt [13, 2, 54, 27]. Tyvärr är dagens inlärningsmetoder med flera uppgifter inte lämpade för att hantera de systemutmaningar som uppstår i samband med federerat lärande, inklusive höga kommunikationskostnader, stragglers och feltolerans. Att ta itu med dessa utmaningar är därför en viktig del av vårt arbete. * Författare bidrog lika mycket. ArXiv:1705.10467v1 [cs. LG] 30 maj 2017 2 Termen inlärning på enhet har använts för att beskriva både uppgiften modellutbildning och modelltjänst. På grund av tvetydigheten i denna fras använder vi uteslutande termen federerad inlärning. 3 Även om inte fokus för vårt arbete, Vi noterar integritet är en viktig oro i den federerade miljön, och att den integritet fördelar i samband med globala federerade lärande (som diskuteras i [34] ) också gäller vår strategi.
Under 2017 kombinerar REF federerat lärande med lärande med flera arbetsuppgifter.
3,586,416
Federated Multi-Task Learning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
11,039
Abstract-Wireless Mesh Networks (WMN) har nyligen utvecklats som en lovande teknik för nästa generations trådlösa nätverk för att tillhandahålla ett brett utbud av applikationer som inte kan stödjas direkt av andra trådlösa nätverk. I WMNs visar sig säkerheten vara ett stort bekymmer och forskarsamhället har ägnat lite uppmärksamhet åt detta ämne. I detta dokument undersöker vi ett allvarligt säkerhetshot som kallas den selektiva vidaresändningsattacken (gråhålsattack). I en selektiv vidaresändningsattack vägrar en skadlig nod att vidarebefordra alla eller en delmängd av de paket den tar emot. En sådan selektiv minskning är en utmaning att försvara sig mot. I detta dokument presenterar vi en algoritm för att försvara mot selektiva vidarebefordra attacker baserade på AODV routing protokoll. Den första fasen av algoritmen är Counter-T hreshold Based och använder detektionströskeln och paketräknaren för att identifiera attackerna och den andra fasen är QueryBased och använder bekräftelse från de mellanliggande noderna för att lokalisera angriparen. Vi presenterar även simuleringsresultat för att illustrera effektiviteten hos den föreslagna algoritmen. Såvitt vi vet är detta det första papperet som presenterar en algoritm för att försvara selektiva vidarebefordringsattacker i WMN.
Shila m.fl. REF införde ett tillvägagångssätt för att undersöka selektiv vidaresändning attack, grått hål i det trådlösa nätverket med hjälp av en algoritm baserad på routing AODV.
6,104,218
Defending selective forwarding attacks in WMNs
{'venue': '2008 IEEE International Conference on Electro/Information Technology', 'journal': '2008 IEEE International Conference on Electro/Information Technology', 'mag_field_of_study': ['Computer Science']}
11,040
Abstract-Vi studerar kapaciteten hos hybrida trådlösa nätverk. Ett hybridnät bildas genom att ett glest nät av basstationer placeras i ett ad hoc-nät. Dessa basstationer antas vara anslutna av ett trådbundet nätverk med hög bandbredd och fungera som reläer för trådlösa noder. De är varken datakällor eller mottagare. Hybridnät innebär en avvägning mellan traditionella cellulära nät och rena ad hoc-nät genom att data kan vidarebefordras på ett multihop-sätt eller genom infrastrukturen. Det har visat sig att kapaciteten hos ett slumpmässigt ad hoc-nätverk inte ökar väl med antalet noder i systemet [1]. I detta arbete, vi överväga två olika routing strategier och studera skalning beteende av genomströmningskapaciteten i ett hybridnätverk. Analytiska uttryck för överföringskapaciteten erhålls. För en hybrid nätverk av n noder och m basstationer, resultaten visar att om m växer asymptotiskt långsammare än ε n, fördelen med att lägga basstationer på kapacitet är obetydlig. Om m emellertid växer snabbare än ε n ökar kapaciteten linjärt med antalet basstationer, vilket ger en effektiv förbättring jämfört med ett rent ad hoc-nät. För att uppnå icke försumbara kapacitetsvinster bör investeringarna i trådbunden infrastruktur därför vara tillräckligt stora.
REF visar att om antalet masters överstiger kvadratroten av antalet motor, uppvisar ett nivåindelat nätverk ingen kapacitetsbegränsning.
2,853,015
On the capacity of hybrid wireless networks
{'venue': 'IEEE INFOCOM 2003. Twenty-second Annual Joint Conference of the IEEE Computer and Communications Societies (IEEE Cat. No.03CH37428)', 'journal': 'IEEE INFOCOM 2003. Twenty-second Annual Joint Conference of the IEEE Computer and Communications Societies (IEEE Cat. No.03CH37428)', 'mag_field_of_study': ['Computer Science']}
11,041
Backpropagationen av felalgoritm (BP) är omöjlig att genomföra i en riktig hjärna. Den senaste tidens framgångar med djupa nätverk inom maskininlärning och AI har dock inspirerat förslag på hur hjärnan kan lära sig över flera lager, och därmed hur den kan approximera BP. Hittills har inget av dessa förslag utvärderats rigoröst när det gäller uppgifter där BP-styrda djupinlärning har visat sig vara av avgörande betydelse, eller inom arkitekturer som är mer strukturerade än enkla sammankopplade nätverk. Här presenterar vi resultat om att skala upp biologiskt motiverade modeller för djupinlärning på dataset som behöver djupa nätverk med lämpliga arkitekturer för att uppnå god prestanda. Vi presenterar resultat på MNIST, CIFAR-10, och ImageNet datauppsättningar och utforska varianter av mål-förökning (TP) och feedback anpassning (FA) algoritmer, och utforska prestanda i både fullt-och lokalt anslutna arkitekturer. Vi introducerar också vikt-transport-fria varianter av skillnad målutbredning (DTP) modifierat för att ta bort backpropagation från det näst sista lagret. Många av dessa algoritmer fungerar bra för MNIST, men för CIFAR och ImageNet finner vi att TP och FA-varianter presterar betydligt sämre än BP, särskilt för nätverk som består av lokalt anslutna enheter, vilket öppnar frågor om huruvida nya arkitekturer och algoritmer krävs för att skala dessa metoder. Våra resultat och genomförandedetaljer hjälper till att etablera baslinjer för biologiskt motiverade djupinlärningsprogram framöver.
Nyligen presenterade REF resultat som testar FA på CIFAR-10 och ImageNet arkitekturer.
49,670,549
Assessing the Scalability of Biologically-Motivated Deep Learning Algorithms and Architectures
{'venue': 'NeurIPS', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
11,042
Abstract-Process variationer är ett stort problem i dagens chip design eftersom de kan avsevärt försämra chip prestanda. För att förutsäga sådan nedbrytning förlitar sig befintliga krets- och MEMS-simulatorer på Monte Carlo-algoritmer, som vanligtvis är för långsamma. Därför är nya snabba stokastiska simulatorer mycket önskvärt. Detta papper första granskar vår nyligen utvecklade stokastiska testsimulator som kan uppnå speedup faktorer på hundratusentals över Monte Carlo. Sedan utvecklar vi en snabb hierarkisk stokastisk spektralsimulator för att simulera en komplex krets eller system bestående av flera block. Vi presenterar vidare en snabb simuleringsmetod baserad på förankrad ANOVA (analys av varians) för vissa designproblem med många processvariationer. Detta tillvägagångssätt kan minska simuleringskostnaden och identifiera vilka variationskällor som har stor inverkan på kretsens prestanda. Simuleringsresultaten för vissa krets- och MEMS-exempel rapporteras visa hur effektiv vår simulator är.
Till exempel utvecklar REF en hierarkisk stokastisk spektralsimulator baserad på den förankrade ANOVA i vilken en ankarpunkt och en tröskel införs för ANOVA för att erhålla en trunkerad ANOVA nedbrytning.
3,218,457
Stochastic Testing Simulator for Integrated Circuits and MEMS: Hierarchical and Sparse Techniques
{'venue': 'Z. Zhang, X. Yang, G. Marucci, P. Maffezzoni, I. M. Elfadel, G. E. Karniadakis and L. Daniel,"Stochastic Testing Simulator for Integrated Circuits and MEMS: Hierarchical and Sparse Techniques", in Proc. CICC, Sept. 2014', 'journal': None, 'mag_field_of_study': ['Computer Science']}
11,043
Vi anser att den konvexa konkav sadeln problem min x max y f (x) + y Ax − g (y) där f är slät och konvex och g är slät och starkt konvex. Vi bevisar att om kopplingen matris A har full kolonn rank, kan vanilj primaldual gradient metoden uppnå linjär konvergens även om f inte är starkt konvex. Vårt resultat generaliserar tidigare arbete som antingen kräver f och g för att vara kvadratiska funktioner eller kräver proximala kartläggningar för både f och g. Vi antar en ny analysteknik som i varje iteration använder en "ghost" uppdatering som referens, och visar att itererar i den ursprungliga-dual gradient metoden konvergerar till denna "ghost" sekvens. Med samma teknik ger vi vidare en analys av den ursprungliga-dual stokastiska variansen reducerad lutning (SVRG) metod för konvex-konkav sadel punkt problem med en ändlig-summa struktur.
Dessutom visade Ref att GDA uppnår en linjär konvergens när G är konvex och H är starkt konvex.
3,521,793
Linear Convergence of the Primal-Dual Gradient Method for Convex-Concave Saddle Point Problems without Strong Convexity
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
11,044
Diabetes är en av de vanligaste och växande sjukdomarna i flera länder och alla av dem arbetar för att förhindra denna sjukdom i ett tidigt skede genom att förutsäga symtomen på diabetes med hjälp av flera metoder. Huvudsyftet med denna studie är att jämföra prestanda av algoritmer som används för att förutsäga diabetes med hjälp av data mining tekniker. I detta papper jämför vi maskininlärning klassificeringar (J48 Decision Tree, K-Nearest Neighbors, och Random Forest, Stöd Vector Machines) för att klassificera patienter med diabetes mellitus. Dessa metoder har testats med dataprover hämtade från UCI-dataarkivet för maskininlärning. Algoritmernas prestanda har mätts i båda fallen, dvs. dataset med bullriga data (före förbehandling) och dataset utan bullriga data (efter förbehandling) och jämförs med avseende på noggrannhet, känslighet och specificitet.
I den studie som genomfördes i REF jämfördes prestandan hos övervakade algoritmer för maskininlärning som användes för att förutsäga diabetes.
57,132,914
Performance Analysis of Classifier Models to Predict Diabetes Mellitus
{'venue': None, 'journal': 'Procedia Computer Science', 'mag_field_of_study': ['Computer Science']}
11,045
Abstract-Mobile-edge cloud computing är ett nytt paradigm för att tillhandahålla molndatafunktioner i utkanten av genomträngande radionät i nära anslutning till mobila användare. I det här dokumentet studerar vi först problemet med att avlasta flera användare för molndata i en trådlös störningsmiljö med flera kanaler. Vi visar att det är NP-hårdt att beräkna en centraliserad optimal lösning, och därmed anta en spelteoretisk metod för att uppnå effektiv beräkning offloading på ett distribuerat sätt. Vi formulerar den distribuerade beräkningen offloading beslutsfattande problem bland mobila användare som en multi-användare beräkning offloading spel. Vi analyserar den strukturella egenskapen i spelet och visar att spelet medger en Nash jämvikt och har den ändliga förbättring egenskapen. Vi utformar sedan en distribuerad beräkning offloading algoritm som kan uppnå en Nash jämvikt, härleda den övre gränsen för konvergenstiden, och kvantifiera dess effektivitet förhållande över de centraliserade optimala lösningarna i termer av två viktiga prestandamått. Vi utökar ytterligare vår studie till scenariot med fleranvändarberäkningsavlastning i den trådlösa innehållsmiljön med flera kanaler. Numeriska resultat bekräftar att den föreslagna algoritmen kan uppnå överlägsen beräkning offloading prestanda och skala samt användarens storlek ökar.
För MEC-system med flera användare, Chen et al. REF föreslog en distribuerad avlastningsalgoritm som kan uppnå Nash jämvikt för att minska trådlösa störningar.
1,663,452
Efficient Multi-User Computation Offloading for Mobile-Edge Cloud Computing
{'venue': 'TNET', 'journal': None, 'mag_field_of_study': ['Computer Science']}
11,046
Abstract Högupplösta videobilder innehåller enorma mängder data så att realtidskapaciteten för bildregistrering och mållokaliseringsalgoritm är svår att uppnå när de drivs på centralenheter (CPU). I detta papper är förbättrad ORB (orienterad FAST och roterande BREF, FAST, som betyder ''Features from Accelerated Segment Test'', en hörndetekteringsmetod som används för extraktion av funktionspunkter. BRIEF betyder ''Binary Robust Independent Elementary Features'', och det är en binär bitsträng som används för att beskriva funktioner) baserad realtidsbild registrering och mål lokalisering algoritm för högupplösta videobilder föreslås. Vi fokuserar på parallellisering av tre av de mest tidskrävande delarna: förbättrad ORB-funktionsextraktion, funktionsmatchning baserad på hammingavstånd för att matcha grova punkter, och Random Sample Consensus algoritm för exakt matchning och uppnå transformation modellparametrar. Realizing Compute Unified Device Architecture (CUDA)-baserad bildregistrering i realtid och mållocalization parallellalgoritm för högupplösta videobilder betonas också. De experimentella resultaten visar att när registrering och lokalisering effekt är liknande, bild registrering och mål lokalisering algoritm för högupplösta video bilder som uppnås av CUDA är ungefär 20 gånger snabbare än med CPU genomförande, uppfyller kravet på realtid bearbetning.
Chi REF et al uppnådde realtidsbild registrering och positionering system baserat på CUDA, med 20 gånger snabbare än CPU, som uppfyller kraven för realtidsbearbetning.
14,061,157
Realization of CUDA-based real-time registration and target localization for high-resolution video images
{'venue': 'Journal of Real-Time Image Processing', 'journal': 'Journal of Real-Time Image Processing', 'mag_field_of_study': ['Computer Science']}
11,047
I detta dokument presenteras en strategi för erkännande av mänskliga åtgärder genom att hitta de diskriminerande nyckelramarna från en videosekvens och representera dem med distribution av lokala rörelsefunktioner och deras spatiotemporala arrangemang. I detta tillvägagångssätt, de viktigaste ramarna i videosekvensen väljs ut av deras diskriminerande kraft och representeras av de lokala rörelsefunktioner som upptäcks i dem och integreras från deras timliga grannar. I nyckelramens representation fångas rörelsefunktionernas rumsliga arrangemang in i en hierarkisk rumslig pyramidstruktur. Genom att använda ram för ram röstning för igenkänning, experiment har visat förbättrade resultat över de flesta av de andra kända metoder på den populära referensdatamängder.
I REF väljs nyckelramar genom att rangordna den villkorliga entropin av kodorden som tilldelats ramarna.
5,071,132
Information theoretic key frame selection for action recognition
{'venue': 'In BMVC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
11,048
Vi föreslår en ny teknik för snabbare Neural Network (NN) utbildning genom att systematiskt approximera alla ingående matris multiplikationer och konvolutioner. Detta tillvägagångssätt kompletterar andra approximeringsmetoder och kräver inga ändringar av nätverksskiktens dimensioner, vilket är förenligt med befintliga utbildningsramar. Vi analyserar först tillämpligheten av de befintliga metoderna för att approximera matrismultiplikation till NN-utbildning, och utökar den mest lämpliga kolonnradsprovtagningsalgoritmen till att approximera flerkanalskonvolutioner. Vi tillämpar ungefärliga tensor operationer för utbildning MLP, CNN och LSTM nätverksarkitekturer på MNIST, CIFAR-100 och Penn Tree Bank datauppsättningar och visar 30%-80% minskning av mängden beräkningar samtidigt som liten eller ingen påverkan på testnoggrannheten. Våra lovande resultat uppmuntrar till ytterligare studier av allmänna metoder för att tillnärma tensoroperationer och deras tillämpning på NN-utbildning.
REF minskar komplexiteten i matrisen multiplikation genom approximationer genom en form av kolonnradsprovtagning.
29,157,931
Faster Neural Network Training with Approximate Tensor Operations
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
11,049
Abstrakt. Vi presenterar en metod för att upptäcka objekt i bilder med hjälp av ett enda djupt neuralt nätverk. Vårt tillvägagångssätt, som heter SSD, diskretiserar utdatautrymmet för att avgränsa rutor till en uppsättning standardrutor över olika proportioner och skalor per funktion kartplats. Vid förutsägelsetid genererar nätverket poäng för närvaron av varje objektkategori i varje standardruta och skapar justeringar i rutan för att bättre matcha objektets form. Dessutom kombinerar nätverket förutsägelser från flera funktionskartor med olika upplösningar för att naturligt hantera objekt i olika storlekar. SSD är enkel i förhållande till metoder som kräver objektförslag eftersom det helt eliminerar förslagsgenerering och efterföljande pixel eller funktion omampling stadier och inkapslar all beräkning i ett enda nätverk. Detta gör SSD lätt att träna och enkelt att integrera i system som kräver en detektionskomponent. Experimentella resultat på PASCAL VOC, COCO och ILSVRC datauppsättningar bekräftar att SSD har konkurrenskraftig noggrannhet till metoder som utnyttjar ytterligare ett objektförslag steg och är mycket snabbare, samtidigt som det ger en enhetlig ram för både utbildning och slutsatser. För 300 × 300 indata uppnår SSD 74,3 % mAP 1 på VOC2007-test vid 59 FPS på en Nvidia Titan X och för 512 × 512 indata uppnår SSD 76,9 % mAP, vilket resulterar i en jämförbar toppmodern snabbare R-CNN-modell. Jämfört med andra enstaka steg metoder, SSD har mycket bättre noggrannhet även med en mindre indata bildstorlek. Koden finns på https://github.com/weiliu89/caffe/tree/ssd.
SSD REF föreslog först att man skulle förutsäga klasspoäng och avgränsande rutor från flera funktionsskalor.
2,141,740
SSD: Single Shot MultiBox Detector
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
11,050
Abstract Deployment av ett trådlöst sensornätverk är ett utmanande problem, särskilt när miljön i nätverket inte tillåter vare sig slumpmässig distribution eller exakt placering av sensornoder. Om sensorn noder är mobila, då en metod för att övervinna detta problem är att först distribuera sensor noder slumpmässigt i någon inledande region inom området för nätverket, och sedan låta sensorn noder att flytta runt och samarbeta och gradvis öka den täckta delen av området. Nyligen, en cellulär inlärning automatiserad installationsstrategi, kallad CLA-DS, introduceras i litteratur som följer denna strategi och är robust mot felaktigheter som kan uppstå i mätningar av sensorpositioner eller i rörelser av sensorn noder. Trots dess fördelar täcker denna installationsstrategi varje punkt inom nätverkets område med endast en sensornod, vilket inte räcker för applikationer med k-täckningskrav. I detta dokument utvidgar vi CLA-DS så att det kan uppfylla k-täckningskravet. Denna utvidgning, kallad CLA-EDS, kan också uppfylla k-täckningskravet med olika värden på k i olika regioner i nätverksområdet. Experimentella resultat har visat att den föreslagna installationsstrategin, utöver de fördelar den ärvs från CLA-DS, överträffar befintliga algoritmer som DSSA, IDCA och DSLE när det gäller att täcka nätverksområdet, särskilt när den erforderliga täckningen skiljer sig åt i olika regioner i nätverket.
Esnaashari och Meybodi i REF föreslog automatiserad installationsstrategi, kallad utökad cellulär inlärning automatiserad installationsstrategi (CLA-EDS), för täckning med mobila sensornoder.
5,731,547
Deployment of a mobile wireless sensor network with k-coverage constraint: a cellular learning automata approach
{'venue': None, 'journal': 'Wireless Networks', 'mag_field_of_study': ['Computer Science']}
11,051
Vi presenterar ett gränssnitt och en implementering av General Matrix Multiply (GEMM) rutin för flera små matriser som behandlas samtidigt på NVIDIA grafikenheter (GPU). Vi fokuserar på matrisstorlekar under 16. Genomförandet kan enkelt utvidgas till större storlekar. För enkelprecisionsmatriser är vår implementering 30% till 600% snabbare än den batchade cuBLAS-implementationen som distribueras i CUDA Toolkit 5.0 på NVIDIA Tesla K20c. Till exempel får vi 104 GFlop/s och 216 GFlop/s när du multiplicerar 100 000 oberoende matrispar av storlek 10 respektive 16. Liknande förbättringar i prestanda uppnås för andra storlekar, i enkel och dubbel precision för verkliga och komplexa typer, och när antalet matriser är mindre. Förutom vårt genomförande spelar vårt olika funktionsgränssnitt också en viktig roll i den förbättrade prestandan. Tillämpningar av denna programvara inkluderar Finite Element beräkning på GPU:er.
REF föreslår lowoverhead-gränssnitt för flera små matrismultiplikationer på NVIDIA GPUs.
6,498,491
A GEMM interface and implementation on NVIDIA GPUs for multiple small matrices
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
11,052
Genom att dela information mellan flera uppgifter kan al gorithms uppnå goda generaliseringsresultat även från små mängder träningsdata. Men i ett realistiskt scenario med lärande med flera uppgifter är inte alla uppgifter lika försenade till varandra, och därför kan det vara fördelaktigt att överföra information endast mellan de mest relaterade uppgifterna. I detta arbete föreslår vi ett tillvägagångssätt som behandlar mul tiple uppgifter i en sekvens med delning mellan efterföljande uppgifter i stället för att lösa alla uppgifter gemensamt. Därefter tar vi upp frågan om läroplansinlärning av uppgifter, dvs. Att hitta den bästa ordningen av uppgifter att lära sig. Vårt tillvägagångssätt är baserat på ett generaliseringsbundet kriterium för att välja den uppgiftsordning som optimerar den genomsnittliga förväntade klassi ficeringsprestandan över alla uppgifter. Våra experimentella resultat visar att lärande av flera relaterade uppgifter i följd kan vara mer effektivt än att lära dem gemensamt, den ordning i vilken uppgifterna löses påverkar den totala perfor mance, och att vår modell automatiskt kan upptäcka en gynnsam ordning av uppgifter.
Nyligen, Pentina et al. REF utgör läroplanslärande i en inlärningsmiljö med flera arbetsuppgifter, där delning endast sker mellan följande uppgifter.
8,502,955
Curriculum learning of multiple tasks
{'venue': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
11,053
Abstract-Problemet med grafiskt modellval är att uppskatta grafstrukturen i ett Markov slumpmässigt fält ges prover från det. Vi analyserar informations-teoretiska begränsningar av problemet med grafval för binära Markov slumpmässiga fält under högdimensionell skalning, där grafens storlek och antalet kanter, och / eller maximal nodgrad, tillåts öka till oändlighet som en funktion av provets storlek. För parvis binära Markov slumpmässiga fält, vi härleda både nödvändiga och tillräckliga villkor för korrekt graf val över klassen av grafer på hörn med de flesta kanter, och över klassen av grafer på hörn med maximal grad som mest. För klassen, Vi fastställer förekomsten av konstanter och sådan att Om, Varje metod har fel sannolikhet minst enhetligt över familjen, och vi visar en graf dekoder som lyckas med hög sannolikhet jämnt över familjen för provstorlekar. På samma sätt, för klassen, Vi uppvisar konstanter och sådan att för, Varje metod misslyckas med sannolikhet minst Och vi visar en graf dekoder som lyckas med hög sannolikhet för. Index Terms-High dimensional inference, KL divergens mellan Ising modeller, Markov slumpmässiga fält, prov komplexitet, struktur av Ising modeller.
Santhanam och Wainwright REF erhöll nödvändiga och tillräckliga villkor för att lära sig parvis binära Markov Random Fields.
834,319
Information-Theoretic Limits of Selecting Binary Graphical Models in High Dimensions
{'venue': 'IEEE Transactions on Information Theory', 'journal': 'IEEE Transactions on Information Theory', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
11,054
Uppskattning av etiketter är en viktig komponent i ett system för omidentifiering av personer utan tillsyn (re-ID). Detta dokument fokuserar på cross-camera etikettuppskattning, som sedan kan användas i funktionsinlärning för att lära sig robusta re-ID-modeller. Specifikt föreslår vi att man konstruerar en graf för prover i varje kamera, och sedan införs diagrammatchningsschema för cross-camera märkning association. Etiketter direkt från befintliga graf matchningsmetoder kan vara bullriga och felaktiga på grund av betydande tvärkameravariationer, men detta papper föreslår en dynamisk graf matchning (DGM) metod. DGM uppdaterar iterativt bildgrafen och etikettuppskattningsprocessen genom att lära sig ett bättre funktionsutrymme med mellanliggande uppskattade etiketter. DGM är fördelaktigt i två avseenden: 1) noggrannheten hos de uppskattade etiketterna förbättras avsevärt med iterationer; 2) DGM är robust till bullriga grundläggande utbildningsdata. Omfattande experiment som utförts på tre referensvärden, inklusive de storskaliga MARS-dataseten, visar att DGM ger konkurrenskraftiga resultat till fullt övervakade referensvärden och överträffar konkurrerande oövervakade inlärningsmetoder. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning.
- Ja, det är jag. REF föreslår en dynamisk grafmatchningsmetod (DGM), som iterativt uppdaterar bildgrafen och etikettuppskattningen för att lära sig ett bättre funktionsutrymme med mellanliggande uppskattade etiketter.
78,548
Dynamic Label Graph Matching for Unsupervised Video Re-identification
{'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
11,055
Anpassningen av sekvensering läser till en transkriptome är ett vanligt och viktigt steg i många RNA-seq analysuppgifter. Vid anpassning av RNA-seq läser direkt till en transkriptom (som är vanligt i de novo-inställningen eller när en pålitlig referens annotation är tillgänglig), måste man vara noga med att rapportera det potentiellt stora antalet multi-mapping platser per read. Detta kan innebära en betydande beräkningsbörda för befintliga konfigurerare och kan avsevärt bromsa nedströmsanalysen. Resultat: Vi introducerar ett nytt koncept, kvasi-mapping, och en effektiv algoritm genomföra detta tillvägagångssätt för att kartlägga sekvensering läser till en transkriptome. Genom att endast försöka rapportera den potentiella lokaliseringen av ursprunget för en sekvensläsning, och inte den bas-till-bas anpassning genom vilken den härrör från referensen, RapMap-our verktyg genomföra kvasi-mappning-kan kartlägga sekvensering läser till en mål transkriptom betydligt snabbare än befintliga anpassningsverktyg. Algoritmen vi använder för att implementera kvasi-mappning använder flera effektiva datastrukturer och drar nytta av den speciella strukturen av delade sekvenser som är vanliga i transkriptomer för att snabbt tillhandahålla mycket korrekt karteringsinformation. Vi visar hur kvasi-mappning framgångsrikt kan tillämpas på problemen med transkript-nivå kvantifiering från RNA-seq-avläsningar och klustering av contigs från de novo sammansatta transkriptomer till biologiskt meningsfulla grupper. Tillgänglighet: RapMap implementeras i C++11 och finns som öppen programvara, under GPL v3, på https://github.com/COMBINE-lab/RapMap.
Quark använder det nyligen införda konceptet med kvasi-mapping REF för att snabbt kartlägga sekvensering läser till en mål transkriptome.
196,616,102
RapMap: A Rapid, Sensitive and Accurate Tool for Mapping RNA-seq Reads to Transcriptomes
{'venue': None, 'journal': 'bioRxiv', 'mag_field_of_study': ['Biology']}
11,056
En populär form av semantisk sökning som observerats i flera moderna sökmotorer är att känna igen frågemönster som utlöser omedelbara svar eller domänspecifika sökningar och producerar semantiskt berikade sökresultat. Detta kräver ofta att man förstår frågesyftet utöver vad frågetermerna betyder för att få tillgång till strukturerade datakällor. En stor utmaning i avsikt förståelse är att bygga ett domänberoende schema och att kommentera sökfrågor baserat på ett sådant schema, en process som hittills har krävt mycket manuell annotering ansträngning. Vi presenterar en oövervakad metod för att samla frågor med liknande intention och för att producera ett mönster som består av en sekvens av semantiska begrepp och / eller lexiska objekt för varje avsikt. Dessutom utnyttjar vi de upptäckta intentionsmönstren för att automatiskt kommentera ett stort antal frågor utöver dem som används i kluster. Vi utvärderade vår metod på 10 utvalda domäner, upptäcka över 1400 intention mönster och automatiskt kommentera 125K (och potentiellt många fler) frågor. Vi fann att över 90 procent av mönster och 80 procent av exempel annoteringar som testats bedöms vara korrekta av en majoritet av annoterarna.
Studien av REF presenterade en oövervakad strategi för klusterfrågor med liknande intentioner som, i sitt arbete, är mönster som består av en sekvens av semantiska begrepp eller lexiska objekt.
1,273,359
Sequence clustering and labeling for unsupervised query intent discovery
{'venue': "WSDM '12", 'journal': None, 'mag_field_of_study': ['Computer Science']}
11,057
Abstract Det är allmänt erkänt att genomträngande datorsystem introducerar en radikalt ny uppsättning designutmaningar jämfört med traditionella stationära datorer. I synnerhet kräver genomträngande datorsystem applikationer som kan fungera i mycket dynamiska miljöer och som ställer minimala krav på användarens uppmärksamhet. Kontextmedvetna tillämpningar syftar till att uppfylla dessa krav genom att anpassa sig till utvalda aspekter av användarsammanhanget, såsom användarens nuvarande plats, tid och aktiviteter. Under de senaste åren har en mängd olika prototypiska sammanhangsmedvetna tillämpningar utvecklats, såsom sammanhangsmedvetna guider som presenterar turistinformation av relevans för den nuvarande platsen [8, 1]. Det pågår också arbete med att bygga instrumenterade miljöer som övervakar de boendes verksamhet med hjälp av kontextsensorer, med objec- * Det arbete som rapporteras i detta dokument har delvis finansierats av Co-gives såsom att tillåta äldre att leva så självständigt som möjligt samtidigt som man ser till att nödsituationer snabbt upptäcks [14, 21]. Trots den senaste tidens intressanta, sammanhangsmedvetna applikationer har ännu inte gjort övergången ut ur laboratoriet och in på marknaden. Detta är till stor del ett resultat av höga allmänna kostnader för tillämpningsutveckling, sociala hinder i samband med integritet och användbarhet, och en ofullständig förståelse av de verkligt tvingande (och kommersiellt livskraftiga) användningarna av kontextmedvetenhet. I detta dokument presenteras ett ramverk för programvaruteknik som tar itu med dessa utmaningar: det första genom att förenkla design- och genomförandeuppgifter i samband med sammanhangsmedveten programvara, och det andra genom att underlätta de typer av snabba prototyper och experiment som krävs för att övervinna dessa hinder. Ramen bygger på en uppsättning nya konceptuella grunder, inklusive kontextmodelleringsmetoder som beskriver sammanhang på två olika nivåer av granularitet, en preferensabstraction och ett par kompletterande programmeringsmodeller. Dessa införs i avsnitten 2–4 och integreras sedan i en programvaruinfrastruktur för genomträngande system i avsnitt 5. I avsnitt 6 presenteras resultaten av en fallstudie som vi genomfört för att utvärdera den konceptuella ramen och infrastrukturen, och i avsnitt 7 avslutas dokumentet med en diskussion om centrala ämnen för framtida forskning. En stor del av den senaste tidens forskning på området kontextmedvetenhet har antagit en infrastrukturcentrerad syn, dvs. den har antagit att komplexiteten i tillämpningar som är medvetna om den tekniska kontexten kan minskas avsevärt endast genom användning av infrastruktur som ansvarar för insamling, hantering och spridning av kontextinformation. För detta ändamål, en mängd olika lösningar som förvärvar och tolkar kontextinformation från sensorer
Som en annan metod för att ta itu med problemet införde författarna till REF en konceptuell ram och programvaruinfrastruktur med vilken en utvecklare snabbt kan utveckla prototyper av sammanhangsmedvetna tillämpningar och finjustera dem.
5,068,819
A software engineering framework for context-aware pervasive computing
{'venue': 'Second IEEE Annual Conference on Pervasive Computing and Communications, 2004. Proceedings of the', 'journal': 'Second IEEE Annual Conference on Pervasive Computing and Communications, 2004. Proceedings of the', 'mag_field_of_study': ['Computer Science']}
11,058
Sensorer kan misslyckas på grund av olika orsaker såsom värme, skadlig aktivitet, miljörisker, utökad användning och brist på kraft. När fler och fler sensorer misslyckas kommer vissa önskade egenskaper såsom barriärtäckning att minska och så småningom falla under önskad nivå. I ett sådant fall måste nätverket repareras. Det är därför önskvärt att ha mekanismer för att övervaka nätverksegenskaperna. I detta dokument är vi intresserade av att mäta kvaliteten på barriärtäckningen. I litteraturen överväger forskarna bara om ett sensornätverk ger barriärtäckning. Detta motsvarar att mäta dess kvalitet som antingen 0 eller 1. Vi anser att kvaliteten på barriärtäckningen inte är binär och föreslår ett mått för mätning. Om den uppmätta kvaliteten inte motsvarar ett önskat värde, identifierar vi ytterligare alla lokala regioner som behöver repareras. De identifierade regionerna är minimala i den meningen att om en av dem inte repareras kommer det resulterande nätet fortfarande att sakna kvalitet. Vi diskuterar också hur man faktiskt reparerar en region.
A. Chen m.fl. utforma en uppsättning mätvärden för att mäta kvaliteten och prestandan på barriärtäckningen i REF.
738,774
Measuring and guaranteeing quality of barrier-coverage in wireless sensor networks
{'venue': "MobiHoc '08", 'journal': None, 'mag_field_of_study': ['Computer Science']}
11,059
Medicinsk vård har blivit en av de mest oumbärliga delarna av människans liv, vilket har lett till en dramatisk ökning av medicinska big data. För att effektivisera diagnos- och behandlingsprocessen använder hälso- och sjukvårdspersonal nu Internet of Things (IoT)-baserad bärbar teknik. Under de senaste åren har miljarder sensorer, enheter och fordon anslutits via Internet. En sådan teknik-fjärr patient övervakning-är vanligt idag för behandling och vård av patienter. Dessa tekniker medför dock också allvarliga integritetsrisker och säkerhetsproblem när det gäller dataöverföring och loggning av datatransaktioner. Dessa säkerhets- och integritetsskyddsproblem med medicinska data kan bli följden av att behandlingen fördröjs och till och med äventyrar patientens liv. Vi föreslår användning av en blockchain för att ge säker hantering och analys av hälso-och sjukvård big data. Men blockchains är beräknings dyrt, kräver hög bandbredd och extra beräkningskraft, och är därför inte helt lämpliga för de flesta resurs-konstruerade IoT-enheter avsedda för smarta städer. I detta arbete försöker vi lösa de ovan nämnda problemen med att använda blockchain med IoT-enheter. Vi föreslår ett nytt ramverk av modifierade blockchain modeller som lämpar sig för IoT-enheter som förlitar sig på sin distribuerade natur och andra ytterligare integritets- och säkerhetsegenskaper i nätverket. Dessa ytterligare integritets- och säkerhetsegenskaper i vår modell är baserade på avancerade kryptografiska primitiver. De lösningar som ges här gör IoT-programdata och transaktioner säkrare och anonymare över ett blockchain-baserat nätverk.
Författare i REF tar upp integritetsrisker och säkerhetsproblem i IoT-baserade vårdapplikationer.
58,539,306
A Decentralized Privacy-Preserving Healthcare Blockchain for IoT
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']}
11,060
Traditionell programskärning kräver två parametrar: en programplats och en variabel, eller kanske en uppsättning variabler, av intresse. Stopplista skärning lägger till en tredje parameter till skärningskriteriet: de variabler som inte är av intresse. Denna tredje parameter kallas stopplistan. När en variabel i stopplistan påträffas avslutas analysen av dataflödesberoende av skivning för den variabeln. Stop-list slicing ytterligare fokuserar på beräkning av intresse, samtidigt som man bortser från beräkningar kända eller fastställda att vara ointressant. Detta har potential att minska skivornas storlek jämfört med traditionella former av skivning. För att bedöma storleken på den minskning som erhålls genom stop-list slicing, rapporterar tidningen resultaten av tre empiriska utvärderingar: en storskalig empirisk studie i den maximala bit storleksminskning som kan uppnås när alla programvariabler är på stop-lista; en studie på ett verkligt program, för att bestämma de minskningar som kan uppnås i en typisk applikation; och kvalitativa fall-baserade studier för att illustrera stop-list slicing i den lilla. Den storskaliga studien omfattade sammanlagt 42 program på cirka 800KLoc. Över 600 000 skivor beräknades. Genom att använda den maximala stopplistan minskade storleken på de beräknade skivorna med i genomsnitt cirka en tredjedel. Det typiska programmet visade en minskning av skivornas storlek med ungefär en fjärdedel. De fallbaserade studierna visar att förståelseeffekterna är värda ytterligare överväganden.
Stop-list slicing REF gör det möjligt för programmeraren att definiera variabler som inte är av intresse.
3,741,549
Stop-List Slicing
{'venue': '2006 Sixth IEEE International Workshop on Source Code Analysis and Manipulation', 'journal': '2006 Sixth IEEE International Workshop on Source Code Analysis and Manipulation', 'mag_field_of_study': ['Computer Science']}
11,061
Abstract-Software popularitet är en värdefull information för moderna utvecklare med öppen källkod, som ständigt vill veta om deras system lockar nya användare, om nya utgåvor vinner acceptans, eller om de uppfyller användarens förväntningar. I den här artikeln beskriver vi en studie om populariteten hos mjukvarusystem hos GitHub, som är världens största samling av programvara med öppen källkod. GitHub ger ett uttryckligt sätt för användare att manifestera sin tillfredsställelse med en värd arkiv: Stargazers knappen. I vår studie avslöjar vi de viktigaste faktorerna som påverkar antalet stjärnor i GitHub-projekt, inklusive programmeringsspråk och applikationsdomän. Vi studerar också hur nya funktioner påverkar projektets popularitet. Slutligen identifierar vi fyra huvudmönster för popularitetstillväxt, som härleds efter kluster av tidsserier som representerar antalet stjärnor av 2.279 populära GitHub arkiv. Vi hoppas att våra resultat ger värdefulla insikter till utvecklare och utvecklare, vilket kan hjälpa dem att bygga och utveckla system på en konkurrenskraftig mjukvarumarknad.
I en tidigare uppsats studerade vi GitHubs popularitet i syfte att svara på fyra forskningsfrågor REF.
184,135
Understanding the Factors that Impact the Popularity of GitHub Repositories
{'venue': '2016 IEEE International Conference on Software Maintenance and Evolution (ICSME)', 'journal': '2016 IEEE International Conference on Software Maintenance and Evolution (ICSME)', 'mag_field_of_study': ['Computer Science']}
11,062
Att känna igen ansiktsaction units (AUs) under spontana ansiktsbilder är ett utmanande problem. Senast, Convolutional Neural Networks (CNN) har visat löfte om ansikts AU-igenkänning, där fördefinierade och fasta convolution filterstorlekar används. För att uppnå bästa prestanda, är den optimala filterstorleken ofta empiriskt hittas genom att genomföra omfattande experimentell validering. En sådan utbildningsprocess lider av dyra utbildningskostnader, särskilt när nätverket blir djupare. Detta papper föreslår en ny Optimized Filter Size CNN (OFS-CNN), där filterstorlekar och vikter för alla konvolutionella skikt lärs samtidigt från träningsdata tillsammans med lärande convolution filter. Specifikt definieras filterstorleken som en kontinuerlig variabel, som optimeras genom att minimera träningsförlusten. Experimentella resultat på två AU-kodade spontana databaser har visat att den föreslagna OFS-CNN kan uppskatta optimal filterstorlek för varierande bildupplösning och överträffar traditionella CNN med den bästa filterstorlek som erhålls genom uttömmande sökning. OFS-CNN slår också CNN med hjälp av flera filterstorlekar och ännu viktigare, är mycket effektivare under testning med den föreslagna framåt-bakåt-utbredningsalgoritm.
Han och Al. REF föreslog en optimerad filterstorlek CNN (OFS-CNN) för att samtidigt lära sig filterstorlekar och vikter för alla konv skikt.
11,945,672
Optimizing Filter Size in Convolutional Neural Networks for Facial Action Unit Recognition
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
11,063
Att förutse förekomsten av länkar är ett grundläggande problem i nätverken. I länken förutsägelse problem vi ges en ögonblicksbild av ett nätverk och vill dra slutsatsen vilka interaktioner mellan befintliga medlemmar sannolikt kommer att uppstå inom en nära framtid eller vilka befintliga interaktioner vi saknar. Även om detta problem har studerats ingående, är utmaningen med att effektivt kombinera information från nätverksstruktur med rik nod- och kantattributdata fortfarande till stor del öppen. Vi utvecklar en algoritm baserad på Supervised Random Walks som naturligt kombinerar informationen från nätverksstrukturen med nod- och kantnivåattribut. Vi uppnår detta genom att använda dessa attribut för att styra en slumpmässig gång på grafen. Vi formulerar en övervakad inlärning uppgift där målet är att lära sig en funktion som tilldelar styrkor till kanter i nätverket så att en slumpmässig gångare är mer benägna att besöka noderna till vilka nya länkar kommer att skapas i framtiden. Vi utvecklar en effektiv träningsalgoritm för att direkt lära oss egg strength estimation-funktionen. Våra experiment på Facebook sociala grafen och stora samarbetsnätverk visar att vår strategi överträffar state-of-theart oövervakade tillvägagångssätt samt tillvägagångssätt som är baserade på funktionsextraktion.
Backstrom m.fl. REF föreslog en övervakad slumpmässig gångalgoritm som kombinerar information från nätverksstrukturen med nod- och kantnivåattribut för att uppskatta styrkan hos sociala länkar.
7,851,677
Supervised random walks: predicting and recommending links in social networks
{'venue': "WSDM '11", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics', 'Mathematics']}
11,065
Abstract-I detta dokument presenterar vi en modell prediktiv kontroll (MPC) metod för att optimera fordons schemaläggning och routing i en autonom mobilitet-on-demand (AMOD) system. I AMoD-system transporterar robotdrivna, självkörande fordon kunder i stadsmiljö och samordnas för att optimera servicen i hela nätverket. Specifikt föreslår vi först en ny diskret tidsmodell av ett AMoD-system och vi visar att denna formulering gör det möjligt att enkelt integrera ett antal begränsningar i verkligheten, t.ex. begränsningar för laddning av elfordon. För det andra, att utnyttja vår modell, vi utforma en modell prediktiv kontroll algoritm för optimal samordning av ett AMoD-system och bevisa dess stabilitet i betydelsen Lyapunov. Vid varje optimering steg, fordonets schemaläggning och routing problem är löst som ett blandat heltal linjärt program (MILP) där beslutsvariabler är binära variabler som representerar om ett fordon kommer 1) vänta på en station, 2) betjäna en kund, eller 3) återbalans till en annan station. Slutligen, genom att använda verkliga data, visar vi att MPC-algoritmen kan köras i realtid för måttligt stora system och överträffar tidigare kontrollstrategier för AMoD-system.
Zhang m.fl. REF utvecklade en modell för prediktiv styrning för optimering av ett autonomt bildelningssystem med återbalansering som tar hänsyn till elektriska laddningsbegränsningar.
3,981,926
Model Predictive Control of Autonomous Mobility-on-Demand Systems
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
11,066
I detta dokument presenterar vi rapporten och resultaten av den gemensamma uppgiften om Aggression Identification som anordnades som en del av den första workshopen om trolling, Aggression och cybermobbning (TRAC -1) vid COLING 2018. Uppgiften var att utveckla en klassificerare som kunde diskriminera mellan overtly Aggressive, covert Aggressive, och icke-aggressiva texter. För denna uppgift, deltagarna fick en datauppsättning på 15,000 aggression-annoterade Facebook Posts och Kommentarer var i Hindi (i både Roman och Devanagari manus) och engelska för utbildning och validering. För testning, två olika uppsättningar - en från Facebook och en från en annan sociala medier - tillhandahölls. Totalt 130 lag registrerade sig för att delta i uppgiften, 30 lag lämnade in sina testkörningar, och slutligen 20 lag skickade också sina systembeskrivning papper som ingår i TRAC workshop förfarande. Det bästa systemet fick en viktad F-poäng på 0,64 för både hindi och engelska på Facebook testuppsättningar, medan de bästa poäng på överraskningsuppsättningen var 0,60 och 0,50 för engelska respektive hindi. De resultat som presenteras i denna rapport visar hur utmanande uppgiften är. Det positiva gensvaret från samhället och det stora deltagandet i den första upplagan av denna gemensamma uppgift belyser också intresset för detta ämne.
Ref presenterade resultaten av den gemensamma uppgiften om identifiering av aggressioner som syftar till att upptäcka olika skalor av aggressioner, nämligen "Overtly Aggressive", "Covertly Aggressive" och "Non-aggressive".
59,336,626
Benchmarking Aggression Identification in Social Media.
{'venue': 'TRAC@COLING 2018', 'journal': None, 'mag_field_of_study': ['Computer Science']}
11,067
Demografi används i stor utsträckning i marknadsföring för att karakterisera olika typer av kunder. I praktiken är dock demografisk information som ålder, kön och plats vanligtvis inte tillgänglig på grund av integritet och andra skäl. I detta dokument strävar vi efter att utnyttja big datas kraft för att automatiskt dra nytta av användarnas demografi baserat på deras dagliga mobilkommunikationsmönster. Vår studie är baserad på ett verkligt stort mobilt nätverk av mer än 7.000.000 användare och över 1000.000.000 kommunikationsrekord (CALL och SMS). Vi upptäcker flera intressanta sociala strategier som mobilanvändare ofta använder för att upprätthålla sina sociala förbindelser. För det första är ungdomar mycket aktiva när det gäller att bredda sina sociala kretsar, medan äldre personer tenderar att hålla nära men stabilare förbindelser. För det andra lägger kvinnliga användare större vikt vid interaktioner över generationsgränserna än manliga användare, även om interaktioner mellan manliga och kvinnliga användare är vanligt förekommande. För det tredje upptäcks för första gången ett ihållande triadiskt mönster av samma kön under ens livstid, medan mer komplexa triadiska mönster av motsatt kön endast visas bland unga människor. Vi studerar vidare i vilken utsträckning användares demografi kan härledas från deras mobilkommunikation. Som ett specialfall formaliserar vi ett problem med dubbla beroende-variabla förutsägelser om användarens kön och ålder samtidigt. Vi föreslår WhoAmI-metoden, en dubbelberoende-variabel faktordiagrammodell, för att ta itu med detta problem genom att inte bara beakta effekterna av egenskaper på kön/ålder, utan också förhållandet mellan kön och ålder. Våra experiment visar att den föreslagna WhoAmI-metoden avsevärt förbättrar prediktionsnoggrannheten med upp till 10% jämfört med flera alternativa metoder.
Dong m.fl. REF förutsäger kön och åldersgrupp från samtalsloggar och SMS-data baserat på relationen mellan populationer av olika kön och åldersgrupper.
3,757,350
Inferring user demographics and social strategies in mobile social networks
{'venue': "KDD '14", 'journal': None, 'mag_field_of_study': ['Computer Science']}
11,068
Kraften i k-means algoritm beror på dess beräkningseffektivitet och den typ av lätthet vid vilken den kan användas. Avståndsmått används för att hitta liknande dataobjekt som leder till att man utvecklar robusta algoritmer för databrytningsfunktioner såsom klassificering och klusterbildning. I detta dokument diskuteras de resultat som erhållits genom att implementera k-means-algoritmen med hjälp av tre olika mått Euclidean, Manhattan och Minkowski avståndsmått tillsammans med den jämförande studien av resultat av grundläggande k-means-algoritm som implementeras genom Euklidian avståndsmått för tvådimensionella data. Resultaten visas med hjälp av histogram.
Archana Singh m.fl. REF implementerade k-means-metoden med hjälp av tre olika mått; Euclidean, Manhattan och Minkowski avståndsmått.
17,286,362
K-means with Three different Distance Metrics
{'venue': None, 'journal': 'International Journal of Computer Applications', 'mag_field_of_study': ['Computer Science']}
11,069
Även om det är allmänt accepterat att språkmodeller inte fångar upp alla aspekter av det verkliga språket, har inga lämpliga åtgärder för att kvantifiera deras brister hittills föreslagits. Vi kommer att använda n-grammodeller som arbetshästar för att visa att skillnaderna mellan naturligt och genererat språk verkligen är kvantifierbara. Mer specifikt, för två algoritmiska tillvägagångssätt, visar vi att var och en av dem kan användas för att skilja verklig text från genererad text korrekt och för att kvantifiera skillnaden. Därför får vi en sammanhängande indikation på hur långt en språkmodell är från naturlighet. Båda metoderna bygger på analys av co-occurence nätverk: en specifik graf klustermått, transitivitet, och en specifik typ av motivanalys, där frekvenser av utvalda motiv jämförs. I vår studie genereras artificiella texter av n-grammodeller, för n = 2, 3, 4. Vi fann att ju större n väljs, desto smalare är avståndet mellan genererad och naturlig text. Men även för n = 4, avståndet är fortfarande tillräckligt stort för att möjliggöra en korrekt distinktion. Motivet tillvägagångssätt ger även en djupare inblick i de semantiska egenskaper av naturligt språk som uppenbarligen orsakar dessa skillnader: polysemi och synonym. För att komplettera bilden visar vi att en annan motivbaserad strategi av Milo et al. (2004) medger inte en sådan åtskillnad. Med vår metod blir det för första gången möjligt att mäta generativa språkmodeller brister när det gäller semantik i naturligt språk.
Binemann m.fl. I REF används motiv för att kvantifiera skillnaderna mellan naturligt och genererat språk.
89,638
Quantifying Semantics using Complex Network Analysis
{'venue': 'COLING', 'journal': None, 'mag_field_of_study': ['Computer Science']}
11,070
Ett antal studier har visat att dagens Visual Question Response (VQA) modeller är starkt driven av ytliga korrelationer i träningsdata och saknar tillräcklig bild jordning. För att uppmuntra utvecklingen av modeller inriktade på det senare föreslår vi en ny inställning för VQA där för varje frågetyp, tåg och testuppsättningar har olika tidigare fördelningar av svar. Specifikt presenterar vi nya uppdelningar av datauppsättningarna VQA v1 och VQA v2, som vi kallar Visual Question Answering under Changing Priors (VQA-CP v1 respektive VQA-CP v2). För det första utvärderar vi flera befintliga VQA-modeller under denna nya miljö och visar att deras prestanda försämras betydligt jämfört med den ursprungliga VQA-inställningen. För det andra föreslår vi en ny Grounded Visual Question Answering-modell (GVQA) som innehåller induktiva förutfattade meningar och begränsningar i arkitekturen speciellt utformad för att förhindra att modellen "fuskar" genom att främst förlita sig på tidigare i träningsdata. Särskilt skiljer GVQA uttryckligen igen igenkännandet av visuella begrepp som finns i bilden från identifieringen av rimligt svar utrymme för en given fråga, vilket gör det möjligt för modellen att mer robust generalisera mellan olika distributioner av svar. GVQA är byggd av en befintlig VQA-modell -Stacked Attention Networks (SAN). Våra experiment visar att GVQA betydligt överträffar SAN på både VQA-CP v1 och VQA-CP v2 dataset. Intressant nog överträffar den också kraftfullare VQA-modeller som Multimodal Compact Bilinear Pooling (MCB) i flera fall. GVQA erbjuder styrkor som kompletterar SAN när de tränas och utvärderas på de ursprungliga VQA v1 och VQA v2 dataseten. Slutligen är GVQA mer transparent och tolkningsbar än befintliga VQA-modeller.
Agrawal m.fl. REF noterade också att varje frågetyp har olika tidigare distributioner av svar.
19,298,149
Don't Just Assume; Look and Answer: Overcoming Priors for Visual Question Answering
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
11,071
Abstrakt. I detta dokument föreslås en metod för att upptäcka former av variabel struktur i bilder med skräp. Termen "variabel struktur" innebär att vissa formdelar kan upprepas ett godtyckligt antal gånger, vissa delar kan vara valfria, och vissa delar kan ha flera alternativa utseenden. Den speciella variationen i formstrukturen som förekommer i en given bild är inte känd a priori. Befintliga datorseendemetoder, inklusive deformerbara modellmetoder, har inte utformats för att detektera former av variabel struktur; de får endast användas för att upptäcka former som kan sönderdelas i ett fast, ett tidigare känt, antal delar. Den föreslagna metoden kan hantera både variationer i objektets struktur och variationer i form av objektdelar. En ny klass av formmodeller introduceras, så kallade Hidden State Shape Models, som naturligt kan representera former av variabel struktur. En detektionsalgoritm beskrivs som finner fall av sådana former i bilder med stora mängder skräp genom att hitta globalt optimala korrespondenser mellan bildfunktioner och objektmodeller. Experiment med verkliga bilder visar att vår metod kan lokalisera växtgrenar som består av ett på förhand okänt antal blad och kan upptäcka händer mer exakt än en handdetektor baserad på kamferavståndet. Vassilis Athitsos m.fl. Bilda. 1................................................................ Tre form klasser som uppvisar variabel struktur: grenar med blad, hår kammar, och hand konturer. Sådana klasser kan naturligt modelleras med en Hidden State Shape Model (HSSM).
Athitsos m.fl. I REF föreslogs dolda statsformmodeller för att representera former av variabel struktur.
26,189
Detecting instances of shape classes that exhibit variable structure
{'venue': 'in Proc. European Conf. Computer Vision', 'journal': None, 'mag_field_of_study': ['Computer Science']}
11,072
Distribuerade lagringssystem ger tillförlitlig tillgång till data genom redundans sprids över individuellt opålitliga noder. Tillämpningsscenarier inkluderar datacenter, peer-to-peer-lagringssystem och lagring i trådlösa nätverk. Lagring av data med en radering kod, i fragment spridda över noder, kräver mindre redundans än enkel replikering för samma nivå av tillförlitlighet. Men eftersom fragment måste bytas ut regelbundet när noderna misslyckas, är en nyckelfråga hur man genererar kodade fragment på ett distribuerat sätt samtidigt som så lite data som möjligt överförs över nätverket. För en radering kodat system, en vanlig praxis att reparera från en enda nod misslyckande är för en ny nod att rekonstruera hela kodade data objekt för att generera bara ett kodat block. Vi visar att detta förfarande är ooptimalt. Vi introducerar begreppet regenererande koder, som tillåter en ny nod att kommunicera funktioner av lagrade data från de överlevande noderna. Vi visar att regenererande koder avsevärt kan minska reparationsbandbredden. Vidare visar vi att det finns en grundläggande avvägning mellan lagrings- och reparationsbandbredd som vi teoretiskt karakteriserar med hjälp av flödesargument på ett lämpligt konstruerat diagram. Genom att åberopa konstruktiva resultat i nätkodning, introducerar vi regenererande koder som kan uppnå någon punkt i denna optimala kompromiss.
Dimakis m.fl. visade att linjär nätkodning kan minska nättrafiken i regenereringen än raderingskoderna REF.
502,158
Network Coding for Distributed Storage Systems
{'venue': 'IEEE Transactions on Information Theory', 'journal': 'IEEE Transactions on Information Theory', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
11,073
Infrastructure-as-a-service (IaaS) moln erbjuder olika instans inköpsalternativ. En användare kan antingen köra instanser på begäran och betala endast för vad den använder, eller så kan den prepay att reservera instanser under en lång period, under vilken en användningsrabatt är berättigad. Ett viktigt problem som en användare ställs inför är hur dessa två instansalternativ kan kombineras dynamiskt för att tillgodose tidsförändrande krav till lägsta kostnad. Befintliga strategier i litteraturen kräver dock antingen exakt kunskap eller fördelning av krav på lång sikt, vilket avsevärt begränsar deras användning i praktiken. Till skillnad från befintliga verk föreslår vi två praktiska onlinealgoritmer, en deterministisk och en annan randomiserad, som dynamiskt kombinerar de två instansalternativen online utan någon kunskap om framtiden. Vi visar att den föreslagna deterministiska (resp., randomiserade) algoritmen inte ådrar sig mer än 2 À a (resp., e=ðe À 1 och) gånger den minsta kostnad som erhålls av en optimal offline algoritm som känner till den exakta framtiden a priori, där a är den berättigade rabatten efter bokning. Våra onlinealgoritmer uppnår bästa möjliga konkurrensförhållanden i både deterministiska och randomiserade fall, och kan enkelt utvidgas till fall där kortsiktiga prognoser är tillförlitliga. Simuleringar som drivs av en stor volym av verkliga spår visar att betydande kostnadsbesparingar kan uppnås med rådande IaaS-priser.
I REF föreslår författarna onlinestrategier för att reservera instanser utan att på förhand känna till framtida krav.
3,077,607
Optimal Online Multi-Instance Acquisition in IaaS Clouds
{'venue': 'IEEE Transactions on Parallel and Distributed Systems', 'journal': 'IEEE Transactions on Parallel and Distributed Systems', 'mag_field_of_study': ['Computer Science']}
11,074
Icke-inträngande lastövervakning (NILM) syftar till att separera en helhemsenergisignal till dess komponenter. En sådan metod kan användas för att tillhandahålla olika tjänster för att bättre hantera och kontrollera energiförbrukningen (optimal planering och besparingar). NILM har traditionellt kontaktats ur signalbehandlings- och elektrotekniska perspektiv. Nyligen har maskininlärning börjat spela en viktig roll i NILM. Medan de flesta arbeten har fokuserat på övervakade algoritmer, kan oövervakade strategier vara mer intressant och av praktisk användning i verkliga fall scenarier. I synnerhet kräver de inte att märkta utbildningsdata ska inhämtas från enskilda apparater och algoritmen kan användas för att drivas direkt på de uppmätta aggregerade uppgifterna. I detta dokument föreslår vi en helt oövervakad NILM-ram baserad på Bayesianska hierarkiska blandningsmodeller. I synnerhet utvecklar vi en ny metod baserad på Gaussian Latent Dirichlet Allocation (GLDA) för att extrahera globala komponenter som sammanfattar energisignalen. Dessa komponenter ger en representation av konsumtionsmönster. Designad för att hantera stora data, vår algoritm, till skillnad från befintliga NILM sådana, inte fokuserar på apparater igenkänning. För att hantera denna massiva data, GLDA fungerar på nätet. En annan nyhet med detta arbete jämfört med den befintliga NILM är att data omfattar olika verktyg (t.ex. el, vatten och gas) samt vissa sensorer mätningar. Slutligen föreslår vi olika utvärderingsmetoder för att analysera resultaten som visar att vår algoritm hittar användbara mönster.
Detta arbete är en fortsättning på vårt tidigare arbete REF där online Gaussian Latent Dirichlet Allocation (GLDA) föreslås att extrahera globala komponenter som sammanfattar energisignalen.
204,916,065
Online Gaussian LDA for Unsupervised Pattern Mining from Utility Usage Data
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
11,075
I detta dokument beskriver och utvärderar vi tre olika tekniker för att översätta pseudobooleska begränsningar (linjära begränsningar över booleska variabler) till klausuler som kan hanteras av en standard SAT-solver. Vi visar att genom att tillämpa en ordentlig blandning av översättningstekniker, en SAT-solver kan utföra på samma sätt som de bästa befintliga infödda pseudo-booleska lösare. Detta är särskilt värdefullt i de fall där det restriktiva problemet av intresse naturligtvis uttrycks som ett SAT-problem, med undantag för en handfull begränsningar. Att översätta dessa begränsningar för att få en ren klausal problem kommer att dra full nytta av de senaste förbättringarna inom SAT-forskning. Ett särskilt intressant resultat av detta arbete är effektiviteten i sorteringsnätverken för att uttrycka pseudobooleska begränsningar. Även tangentiell till denna presentation, ger resultatet ett förslag på hur syntesverktyg kan modifieras för att producera aritmetiska kretsar mer lämplig för SAT-baserade resonemang.
Sortera nätverk har befintliga applikationer i t.ex. SAT-kodningar av pseudo-Booleska begränsningar REF.
4,907,188
Translating Pseudo-Boolean Constraints into SAT
{'venue': 'J. Satisf. Boolean Model. Comput.', 'journal': 'J. Satisf. Boolean Model. Comput.', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
11,076
I denna uppsats studerar, jämför och kombinerar vi två state-of-the-art metoder för automatisk funktionsteknik: Convolution Tree Kernels (CTKs) och Convolutional Neural Networks (CNNs) för att lära sig att rangordna meningar i en frågesvar (QA) inställning. Vid hantering av QA är nyckelaspekten att koda relationsinformation mellan de olika komponenterna i frågan och svara i inlärningsalgoritmer. I detta syfte föreslår vi nya CNN:er som använder relationsinformation och kombinerar dem med relationella CTK:er. Resultaten visar att i) båda metoderna uppnår toppmoderna resultat i en frågeuppgift, där CTK:er ger högre noggrannhet och ii) kombinerar sådana metoder leder till oöverträffade höga resultat.
Som framgår av REF är detta tillvägagångssätt konkurrenskraftigt med konvolutionella neurala nätverk (CNN).
6,751,470
Convolutional Neural Networks vs. Convolution Kernels: Feature Engineering for Answer Sentence Reranking
{'venue': 'HLT-NAACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
11,077
Förutsägelse uppgifter över noder och kanter i nätverk kräver noggrann ansträngning i tekniska funktioner som används för att lära algoritmer. Den senaste forskningen inom det bredare området representationsinlärning har lett till betydande framsteg när det gäller att automatisera förutsägelser genom att själva lära sig funktionerna. Dagens inlärningsmetoder är dock inte tillräckligt uttrycksfulla för att fånga upp den mångfald av konnektivitetsmönster som observerats i nätverk. Här föreslår vi node2vek, ett algoritmiskt ramverk för att lära sig kontinuerliga funktions representationer för noder i nätverk. I node2vec, vi lär oss en kartläggning av noder till en låg-dimensionell utrymme av funktioner som maximerar sannolikheten för att bevara nätverk av noder. Vi definierar en flexibel uppfattning om en nod nätverk område och utforma en partisk slumpmässig promenad förfarande, som effektivt utforskar olika stadsdelar. Vår algoritm generaliserar tidigare arbete som bygger på stela föreställningar om nätverk kvarter, och vi hävdar att den ökade flexibiliteten i att utforska stadsdelar är nyckeln till att lära rikare representationer. Vi demonstrerar effektiviteten av node2vek över befintliga toppmoderna tekniker på multi-märkning klassificering och länk förutsägelse i flera verkliga nätverk från olika domäner. Tillsammans utgör vårt arbete ett nytt sätt att på ett effektivt sätt lära sig de senaste uppgifternas oberoende representationer i komplexa nätverk.
Grover m.fl. REF introducerar en flexibel uppfattning om en nod nätverk grannskap och designa en partisk slumpmässig promenad förfarande för att prova grannarna i utbildningsprocessen, som effektivt utforskar olika stadsdelar.
207,238,980
node2vec: Scalable Feature Learning for Networks
{'venue': "KDD '16", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Medicine', 'Mathematics']}
11,078
En viktig teknisk utmaning när det gäller att utföra 6D-objekt utgör uppskattning från RGB-D-bilden är att fullt ut utnyttja de två kompletterande datakällorna. Tidigare arbeten antingen extraherar information från RGB-bilden och djupet separat eller använder kostsamma steg efter bearbetningen, vilket begränsar deras prestationer i mycket belamrade scener och realtidsapplikationer. I detta arbete presenterar vi DenseFusion, ett generiskt ramverk för att uppskatta 6D pose av en uppsättning kända objekt från RGB-D bilder. DenseFusion är en heterogen arkitektur som bearbetar de två datakällorna individuellt och använder ett nytt tätt fusionsnätverk för att extrahera pixelmässigt tät funktion inbäddning, från vilken pose uppskattas. Dessutom integrerar vi en end-to-end iterative pose förfining förfarande som ytterligare förbättrar pose uppskattning samtidigt som man uppnår nära realtid slutsatser. Våra experiment visar att vår metod överträffar toppmoderna metoder i två datauppsättningar, YCB-Video och LineMOD. Vi använder också vår föreslagna metod till en riktig robot för att greppa och manipulera objekt baserat på den uppskattade posen. Vår kod och video finns på https
För att lösa detta problem, Wang et al. Föreslagna DenseFusion REF som är cirka 200x snabbare än PoseCNN-ICP och överträffar tidigare metoder i två datauppsättningar, YCB-Video och LineMOD.
58,006,460
DenseFusion: 6D Object Pose Estimation by Iterative Dense Fusion
{'venue': '2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
11,079
Vi presenterar en mängd nya arkitektoniska funktioner och utbildningsförfaranden som vi tillämpar på de generativa kontradiktoriska nätverken (GANS). Vi fokuserar på två tillämpningar av GAN: halvövervakat lärande, och den generation av bilder som människor finner visuellt realistiska. Till skillnad från det mesta arbete på generativa modeller, är vårt primära mål inte att träna en modell som ger hög sannolikhet att testa data, inte heller behöver vi modellen för att kunna lära sig bra utan att använda några etiketter. Med hjälp av våra nya tekniker uppnår vi toppmoderna resultat i semiövervakad klassificering på MNIST, CIFAR-10 och SVHN. De genererade bilderna är av hög kvalitet vilket bekräftas av ett visuellt Turing test: vår modell genererar MNIST prover som människor inte kan skilja från verkliga data, och CIFAR-10 prover som ger en mänsklig felfrekvens på 21,3%. Vi presenterar också ImageNet prover med aldrig tidigare skådad upplösning och visar att våra metoder gör det möjligt för modellen att lära känna igen funktioner i ImageNet klasser.
Dessutom föreslog REF olika sätt att stabilisera utbildningsprocessen av GAN med semi-övervakad inlärning och utjämning märkning.
1,687,220
Improved Techniques for Training GANs
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
11,080
Abstract-802.16 och 802.11a har liknande fysiska lageregenskaper, men deras medelåtkomstkontroll är helt annorlunda. Vi presenterar en metod för att implementera 802.16 medium åtkomst kontroll med dess mesh samordningsfunktion (MCF) över befintliga 802.11a hårdvara. Vår metod kan implementeras i programvara, så att de redan utplacerade 802.11 baserade mesh noder att dra nytta av 802.16 MCF, vilket ökar den operativa livslängden för redan installerad hårdvara. Metoden fungerar genom att inbädda varje 802.16 paket i ett 802.11 sändningspaket med lite stoppning, så att de resulterande paketen kan schemaläggas med Time Division Multiple Access schemaläggning. Vi visar också att även efter inbäddning och stoppning bandbredden i det resulterande systemet är jämförbar med bandbredden som kan uppnås med 802.16 hårdvara. Vår metod presenteras som en tillfällig lösning för den kommande 802.11 standarden, eftersom det för närvarande inte finns någon hårdvara som arbetar med den standarden.
En ny metod föreslås i REF för att tillåta att 802.16 MCF (mesh coordination function) används för TDMA-dataöverföringar i 802.11a mesh-nät.
7,922,147
802.16 MCF for 802.11a Based Mesh Networks: A Case for Standards Re-Use
{'venue': '23rd Biennial Symposium on Communications, 2006', 'journal': '23rd Biennial Symposium on Communications, 2006', 'mag_field_of_study': ['Computer Science']}
11,081
Abstract-State-of-the-art objekt detekteringsnätverk är beroende av region förslag algoritmer för att hypothesize objekt platser. Framsteg som SPPnet [1] och Fast R-CNN [2] har minskat drifttiden för dessa detektionsnät, vilket exponerar beräkning av regionförslag som flaskhals. I detta arbete introducerar vi ett regionförslagsnätverk (RPN) som delar fullbildskonvolutionella funktioner med detektionsnätverket, vilket möjliggör nära nog kostnadsfria regionförslag. Ett RPN är ett helt konvolutionellt nätverk som samtidigt förutsäger objektgränser och objektitetspoäng vid varje position. RPN är utbildad end-to-end för att generera högkvalitativa regionförslag, som används av Fast R-CNN för detektion. Vi slår ytterligare samman RPN och Fast R-CNN till ett enda nätverk genom att dela deras konvolutionella funktioner-med hjälp av den nyligen populära terminologin för neurala nätverk med "attention" mekanismer, RPN komponenten talar om för det enhetliga nätverket var man ska leta. För den mycket djupa VGG-16-modellen [3] har vårt detektionssystem en bildhastighet på 5 fps (inklusive alla steg) på en GPU, samtidigt som vi uppnår toppmoderna objektdetektionsnoggrannhet på PASCAL VOC 2007, och MS COCO-datauppsättningar med endast 300 förslag per bild. I ILSVRC och COCO 2015 tävlingar, Snabbare R-CNN och RPN är grunden för den 1: a plats vinnande poster i flera spår. Koden har gjorts tillgänglig för allmänheten. Regionens förslagsmetoder är vanligtvis beroende av billiga funktioner och ekonomiska slutledningssystem. Selektiv sökning [4], en av de mest populära metoderna, sammansmälter girigt superpixel baserat på konstruerade låg nivå funktioner. Ändå jämfört med effektiva detektionsnätverk [2], Selektiv sökning är en storleksordning långsammare, på 2 sekunder per bild i en CPU-implementation. EdgeBoxar [6] ger för närvarande den bästa kompromissen mellan förslagskvalitet och hastighet, med 0,2 sekunder per bild. Trots detta konsumerar regionförslaget lika mycket drifttid som nätverket för upptäckt. Man kan notera att snabba regionbaserade CNN dra nytta av GPU, medan de regionala förslag metoder som används i forskning genomförs på CPU, vilket gör sådana runtime jämförelser ojämförliga. Ett självklart sätt att påskynda beräkningen av förslag är att återinföra det för GPU. Detta kan vara en effektiv teknisk lösning, men omgenomförandet bortser från down-stream detektion nätverk och därför missar viktiga möjligheter att dela beräkningar. I detta dokument visar vi att en algoritmisk förändringskomputerande förslag med en djup konvolutionell neural nätverk-leads till en elegant och effektiv lösning där förslagsberäkning är nästan gratis med tanke på detektionsnätverkets beräkning. I detta syfte introducerar vi nya regionala förslagsnätverk (RPN) som delar konvolutionella skikt med toppmoderna nätverk för objektdetektering [1], [2]. Genom att dela konvolutioner vid testtid är marginalkostnaden för datorförslag liten (t.ex. 10 ms per bild). Vår iakttagelse är att de konvolutionella funktionskartor som används av regionbaserade detektorer, som Fast R-CNN, också kan användas för att generera regionförslag. Ovanpå dessa konvolutionella funktioner konstruerar vi en RPN genom att lägga till några ytterligare konvolutionella lager som samtidigt regresserar regiongränser och objektitet poäng på varje plats på ett vanligt rutnät. RPN är således ett slags fullständigt konvolutionsnätverk [7] och kan utbildas från början till slut särskilt för uppgiften att ta fram förslag på detektering. RPN är utformade för att effektivt förutsäga regionala förslag med ett brett spektrum av skalor och proportioner. I motsats till vanliga metoder [1], [2], [8], [9] som använder pyramider av bilder (Fig. 1a) eller filterpyramider (Fig. 1b), Vi introducerar nya "anchor" rutor som fungerar som referenser på flera skalor och proportioner. Vårt schema kan ses som en pyramid av regressionsreferenser (Fig. 1c), som undviker att räkna upp bilder eller filter av flera skalor eller proportioner. Denna modell fungerar bra när den är tränad och testad med enskaliga bilder och därmed gynnar körhastigheten. För att förena RPNs med snabba R-CNN [2] objektdetekteringsnätverk, föreslår vi ett utbildningsprogram som alternerar S. Ren är med
Snabbare R-CNN REF avancerade denna ström genom att lära sig uppmärksamhetsmekanismen med ett regionförslagsnätverk (RPN).
10,328,909
Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
11,083
Idag testas datorseendesystem genom deras noggrannhet när det gäller att upptäcka och lokalisera fall av objekt. Som ett alternativ, och motiverat av människans förmåga att ge mycket rikare beskrivningar, även berätta en historia om en bild, konstruerar vi ett "visuell Turing test": en operatörsassisterad enhet som producerar en stokastisk sekvens av binära frågor från en given testbild. Förfrågan motorn föreslår en fråga; operatören antingen ger rätt svar eller förkastar frågan som tvetydig; motorn föreslår nästa fråga ("just-in-time threaking"). Testet administreras sedan till datorvisionssystemet, en fråga i taget. När systemets svar har registrerats får systemet det rätta svaret och nästa fråga. Tolkning är trivialt och deterministiskt; det system som testas kräver ingen behandling av naturligt språk. Förfrågan motorn använder statistiska begränsningar, lärt av en utbildning uppsättning, för att producera frågor med i huvudsak oförutsägbara svar svaret på en fråga, med tanke på historien om frågor och deras korrekta svar, är nästan lika sannolikt att vara positiva eller negativa. I detta avseende handlar testet bara om vision. Systemet är utformat för att producera strömmar av frågor som följer naturliga historia linjer, från ögonblick av ett unikt objekt, genom en undersökning av dess egenskaper, och på dess relationer med andra unikt ögonblickliga objekt. För att åtminstone gå tillbaka till mitten av tjugotalet har det förts en aktiv debatt om framstegen inom artificiell intelligens och hur den skall mätas. Alan Turing [1] föreslog att det slutliga testet av huruvida en maskin kunde "tänka", eller tänka minst lika bra som en person, skulle vara att en mänsklig domare inte kunde avgöra vilken som var vilken som var baserad på samtal i naturligt språk i ett lämpligt dolt scenario. I en mycket omdiskuterad variation (som ibland kallas "standardtolkningen") är målet att mäta hur väl en dator kan imitera en människa [2] i någon begränsad uppgift som normalt förknippas med intelligent beteende, även om den praktiska nyttan av "imitering" som ett kriterium för prestanda också har ifrågasatts [3]. I själva verket har det överväldigande fokus för den moderna AI community varit att bedöma maskinens prestanda mer direkt genom dedikerade tester för specifika uppgifter snarare än att debattera om allmänna "tänkande" eller Turing-liknande tävlingar mellan människor och maskiner. I detta dokument genomför vi ett nytt, frågebaserat test för datorseende, ett av de mest levande områdena inom modern AI-forskning. Genom hela detta papper använder vi "datorseende" mer eller mindre synonymt med semantisk bildtolkning -"bilder till ord". Men naturligtvis omfattar datorseendet många andra aktiviteter; det innefattar teori och praktik av bildbildning ("sensorer till bilder"); bildbehandling ("bilder till bilder"), matematiska representationer; videobehandling; metrisk scenrekonstruktion; och så vidare. Faktum är att det kanske inte är möjligt att tolka scener på semantisk nivå utan att ta hänsyn till åtminstone några av dessa områden, särskilt det geometriska förhållandet mellan en bild och den underliggande 3D-scenen. Men vårt fokus är hur man utvärderar ett system, inte hur man bygger ett. Förutom framgångsrika kommersiella och industriella tillämpningar, såsom ansiktsdetektorer i digitala kameror och feldetektering i tillverkningen, har det också gjorts betydande framsteg i mer generiska uppgifter, såsom att upptäcka och lokalisera fall från flera generiska objekt klasser i vanliga inomhus och utomhus scener, i "fine-grained" klassificering såsom att identifiera växt- och djurarter, och att erkänna attribut för objekt och aktiviteter av människor. Resultaten av utmaningar och tävlingar (se [4, 5] ) tyder på att framsteg har sporrats av stora framsteg i att utforma mer beräkningseffektiva och invarianta bildrepresentationer [6, 7, 8], i stokastisk och hierarkisk modellering [9, 10, 11, 12], i att upptäcka latent struktur genom att träna flerskiktsnätverk med stora mängder oövervakade data [13]; och i delar-baserad statistisk inlärning och modellering tekniker [14, 15, 16], särskilt kombinera diskriminerande deldetektorer med enkla modeller av arrangemang av delar [17]. Helt nyligen har skarpa förbättringar i att upptäcka föremål och relaterade uppgifter gjorts genom att träna konvolutionella neurala nätverk med mycket stora mängder kommenterade data [18, 19, 20, 21, 22]. Mer allmänt ligger maskiner dock mycket långt efter människor i "förståelsebilder" i betydelsen att generera rik semantisk annotation. Till exempel system som försöker hantera ocklusion, sammanhang och oförutsedda arrangemang, som alla hanteras lätt av människor, vanligtvis stöter på problem. Följaktligen är det ingen mening med att utforma en "konkurrens" mellan datorseende och mänsklig vision: att tolka verkliga scener (såsom de i figur 1 ) är praktiskt taget "trivial" (åtminstone enkelt och nästan ögonblickligt) för människor, medan man bygger en "beskrivningsmaskin" att kommentera rådata bilddata förblir en grundläggande utmaning. Vi söker ett kvantitativt mått på hur väl ett datorseendesystem kan tolka vanliga bilder av naturliga scener. Medan vi fokuserar på stadsgator, skulle vårt genomförande lätt kunna utvidgas till andra bildpopulationer och den grundläggande logiken och motivationen förbli densamma. "Score" av vårt test bygger på svaren av ett system under utvärdering på en rad binära frågor om existensen av människor och objekt, deras aktiviteter och attribut, och relationer mellan dem, alla i förhållande till en bild. Vi har valt bildbaserade snarare än scenbaserade frågor (se Scener vs. bilder). Antag att en bild sub-befolkning I har specificerats ("urban street scenes" i Figur 1 ), tillsammans med en "vokabulary" och en motsvarande uppsättning binära frågor (se Ordförråd och frågor). Vår prototyp "Visual Turing test" (VTT) illustreras i figur 2. Frågor ställs sekventiellt till datorseendesystemet med hjälp av I datorseende, liksom inom andra områden av AI, metoderna för utvärdering definierar till stor del den vetenskapliga ansträngningen. De flesta aktuella utvärderingar mäter detektionsnoggrannhet, betonar klassificeringen av regioner enligt objekt från ett fördefinierat bibliotek. Men upptäckt är inte detsamma som förståelse. Vi presenterar här ett annat utvärderingssystem, där en frågemotor förbereder ett skriftligt test ("visual Turing test") som använder binära frågor för att sondera ett systems förmåga att identifiera attribut och relationer förutom att känna igen objekt.
Geman m.fl. REF föreslog ett visuellt Turing test där frågorna automatiskt genereras och kräver ingen behandling av naturligt språk.
8,687,210
Visual Turing test for computer vision systems
{'venue': 'Proceedings of the National Academy of Sciences of the United States of America', 'journal': 'Proceedings of the National Academy of Sciences of the United States of America', 'mag_field_of_study': ['Computer Science', 'Medicine']}
11,084
Abstrakt. Vi presenterar MinervaDL, en digital biblioteksarkitektur som stöder ungefärlig informationssökning och filtreringsfunktionalitet under ett enda enhetligt ramverk. Arkitekturen i MinervaDL är baserad på peer-to-peer sökmotorn Minerva, och kan hantera enorma mängder data som tillhandahålls av digitala bibliotek på ett distribuerat och självorganiserande sätt. Den tvådelade arkitekturen och användningen av den distribuerade hash tabellen som routing substratet ger en infrastruktur för att skapa stora nätverk av digitala bibliotek med minimala administrationskostnader. Vi diskuterar de viktigaste komponenterna i denna arkitektur, presenterar protokoll som reglerar nodinteraktioner, och experimentellt utvärdera vår strategi.
MinervaDL, en digital biblioteksarkitektur för informationssökning i peer-to-peer-nätverk (P2P) presenteras i REF.
7,033,654
MinervaDL : An Architecture for Information Retrieval and Filtering in Distributed Digital Libraries
{'venue': 'HERCMA', 'journal': None, 'mag_field_of_study': ['Computer Science']}
11,085
Figur 1: Levenberg-Marquardt/Gauss-Newton optimeringsmetoder används i stor utsträckning för direkta bildanpassningsproblem, där Jacobian-matrisen är avgörande för snabb och robust optimering. Men, när initial justering inte är tillräckligt bra, numerisk Jacobian är oförmögen att ge bra lutning riktningar för optimeringsförfarandet eftersom endast de angränsande pixlar används i beräkningen av partiella derivat. I detta syfte föreslår vi inlärning av Jacobian baserat på funktionen karta över båda bilderna (som utnyttjar ett stort mottagligt fält som visas i grön skugga). Det gemensamma lärandet av funktionsrepresentation och Jacobian matris gör att vi kan ha begränsningar på både funktionen och de partiella derivat i optimeringsprocessen, vilket gör att det konvergerar i färre iterationer och uppnå mer robusta resultat. Direkt bild-till-bild justering som bygger på optimering av fotometriska fel mätvärden lider av begränsat konvergensområde och känslighet för ljusförhållanden. Djupt lärande metoder har tillämpats för att ta itu med detta problem genom att lära sig bättre funktioner representationer med hjälp av konvolutionella neurala nätverk, men ändå kräver en bra initialisering. I detta dokument visar vi att den felaktiga numeriska Jacobian begränsar det konvergensintervall som skulle kunna förbättras avsevärt med hjälp av inlärda metoder. Baserat på denna observation, föreslår vi ett nytt end-to-end nätverk, RegNet, för att lära sig optimering av bild-till-bild pose registrering. Genom att gemensamt lära sig funktionsrepresentation för varje pixel och partiella derivat som ersätter handgjorda (t.ex. numerisk differentiering) i optimeringssteget, underlättar neurala nätverket end-to-end optimering. Energilandskapet begränsas av både funktionen representation och den lärde Jacobian, vilket ger mer flexibilitet för optimeringen som en följd av detta leder till mer robust och snabbare konvergens. I en serie experiment, inklusive en bred ablation studie, visar vi att RegNet kan konvergera för stora baslinje bildpar med färre iterationer.
Ett djupt nätverk har nyligen utformats för att beräkna pose för direkt bild till bildregistrering REF.
56,895,452
RegNet: Learning the Optimization of Direct Image-to-Image Pose Registration
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
11,086
Även om automatisk ansiktsigenkänning har visat framgång för högkvalitativa bilder under kontrollerade förhållanden, är det svårt att uppnå liknande prestanda för videobaserad igenkänning. Vi beskriver i detta dokument den senaste tidens framsteg i ett projekt som genomförs för att pröva och utveckla avancerade övervakningssystem för allmän säkerhet. I detta dokument föreslår vi en lokal ansiktsfunktionsbaserad ram för både stillbilds- och videobaserad ansiktsigenkänning. Utvärderingen utförs på en stillbild dataset LFW och en videosekvens dataset MOBIO för att jämföra 4 metoder för drift på funktionen: funktionen medelvärde (Avg-Feature), ömsesidig subrymdsmetod (MSM), Manifold to Manifold Distance (MMS) och Affine Hull Method (AHM) och 4 metoder för drift på avstånd på 3 olika funktioner. De experimentella resultaten visar att funktionen Multi-region Histogram (MRH) är mer diskriminerande för ansiktsigenkänning jämfört med lokala binära mönster (LBP) och rå pixelintensitet. Enligt begränsningen på ett litet antal bilder tillgängliga per person, funktionen medelvärde är mer tillförlitlig än MSM, MMD och AHM och är mycket snabbare. Således är vårt föreslagna ramverk-genomsnitt MRH funktionen mer lämplig för CCTV övervakningssystem med begränsningar av antalet bilder och hastigheten på bearbetning.
År 2011, Chen et al. I REF föreslogs en lokal ansiktsfunktionsram för stillbilds- och videobaserad ansiktsigenkänning som utnyttjar genomsnittsfunktion (FA), ömsesidig subrymdsmetod (MSM), manifold to Manifold Distance (MMD) och Affine Hull Method (AHM) som resulterar i hög hastighetsbearbetning, särskilt för CCTV-övervakning, men med begränsning av lägre igenkänningsgrad, det vill säga endast 90 %.
207,726,867
Face recognition from still images to video sequences: a local-feature-based framework
{'venue': None, 'journal': 'EURASIP Journal on Image and Video Processing', 'mag_field_of_study': ['Computer Science']}
11,087
Detta dokument presenterar en Deep convolutional nätverksmodell för Identity-Aware Transfer (DIAT) av ansiktsattribut. Med tanke på källinmatningsbilden och referensattributet syftar DIAT till att generera en ansiktsbild (dvs. målbild) som inte bara äger referensattributet utan också behåller samma eller liknande identitet som den ingående bilden. Vi utvecklar ett tvåstegsprogram för att överföra indatabilden till varje referensattributetikett. Ett feed-forward transform nätverk tränas först genom att kombinera perceptuell identitet-medveten förlust och GAN-baserade attribut förlust, och ett ansikte förbättring nätverk införs sedan för att förbättra den visuella kvaliteten. Vi definierar vidare perceptuell identitetsförlust på de konvolutionella funktionskartorna för attributet discriminator, vilket resulterar i en DIAT-A-modell. Våra DIAT- och DIAT-A-modeller kan ge en enhetlig lösning för flera representativa ansiktsattributöverföringsuppgifter som expression överföring, tillbehör borttagning, åldersprogression och könsöverföring. De experimentella resultaten bekräftar deras effektivitet. Även för vissa identitetsrelaterade attribut (t.ex. kön), kan vår DIAT-A få visuellt imponerande resultat genom att ändra attributet samtidigt behålla de flesta identitetsdetaljer i källbilden.
I REF, Li et al. föreslog en djupgående modell för konvolutionsnätverk för identitetsmedveten överföring av ansiktsattribut.
7,142,333
Deep Identity-aware Transfer of Facial Attributes
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
11,088
3D-video är en ny teknik som utlovar uppslukande upplevelser i en verkligt sömlös miljö. I detta dokument presenterar vi ett nytt proxybaserat ramverk för att utöka 3D-videoupplevelsen till mobila enheter. Ramverket har två huvuddrag. För det första tillåter det publiken att använda mobila enheter för att ändra renderingsperspektiv och interagera med 3D-video, och det stöder olika interaktionsenheter för att samarbeta med varandra. För det andra komprimerar proxyn 3D-videoströmmarna innan de sänds till mobila enheter för visning. Ett nytt visningsberoende 3D-videokompressionssystem i realtid genomförs för att minska kraven på både överföringsbandbredd och rendering på mobila enheter. Systemet är implementerat på olika mobila plattformar och våra experiment indikerar en lovande framtid för 3D-video på mobila enheter.
Visa beroende komprimering föreslogs av REF ] för mobila enheter.
8,941,368
M-TEEVE: real-time 3D video interaction and broadcasting framework for mobile devices
{'venue': 'IMMERSCOM', 'journal': None, 'mag_field_of_study': ['Computer Science']}
11,089
Abstrakt. Nuvarande verktyg för att analysera informationsflödet i program bygger på idéer som går tillbaka till Dennings arbete från 70-talet. Dessa system upprätthåller ett ofullständigt begrepp om informationsflöde som har blivit känt som termineringsinkänslig icke-inblandning. Enligt denna version av icke-inblandning är informationsläckage tillåtet om de överförs enbart genom programmets avslutningsbeteende (dvs. om det upphör eller inte). Denna brist är priset att betala för att ha ett säkerhetsvillkor som är relativt liberalt (t.ex. göra det möjligt för slingor vars uppsägning kan bero på värdet av en hemlighet) och lätt att kontrollera. Men exakt vad är priset? Vi hävdar att i närvaro av produktion, priset är högre än "en bit" ofta hävdade informellt i litteraturen, och effektivt sådana program kan läcka alla sina hemligheter. I detta dokument utvecklar vi en definition av uppsägning-okänslig icke-interferens lämplig för resonemang om program med utgångar. Vi visar att definitionen generaliserar "batch-job" stil definitioner från litteraturen och att den verkligen är nöjd med en Denning-stil programanalys med output. Även om mer än en bit av information kan läckas av program som uppfyller detta villkor, visar vi att det bästa en angripare kan göra är en brute-force attack, vilket innebär att angriparen inte tillförlitligt (i teknisk mening) lära sig hemligheten i polynom tid i storleken på hemligheten. Om vi vidare antar att hemligheter är jämnt fördelade, visar vi att fördelen angriparen vinner när du gissar hemligheten efter att ha observerat en polynom mängd av produktionen är försumbar i storleken på hemligheten.
För deterministiska system som de vi anser, bandbredden av läckande information genom att utnyttja utgångar i kombination med terminering är logaritmisk i storleken på hemligheten, dvs... det tar exponentiellt tid i storleken på hemligheten att läcka hela sitt värde REF.
2,628,859
Termination-Insensitive Noninterference Leaks More Than Just a Bit
{'venue': 'ESORICS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
11,090
Abstract-A Wireless massiv MIMO system innebär ett stort antal (tens eller hundratals) basstation antenner som betjänar ett mycket mindre antal användare, med stora vinster i spektraleffektivitet och energieffektivitet jämfört med konventionell MIMO-teknik. Fram till nyligen trodde man att i multicellulärt massivt MIMO-system, även i den asymmetriska regimen, eftersom antalet serviceantenner tenderar till oändlighet, är prestandan begränsad genom riktad intercellulär interferens. Denna interferens är ett resultat av oundviklig återanvändning av reverse-link träningssekvenser (pilotkontamination) av användare i olika celler. Vi utformar ett nytt koncept som leder till effektiv eliminering av intercellinterferens i massiva MIMO-system. Detta uppnås genom yttre multicellulär förkodning, som vi kallar LargeScale Fading Precoding (LSFP). Huvudidén med LSFP är att varje basstation linjärt kombinerar meddelanden riktade till användare från olika celler som återanvänder samma träningssekvens. Avgörande är att de kombinerade koefficienterna endast beror på de slowfading koefficienterna mellan användarna och basstationerna. Varje basstation överför oberoende sina LSFP-kombinerade symboler med konventionell linjär förkodning som baseras på uppskattade koefficienter för snabbfaddning. Vidare, vi härleda uppskattningar för nedlänk och upplänk SINRs och kapacitet lägre gränser för fallet med massiva MIMO-system med LSFP och ett begränsat antal basstation antenner.
Yttre multicellulär förkodning används i REF för att ta fram en metod som används för att eliminera pilotkontaminering i massiva MIMO-system.
14,316,589
Interference Reduction in Multi-Cell Massive MIMO Systems I: Large-Scale Fading Precoding and Decoding
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
11,091
Programvarutillämpningar fortsätter att växa i fråga om antalet funktioner som de erbjuder, vilket gör personaliseringen allt viktigare. Forskning har visat att de flesta användare föredrar den kontroll som ges av ett anpassningsbart förhållningssätt till personalisering snarare än ett systemkontrollerat adaptivt förhållningssätt. Ingen studie har dock jämfört de båda metodernas effektivitet. I en kontrollerad labbstudie med 27 försökspersoner jämförde vi den uppmätta och upplevda effektiviteten hos tre menyförhållanden: statiska, anpassningsbara och adaptiva. Var och en genomfördes som en delad meny, där de fyra översta objekten förblev statiska, var anpassningsbara av motivet, eller anpassades efter motivets ofta och nyligen använda objekt. Den statiska menyn befanns vara betydligt snabbare än den adaptiva menyn, och den anpassningsbara menyn befanns vara betydligt snabbare än den adaptiva menyn under vissa förhållanden. Majoriteten av användarna föredrog den anpassningsbara menyn som helhet. Konsekvenser för gränssnittsdesign diskuteras.
Leah Findlater och Joanna McGrenere Ref jämförde den uppmätta och upplevda effektiviteten hos tre menyförhållanden: statiska, anpassningsbara och anpassningsbara.
207,742,233
A comparison of static, adaptive, and adaptable menus
{'venue': "CHI '04", 'journal': None, 'mag_field_of_study': ['Computer Science']}
11,092
Abstrakt. Vi introducerar en ny Deep Network arkitektur som implementerar den fullständiga funktionspunkt hantering pipeline, det vill säga detektering, orientering uppskattning, och funktionsbeskrivning. Medan tidigare arbeten med framgång har tagit itu med vart och ett av dessa problem individuellt, visar vi hur man lär sig att göra alla tre på ett enhetligt sätt samtidigt som man bevarar end-to-end-differentiability. Vi visar sedan att vår Deep pipeline överträffar toppmoderna metoder på ett antal referensdatauppsättningar, utan behov av omskolning.
LIFT REF lär sig varje uppgift som ingår i funktionshantering: detektering, orienteringsuppskattning och beskrivning.
602,850
LIFT: Learned Invariant Feature Transform
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
11,093
I detta dokument föreslås en sammanhållande teori om prognostisering i form av en gyllene prognosregel. Den gyllene regeln ska vara konservativ. En konservativ prognos är förenlig med den samlade kunskapen om nuet och det förflutna. För att vara försiktiga måste förutsägarna söka all kunskap som är relevant för problemet och använda metoder som har validerats för situationen. En checklista med 28 riktlinjer tillhandahålls för att genomföra den gyllene regeln. Den här artikelns genomgång av forskning fann 150 experimentella jämförelser; alla stödde riktlinjerna. Den genomsnittliga felminskningen från att följa en enda riktlinje (jämfört med vanlig praxis) var 28 procent. Den Gyllene Regel Checklist hjälper prognosmakare att förutsäga mer exakt, särskilt när situationen är osäker och komplex, och när partiskhet är sannolik. Icke-experter som känner till den gyllene regeln kan identifiera tvivelaktiga prognoser snabbt och billigt. Hittills har okunnighet om forskningsresultat, förutfattade meningar, sofistikerade statistiska förfaranden och spridningen av stora data lett till att förutsägarna överträtt den gyllene regeln. Trots stora framsteg när det gäller prognosmetoder saknas därför bevis för att prognosmetoderna har förbättrats under det senaste halvseklet.
På samma sätt visade översynen av försäljningsprognoserna att prognosmetoderna hade förbättrats föga, trots stora framsteg när det gäller prognosmetoder och utveckling av sofistikerade statistiska förfaranden.
54,090,398
Golden rule of forecasting: Be conservative
{'venue': None, 'journal': 'Journal of Business Research', 'mag_field_of_study': ['Economics', 'Psychology']}
11,094
Under de senaste åren har djupa neurala nätverk (DNN) uppvisat stor framgång i att förutsäga betydelsen av bilder. Det finns dock få verk som använder DNN för att förutsäga betydelsen av generiska videor. I detta dokument föreslår vi en ny DNN-baserad prediktionsmetod. I synnerhet upprättar vi en storskalig eyetracking databas över video (LEDOV), som ger tillräckligt med data för att träna DNN-modellerna för att förutsäga video saliency. Genom den statistiska analysen av vår LEDOV-databas finner vi att människors uppmärksamhet normalt attraheras av föremål, särskilt rörliga föremål eller rörliga delar av föremål. Därför föreslår vi ett objekt-till-rörelse konvolutionellt neuralt nätverk (OM-CNN) för att lära sig spatio-temporella funktioner för att förutsäga den intra-frame saliency genom att utforska informationen om både objektitet och objektrörelse. Vi finner vidare från vår databas att det finns en tidsmässig korrelation av mänsklig uppmärksamhet med en smidig löneövergång över videoramar. Därför utvecklar vi ett tvålagers konvolutionslångt korttidsminne (2C-LSTM) nätverk i vår DNN-baserade metod, med hjälp av de extraherade funktionerna hos OM-CNN som ingång. Följaktligen kan inter-frame saliency kartor över videor genereras, som tar hänsyn till övergången av uppmärksamhet över videoramar. Slutligen, de experimentella resultaten visar att vår metod avancerar state-of-the-art i video saliency förutsägelse.
Jiang m.fl. REF utvecklade en ConvLSTM (2C-LSTM) i två lager för att förutsäga videolägsenhet.
21,996,199
Predicting Video Saliency with Object-to-Motion CNN and Two-layer Convolutional LSTM
{'venue': 'ECCV', 'journal': None, 'mag_field_of_study': ['Computer Science']}
11,095
Den senaste tidens designskifte mot flerkärniga processorer har gett upphov till en betydande mängd forskning inom området programparallalisering. Den framtida förekomsten av kärnor på ett enda chip kräver programmerare och kompilator intervention för att öka mängden parallella arbete möjligt. Mycket av det senaste arbetet har fallit in i områden av grov-korn parallellisering: nya programmeringsmodeller och olika sätt att utnyttja trådar och data nivå parallellism. Detta arbete fokuserar på en kompletterande riktning, förbättra prestanda genom automatiserad finkornig parallellisering. Den största svårigheten för att uppnå en prestanda dra nytta av finkornig parallellism är distributionen av dataminnesåtkomst över datacache för varje kärna. Dåliga val i placeringen av dataåtkomster kan leda till ökade minnesstånd och lågt resursutnyttjande. Vi föreslår en profilstyrd metod för att partitionera minnesåtkomst över distribuerade datacaches. För det första bestämmer en profil affinitetsrelationer mellan minnesåtkomst och arbetsuppsättningsegenskaper för enskilda minnesoperationer i programmet. Därefter utförs en partitionering av minnesoperationerna på programnivå för att dela upp minnesåtkomsterna mellan datacacherna. Som ett resultat, dataåtkomsten är proaktivt utspridda för att minska minnesstånd och förbättra beräkning parallellisering. En slutlig detaljerad partitionering av beräkningsinstruktionerna utförs med kunskap om cacheplatsen för deras tillhörande data. Sammantaget minskar vår datapartitionering stallcykler med upp till 51% jämfört med datainkognizant partitionering, och har en total hastighetsökning genomsnitt på 30% över en enda kärna processor.
Chu och al. REF föreslog en profilriktad metod för att partitionera minnesåtkomst över distribuerade datacache.
12,144,890
Data Access Partitioning for Fine-grain Parallelism on Multicore Architectures
{'venue': '40th Annual IEEE/ACM International Symposium on Microarchitecture (MICRO 2007)', 'journal': '40th Annual IEEE/ACM International Symposium on Microarchitecture (MICRO 2007)', 'mag_field_of_study': ['Computer Science']}
11,096
Abstract Representationskomponenter för användarmodellering servrar har traditionellt baserats på enkla filstrukturer och databassystem. Vi föreslår katalogsystem som ett alternativ, som erbjuder många fördelar jämfört med de mer traditionella tillvägagångssätten: internationell leverantörsoberoende standardisering, demonstrerad prestanda och skalbarhet, dynamisk och transparent hantering av distribuerad information, inbyggd replikering och synkronisering, ett rikt antal fördefinierade typer av användarinformation, och extensibilitet av kärnan representationsspråk för nya informationstyper och för datatyper med tillhörande semantik. Kataloger möjliggör också virtuell centralisering av distribuerade användarmodeller och deras selektiva centraliserade replikering om bättre prestanda behövs. Vi presenterar UMS, en användarmodellering server som är baserad på Lightweight Directory Access Protocol (LDAP). UMS möjliggör representation av olika modeller (t.ex. användar- och användningsprofiler, system- och servicemodeller) och för fastsättning av godtyckliga komponenter som utför användarmodelleringsuppgifter på dessa modeller. Externa kunder som användaranpassade applikationer kan lämna in och hämta information om användare. Vi beskriver ett simuleringsförsök för att testa körtidens prestanda hos denna server, och presenterar en teori om hur parametrarna för ett sådant experiment kan härledas från empirisk webbanvändningsforskning. Resultaten visar att prestandan hos UMS uppfyller kraven på nuvarande små och medelstora webbplatser redan på mycket blygsamma hårdvaruplattformar, och prestandan hos mycket stora webbplatser i en entry-level affärsserver konfiguration.
A. Kobsa implementerade också en LDAP-baserad användarmodelleringserver (UMS) som möjliggör representation av olika modeller REF.
17,254,518
An LDAP-based User Modeling Server and its Evaluation
{'venue': 'User Modeling and User-Adapted Interaction', 'journal': 'User Modeling and User-Adapted Interaction', 'mag_field_of_study': ['Computer Science']}
11,097
Bakgrund: Demens och kognitiv funktionsnedsättning i samband med åldrande är en stor medicinsk och social oro. Neuropsykologiska tester är en viktig del i diagnostiska förfaranden av Mild Cognitive Impairment (MCI), men har för närvarande ett begränsat värde i förutsägelsen av progression till demens. Vi utvecklar hypotesen att nyare statistiska klassificeringsmetoder som härrör från datautvinning och maskininlärningsmetoder som Neural Networks, Support Vector Machines och Random Forests kan förbättra noggrannheten, känsligheten och specificiteten hos förutsägelser som erhållits från neuropsykologiska tester. Sju icke-parametriska klassificeringar som härrör från databrytningsmetoder (Multilayer Perceptrons Neural Networks, Radial Basis Function Neural Networks, Support Vector Machines, CART, CHAID och QUEST Classification Trees och Random Forests) jämfördes med tre traditionella klassificerare (Linear Discriminant Analysis, Quadratic Discriminant Analysis och Logistic Regression) i termer av övergripande klassificering noggrannhet, specificitet, känslighet, Area under ROC-kurvan och Press'Q. Modellprediktorer var 10 neuropsykologiska tester som för närvarande används vid diagnos av demens. Statistisk fördelning av klassificeringsparametrar som erhållits genom en 5-faldig korsvalidering jämfördes med Friedmans icke-parametriska test. Resultat: Pressens Q-test visade att alla klassiatorer presterade bättre än slumpen ensam (p < 0,05). Support Vector Machines visade den större övergripande klassificeringsnoggrannheten (Median (Me) = 0,76) ett område under ROC (Me = 0,90). Denna metod visade dock hög specificitet (Me = 1,0) men låg känslighet (Me = 0,3). Random Forest rankas som tvåa i total noggrannhet (Me = 0,73) med hög yta under ROC (Me = 0,73) specificitet (Me = 0,73) och känslighet (Me = 0,64). Linjär diskriminantanalys visade också godtagbar total noggrannhet (Me = 0,66), med godtagbart område under ROC (Me = 0,72) specificitet (Me = 0,66) och känslighet (Me = 0,64). De återstående klassificeringarna visade en total klassificeringsnoggrannhet över ett medianvärde på 0,63, men för de flesta var känsligheten omkring eller till och med lägre än ett medianvärde på 0,5. När hänsyn tas till känslighet, specificitet och total klassificering noggrannhet Random Forests och Linear Diskriminant analys rangordnas först bland alla klassificeringar testade i förutsägelse av demens med hjälp av flera neuropsykologiska tester. Dessa metoder kan användas för att förbättra noggrannheten, känsligheten och specificiteten hos demensprognoser från neuropsykologiska tester.
Stödvektormaskiner (SVMs) kan användas för synonymidentifiering REF.
6,809,347
Data mining methods in the prediction of Dementia: A real-data comparison of the accuracy, sensitivity and specificity of linear discriminant analysis, logistic regression, neural networks, support vector machines, classification trees and random forests
{'venue': 'BMC Research Notes', 'journal': 'BMC Research Notes', 'mag_field_of_study': ['Computer Science', 'Medicine']}
11,098