src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
Abstrakt. Inspirerad av de senaste framgångarna med metoder som använder form tidigare för att uppnå robusta 3D rekonstruktioner, föreslår vi en ny återkommande neurala nätverk arkitektur som vi kallar 3D Recurrent Reconstruction Neural Network (3D-R2N2). Nätverket lär sig en kartläggning från bilder av objekt till deras underliggande 3D-former från en stor samling syntetiska data [1]. Vårt nätverk tar i en eller flera bilder av en objekt instans från godtyckliga synvinklar och resulterar en rekonstruktion av objektet i form av en 3D beläggning rutnät. Till skillnad från de flesta av de tidigare verken kräver vårt nätverk inga bildanteckningar eller objektklassetiketter för utbildning eller testning. Vår omfattande experimentella analys visar att vår rekonstruktionsram i) överträffar de centrala metoderna för ensidig rekonstruktion, och ii) möjliggör 3D-rekonstruktion av objekt i situationer då traditionella SFM/SLAM-metoder misslyckas (på grund av brist på textur och/eller bred baslinje).
Choy m.fl. REF använder en RNN för att rekonstruera objektet i form av ett 3D-beläggningsgaller ur flera synvinklar.
6,325,059
3D-R2N2: A Unified Approach for Single and Multi-view 3D Object Reconstruction
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
79,586
I detta dokument presenteras två nya metoder för att ta fram och lösa stora problem med Markovs beslut, en partiell frikopplingsmetod och en fullständig frikopplingsmetod. I dessa ap proaches är ett stort, stokastiskt beslutsproblem uppdelat i mindre bitar. Den första metoden bygger en cache av policyer för varje del av problemet självständigt, och sedan kombinerar bitarna i ett separat, lätt steg. Ett andra tillvägagångssätt innebär också att problemet delas upp i mindre delar, men information förmedlas mellan de olika problembitarna, vilket gör det möjligt att fatta konkreta beslut om vilken del som kräver mest uppmärksamhet. Båda tillvägagångssätten kan användas för att hitta optimala strategier eller ungefär optimala strategier med påvisbara gränser. Dessa al gorithms ger också en ram för effektiv överföring av kunskap över problem som delar liknande struktur.
REF utvecklar algoritmer för att kontrollera cachelagring av policyer som kan användas i flera uppgifter.
7,014,341
Flexible Decomposition Algorithms for Weakly Coupled Markov Decision Problems
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
79,587
För kinesisk POS-märkning är ordsegmentering ett preliminärt steg. För att undvika felspridning och förbättra segmentering genom att använda POS-information kan segmentering och taggning utföras samtidigt. En utmaning för detta gemensamma tillvägagångssätt är det stora kombinerade sökområdet, vilket gör effektiv avkodning mycket svårt. Den senaste forskningen har undersökt integreringen av segmentering och POS-märkning, genom avkodning under begränsade versioner av hela det kombinerade sökutrymmet. I detta dokument föreslår vi en gemensam modell för segmentering och POS-märkning som inte medför några hårda begränsningar för samspelet mellan ord- och POS-information. Snabb avkodning uppnås genom att använda en ny sökalgoritm för flera strålar. Systemet använder en diskriminativ statistisk modell, tränad med hjälp av den generaliserade perceptronalgoritmen. Den gemensamma modellen ger en felminskning av segmenteringsnoggrannheten på 14,6 % och en felminskning av taggningsnoggrannheten på 12,2 % jämfört med den traditionella rörledningen.
REF använde en segmentbaserad dekoder för ordsegmentering och posmärkning.
105,219
Joint Word Segmentation and POS Tagging Using a Single Perceptron
{'venue': 'Proceedings of the 9th SIGdial Workshop on Discourse and Dialogue', 'journal': None, 'mag_field_of_study': ['Computer Science']}
79,588
Den här artikeln visar hur man använder modellkontroll för att hitta allvarliga fel i filsystem. Modellkontroll är en formell verifieringsteknik som är inställd för att hitta fel i hörnfall genom att grundligt utforska de tillståndsutrymmen som definieras av ett system. Filsystem har två dynamiker som gör dem attraktiva för ett sådant tillvägagångssätt. För det första är deras fel några av de allvarligaste, eftersom de kan förstöra ihållande data och leda till oåtervinnbar korruption. För det andra behöver traditionell testning ett opraktiskt, exponentiellt antal testfall för att kontrollera att systemet återhämtar sig om det kraschar någon gång under utförandet. Modellkontroll använder en mängd olika state-reducerande tekniker som gör det möjligt för den att utforska så stora tillstånd utrymmen effektivt. Vi byggde ett system, FiSC, för modellkontroll av filsystem. Vi tillämpade den på fyra allmänt använda, starkt testade filsystem: ext3, JFS, ReiserFS och XFS. Vi hittade allvarliga insekter i alla, totalt 33. De flesta har lett till fläckar inom en dag av diagnos. För varje filsystem fann FiSC påvisbara händelser som ledde till oåtervinnbar förstörelse av metadata och hela kataloger, inklusive filsystemets rotkatalog "/".
REF tillämpade modellkontroll för att hitta ett litet antal fel i filsystemkoden, inklusive några allvarliga sådana.
2,848,171
Using model checking to find serious file system errors
{'venue': 'TOCS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
79,589
När en sensor monteras på en robothand är det viktigt att känna till förhållandet mellan sensorn och handen. Problemet med att bestämma detta förhållande kallas för hand-öga-kalibreringsproblem. Kalibrering av handögon är viktigt i minst två typer av uppgifter: (1) kartsensor centrerade mätningar in i robotarbetsytan och (2) uppgifter som gör det möjligt för roboten att exakt flytta sensorn. Tidigare föreslogs vissa lösningar, särskilt när det gäller sensorn som är en TV-kamera. Med nästan inget undantag försöker alla befintliga lösningar lösa en homogen matrisekvation av formen AX = X B. Den här artikeln innehåller följande huvudsakliga bidrag. Först visar vi att det finns två möjliga formuleringar av hand-öga kalibreringsproblem. En formulering är den klassiska som just nämnts. En andra formulering tar formen av följande homogena matrisekvation: MY = M'YB. Fördelen med den senare formuleringen är att kamerans yttre och inneboende parametrar inte behöver göras explicita. I själva verket använder denna formulering direkt 3 x4 perspektivmatriser ( M och M' ) i samband med två positioner av kameran med avseende på kalibreringsramen. Dessutom omfattar denna formulering, tillsammans med den klassiska, ett bredare utbud av kamerabaserade sensorer som ska kalibreras med avseende på robothanden: enkla scan-line-kameror, stereohuvuden, avståndsmätare, etc. För det andra utvecklar vi en gemensam matematisk ram för att lösa problemet med hand-öga kalibrering med hjälp av någon av de två formuleringarna. Vi representerar rotation med en enhet quaternion och presenterar två metoder: (1) en sluten-form lösning för att lösa för rotation med hjälp av enhet quaternions och sedan lösa för översättning och (2) en icke-linjär teknik för att samtidigt lösa för rotation och översättning. För det tredje utför vi en stabilitetsanalys både för våra två metoder och för den linjära metod som utvecklats av Tsai och Lenz (1989). Denna analys gör det möjligt att jämföra de tre metoderna. Mot bakgrund av denna jämförelse verkar den ickelinjära optimeringsmetoden, som löser för rotation och översättning samtidigt, vara den mest robusta med avseende på buller och mätfel.
Horaud och Dornaika REF presenterade en annan formulering av hand-öga kalibrering med 3 × 4 perspektiv matriser samt den klassiska AX = XB.
39,024,775
Hand-Eye Calibration
{'venue': None, 'journal': 'The International Journal of Robotics Research', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
79,590
Med den snabba utvecklingen av sociala medier på nätet, näthandelssajter och cyberfysiska system har heterogena informationsnätverk blivit allt populärare och innehållsrikare med tiden. I många fall innehåller sådana nätverk flera typer av objekt och länkar, liksom olika typer av attribut. Klustret av dessa objekt kan ge användbara insikter i många tillämpningar. Klustret av sådana nätverk kan dock vara utmanande eftersom a) objektens attributvärden ofta är ofullständiga, vilket innebär att ett objekt endast kan ha partiella attribut eller till och med inga attribut för att korrekt märka sig själv; och b) länkarna mellan olika typer kan ha olika slags semantiska betydelser, och det är en svår uppgift att fastställa arten av deras relativa betydelse för att hjälpa klustret för ett givet ändamål. I detta dokument tar vi itu med dessa utmaningar genom att föreslå en modellbaserad klusteralgoritm. Vi utformar en probabilistisk modell som samlar objekt av olika typer i ett gemensamt dolt utrymme, genom att använda en användarspecifik uppsättning attribut, samt länkar från olika relationer. Styrkorna i olika typer av länkar lärs automatiskt och bestäms av det givna syftet med klusterbildning. En iterativ algoritm är utformad för att lösa klusterproblemet, där styrkor av olika typer av länkar och kvaliteten på klusterresultat ömsesidigt förbättrar varandra. Våra experimentella resultat på verkliga och syntetiska datauppsättningar visar algoritmens effektivitet och effektivitet.
Sol och al. I REF föreslogs en probabilistisk modell som samlar föremål av olika slag i ett gemensamt dolt utrymme.
63,163
Relation Strength-Aware Clustering of Heterogeneous Information Networks with Incomplete Attributes
{'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']}
79,591
Programmodell kontroll, som ett obeslutbart problem, har tre möjliga resultat: (1) programmet uppfyller specifikationen, (2) programmet inte uppfyller specifikationen, och (3) modellen kontroll misslyckas. Det tredje resultatet manifesterar sig vanligen i ett utrymnings-, time-out- eller en komponent i det verifieringsverktyg som ger upp. I samtliga dessa fall utförs betydande beräkningar av verifieringsverktyget innan felet inträffar, men inget resultat rapporteras. Vi föreslår att omformulera modellen-kontroll problemet enligt följande, för att ha verifieringsverktyget rapportera en sammanfattning av det utförda arbetet även i händelse av misslyckande: med tanke på ett program och en specifikation, modellen kontrollerare returnerar ett villkor till -vanligtvis en stat predicate-så att programmet uppfyller specifikationen under villkoret och -det vill säga, så länge programmet inte lämnar de stater där till är nöjd. I våra experiment undersökte vi som en stor tillämpning av villkorlig modell att kontrollera den sekventiella kombinationen av modellkontroller med information som passerar. Vi ger villkoret att en modellkontroll tar fram, som indata till en andra villkorad modellkontroll, så att verifieringsproblemet för den andra begränsas till den del av tillståndsutrymmet som inte täcks av villkoret, dvs. den andra modellkontrollen fungerar på de problem som den första modellkontrollen inte kunde lösa. Våra experiment visar att upprepad tillämpning av villkorliga modellkontroller, överföring av information från en modellkontroll till nästa, kan avsevärt förbättra verifieringsresultat och prestanda, d.v.s. kan vi nu verifiera program som vi inte kunde verifiera tidigare.
Villkorlig modell för kontroll av Ref återanvänder godtyckliga mellanliggande kontrollresultat.
3,909,829
Conditional model checking: a technique to pass information between verifiers
{'venue': 'SIGSOFT FSE', 'journal': None, 'mag_field_of_study': ['Computer Science']}
79,592
Abstract-Incentive mekanismer för crowdsourcing har studerats ingående inom ramen för all-pay auktioner. I detta dokument föreslås att Tullock-tävlingar ska användas som ett alternativt verktyg för att utforma incitamentsmekanismer för crowdsourcing. Vi inspireras av att Tullocks tävlingar bidrar till att locka användare till sig (ännu inte nödvändigtvis högre intäkter) inom andra områden. I detta papper, utforskar vi en ny dimension i optimal Tullock tävling design, genom att övervaka tävlingen priset-som är fast i konventionella Tullock tävlingar-med en prisfunktion som är beroende av (okänd) vinnarens bidrag, för att maximera crowdsourcer's verktyg. Vi visar att detta tillvägagångssätt leder till attraktiva praktiska fördelar: a) det är väl lämpat för snabb prototypering i fullt distribuerade webbagenter och smartphone-appar; b) det övervinner den avskräckning att delta som orsakas av spelarnas antagonism mot ett ökande antal rivaler. Dessutom optimerar vi konventionella, fasta priser Tullock tävlingar för att konstruera det mest överlägsna riktmärket att jämföra mot vår mekanism. Genom omfattande utvärderingar visar vi att vår mekanism avsevärt överträffar det optimala riktmärket, med över tre gånger på crowdsourcers nytta cum profit och upp till nio gånger på spelarnas sociala välfärd.
Med Tullock-tävlingen, Luo et al. REF utformade en incitamentsmekanism för att maximera crowdsourcing-användarens vinst.
864,810
Crowdsourcing with Tullock contests: A new perspective
{'venue': 'Proc. IEEE INFOCOM, 2015, pp. 2515-2523', 'journal': None, 'mag_field_of_study': ['Computer Science']}
79,594
Abstract De flesta framgångsrika online-samhällen sysselsätter professionella, ibland kallade "community managers", för en mängd olika uppgifter, inklusive ombord på nya deltagare, medling konflikt, och polis oönskat beteende. Vi tolkar samhällschefernas verksamhet som nätverksdesign: de vidtar åtgärder som är inriktade på att skapa ett nätverk av interaktioner på ett sätt som främjar deras samhällsmål. Därav följer att om en sådan åtgärd lyckas bör vi kunna upptäcka dess signatur i själva nätverket. Det är känt att växande nät där länkar tilldelas genom en mekanism för förmånsbehandling konvergerar till nät som visar en distribution av ellagsgrader. Vår huvudhypotes är att hanterade online-gemenskaper skulle avvika från maktlagsformen; en sådan avvikelse utgör undertecknandet av framgångsrik samhällsförvaltning. Vår sekundära hypotes är att den nämnda avvikelsen sker på ett förutsägbart sätt, när man väl har redovisat metoder för samhällsstyrning. Vi undersöker frågan med hjälp av empiriska data på tre små online-gemenskaper och en datormodell som simulerar en allmänt använd community management aktivitet som kallas onboarding. Vi finner att modellen producerar in-grad fördelningar som systematiskt avviker från makt lag beteende för låga värden av in-grad; vi undersöker sedan konsekvenserna och möjliga tillämpningar av upptäckten.
I ett tidigare dokument REF testar vi om power law-modeller passar bra för otransformerade in-gradiga distributioner av interaktionsnätverk i online-gemenskaper.
26,302,316
Testing for the signature of policy in online communities
{'venue': 'COMPLEX NETWORKS', 'journal': None, 'mag_field_of_study': ['Engineering', 'Computer Science']}
79,595
Aktivt lärande har visat sig vara en nyckelteknik för att förbättra innehållsbaserad bildsökning (CBIR). Bland olika metoder, stöd vektor maskin (SVM) aktiv inlärning är populär för dess tillämpning på relevans feedback i CBIR. Det regelbundna SVM-aktiva lärandet har dock två huvudsakliga nackdelar när det används för relevansåterkoppling. För det första lider SVM ofta av att lära sig med ett litet antal märkta exempel, vilket är fallet i relevans återkoppling. För det andra tar SVM aktivt lärande vanligtvis inte hänsyn till redundansen bland exempel, och kan därför välja flera exempel i relevans feedback som är liknande (eller till och med identiska) med varandra. I detta dokument föreslår vi ett nytt system som utnyttjar både halvövervakat kärninlärning och batch-läge aktivt lärande för relevansfeedback i CBIR. Framför allt lär man sig en kärnfunktion först av en blandning av märkta och omärkta exempel. Kärnan kommer sedan att användas för att effektivt identifiera de informativa och varierande exemplen för aktivt lärande via ett minmax-ramverk. En empirisk studie med relevant återkoppling från CBIR visade att det föreslagna systemet är betydligt effektivare än andra state-of-the-art metoder.
Samma författare REF föreslog ett BMAL-system baserat på SVMs där en kärnfunktion först lärdes sig av en blandning av märkta och omärkta prover, som sedan användes för att identifiera de informativa och olika exemplen genom ett minmax-ramverk.
6,081,139
Semi-supervised SVM batch mode active learning for image retrieval
{'venue': '2008 IEEE Conference on Computer Vision and Pattern Recognition', 'journal': '2008 IEEE Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
79,596
En operatörsassisterad användarstödd nät (UPN) har potential att uppnå en låg kostnad allestädes närvarande Internet-anslutning, utan att avsevärt öka investeringarna i nätinfrastruktur. I detta dokument anser vi att ett sådant nät där nätoperatören uppmuntrar vissa av sina abonnenter att fungera som mobila Wi-Fi-hotspots (hosts), som tillhandahåller Internet-anslutning för andra abonnenter (klienter). Vi formulerar interaktionen mellan operatör och mobilanvändare som ett tvåstegsspel. I steg I bestämmer operatören den användningsbaserade prissättningen och kvotbaserade incitamentsmekanismen för dataanvändningen. I steg II fattar mobilanvändarna sina beslut om huruvida de ska vara en värd eller en kund, eller inte alls en abonnent. Vi karakteriserar hur användarnas val av medlemskap kommer att påverka varandras vinster i steg II, och hur operatören optimerar sitt beslut i steg I för att maximera hennes vinst. Våra teoretiska och numeriska resultat visar att operatörens maximala vinst ökar med användartätheten, och vinstvinsten kan vara upp till 50 % i ett tätt nätverk jämfört med ett prissättningsbaserat tillvägagångssätt utan incitament.
Khalili m.fl. Ref övervägde ett nät där operatören uppmuntrar vissa av sina abonnenter att fungera som mobila WiFi-hotspots (hotell), som tillhandahåller internetanslutning till andra abonnenter (klienter).
16,011,265
Incentive design and market evolution of mobile user-provided networks
{'venue': '2015 IEEE Conference on Computer Communications Workshops (INFOCOM WKSHPS)', 'journal': '2015 IEEE Conference on Computer Communications Workshops (INFOCOM WKSHPS)', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
79,597
Många system för uppgifter som frågesvar, sammanfattning av flera dokument och informationshämtning behöver robusta numeriska mått på lexikal tillhörighet. Standard tesaurus-baserade mått på ordpar likhet baseras endast på en enda väg mellan dessa ord i tesaurus grafen. Däremot föreslår vi en ny modell av lexikal semantisk släktskap som innehåller information från varje explicit eller implicit sökväg som förbinder de två orden i hela grafen. Vår modell använder en slumpmässig promenad över noder och kanter som härrör från WordNet länkar och corpus statistik. Vi behandlar grafen som en Markov-kedja och beräknar en ordspecifik stationär distribution via en generaliserad PageRank-algoritm. Ett ordpars semantiska överensstämmelse görs genom en ny divergerande åtgärd, ZKL, som överträffar befintliga åtgärder för vissa distributionsklasser. I våra experiment är den resulterande relativitetsmåttet det WordNet-baserade måttet högst korrelerat med mänskliga likhetsbedömningar efter rankning på ρ =.90.
Hughes m.fl. REF introducerar ett nytt mått på lexikal relativitet baserat på skillnaden mellan de stationära distributioner som beräknas med hjälp av slumpmässiga promenader över grafer som extraheras från WordNet.
16,155,186
Lexical Semantic Relatedness with Random Graph Walks
{'venue': '2007 Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning (EMNLP-CoNLL)', 'journal': None, 'mag_field_of_study': ['Computer Science']}
79,598
Abstract-Spectrum avkänning, som syftar till att upptäcka spektrum hål, är en förutsättning för genomförandet av kognitiv radio (CR). Samverkansspektrumanalys bland kognitiva radionoder förväntas förbättra förmågan att kontrollera fullständig spektrumanvändning. På grund av hårdvarubegränsningar kan varje kognitiv radionod bara känna ett relativt smalt spektrum av radiospektrum. Följaktligen är den tillgängliga kanalavkänningsinformationen långt ifrån tillräcklig för att man exakt ska kunna känna igen det breda spektrumet av obemannade kanaler. Med sikte på att bryta denna flaskhals föreslår vi att vi tillämpar matriskomplettering och gemensam sparsamhetsåtervinning för att minska kraven på avkänning och överföring och förbättra analysresultaten. Specifikt, utrustad med en frekvens selektivt filter, varje kognitiv radio nod känner linjära kombinationer av flera kanalinformation och rapporterar dem till fusionscentret, där ockuperade kanaler avkodas sedan från rapporterna med hjälp av nya matriskomplettering och gemensamma sparity återhämtning algoritmer. Som ett resultat av detta minskar antalet rapporter som skickas från CR till fusionscentret avsevärt. Vi föreslår två avkodningsmetoder, den ena baserad på matriskomplettering och den andra baserad på gemensam sparsamhetsåterhämtning, som båda möjliggör exakt återhämtning från ofullständiga rapporter. De numeriska resultaten bekräftar effektiviteten och robustheten i våra strategier. Särskilt i småskaliga nätverk uppnår matriskompletteringsmetoden exakt kanaldetektering med ett antal prover som inte överstiger 50 % av antalet kanaler i nätverket, medan gemensam sparitetsåterhämtning uppnår liknande prestanda i storskaliga nätverk.
REF syftar till att lösa problemet när det inte räcker med att analysera prover för att exakt upptäcka tillgängliga kanaler.
1,822,442
Collaborative Spectrum Sensing from Sparse Observations in Cognitive Radio Networks
{'venue': 'IEEE Journal on Selected Areas in Communications 29(2), 327-337, 2011', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
79,599
Abstract-I detta papper utför vi mottagardesign för en diffusiv molekylär kommunikationsmiljö. Vår modell inkluderar flöde i alla riktningar, källor till informationsmolekyler utöver sändaren, och enzymer i förökningsmiljön för att minska intersymbolisk interferens. Vi karakteriserar den ömsesidiga informationen mellan mottagarens observationer för att visa hur ofta oberoende observationer kan göras. Vi härleder den maximala sannolikhetssekvensdetektorn för att ge en lägre gräns på bitfelsannolikheten. Vi föreslår familjen av viktade summa detektorer för mer praktisk implementering och härleda deras förväntade bit fel sannolikhet. Under vissa förhållanden visas att prestandan hos den optimala viktade summan detektor är likvärdig med ett matchat filter. Mottagarens simuleringsresultat visar kompromissen i detektorns komplexitet kontra uppnåelig bitfelsannolikhet, och att ett långsamt flöde i vilken riktning som helst kan förbättra prestandan hos en vägd summadetektor.
Upphovsmän till REF härledde den maximala sannolikhetssekvensdetektorn med Viterbi-algoritm för känd CSI.
16,984,114
Optimal Receiver Design for Diffusive Molecular Communication With Flow and Additive Noise
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Medicine', 'Mathematics']}
79,600
Abstract-State-of-the-art objekt detekteringsnätverk är beroende av region förslag algoritmer för att hypothesize objekt platser. Framsteg som SPPnet [1] och Fast R-CNN [2] har minskat drifttiden för dessa detektionsnät, vilket exponerar beräkning av regionförslag som flaskhals. I detta arbete introducerar vi ett regionförslagsnätverk (RPN) som delar fullbildskonvolutionella funktioner med detektionsnätverket, vilket möjliggör nära nog kostnadsfria regionförslag. Ett RPN är ett helt konvolutionellt nätverk som samtidigt förutsäger objektgränser och objektitetspoäng vid varje position. RPN är utbildad end-to-end för att generera högkvalitativa regionförslag, som används av Fast R-CNN för detektion. Vi slår ytterligare samman RPN och Fast R-CNN till ett enda nätverk genom att dela deras konvolutionella funktioner-med hjälp av den nyligen populära terminologin för neurala nätverk med "attention" mekanismer, RPN komponenten talar om för det enhetliga nätverket var man ska leta. För den mycket djupa VGG-16-modellen [3] har vårt detektionssystem en bildhastighet på 5 fps (inklusive alla steg) på en GPU, samtidigt som vi uppnår toppmoderna objektdetektionsnoggrannhet på PASCAL VOC 2007, och MS COCO-datauppsättningar med endast 300 förslag per bild. I ILSVRC och COCO 2015 tävlingar, Snabbare R-CNN och RPN är grunden för den 1: a plats vinnande poster i flera spår. Koden har gjorts tillgänglig för allmänheten. Regionens förslagsmetoder är vanligtvis beroende av billiga funktioner och ekonomiska slutledningssystem. Selektiv sökning [4], en av de mest populära metoderna, sammansmälter girigt superpixel baserat på konstruerade låg nivå funktioner. Ändå jämfört med effektiva detektionsnätverk [2], Selektiv sökning är en storleksordning långsammare, på 2 sekunder per bild i en CPU-implementation. EdgeBoxar [6] ger för närvarande den bästa kompromissen mellan förslagskvalitet och hastighet, med 0,2 sekunder per bild. Trots detta konsumerar regionförslaget lika mycket drifttid som nätverket för upptäckt. Man kan notera att snabba regionbaserade CNN dra nytta av GPU, medan de regionala förslag metoder som används i forskning genomförs på CPU, vilket gör sådana runtime jämförelser ojämförliga. Ett självklart sätt att påskynda beräkningen av förslag är att återinföra det för GPU. Detta kan vara en effektiv teknisk lösning, men omgenomförandet bortser från down-stream detektion nätverk och därför missar viktiga möjligheter att dela beräkningar. I detta dokument visar vi att en algoritmisk förändringskomputerande förslag med en djup konvolutionell neural nätverk-leads till en elegant och effektiv lösning där förslagsberäkning är nästan gratis med tanke på detektionsnätverkets beräkning. I detta syfte introducerar vi nya regionala förslagsnätverk (RPN) som delar konvolutionella skikt med toppmoderna nätverk för objektdetektering [1], [2]. Genom att dela konvolutioner vid testtid är marginalkostnaden för datorförslag liten (t.ex. 10 ms per bild). Vår iakttagelse är att de konvolutionella funktionskartor som används av regionbaserade detektorer, som Fast R-CNN, också kan användas för att generera regionförslag. Ovanpå dessa konvolutionella funktioner konstruerar vi en RPN genom att lägga till några ytterligare konvolutionella lager som samtidigt regresserar regiongränser och objektitet poäng på varje plats på ett vanligt rutnät. RPN är således ett slags fullständigt konvolutionsnätverk [7] och kan utbildas från början till slut särskilt för uppgiften att ta fram förslag på detektering. RPN är utformade för att effektivt förutsäga regionala förslag med ett brett spektrum av skalor och proportioner. I motsats till vanliga metoder [1], [2], [8], [9] som använder pyramider av bilder (Fig. 1a) eller filterpyramider (Fig. 1b), Vi introducerar nya "anchor" rutor som fungerar som referenser på flera skalor och proportioner. Vårt schema kan ses som en pyramid av regressionsreferenser (Fig. 1c), som undviker att räkna upp bilder eller filter av flera skalor eller proportioner. Denna modell fungerar bra när den är tränad och testad med enskaliga bilder och därmed gynnar körhastigheten. För att förena RPNs med snabba R-CNN [2] objektdetekteringsnätverk, föreslår vi ett utbildningsprogram som alternerar S. Ren är med
Senare och för att förbättra hastigheten på R-CNN:s utbildnings- och teststadier har Faster R-CNN REF integrerat processen för generering av regionala förslag som en gren i själva nätverket.
10,328,909
Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
79,601
Under det senaste halvåret har konvolutionella neurala nätverk (CNN) segrat över semantisk segmentering, vilket är en central uppgift för olika framväxande industriella tillämpningar såsom autonom körning och medicinsk avbildning. Men att utbilda CNN kräver en enorm mängd data, vilket är svårt att samla in och mödosamt att kommentera. De senaste framstegen inom datorgrafik gör det möjligt att utbilda CNN-modeller på fotorealistiska syntetiska data med datorgenererade kommentarer. Trots detta minskar domänobalansen mellan de verkliga bilderna och de syntetiska uppgifterna avsevärt modellernas prestanda. Därför föreslår vi en läroplansbaserad inlärningsmetod för att minimera domänklyftan i semantisk segmentering. Den läroplansdomänanpassning löser enkla uppgifter först för att dra några nödvändiga egenskaper om måldomänen; i synnerhet, den första uppgiften är att lära sig globala etikettdistributioner över bilder och lokala distributioner över landmärke superpixlar. Dessa är lätta att uppskatta eftersom bilder av stadstrafik scener har starka idiosynkrasier (t.ex. storlek och rumsliga förhållanden byggnader, gator, bilar, etc.). Vi tränar sedan segmenteringsnätet på ett sådant sätt att nätverksprognoserna i måldomänen följer de infererade egenskaperna. I experiment överträffar vår metod betydligt baslinjerna och det enda kända tillvägagångssättet till samma problem.
Curriculum domänanpassning REF å andra sidan föreslår läroplansstil lärande strategi där den enkla uppgiften att uppskatta globala märkning distributioner över bilder och lokala distributioner över landmärke superpixlar lärs först.
11,824,004
Curriculum Domain Adaptation for Semantic Segmentation of Urban Scenes
{'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
79,602
Fotgängarfelsättning, som huvudsakligen beror på detektorfel och utgör variationer, är ett kritiskt problem för ett robust personomidentifieringssystem (re-ID). Med dålig anpassning, funktionen lärande och matchningsprocessen kan i stor utsträckning äventyras. För att ta itu med detta problem införs i detta dokument pose-invariant embedding (PIE) som en deskriptor för fotgängare. För det första, för att anpassa fotgängare till en standard pose, PoseBox struktur införs, som genereras genom pose uppskattning följt av affin omvandlingar. För det andra, för att minska effekten av posera skattningsfel och informationsförlust under PoseBox konstruktion, designar vi en PoseBox fusion (PBF) CNN arkitektur som tar den ursprungliga bilden, PoseBox, och utgör uppskattning förtroende som indata. Den föreslagna PIE-deskriptorn definieras således som det helt anslutna skiktet i PBF-nätverket för hämtningsuppgiften. Experiment genomförs på Market-1501, CUHK03-NP och DukeMTMC-reID dataset. Vi visar att enbart PoseBox ger en anständig re-ID-noggrannhet och att den lärda PIE-deskriptorn, när den integreras i PBF-nätverket, ger konkurrenskraft jämfört med toppmoderna metoder. Index Terms-Pose invariant inbäddning, PoseBox, PoseBox fusion nätverk, person omidentifiering.
Zheng m.fl. REF introducerar PoseBox-strukturen för att anpassa fotgängare till en standardställning.
14,685,197
Pose-Invariant Embedding for Deep Person Re-Identification
{'venue': 'IEEE Transactions on Image Processing', 'journal': 'IEEE Transactions on Image Processing', 'mag_field_of_study': ['Computer Science', 'Medicine', 'Mathematics']}
79,603
Abstract-Building nätverksbaserade styrsystem över trådlösa nätverk är en mycket utmanande uppgift, eftersom de trådlösa kommunikationsegenskaperna såsom slumpmässiga paketförluster och fördröjningar avsevärt påverkar styrsystemens stabilitet och prestanda. Vi presenterar en ny strategi för designen av trådlösa nätverkskontrollsystem. Detta tillvägagångssätt sönderdelas i två faktorer och adresserar dem separat i två konstruktionsutrymmen - systemets stabilitet säkerställs med hjälp av en passivitetsbaserad arkitektur vid kontrollskiktet, medan systemets prestanda optimeras vid kommunikationslagret genom att nätverksdriftsparametrarna justeras. Detta dokument fokuserar på utformningen av IEEE 802.11-baserat trådlöst nätverk. I synnerhet presenterar vi en MAC-styrenhet som dynamiskt justerar retransmissionsgränsen för att spåra den optimala kompromissen mellan paketförluster och överföringsförseningar och därmed optimerar det övergripande styrsystemets prestanda. Simuleringsresultat visar att vår strategi avsevärt förbättrar prestandan hos de nätverksanslutna styrsystemen.
Bai och Al. I REF föreslås en konstruktion av IEEE 802.11-baserat trådlöst nätverk för MAC som dynamiskt justerar retransmissionsgränsen för att spåra den optimala avvägningen mellan överföringsfördröjning och paketförluster för att optimera den totala nätstyrningssystemets prestanda.
491,724
Dynamic Tuning Retransmission Limit of IEEE 802.11 MAC Protocol for Networked Control Systems
{'venue': "2010 IEEE/ACM Int'l Conference on Green Computing and Communications & Int'l Conference on Cyber, Physical and Social Computing", 'journal': "2010 IEEE/ACM Int'l Conference on Green Computing and Communications & Int'l Conference on Cyber, Physical and Social Computing", 'mag_field_of_study': ['Computer Science']}
79,604
Vi avancerar betydligt bortom den senaste tidens framsteg på algoritmisk komplexitet Nash Equilibria genom att lösa två stora öppna problem i approximationen av Nash Equilibria och i den utjämnade analysen av algoritmer. • Vi visar att ingen algoritm med komplexitet poly(n, 1 ) kan beräkna en -ungefärlig Nash jämvikt i ett tvåspelarspel, där varje spelare har n rena strategier, om inte PPAD på P. Med andra ord, problemet med att beräkna en Nash jämvikt i ett tvåspelarspel inte har en helt polynom-tid approximation system om inte PPAD P. • Vi bevisar att ingen algoritm för att beräkna en Nash jämvikt i ett tvåspelarspel kan ha utjämnad komplexitet poly(n, 1 σ ) under inmatning perturbation av magnitud σ, om inte PPAD till RP. I synnerhet är den utjämnade komplexiteten hos den klassiska Lemke-howson algoritmen inte polynom om inte PPAD på RP. Instrumental till vårt bevis, introducerar vi ett nytt diskret fast punkt problem på en högdimensionell hypergrid med konstant sidlängd, och visa att det kan vara värd för inbäddning av bevisstrukturen i alla PPAD-problem. Vi bevisar en viktig geometrisk lemma för att hitta en diskret fast punkt, ett nytt koncept som definieras på n + 1 hörn av en enhet hyperkub. Denna lemma gör det möjligt för oss att övervinna dimensionalitetens förbannelse i resonemanget om fasta punkter i höga dimensioner. 1 Som en - ungefärlig Nash jämvikt (x, y) i spelet (A, B) blir en c · - ungefärlig Nash jämvikt i spelet (cA, cB) för c > 0. Efter Lipton, Markakis och Mehta [16] normaliserar vi matriserna A och B så att alla deras poster ligger mellan 0 och 1, eller mellan -1 och 1 när vi studerar -ungefär Nash equilibria.
Chen, Deng och Teng REF visade att detta problem inte har polynom utjämnad komplexitet om inte RP=PPAD.
270,652
Computing Nash Equilibria: Approximation and Smoothed Complexity
{'venue': "2006 47th Annual IEEE Symposium on Foundations of Computer Science (FOCS'06)", 'journal': "2006 47th Annual IEEE Symposium on Foundations of Computer Science (FOCS'06)", 'mag_field_of_study': ['Computer Science', 'Mathematics']}
79,605
Blockchain teknologier tar världen med storm. Offentliga blockkedjor, såsom Bitcoin och Ethereum, möjliggör säkra peer-to-peer-program som kryptovaluta eller smarta kontrakt. Deras säkerhet och prestanda studeras väl. Detta dokument gäller nyligen privat blockchain system utformade med starkare säkerhet (trust) antagande och prestanda krav. Dessa system är inriktade på och syftar till att störa tillämpningar som hittills har genomförts utöver databassystem, t.ex. bank-, finans- och handelstillämpningar. Flera plattformar för privata blockkedjor utvecklas aktivt och finjusteras. Det finns dock en tydlig brist på en systematisk ram med vilken olika system kan analyseras och jämföras mot varandra. Ett sådant ramverk kan användas för att bedöma blockkedjors lönsamhet som en annan distribuerad databehandlingsplattform, samtidigt som det hjälper utvecklare att identifiera flaskhalsar och därmed förbättra sina plattformar. I detta dokument beskriver vi först BLOCKBENCH, den första utvärderingsramen för analys av privata blockkedjor. Det fungerar som ett rättvist sätt att jämföra olika plattformar och möjliggör en djupare förståelse för olika val av systemdesign. Alla privata blockchain kan integreras till BLOCKBENCH via enkla API:er och benchmarking mot arbetsbelastningar som är baserade på verkliga och syntetiska smarta kontrakt. BLOCKBENCH mäter övergripande och komponentvis prestanda i form av genomströmning, latens, skalbarhet och feltolerans. Därefter använder vi BLOCKBENCH för att genomföra en omfattande utvärdering av tre stora privata blockkedjor: Ethereum, Parity och Hyperledger Fabric. Resultaten visar att dessa system fortfarande är långt ifrån att ersätta nuvarande databassystem med traditionell databehandling. Dessutom finns det brister i prestanda bland de tre system som tillskrivs designval på olika lager av blockkedjans programvara stack. Vi har släppt BLOCKBENCH för allmänt bruk.
BlockBench Ref är en utvärderingsram för att jämföra olika privata blockkedjesystem.
207,248,129
BLOCKBENCH: A Framework for Analyzing Private Blockchains
{'venue': "SIGMOD '17", 'journal': None, 'mag_field_of_study': ['Computer Science']}
79,606
Vi visar att träning ResNet-50 på ImageNet för 90 epoker kan uppnås på 15 minuter med 1024 Tesla P100 GPUs. Detta gjordes möjligt genom att använda en stor minibatch storlek på 32k. För att upprätthålla noggrannhet med denna stora minibatch storlek, använde vi flera tekniker såsom RMSprop uppvärmning, batch normalisering utan rörliga medelvärden, och en långsam start inlärningshastighet schema. I detta dokument beskrivs också detaljerna i hårdvaran och programvaran i det system som används för att uppnå ovanstående prestanda.
Ytterligare minskning uppnåddes (15 minuter) med 1024 Tesla P100 GPU i REF.
13,729,560
Extremely Large Minibatch SGD: Training ResNet-50 on ImageNet in 15 Minutes
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
79,607
Abstrakt. Vi beskriver en ny algoritm för att generera alla maximal bicliques (dvs. Fullständig bipartit, inte nödvändigtvis inducerade subgrafer) i en graf. Algoritmen är inspirerad av, och är ganska lik, den konsensusmetod som används i propositionslogiken. Vi visar att vissa varianter av algoritmen är helt polynom, och även stegvis polynom. Den totala komplexiteten hos den mest effektiva varianten av algoritmerna som presenteras här är polynom i indatastorleken, och endast linjär i utdatastorleken. Beräkningsförsök visar sin höga effektivitet på slumpmässigt genererade grafer med upp till 2.000 hörn och 20 000 kanter.
al REF presenterar en sekventiell algoritm för MBE med hjälp av metoden "consensus".
12,083,659
CONSENSUS ALGORITHMS FOR THE GENERATION OF ALL MAXIMAL BICLIQUES
{'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
79,608
Med tillkomsten av digitala optiska skannrar omvandlas en hel del pappersbaserade böcker, läroböcker, tidskrifter, artiklar och dokument till en elektronisk version som kan manipuleras av en dator. För detta ändamål, OCR, kort för optiskt teckenigenkänning utvecklades för att översätta skannad grafisk text till redigerbar datortext. OCR är tyvärr fortfarande ofullständigt eftersom det ibland felkänner bokstäver och felaktigt identifierar skannad text, vilket leder till felstavningar och lingvistik fel i OCR-utmatningstexten. I detta dokument föreslås en kontextbaserad felkorrigeringsalgoritm för efterbehandling för att upptäcka och korrigera fel som inte är ord och ord. Den föreslagna algoritmen är baserad på Googles online stavningsförslag som utnyttjar en intern databas som innehåller en enorm samling av termer och ordsekvenser som samlats in från hela webben, bekvämt att föreslå eventuella ersättningar för ord som har felstavats under OCR-processen. Experiment som utförts visade en betydande förbättring av felkorrigeringsgraden för OCR. Framtida forskning kan förbättra den föreslagna algoritmen så mycket att den kan parallelliseras och utföras över multiprocessorplattformar.
Bassil och Alwani REF föreslog en efterbehandlingsalgoritm för att korrigera syntax- och semantiska misstag utifrån deras sammanhang.
9,833,371
OCR Post-Processing Error Correction Algorithm using Google Online Spelling Suggestion
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
79,609
Flera riktmärken för mätning av HPC-systemens minnesprestanda längs dimensionerna av rumslig och temporal minneslokalitet har nyligen föreslagits. Man förstår dock inte mycket om förhållandet mellan dessa riktmärken och verkliga tillämpningar och varandra. Vi föreslår en metod för att producera arkitekturneutrala karakteriseringar av den rumsliga och tidsmässiga lokalitet som visas av applikationernas minnesåtkomstmönster. Vi visar att resultaten följer intuitiva begrepp om lokalitet på flera syntetiska och tillämpningsriktmärken. Vi använder metoden för att analysera minnesprestandakomponenterna i HPC Challenge Benchmarks, Apex-MAP-riktmärket och deras relationer till varandra och andra riktmärken och tillämpningar. Vi visar att denna analys kan användas både för att öka förståelsen av riktmärkena och öka deras användbarhet genom att kartlägga dem, tillsammans med tillämpningar, till ett 2-D utrymme längs axlar av rumslig och timlig lokalitet.
Weinberg m.fl. REF undersöker noggrant minnessystemets prestanda hos riktmärken från HPC Challenge och APEX-MAP-riktmärkessviter och jämför dem med varandra.
7,310,934
Quantifying Locality In The Memory Access Patterns of HPC Applications
{'venue': "ACM/IEEE SC 2005 Conference (SC'05)", 'journal': "ACM/IEEE SC 2005 Conference (SC'05)", 'mag_field_of_study': ['Computer Science']}
79,610
Abstract-Network apparater utför olika funktioner på nätverksflöden och utgör en viktig del av en operatörs nätverk. Normalt, en uppsättning kedjade nätverksfunktioner processa nätverksflöden. Efter utvecklingen av virtualisering av nätverk har även virtualisering av nätverksfunktioner blivit ett intressant ämne. Vi definierar en modell för formalisering av kedjan av nätverksfunktioner med hjälp av ett sammanhangsfritt språk. Vi behandlar distributionsförfrågningar och konstruerar virtuella nätverksfunktionsgrafer som kan kartläggas till nätverket. Vi beskriver kartläggningen som en blandad Integer Quadratically Constricted Program (MIQCP) för att hitta placeringen av nätverksfunktioner och kedja dem tillsammans med tanke på de begränsade nätverksresurser och krav funktioner. Vi har gjort en Pareto-analys för att undersöka möjliga avvägningar mellan olika optimeringsmål.
Mehraghdam et al Ref tar ett något annorlunda tillvägagångssätt där de definierar en modell för formalisering av kätting av vidarebefordran av grafer med hjälp av ett sammanhangsfritt språk.
14,342,027
Specifying and Placing Chains of Virtual Network Functions
{'venue': '2014 IEEE 3rd International Conference on Cloud Networking (CloudNet)', 'journal': '2014 IEEE 3rd International Conference on Cloud Networking (CloudNet)', 'mag_field_of_study': ['Computer Science']}
79,611
Våldsbrottsfrekvensen i San Francisco är ett exempel på en icke-visuell stadsattribut som sannolikt har en stark relation till det visuella utseendet. Vår metod beräknar automatiskt en prediktor som modellerar detta förhållande, så att vi kan förutsäga antalet våldsbrott från gatubilder av staden. Över hela staden uppnår vår prediktor 73% noggrannhet jämfört med marken sanning. (kolumnerna 1 och 2, värmekartor går från rött indikerar en hög våldsbrottsfrekvens till blått indikerar en låg våldsbrottsfrekvens). Vår prediktor modellerar relationen mellan visuella element (kolumn 3), inklusive brandsteg på fasader av byggnader, hög densitet lägenhetsfönster, förfallna bekvämlighet butiksskyltar, och unik tak stil, relaterar till ökad våldsbrottsfrekvens. Vår prediktor identifierar också bilder på gatunivå från San Francisco som har ett osäkert utseende (kolumn 4). Detektioner av visuella element beskrivs i färg. Abstract-Vi presenterar en metod för att automatiskt identifiera och validera prediktiva relationer mellan en stads visuella utseende och dess icke-visuella attribut (t.ex. Brottsstatistik, bostadspriser, befolkningstäthet osv.). Med tanke på en uppsättning bilder på gatunivå och (plats, stad-attribut-värde) par mätningar, identifierar vi först visuella element i de bilder som är diskriminerande av attributet. Vi tränar sedan en prediktor genom att lära oss en uppsättning vikter över dessa element med hjälp av icke-linjär stöd Vector regression. För att utföra denna verksamhet effektivt, implementerar vi en skalbar distribuerad processram som påskyndar den huvudsakliga beräknings flaskhals (extrahera visuella element) av en storleksordning. Denna upptrappning gör att vi kan undersöka en mängd olika stadsattribut i 6 olika amerikanska städer. Vi finner verkligen att det finns ett prediktivt samband mellan visuella element och ett antal stadsattribut som inkluderar våldsbrott, stölder, bostadspriser, befolkningstäthet, trädnärvaro, graffitinärvaro och en uppfattning om faran. Vi testar också mänsklig prestation för att förutsäga stöld baserat på bilder på gatunivå och visar att vår prediktor överträffar denna baslinje med 33% högre noggrannhet i genomsnitt. Slutligen presenterar vi tre prototypapplikationer som använder vårt system för att (1) definiera den visuella gränsen för stadsdelar, (2) generera vandringsriktningar som undviker eller söker exponering för stadens attribut, och (3) validera användarspecificerade visuella element för förutsägelse.
Verket REF undersöker korrelationen mellan bildens visuella utseende och egenskaperna hos den region den tillhör.
17,133,072
City Forensics: Using Visual Elements to Predict Non-Visual City Attributes
{'venue': 'IEEE Transactions on Visualization and Computer Graphics', 'journal': 'IEEE Transactions on Visualization and Computer Graphics', 'mag_field_of_study': ['Medicine', 'Computer Science']}
79,612
Djupa neurala nätverk (DNN) har uppnått genombrott i applikationer med stor provstorlek. När man står inför hög dimension, låg provstorlek (HDLSS) data, såsom fenotyp förutsägelse problem med hjälp av genetiska data i bioinformatik, DNN lider av översittande och högvarians gradienter. I detta dokument föreslår vi en DNN-modell som är skräddarsydd för HDLSS-data, kallad Deep Neural Pursuit (DNP). DNP väljer en delmängd av funktioner med hög dimension för att lindra övermontering och tar genomsnittet över flera dropouts för att beräkna lutningar med låg varians. Som den första DNN-metoden som tillämpas på HDLSS-data, har DNP fördelarna med hög icke-linjäritet, robusthet till hög dimensionalitet, förmåga att lära sig från ett litet antal prover, stabilitet i valet av funktioner, och end-to-end utbildning. Vi demonstrerar dessa fördelar med DNP via empiriska resultat på både syntetiska och verkliga biologiska datauppsättningar.
Sedan, Deep Neural Pursuit (DNP) förbättrade lösningen av funktionsvalet i djupt lärande, med HDLSS dataproblem i beaktande REF.
27,752,592
Deep Neural Networks for High Dimension, Low Sample Size Data
{'venue': 'IJCAI', 'journal': None, 'mag_field_of_study': ['Computer Science']}
79,613
Stora framsteg på senare tid när det gäller problem med vision till språk (V2L) har gjorts genom en kombination av konvolutionella neurala nätverk (CNN) och recurrent neurala nätverk (RNN). Detta tillvägagångssätt representerar inte explicit semantiska koncept på hög nivå, utan syftar snarare till att gå direkt från bildfunktioner till text. I detta dokument undersöker vi om detta direkta tillvägagångssätt lyckas på grund av, eller trots, det faktum att det undviker en uttrycklig representation av information på hög nivå. Vi föreslår en metod för att införliva koncept på hög nivå i den framgångsrika CNN-RNN-metoden, och visar att den uppnår en betydande förbättring av den senaste tekniken i både bildtextning och visuellt svar på frågor. Vi visar också att samma mekanism kan användas för att införa extern semantisk information och att detta ytterligare förbättrar prestandan. Vi uppnår de bästa rapporterade resultaten på både bildtextning och VQA på flera referensdatauppsättningar, och ger en analys av värdet av explicita högnivåkoncept i V2L-problem.
REF presenterar en grundlig studie av hur högnivåkoncepten kan gynna bildtextning och visuella frågor som svarar på uppgifter.
206,593,820
What Value Do Explicit High Level Concepts Have in Vision to Language Problems?
{'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
79,614
Ant Colony Optimization (ACO) är en sorts metaheuristic som har blivit mycket populär för att lösa problem från combinatorial optimering. Lösningar för ett givet problem är konstruerade av en slumpmässig gång på en så kallad byggkurva. Denna slumpmässiga gång kan påverkas av heuristisk information om problemet. I motsats till många framgångsrika tillämpningar är den teoretiska grunden för denna typ av metaheuristisk ganska svag. Teoretiska undersökningar med avseende på ACO-algoritmers runtime-beteende har inletts först nyligen för optimering av pseudo-Booleska funktioner. Vi presenterar den första omfattande rigorösa analysen av en enkel ACO-algoritm för ett kombinatoriskt optimeringsproblem. I våra undersökningar, vi anser den minsta spännvidd träd (MST) problem och undersöka effekten av två konstruktion grafer med avseende på runtime beteende. Valet av konstruktionsgrafen i en ACO-algoritm verkar vara avgörande för att en sådan algoritm ska lyckas. Först tar vi indatagrafen själv som konstruktionsgrafen och analyserar användningen av en konstruktionsprocess som liknar Broders algoritm för att välja ett spännträd jämnt på måfå. Därefter analyseras en mer inkrementell konstruktionsprocess. Det visar sig att denna procedur är överlägsen den Broder-baserade algoritmen och producerar dessutom i ett konstant antal iterationer en MST, om inflytandet av den heuristiska informationen är tillräckligt stor.
Neumann och Witt REF föreslog en ACO för att lösa problemet med minsta spännvidd.
8,206,474
Ant Colony Optimization and the minimum spanning tree problem
{'venue': 'Theor. Comput. Sci.', 'journal': 'Theor. Comput. Sci.', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
79,615
Abstrakt. Avbild-till-klass (I2C) avstånd används först i Naive-Bayes Nearest-Neighbor (NBNN) klassificering för bildklassificering och har framgångsrikt hanterat dataset med stora intra-klass varianser. Detta avstånds prestanda beror dock i hög grad på det stora antalet lokala funktioner i träningssetet och testbilden, som kräver tunga beräkningskostnader för sökning i närmaste granne (NN) i testfasen. Om man använder ett litet antal lokala funktioner för att påskynda NN-sökningen kommer resultatet att bli dåligt. I detta dokument föreslår vi en stor marginalram för att förbättra diskrimineringen av I2C-avstånd, särskilt för ett litet antal lokala särdrag genom att lära sig per-klass Mahalanobis-mått. Våra I2C avstånd är anpassningsbara till olika klasser genom att kombinera med den inlärda metriska för varje klass. Dessa multipla Per-klass mätvärden lärs samtidigt genom att bilda ett konvext optimeringsproblem med de begränsningar som I2C avstånd från varje träningsbild till dess tillhörande klass bör vara mindre än avståndet till andra klasser med stor marginal. En gradient nedstigning metod tillämpas för att effektivt lösa detta optimeringsproblem. För ökad effektivitet och prestanda, antar vi också idén om rumslig pyramid begränsning och lärande I2C distans funktion för att förbättra denna I2C avstånd. Vi visar i experiment att den föreslagna metoden avsevärt kan överträffa den ursprungliga NBNN i flera vanliga bilddatauppsättningar, och våra bästa resultat kan uppnå state-of-the-art prestanda på de flesta datauppsättningar.
Wang m.fl. föreslog en per-klass Mahalanobis avstånd metrisk för att förbättra prestandan för I2C avstånd för ett litet antal lokala funktioner REF.
18,741,138
Image-to-class distance metric learning for image classification
{'venue': 'ECCV', 'journal': None, 'mag_field_of_study': ['Computer Science']}
79,616
Fånga nätverkstrafik med råvaruhårdvara har blivit en genomförbar uppgift: Framsteg i hårdvara och programvara har ökat off-the-shelf hårdvara till prestandanivåer som för några år sedan var domänen för dyra specialutrustning. Dock måste fånga hårdvara fortfarande drivas av en väl fungerande programvara stack för att minimera eller undvika paket förlust. Att förbättra insamlingsstacken av Linux och FreeBSD har varit ett omfattande forskningsämne under de senaste åren. Även om de flesta av de föreslagna förbättringarna har backats upp av utvärderingar har dessa huvudsakligen genomförts på olika hårdvaruplattformar och programvaruversioner, vilket gör det svårt, om inte omöjligt, att göra en jämförande bedömning av de olika tillvägagångssätten. Detta dokument sammanfattar och utvärderar prestandan hos nuvarande paket fångar lösningar baserade på råvaruhårdvara. Vi identifierar flaskhalsar och fallgropar i den uppfångande högen av FreeBSD och Linux, och ger förklaringar till de observerade effekterna. Baserat på våra experiment, ger vi riktlinjer för användare om hur man konfigurerar sina fångstsystem för optimal prestanda och vi ger också tips om felsökning av dålig prestanda. Dessutom föreslår vi förbättringar av operativsystemets infångningsprocesser som minskar paketförluster och utvärderar deras inverkan på infångandet av prestanda.
I tidigare arbete analyserade vi att fånga staplar av FreeBSD och Linux operativsystem, inklusive flera förbättringar som föreslagits av forskare, med avseende på deras fånga prestanda REF.
15,898,869
Comparing and improving current packet capturing solutions based on commodity hardware
{'venue': "IMC '10", 'journal': None, 'mag_field_of_study': ['Computer Science']}
79,617
I detta dokument studerar vi problemet med Target Set Selection som Kempe, Kleinberg och Tardos föreslagit; ett problem som ger en fin ren kombinatorisk formulering för många tillämpningar som uppstår inom ekonomi, sociologi och medicin. Dess ingång är en graf med vertex-trösklar, det sociala nätverket, och målet är att hitta en delmängd av hörn, målet satt, som "aktiverar" ett förspecificerat antal hörn i grafen. Aktivering av en vertex definieras via en så kallad aktiveringsprocess enligt följande: Inledningsvis blir alla hörn i målet aktiva. Därefter vid varje steg i av processen, varje vertex aktiveras om antalet av dess aktiva grannar vid iteration i - 1 överskrider dess tröskel. Aktiveringsprocessen är "monoton" i den meningen att när en vertex är aktiverad, förblir den aktiv för hela processen. Vårt bidrag är följande: Först presenterar vi en algoritm för Target Set Selection som körs i n O(w) tid, för grafer med n hörn och trädbredd begränsas av w. Denna algoritm kan antas till mycket mer allmänna inställningar, inklusive fallet med riktade grafer, viktade kanter, och viktade hörn. Å andra sidan visar vi också att det är högst osannolikt att hitta en n ( ε w) tid algoritm för Target Set Selection, eftersom detta skulle innebära en subexponentiell algoritm för alla problem i SNP. Tillsammans med vårt övre bundna resultat visar detta att den trädbreddsparametern i stor utsträckning avgör komplexiteten i valet av måluppsättning, och bör beaktas vid hanteringen av detta problem i alla scenarier. I den sista delen av tidningen behandlar vi också "non-monotone" varianten av Target Set Selection, och visar att detta problem blir #P-hård på grafer med kantvikter.
I arbetet med REF presenteras en algoritm för val av måluppsättning vars komplexitet bestäms av grafens trädbredd – även om det inte ger några experiment eller bevis för att algoritmen kan skala för stora datauppsättningar.
17,697,922
Treewidth Governs the Complexity of Target Set Selection ∗
{'venue': 'Discret. Optim.', 'journal': 'Discret. Optim.', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
79,618
Abstrakt. I det här dokumentet presenterar vi en metod för att approximera sensorernas värden i ett trådlöst sensornätverk baserat på tidsserieprognoser. Mer specifikt, vår strategi bygger på autoregressiva modeller som byggs vid varje sensor för att förutsäga lokala avläsningar. Noder överför dessa lokala modeller till en diskbänk nod, som använder dem för att förutsäga sensorvärden utan att direkt kommunicera med sensorer. När det behövs, noder skicka information om outlier avläsningar och modelluppdateringar till diskhon. Vi visar att detta tillvägagångssätt dramatiskt kan minska den mängd kommunikation som krävs för att övervaka avläsningarna av alla sensorer i ett nätverk, och visa att vårt tillvägagångssätt ger bevisligen korrekta, användarkontrollerbara felgränser på de förutsedda värdena för varje sensor.
Likaså, autoregressiva modeller används REF för att förutsäga sensoravläsningar ges en fråga vid diskhon.
12,031,961
PAQ: Time Series Forecasting for Approximate Query Answering in Sensor Networks
{'venue': 'EWSN', 'journal': None, 'mag_field_of_study': ['Computer Science']}
79,619
Den senaste tekniken för erkännande av ansikte och ansikte har utvecklats avsevärt genom framväxten av djupt lärande. Mycket djupa neurala nätverk nyligen uppnått stor framgång på allmän objektigenkänning på grund av deras fantastiska inlärningsförmåga. Detta motiverar oss att undersöka deras effektivitet när det gäller ansiktsigenkänning. I detta dokument föreslås två mycket djupa neurala nätverksarkitekturer, kallade DeepID3, för ansiktsigenkänning. Dessa två arkitekturer byggs om från staplade konvolutions- och startlager som föreslås i VGG-nät [10] och GoogLeNet [16] för att göra dem lämpliga för ansiktsigenkänning. Ledansiktsidentifiering-verifiering övervakning signaler läggs till både mellan- och slutfunktion utvinning lager under utbildning. En ensemble av de föreslagna två arkitekturerna uppnår 99,53 % LFW noggrannhet för ansiktsverifiering och 96,0 % LFW rank-1 noggrannhet för ansiktsidentifiering. En ytterligare diskussion om resultatet av LFW:s ansiktsverifiering ges i slutet.
Yi Sun m.fl. byggd "DeepID3" REF, en ansiktsigenkänning modell från staplad konvolution och start lager.
10,987,393
DeepID3: Face Recognition with Very Deep Neural Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
79,620
Grannarnas upptäckt är ett av de första stegen i initieringen av ett trådlöst ad hoc-nätverk. I den här artikeln designar och analyserar vi praktiska algoritmer för nästa upptäckt i trådlösa nätverk. Vi överväger först en ALOHA-liknande granne upptäckt algoritm i ett synkront system, föreslås i ett tidigare arbete. När noder inte har en kollision upptäckt mekanism, visar vi att denna algoritm minskar till den klassiska Coupon Collector problem. Följaktligen visar vi att varje nod upptäcker alla sina n grannar i en förväntad tid lika med ne (ln n+c), för vissa konstant c. När noder har en kollision detektionsmekanism, föreslår vi en algoritm baserad på mottagarens status feedback som ger en ln n förbättring över den ALOHA-liknande algoritmen. Våra algoritmer kräver inte noder för att ha någon uppskattning av antalet grannar. I synnerhet visar vi att inte veta n resulterar i mer än en faktor av två avmattning i algoritmens prestanda. I avsaknad av nodsynkronisering, utvecklar vi asynkrona granne upptäckt algoritmer som bara är en faktor av två långsammare än deras synkrona motsvarigheter. Vi visar att våra algoritmer kan uppnå granne upptäckt trots att tillåta noder att börja utförande vid olika tidpunkter. Dessutom låter våra algoritmer varje nod upptäcka när man ska avsluta grannens upptäcktsfas.
Vasudevan m.fl. omfattande analyserade ALOHA-liknande granne upptäckt algoritmer och föreslog en kollision upptäckt mekanism för att förbättra prestanda i REF.
14,630,454
Neighbor discovery in wireless networks and the coupon collector's problem
{'venue': "MobiCom '09", 'journal': None, 'mag_field_of_study': ['Computer Science']}
79,621
Abstrakt. I detta arbete utvecklas och utvärderas algoritmer för att upptäcka fysiska aktiviteter från data som erhållits med hjälp av fem små biaxial accelerometrar som används samtidigt på olika delar av kroppen. Accelerationsdata samlades in från 20 försökspersoner utan övervakning eller observation av forskare. Försökspersoner ombads utföra en sekvens av vardagliga uppgifter men fick inte veta exakt var eller hur de skulle utföras. Medel, energi, frekvens-domänentropi och korrelation av accelerationsdata beräknades och flera klassiatorer som använde dessa funktioner testades. Beslut träd klassificerare visade den bästa prestandan att känna igen vardagliga aktiviteter med en total noggrannhet på 84%. Resultaten visar att även om vissa aktiviteter är erkända väl med ämnesoberoende utbildningsdata, andra verkar kräva ämnesspecifika utbildningsdata. Resultaten tyder på att flera accelerometrar hjälper i erkännande eftersom samband i acceleration funktionsvärden effektivt kan diskriminera många verksamheter. Med bara två biaxial accelerometrar -thigh och handled - minskade igenkännandet endast något. Detta är det första arbetet för att undersöka prestanda av igenkänningsalgoritmer med flera, trådfria accelerometrar på 20 aktiviteter med hjälp av datauppsättningar kommenterade av försökspersonerna själva.
Forskare i REF använde fem sensortavlor på olika delar av kroppen såsom arm, handled, knä, vrist och midja.
2,791,599
Activity recognition from user-annotated acceleration data
{'venue': 'Pervasive', 'journal': None, 'mag_field_of_study': ['Computer Science']}
79,622
Detta dokument beskriver InfoGAN, en informations-teoretisk förlängning till Generative Adversarial Network som kan lära sig disentrangerade representationer på ett helt oövervakat sätt. InfoGAN är ett generativt kontradiktoriskt nätverk som också maximerar den ömsesidiga informationen mellan en liten delmängd av de latenta variablerna och observationen. Vi får en lägre gräns för det ömsesidiga informationsmålet som kan optimeras effektivt. Specifikt, InfoGAN framgångsrikt löses skriva stilar från siffror former på MNIST dataset, posera från belysning av 3D renderade bilder, och bakgrundssiffror från den centrala siffran på SVHN datasetet. Den upptäcker också visuella begrepp som inkluderar frisyrer, närvaro / frånvaro av glasögon, och känslor på CelebA ansikte dataset. Experiment visar att InfoGAN lär sig tolkningsbara representationer som är konkurrenskraftiga med representationer som lärts av befintliga övervakade metoder.
I samband med GAN visades det också att en maximering av den ömsesidiga informationen mellan latent representation och data kan hjälpa till att lära sig olika representationer REF.
5,002,792
InfoGAN: Interpretable Representation Learning by Information Maximizing Generative Adversarial Nets
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
79,623
Abstrakt. Vi anser att problemet med att syntetisera digitala mönster från deras LTL specifikation. Trots den teoretiska dubbla exponentiellt lägre gränsen för det allmänna fallet, visar vi att för många expressiva specifikationer av hårdvara konstruktioner problemet kan lösas i tid N 3. Vi beskriver bakgrunden till problemet, som en del av det europeiska projektet Prosyd som syftar till att tillhandahålla ett fastighetsbaserat utvecklingsflöde för maskinvarudesign. Inom detta projekt spelar syntesen en viktig roll, först för att kontrollera om en given specifikation är genomförbar, och sedan för att syntetisera en del av det utvecklade systemet. Klassen av LTL-formler beaktas är den av Generalized Reactivity(1) (generalized Streett(1)) formler, dvs formler av formen: där varje pi, Qi är en booleansk kombination av atomiska förslag. Vi anser också att det mer allmänna fallet där varje pi, qi är en godtycklig tidigare LTL formel över atomiska förslag. För denna klass av formler, presenterar vi en N 3 - time algoritm som kontrollerar om en sådan formel är realizable, dvs. det finns en krets som uppfyller formeln under någon uppsättning av ingångar som tillhandahålls av miljön. Om specifikationen är realizable, algoritmen fortsätter att konstruera en automaton som representerar en av de möjliga genomförande kretsar. Autotonen beräknas och presenteras symboliskt.
Piterman m.fl. REF visar att realiserings- och syntesproblemen i GR(1)-specifikationerna kan lösas effektivt på polynomtid.
1,492,637
Synthesis of reactive(1) designs
{'venue': 'In Proc. Verification, Model Checking, and Abstract Interpretation (VMCAI’06', 'journal': None, 'mag_field_of_study': ['Computer Science']}
79,624
Abstract-Vi analyserar konvergensen av gradient-baserade optimeringsalgoritmer som baserar sina uppdateringar på fördröjd stokastisk gradient information. Den huvudsakliga tillämpningen av våra resultat är att gradient-baserade distribuerade optimeringsalgoritmer där en master nod utför parameteruppdateringar medan arbetarnoder beräkna stokastiska gradienter baserat på lokal information parallellt, vilket kan ge upphov till förseningar på grund av asynkroni. Vi tar motivationen från statistiska problem där datans storlek är så stor att den inte får plats på en dator; med tillkomsten av enorma datamängder inom biologi, astronomi och internet är sådana problem nu vanliga. Vårt huvudsakliga bidrag är att visa att för smidiga stokastiska problem är förseningarna asymptotiskt försumbara och vi kan uppnå orderoptimala konvergensresultat. Vi visar n-node arkitekturer vars optimeringsfel i stokastiska problem- trots asynkrona fördröjningar-skalor asymptotiskt som O(1/ ε nT ) efter T iterationer. Denna hastighet är känd för att vara optimal för ett distribuerat system med n noder även i frånvaro av förseningar. Vi kompletterar dessutom våra teoretiska resultat med numeriska experiment på en logistisk regressionsuppgift. Vi fokuserar på stokastisk konvex optimering problem av formen min x.X f (x) för där X på R d är en sluten konvex uppsättning, P är en sannolikhetsfördelning över på, och F (· ; på) är konvexa för alla på, så att f är konvex. Klassiska stokastiska gradientalgoritmer [7, 6] iterativt uppdatera en parameter x(t) på X genom provtagning på P, beräkning g(t) = på F (x(t); och utföra uppdateringen x(t + 1) = Π X (x(t) − α(t)g(t)), där Π X betecknar projektion på uppsättningen X och α(t) R är en stegvis. I detta papper analyserar vi asynkrona gradientmetoder, där i stället för att ta emot aktuell information g(t), förfarandet får ut av datum gradienter g(t − τ (t)) = och F (x(t − τ (t)), där τ (t) är den (potentiellt slumpmässiga) fördröjningen vid tiden t. Det centrala bidraget av detta papper är att utveckla algoritmer som-under naturliga antaganden om funktionerna F i målet (1)-uppnå asymptotiskt optimala konvergenshastigheter för stokastisk konvex optimering trots förseningar. Vår modell av information om fördröjd gradient är särskilt relevant i distribuerade optimeringsscenarier, där en master upprätthåller parametrarna x medan arbetstagare beräknar stokastiska gradienter av målet (1) med hjälp av en lokal delmängd av data. gn(t − 1) Bild 1................................................................ Cyklisk försenad arkitektur. Arbetare beräknar lutningar i parallella, passerar ut-of-date (stokastiska) gradienter g i (t − τ ) = på i (x(t − τ )) för att bemästra. Befälhavaren svarar med aktuella parametrar. Diagram visar parametrar och gradienter som kommuniceras mellan v t och t + n − 1.
REF visar att begränsad fördröjning kan tolereras samtidigt som linjär upptrappning för konvexa optimeringsproblem bibehålls.
901,118
Distributed delayed stochastic optimization
{'venue': '2012 IEEE 51st IEEE Conference on Decision and Control (CDC)', 'journal': '2012 IEEE 51st IEEE Conference on Decision and Control (CDC)', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
79,625
Vi anser den feltoleranta versionen av det sekventiella avsökningsproblemet. En rad identiska celler måste besökas av ett skannande huvud. Huvudet kan endast skilja en ände av linjen från en inre cell, men kan skilja varken den ena änden från den andra eller den ena inre cellen från den andra. När huvudet börjar vid en inre cell, dess första drag är i en riktning som väljs av motståndaren. När huvudet kommer till en inre cell från en granne, har det två möjliga drag: framåt, vilket betyder "gå till den andra grannen", och tillbaka som betyder "återvänd till den föregående grannen". Vid denna punkt motståndaren kan placera ett fel vars effekt är förändringen av rörelseriktningen (gå framåt i stället för bakåt och vice versa). Huvudet är inte medvetet om förekomsten av ett fel. Exekveringskostnaden för en sekventiell avsökningsalgoritm för en linje av längd n i närvaro av de flesta k-fel är det värsta antalet steg som huvudet måste utföra för att skanna hela raden. Det värsta fallet tas över alla motståndares beslut. Vi överväger två scenarier: när längden på linjen är känd för algoritmen och när den är okänd. Vårt mål är att konstruera sekventiella scan algoritmer med minsta möjliga utförandekostnad. Vi löser problemet helt och hållet för den kända linjestorleken. För alla parametrar k och n konstruerar vi en sekventiell scan algoritm, analyserar dess komplexitet och visar en matchande lägre gräns, vilket visar att vår algoritm är optimal. Problemet med feltolerant sekventiell scanning för okänd linjestorlek är delvis löst. För varje parameter k konstruerar vi en sekventiell scan algoritm som utforskar en linje av längd n med kostnad 2kn + o(kn), för godtycklig n. För k = 1 vår algoritm visas vara optimal. Men vi visar också en alternativ algoritm som har kostat högst O(kn) (med en konstant större än 2) för någon n och kostnad kn + o(kn) (som är asymptotiskt optimal) för oändligt många n. Därför är asymptotiska föreställningar av de två algoritmerna, för obundna k och n, ojämförbara.
En annan aspekt av feltolerant undersökning studerades i REF.
16,323,983
Fault-Tolerant Sequential Scan
{'venue': 'Theory of Computing Systems', 'journal': 'Theory of Computing Systems', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
79,626
Abstract-Ett brett spektrum av tillämpningar för trådlösa ad hoc-nät är tidskritiska och ställer stränga krav på kommunikationslatensen. I detta dokument studeras problemet Minimum-Latency Broadcast Scheduling (MLBS) i trådlösa ad hoc-nätverk som representeras av enhet-disk diagram. Detta problem är NP-hård. En trivial lägre gräns på minsta sändningslatens är nätets radie R med avseende på sändningskällan, vilket är det maximala avståndet för alla noder från sändningskällan. Den tidigare mest kända approximationsalgoritmen för MLBS producerar ett sändningsschema med latens på högst 648R. I detta dokument presenterar vi tre gradvis förbättrade approximationsalgoritmer för MLBS. De producerar sändningsscheman med latens högst 24R − 23, 16R − 15 och R + O (log R).
Huang m.fl. I REF föreslogs tre approximationsalgoritmer för att bygga algoritmer för minsta Latency Broadcast Scheduling (MLBS) i trådlösa ad hoc-nätverk.
2,525,637
Minimum-Latency Broadcast Scheduling in Wireless Ad Hoc Networks
{'venue': 'IEEE INFOCOM 2007 - 26th IEEE International Conference on Computer Communications', 'journal': 'IEEE INFOCOM 2007 - 26th IEEE International Conference on Computer Communications', 'mag_field_of_study': ['Computer Science']}
79,627
Sammanfattning av denna webbsida: Täckning och konnektivitet är två viktiga index för utvärdering av prestanda för trådlösa sensornätverk (WSN). I detta dokument fokuserar vi på det uppkopplade målet k-täckning (CTC k ) problemet i heterogena trådlösa sensornätverk (HWSNs). En centraliserad ansluten mål-k-täckningsalgoritm (CCTC k ) och en distribuerad ansluten mål-k-täckningsalgoritm (DCTC k ) föreslås för att generera uppkopplade täckuppsättningar för energieffektiv konnektivitet och täckningsunderhåll. För att vara specifik, våra föreslagna algoritmer syftar till att uppnå minsta anslutna mål k-täckning, där varje mål i den övervakade regionen omfattas av minst k aktiva sensornoder. Dessutom strävar dessa två algoritmer efter att minimera det totala antalet aktiva sensornoder och garantera att varje sensornod är ansluten till en diskbänk, så att den sensed data kan vidarebefordras till diskhon. Våra teoretiska analys- och simuleringsresultat visar att våra föreslagna algoritmer överträffar ett toppmodernt uppkopplat k-täckningsprotokoll för HWSNs.
I dokumentet Ref föreslås en mekanism för att uppnå minsta k-anslutna måltäckning, där varje mål täcks av lägsta k-aktiva sensorer i det detekterade området.
1,631,317
On Connected Target k-Coverage in Heterogeneous Wireless Sensor Networks
{'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science']}
79,628
Intelligenta varelser kan utforska sina miljöer och lära sig användbara färdigheter utan handledning. I detta dokument föreslår vi "Mångfald är allt du behöver" (DIAYN), en metod för att lära sig användbara färdigheter utan en belöningsfunktion. Vår föreslagna metod lär sig färdigheter genom att maximera ett informationsteoretiskt mål med hjälp av en maximal entropipolicy. På en mängd olika simulerade robotiska uppgifter visar vi att detta enkla mål resulterar i en oövervakad utveckling av olika färdigheter, som att gå och hoppa. I ett antal förstärkande referensmiljöer för lärande kan vår metod lära sig en färdighet som löser referensuppgiften trots att vi aldrig får den sanna uppgiftsbelöningen. Vi visar hur förtränade färdigheter kan ge en bra parameter initialisering för nedströmsuppgifter, och kan komponeras hierarkiskt för att lösa komplexa, glesa belöningsuppgifter. Våra resultat tyder på att oövervakad kompetensutveckling kan fungera som en effektiv förutbildningsmekanism för att övervinna utmaningar när det gäller prospektering och dataeffektivitet när det gäller att stärka lärandet.
I ett parallellt arbete används mångfald som ett mått för att lära sig färdigheter utan belöningsfunktioner Eysenbach et al. Hoppa över det.
3,521,071
Diversity is All You Need: Learning Skills without a Reward Function
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
79,629
Design och prissättning av nya produkter är en av de mest kritiska aktiviteterna för ett företag, och det är välkänt att det är viktigt att ta hänsyn till konsumenternas preferenser för designbeslut för att produkter senare ska bli framgångsrika i en konkurrensutsatt miljö (t.ex., Urban och Hauser 1993). Att mäta konsumenternas preferenser bland multiattributalternativ har därför också varit en av de viktigaste frågorna inom marknadsföringsforskningen, och bland många metoder som utvecklats har gemensam analys (Green och Rao 1971) visat sig vara en av de mest använda preferensbaserade teknikerna för att identifiera och utvärdera nya produktkoncept. Dessutom har ett antal sambaserade modeller med särskilt fokus på matematiska programmeringstekniker för optimal produkt (linje) design föreslagits (t.ex., Zufryden 1977, 1982, Green och Krieger 1985, 1987b, 1992, Kohli och Krishnamurti 1987, Kohli och Sukumar 1990, Dobson och Kalish 1988, Balakrishnan och Jacob 1996, Chen och Hausman 2000. Dessa modeller är inriktade på att bestämma optimala produktkoncept med hjälp av konsumenternas idiosynkratiska eller segmentnivå part-worth preferensfunktioner som tidigare uppskattats inom ett gemensamt ramverk. Nyligen har Balakrishnan och Jacob (1996) föreslagit användning av Genetiska Algoritmer (GA) för att lösa problemet med att identifiera en andel maximerar single product design med hjälp av gemensamma data. I detta dokument följer vi Balakrishnan och Jacobs idé och använder och utvärderar GA-metoden med avseende på problemet med optimal produktlinjedesign. Liknande tillvägagångssätt som Kohli och Sukumar (1990) och Nair et al. (1995) Produktlinjerna är konstruerade direkt från delvärden data som erhållits genom samanalys, som kan karakteriseras som en enstegsmetod för produktlinjedesign. Däremot skulle en tvåstegsmetod börja med att först minska den totala uppsättningen genomförbara produktprofiler till en mindre uppsättning lovande poster (referensuppsättning av kandidatposter) från vilka de produkter som utgör en produktlinje väljs i ett andra steg. Tvåstegsstrategier eller partiella modeller för antingen den första eller andra etappen i detta sammanhang har föreslagits av Green och Krieger (1985, 1987a, 1987b, 1989, McBride och Zufryden (1988), Kalish (1988, 1993) och, på senare tid, av Chen och Hausman (2000). Med det enda undantaget för Chen och Hausmans (2000) probabilistiska modell har alla som bidragit till litteraturen om sambaserad produktlinjedesign använt en deterministisk, förstahandsmodell av idiosynkratiska preferenser. Följaktligen antas en konsument välja mellan sitt val och ställa in produkten med största upplevda nytta med säkerhet. Den första valregeln verkar dock vara ett antagande som är alltför stelbent för många produktkategorier och enskilda valsituationer, eftersom analytikern ofta inte kommer att kunna kontrollera alla relevanta variabler som påverkar konsumenternas beteende (t.ex. situationsfaktorer). Därför införlivar vi, i samförstånd med Chen och Hausman (2000), en probabilistisk valregel för att ge en mer flexibel representation av konsumentbeslutsprocessen och utgå från segmentspecifika gemensamma modeller av den villkorliga multinomala logittypen. Att gynna den multinomiska logitmodellen innebär inte att man förkastar den utbredda regeln om maxanvändning, eftersom MNL inkluderar möjligheten att härma denna förstahandsregel. Vi anser vidare att vinst är ett företags ekonomiska kriterium för att utvärdera beslut och införa fasta och rörliga kostnader för varje produktprofil. Den föreslagna metoden är dock tillräckligt flexibel för att användas för andra mål som marknadsandel (liksom för alla andra probabilistiska valregler). Denna modell flexibilitet tillhandahålls av den genomförda Genetic Algorithm som den underliggande lösaren för den resulterande icke-linjära heltal programmering problem. Genetiska algoritmer använder endast objektiv funktionsinformation (i detta sammanhang finns detta arbetsdokument tillgängligt i Review of Marketing Science Working Papers: http://services.bepress.com/roms/vol1/iss4/paper4 om förväntade vinster av genomförbara produktlinjelösningar) och kan enkelt justeras till olika mål utan att det behövs större algoritmiska modifieringar. För att bedöma prestandan hos GA-metoden för produktlinjedesignproblemen använder vi känslighetsanalys och Monte Carlo-simulering. Känslighetsanalys utförs för att studera prestandan hos den genetiska algoritmen w.r.t. Varierande GA-parametervärden (populationsstorlek, crossover-sannolikhet, mutationsfrekvens) och finjustera dessa värden för att ge nära optimala lösningar. Baserat på mer än 1500 känslighet körs tillämpas på olika problemstorlekar som sträcker sig från 12.650 till 10.586.80 möjliga lösningar produktlinje kandidat, kan vi rekommendera: a) som förväntat, att en större problemstorlek åtföljas av en större befolkningsstorlek, med en minsta popstorlek på 130 för små problem och en minsta popsize på 250 för stora problem, b) en crossover sannolikhet på minst 0,9 och c) en oväntat hög mutationsfrekvens på 0,05 för små / medelstora problem och en mutationsfrekvens i storleksordningen 0,01 för stora problemstorlekar. Efter resultaten av känslighetsanalysen utvärderade vi GA-prestandan för en stor uppsättning systematiskt varierande marknadsscenarier och tillhörande problemstorlekar. Vi skapade problem med hjälp av en 4-faktoriell experimentell design som varierade med antalet attribut, antal nivåer i varje attribut, antal objekt som ska införas av en ny säljare och antal konkurrerande företag utom den nya säljaren. Resultaten från Monte Carlo-studien med totalt 276 datamängder som analyserades visar att GA fungerar effektivt både när det gäller att tillhandahålla nära optimal produktlinjelösning och CPU-tid. Särskilt a) den sämsta prestandakvoten för GA som observerats i en enda körning var 96,66 %, vilket tyder på att vinsten för den bästa produktlinjelösningen som hittats av GA aldrig var mindre än 96,66 % av vinsten för den optimala produktlinjen, b) träffkvoten för att identifiera den optimala lösningen var 84,78 % (234 av 276 fall) och c) det tog högst 30 sekunder för GA att konvergera. Med tanke på alternativet Genetisk Algoritmer för upprepade körningar med (lite) ändrade parameterinställningar och/eller olika initialpopulationer (i motsats till många andra heuristiker) ytterligare förbättrar möjligheterna att hitta den optimala lösningen. A Probabilistic One-Step Approach to the Optimal Product Line Design Long Abstract: Designa och prissätta nya produkter är en av de mest kritiska aktiviteterna för ett företag, och det är välkänt att det är viktigt att ta hänsyn till konsumenternas preferenser för designbeslut för att produkter senare ska bli framgångsrika i en konkurrenskraftig miljö (t.ex., Urban och Hauser 1993). Att mäta konsumenternas preferenser bland multiattributalternativ har därför också varit en av de viktigaste frågorna inom marknadsföringsforskningen, och bland många metoder som utvecklats har gemensam analys (Green och Rao 1971) visat sig vara en av de mest använda preferensbaserade teknikerna för att identifiera och utvärdera nya produktkoncept. Dessutom har ett antal sambaserade modeller med särskilt fokus på matematiska programmeringstekniker för optimal produkt (linje) design föreslagits (t.ex., Zufryden 1977, 1982, Green och Krieger 1985, 1987b, 1992, Kohli och Krishnamurti 1987, Kohli och Sukumar 1990, Dobson och Kalish 1988, Balakrishnan och Jacob 1996, Chen och Hausman 2000. Dessa modeller är inriktade på att bestämma optimala produktkoncept med hjälp av konsumenternas idiosynkratiska eller segmentnivå part-worth preferensfunktioner som tidigare uppskattats inom ett gemensamt ramverk. Nyligen har Balakrishnan och Jacob (1996) föreslagit användning av Genetiska Algoritmer (GA) för att lösa problemet med att identifiera en andel maximerar single product design med hjälp av gemensamma data. I detta dokument följer vi Balakrishnan och Jacobs idé och använder och utvärderar GA-metoden med avseende på problemet med optimal produktlinjedesign. Liknande tillvägagångssätt som Kohli och Sukumar (1990) och Nair et al. 1995, produktlinjer är konstruerade direkt från del-worths 2 Papers, Vol. Ett, ärs. Rådets förordning (EEG) nr 4064/89 av den 19 december 1989 om tillämpningsföreskrifter för rådets förordning (EEG) nr 1408/71 om tillämpningen av systemen för social trygghet när anställda, egenföretagare eller deras familjer flyttar inom gemenskapen, samt av förordning (EEG) nr 1408/71 av den 14 juni 1971 om tillämpningen av systemen för social trygghet när anställda, egenföretagare eller deras familjer flyttar inom gemenskapen, samt av förordning (EEG) nr 1408/71 av den 14 juni 1971 om tillämpningen av systemen för social trygghet när anställda, egenföretagare eller deras familjer flyttar inom gemenskapen, samt av förordning (EEG) nr 1408/71 av den 17 juni 1971 om tillämpningen av systemen för social trygghet när anställda, egenföretagare eller deras familjer flyttar inom gemenskapen, samt av förordning (EEG) nr 1408/71 av den 17 juni 1971 om tillämpningen av systemen för social trygghet när anställda, egenföretagare eller deras familjer flyttar inom gemenskapen, samt av förordning (EEG) nr 1408/71, förordning (EEG) nr 1408/71, förordning (EEG) nr 1408/71, förordning (EEG) nr 1408/71, förordning (EEG) nr 1408/71, förordning (EEG) nr 1408/71, förordning (EEG) nr 1408/71, förordning (EEG) nr 1408/71, förordning (EEG) nr 1408/71, förordning (EEG) nr 1408/71, förordning (EEG) nr 1408/71, förordning (EEG) nr 1408/71, förordning (EEG) nr 1408/71 av av den 174/72 av den 174/72 av den 174/72 av den 174/72 av den 18, 4 http://services.bepress.com/roms/vol1/iss4/paper4 data som erhålls genom gemensam analys, som kan karakteriseras som en enstegsmetod för produktlinjedesign. Däremot skulle en tvåstegsmetod börja med att först minska den totala uppsättningen genomförbara produktprofiler till en mindre uppsättning lovande poster (referensuppsättning av kandidatposter) från vilka de produkter som utgör en produktlinje väljs i ett andra steg. Tvåstegsstrategier eller partiella modeller för antingen den första eller andra etappen i detta sammanhang har föreslagits av Green och Krieger (1985, 1987a, 1987b, 1989), McBride och Zufryden (1988), Kalish (1988, 1993) och, på senare tid, av Chen och Hausman (2000). Med det enda undantaget för Chen och Hausmans (2000) probabilistiska modell har alla som bidragit till litteraturen om sambaserad produktlinjedesign använt en deterministisk, förstahandsmodell av idiosynkratiska preferenser. Följaktligen antas en konsument välja mellan sitt val och ställa in produkten med största upplevda nytta med säkerhet. Den första valregeln verkar dock vara ett antagande som är alltför stelbent för många produktkategorier och enskilda valsituationer, eftersom analytikern ofta inte kommer att kunna kontrollera alla relevanta variabler som påverkar konsumenternas beteende (t.ex. situationsfaktorer). Därför införlivar vi, i samförstånd med Chen och Hausman (2000), en probabilistisk valregel för att ge en mer flexibel representation av konsumentbeslutsprocessen och utgå från segmentspecifika gemensamma modeller av den villkorliga multinomala logittypen. Att gynna den multinomiska logitmodellen innebär inte att man förkastar den utbredda regeln om maxanvändning, eftersom MNL inkluderar möjligheten att härma denna förstahandsregel. Vi anser vidare att vinst är ett företags ekonomiska kriterium för att utvärdera beslut och införa fasta och rörliga kostnader för varje produktprofil. Den föreslagna metoden är dock tillräckligt flexibel för att användas för andra mål som marknadsandel (liksom för alla andra probabilistiska För att bedöma prestandan hos GA-metoden för produktlinjedesignproblem använder vi känslighetsanalys och Monte Carlo-simulering. Känslighetsanalys utförs för att studera prestandan hos den genetiska algoritmen w.r.t. Varierande GA-parametervärden (populationsstorlek, crossover-sannolikhet, mutationsfrekvens) och finjustera dessa värden för att ge nära optimala lösningar. Baserat på mer än 1500 känslighet körs tillämpas på olika problemstorlekar som sträcker sig från 12.650 till 10.586.80 möjliga lösningar produktlinje kandidat, kan vi rekommendera: a) som förväntat, att en större problemstorlek åtföljas av en större befolkningsstorlek, med en minsta popstorlek på 130 för små problem och en minsta popsize på 250 för stora problem, b) en crossover sannolikhet på minst 0,9 och c) en oväntat hög mutationsfrekvens på 0,05 för små / medelstora problem och en mutationsfrekvens i storleksordningen 0,01 för stora problemstorlekar. Efter resultaten av känslighetsanalysen utvärderade vi GA-prestandan för en stor uppsättning systematiskt varierande marknadsscenarier och tillhörande problemstorlekar. Vi skapade problem med hjälp av en 4-faktoriell experimentell design som varierade med antalet attribut, antal nivåer i varje attribut, antal objekt som ska införas av en ny säljare och antal konkurrerande företag utom den nya säljaren. Resultaten från Monte Carlo-studien med totalt 276 datamängder som analyserades visar att GA fungerar effektivt både när det gäller att tillhandahålla nära optimal produktlinjelösning och CPU-tid. Särskilt a) det sämsta prestandaförhållandet för GA Papers, Vol. Ett, ärs. Rådets förordning (EEG) nr 4064/89 av den 19 december 1989 om tillämpningsföreskrifter för rådets förordning (EEG) nr 1408/71 om tillämpningen av systemen för social trygghet när anställda, egenföretagare eller deras familjer flyttar inom gemenskapen, samt av förordning (EEG) nr 1408/71 av den 14 juni 1971 om tillämpningen av systemen för social trygghet när anställda, egenföretagare eller deras familjer flyttar inom gemenskapen, samt av förordning (EEG) nr 1408/71 av den 14 juni 1971 om tillämpningen av systemen för social trygghet när anställda, egenföretagare eller deras familjer flyttar inom gemenskapen, samt av förordning (EEG) nr 1408/71 av den 17 juni 1971 om tillämpningen av systemen för social trygghet när anställda, egenföretagare eller deras familjer flyttar inom gemenskapen, samt av förordning (EEG) nr 1408/71 av den 17 juni 1971 om tillämpningen av systemen för social trygghet när anställda, egenföretagare eller deras familjer flyttar inom gemenskapen, samt av förordning (EEG) nr 1408/71, förordning (EEG) nr 1408/71, förordning (EEG) nr 1408/71, förordning (EEG) nr 1408/71, förordning (EEG) nr 1408/71, förordning (EEG) nr 1408/71, förordning (EEG) nr 1408/71, förordning (EEG) nr 1408/71, förordning (EEG) nr 1408/71, förordning (EEG) nr 1408/71, förordning (EEG) nr 1408/71, förordning (EEG) nr 1408/71, förordning (EEG) nr 1408/71 av av den 174/72 av den 174/72 av den 174/72 av den 174/72 av den 18, 4 http://services.bepress.com/roms/vol1/iss4/paper4 som observerades i en enda körning var 96,66 %, vilket tyder på att vinsten för den bästa produktlinjelösning som hittades av GA aldrig var mindre än 96,66 % av vinsten för den optimala produktlinjen, b) träffkvoten för att identifiera den optimala lösningen var 84,78 % (234 av 276 fall) och c) det tog högst 30 sekunder för GA att konvergera. Med tanke på alternativet Genetisk Algoritmer för upprepade körningar med (lite) ändrade parameterinställningar och/eller olika initialpopulationer (i motsats till många andra heuristiker) ytterligare förbättrar möjligheterna att hitta den optimala lösningen.
I allmänhet är ett steg tillvägagångssätt mer att föredra, eftersom det mellanliggande steget att räkna upp verktyg och vinster för ett stort antal referensuppsättningar kan elimineras REF.
54,720,362
A Probabilistic One-Step Approach to the Optimal Product Line Design Problem Using Conjoint and Cost Data
{'venue': 'SSRN Electronic Journal', 'journal': 'SSRN Electronic Journal', 'mag_field_of_study': ['Economics']}
79,630
De flesta tidigare föreslagna gruvmetoder på dataströmmar gör ett orealistiskt antagande att "märkt" dataström är lätt tillgänglig och kan brytas när som helst. I de flesta verkliga problem är dock märkta dataflöden sällan omedelbart tillgängliga. På grund av denna anledning uppdateras modeller regelbundet, som vanligtvis synkroniseras med data tillgänglighet schema. Det finns flera oönskade konsekvenser av denna "passiva periodiska uppdatering". I detta dokument föreslår vi ett nytt koncept för efterfrågedriven aktiv datautvinning. Den uppskattar felet i modellen på den nya dataströmmen utan att känna till de riktiga klassetiketterna. När betydligt högre fel misstänks, undersöker man den verkliga klassens etiketter för ett valt antal exempel i den senaste dataströmmen för att verifiera det misstänkta högre felet. Det senaste arbetet med gruvdataströmmar koncentreras på att fånga upp trender och mönster som utvecklas i tiden med "märkta" data. En viktig aspekt som ofta ignoreras eller antas orealistiskt är dock tillgången till "klassetiketter" av dataströmmar. De flesta algoritmer gör ett implicit och opraktiskt antagande att märkta data är lätt tillgängliga. De flesta verk fokuserar på hur man upptäcker förändringar i mönster och hur man uppdaterar modellen för att återspegla sådana förändringar när det finns "märkta" instanser att lära sig. För många tillämpningar är dock klassetiketterna inte "omedelbara" om inte särskilda insatser och betydande kostnader läggs på att undersöka dessa etiketter direkt. Om de riktiga klassetiketterna var lätt tillgängliga skulle datautvinningsmodellerna inte vara särskilt användbara - vi skulle bara kunna vänta. Vid upptäckt av kreditkortsbedrägerier vet vi vanligtvis inte om en viss transaktion är ett bedrägeri förrän minst en månad senare efter det att kontoinnehavaren får och granskar den månatliga redovisningen. På grund av dessa fakta, de flesta aktuella program få klass etiketter och uppdatera befintliga modeller i förinställda frekvens, vanligtvis synkroniseras med data uppdatera. Det passiva lägets effektivitet dikteras av vissa "statuerliga och statiska begränsningar", men inte av "efterfrågan" på en bättre modell med lägre förlust. Ett sådant passivt läge för mindataströmmar resulterar i ett antal potentiella oönskade konsekvenser som motsäger begreppen "streaming" och "kontinuerlig". För det första kan det leda till större förluster på grund av försummade mönsterdrifter. Om antingen konceptet eller datadistributionen snabbt glider i en oplanerad takt som statuära begränsningar inte kommer ikapp, kommer modellerna sannolikt att vara föråldrade på dataströmmen och viktiga affärsmöjligheter kan missas. För det andra kan den ha en onödig modell som fräschar upp sig. Om det inte sker någon begreppsmässig eller fördelningsmässig förändring är periodiskt passivt förnyande och omvalidering ett resursslöseri. Vi föreslår en efterfrågedriven aktiv ström data mining process som löser problemen med passiv ström data mining. Sammanfattningsvis har vårt specifika genomförande av aktiv ström data mining tre enkla steg: 1. Upptäck potentiella förändringar av dataströmmar "i farten" när den befintliga modellen klassificerar kontinuerliga dataströmmar. Detektionsprocessen använder inte eller känner inte till några riktiga etiketter på strömmen. En av förändringsdetekteringsmetoderna är en "verifiering" av den faktiska förlust- eller felfrekvensen för modellen på den nya dataströmmen. 2. Utgångspunkten är följande: Om den uppskattade förlust- eller felfrekvensen för modellen i steg 1 är mycket högre än ett applikationsspecifikt tolerabelt maximum, väljer vi ett litet antal dataposter i den nya dataströmmen för att undersöka deras riktiga klassetiketter. Med dessa riktiga klassetiketter uppskattar vi statistiskt den verkliga förlusten av modellen. 3. Vad är det som händer? Om den statistiskt uppskattade förlusten i steg 2 verifieras vara högre än det tolerabla maximum, rekonstruerar vi den gamla modellen genom att använda samma riktiga klassetiketter som användes i föregående steg. I detta dokument koncentrerar vi oss på de två första stegen. Vårt särskilda genomförande omfattar klassificering av träd. Vi diskuterar först olika typer av möjliga mönsterförändringar i dataströmmen, sedan föreslår vi några statistik för att övervaka i
Det mest närbesläktade arbetet med detta dokument återfinns i REF.
1,232,229
Active Mining of Data Streams
{'venue': 'Proceedings of the 2004 SIAM International Conference on Data Mining', 'journal': 'Proceedings of the 2004 SIAM International Conference on Data Mining', 'mag_field_of_study': ['Computer Science']}
79,631
Nyligen, avancerade cyberattacker, som består av en sekvens av steg som involverar många sårbarheter och värdar, äventyrar säkerheten för många väl skyddade företag. Detta har lett till lösningar som allmänt övervakar systemaktiviteter i varje värd (stora data) som en serie av händelser, och söka efter anomalier (onormala beteenden) för att triagera riskfyllda händelser. Eftersom kampen mot dessa attacker är ett tidskritiskt uppdrag för att förhindra ytterligare skador, står dessa lösningar inför utmaningar när det gäller att införliva expertkunskap för att i god tid upptäcka anomalier över de storskaliga härkomstuppgifterna. För att ta itu med dessa utmaningar föreslår vi ett nytt ström-baserat frågesystem som tar som ingång, en realtid händelse feed aggregerad från flera värdar i ett företag, och ger en anomali frågemotor som frågar händelsen feed för att identifiera onormala beteenden baserat på angivna avvikelser. För att underlätta uppgiften att uttrycka anomalier baserat på expertkunskap, tillhandahåller vårt system ett domänspecifikt frågespråk, SAQL, som tillåter analytiker att uttrycka modeller för (1) regelbaserade anomalier, (2) tidsserier anomalier, (3) invariant-baserade anomalier, och (4) outlier-baserade anomalier. Vi distribuerade vårt system i NEC Labs America bestående av 150 värdar och utvärderade det med hjälp av 1,1 TB av verkliga systemövervakningsdata (innehållande 3,3 miljarder händelser). Våra utvärderingar av en bred uppsättning anfallsbeteenden och micro-benchmarks visar att vårt system har en låg detektionslatens (<2s) och en hög systemgenomströmning (110 000 händelser/s; stöd 4000 värdar), och är mer effektiv i minnesanvändning än de befintliga strömbaserade komplexa händelsebehandlingssystem.
Gao m.fl. REF utnyttjade komplexa processplattformar för händelser och utformade ett domänspecifikt frågespråk, SAQL för att analysera storskaliga, strömmande data.
49,409,636
SAQL: A Stream-based Query System for Real-Time Abnormal System Behavior Detection
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
79,632
Abstract-Wireless sensornätverk övervakar dynamiska miljöer som förändras snabbt över tid. Detta dynamiska beteende orsakas antingen av externa faktorer eller initieras av systemdesignerna själva. För att anpassa sig till sådana förhållanden använder sensornätverk ofta maskininlärningsteknik för att eliminera behovet av onödig omdesign. Maskininlärning inspirerar också många praktiska lösningar som maximerar resursutnyttjandet och förlänger nätverkets livslängd. I denna uppsats presenterar vi en omfattande litteraturgenomgång under perioden 2002-2013 av maskininlärningsmetoder som användes för att ta itu med vanliga problem i trådlösa sensornätverk (WSN). Fördelarna och nackdelarna med varje föreslagen algoritm utvärderas mot motsvarande problem. Vi ger också en jämförande guide för att hjälpa WSN-designers att utveckla lämpliga maskininlärningslösningar för sina specifika tillämpningsutmaningar.
Arbetet i REF av Alsheikh et al. ger en kartläggning av maskininlärningsmetoder för trådlösa sensornätverk (WSN).
8,475,881
Machine Learning in Wireless Sensor Networks: Algorithms, Strategies, and Applications
{'venue': 'IEEE Communications Surveys&Tutorials, vol. 16, no. 4, pp. 1996-2018, Fourthquarter 2014', 'journal': None, 'mag_field_of_study': ['Computer Science']}
79,633
På grund av hög manöverförmåga, flexibel driftsättning och låga kostnader har obemannade luftfartyg (UAV) på senare tid väckt stort intresse för att bistå trådlös kommunikation. I detta dokument behandlas ett trådlöst kommunikationssystem med multi-UAV-funktion, där flera UAV-monterade flygbasstationer används för att betjäna en grupp användare på marken. För att uppnå rättvisa prestanda bland användare maximerar vi den minsta genomströmningen över alla markanvändare i nedlänkskommunikationen genom att optimera fleranvändarkommunikationens schemaläggning och association tillsammans med UAV:s bana och effektstyrning. Det formulerade problemet är ett blandat heltal nonconvex optimering problem som är utmanande att lösa. Som sådan föreslår vi en effektiv iterativ algoritm för att lösa det genom att tillämpa blockkoordinaten nedstigning och successiv konvex optimering tekniker. Specifikt, användaren schemaläggning och association, UAV bana och sändningskraft är alternativt optimerade i varje iteration. I synnerhet för den icke konvexa UAV bana och överföra problem effektoptimering, två ungefärliga konvexa optimeringsproblem är lösta, respektive. Vi visar vidare att den föreslagna algoritmen garanterat kommer att konvergera. För att påskynda algoritmkonvergensen och uppnå god genomströmning föreslås också ett system med låg komplexitet och systematisk initiering för UAV-banans utformning baserat på den enkla cirkulära banan och cirkelpackningsplanen. Omfattande simuleringsresultat tillhandahålls för att visa de betydande genomströmningsvinsterna med den föreslagna konstruktionen jämfört med andra referenssystem.
Med detta sagt, författare av REF gemensamt överväga UAV bana och överföra energioptimering problem för att upprätthålla rättvisa bland användare.
3,516,365
Joint Trajectory and Communication Design for Multi-UAV Enabled Wireless Networks
{'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
79,634
Dataströmsmodellen har nyligen uppmärksammats på dess tillämplighet på många typer av data, inklusive telefonsamtal, webbdokument och klickströmmar. För analys av sådana data är förmågan att bearbeta data i ett enda pass, eller ett litet antal passer, medan du använder lite minne, avgörande. Vi beskriver en sådan streamingalgoritm som effektivt samlar stora dataströmmar. Vi tillhandahåller också empiriska bevis för algoritmens prestanda på syntetiska och verkliga dataströmmar.
Klusterande dataströmmar blir en av de viktiga teknikerna för att analysera dataströmmar REF.
7,665,535
Clustering Data Streams: Theory and Practice
{'venue': 'IEEE Trans. Knowl. Data Eng.', 'journal': None, 'mag_field_of_study': ['Computer Science']}
79,635
Abstract-Det är en extrem utmaning att producera en icke-linjär SVM klassificering på mycket stor skala data. I den här artikeln beskriver vi en ny P-packSVM-algoritm som kan lösa problemet med optimering av Support Vector Machine (SVM) med en godtycklig kärna. Denna algoritm omfattar den mest kända stokastisk lutning nedstigning metod för att optimera det primära målet, och har / beroende i komplexitet för att få en lösning för optimering fel. Algoritmen kan mycket parallelliseras med en speciell förpackningsstrategi, och upplever sub-linjär speed-up med hundratals processorer. Vi visar att P-packSVM uppnår noggrannhet tillräckligt nära den hos SVM-ljus, och överväldigar den toppmoderna parallella SVM-tränaren PSVM i både noggrannhet och effektivitet. Som en illustration, vår algoritm tränar CCAT dataset med 800k prover på 13 minuter och 95% noggrannhet, medan PSVM behöver 5 timmar men bara har 92% noggrannhet. Vi visar äntligen kapaciteten hos P-packSVM på 8 miljoner träningsprover.
P-packSVM REF ) parallelliserar den stokastiska lutning nedstigning lösaren av SVM som direkt optimerar det primära målet med hjälp av en distribuerad hash tabell och sofistikerad data förpackningsstrategi.
14,683,409
P-packSVM: Parallel Primal grAdient desCent Kernel SVM
{'venue': '2009 Ninth IEEE International Conference on Data Mining', 'journal': '2009 Ninth IEEE International Conference on Data Mining', 'mag_field_of_study': ['Computer Science']}
79,636
Cyberfysiska system förlitar sig i allt högre grad på dynamiskt anpassningsbara program för att reagera på förändringar i sin fysiska miljö; exempel inkluderar ekosystemövervakning och katastrofhjälpssystem. Dessa system betraktas som högsäkerhet eftersom fel under genomförandet kan leda till skador, förluster av människoliv, miljöpåverkan och/eller ekonomiska förluster. För att underlätta utveckling och verifiering av dynamiskt adaptiva system separerar vi funktionella problem från adaptiva problem. Specifikt modellerar vi ett dynamiskt adaptivt program som en samling av (icke-adaptiva) steady-state-program och en uppsättning anpassningar som realiserar övergångar bland steady-state-program som svar på miljöförändringar. Vi använder Linear Temporal Logic (LTL) för att ange egenskaper hos de icke-adaptiva delarna av systemet, och vi använder A-LTL (en adapt-operator förlängning till LTL) för att kortfattat specificera egenskaper som håller under anpassningsprocessen. Modellkontroll erbjuder ett attraktivt tillvägagångssätt för att automatiskt analysera modeller för anslutning till formella egenskaper och därmed ge garantier. För närvarande kan dock modellkontroller inte verifiera egenskaper som anges med hjälp av A-LTL. Eftersom antalet stationära program och anpassningar ökar kan dessutom kontrollkostnaderna (i fråga om rum och tid) bli otympliga. För att ta itu med dessa frågor föreslår vi en modulär modellkontrollmetod för att kontrollera att en formell modell av ett adaptivt program uppfyller kraven i LTL respektive A-LTL.
REF presenterade också en modulär A-LTL (en förlängning av Linjär Temporal Logic med Adapt-operatörer) modellkontroll för att kontrollera anpassningsegenskaperna hos sådana system.
13,273,680
Modular verification of dynamically adaptive systems
{'venue': "AOSD '09", 'journal': None, 'mag_field_of_study': ['Computer Science']}
79,637
Implicit feedback (t.ex. klick, uppehållstider, etc.) är en riklig källa till data i människa-interaktiva system. Även om implicit feedback har många fördelar (t.ex., är det billigt att samla in, användare centrerad, och i rätt tid), är dess inneboende fördomar ett viktigt hinder för dess effektiva användning. Positionsfördel i sökrankning påverkar till exempel starkt hur många klick ett resultat får, så att direkt användning av klickdata som en träningssignal i Learning-to-Rank (LTR) metoder ger suboptimala resultat. För att övervinna detta bias problem presenterar vi en kontrafaktisk inferensram som ger den teoretiska grunden för opartisk LTR via empirisk riskminimering trots partiska data. Med hjälp av detta ramverk, vi härleda en Propensity-Weighted Ranking SVM för diskriminerande lärande från implicita feedback, där klickmodeller ta rollen av benägenhet uppskattning. I motsats till de flesta konventionella metoder för att avbiasing data med hjälp av klickmodeller, möjliggör detta utbildning av rankingfunktioner även i inställningar där frågor inte upprepas. Utöver det teoretiska stödet visar vi empiriskt att den föreslagna inlärningsmetoden är mycket effektiv när det gäller att hantera förutfattade meningar, att den är robust för felspecifikation av buller och benägenhetsmodell och att den skalar sig effektivt. Vi visar också den verkliga tillämpligheten av vår strategi på en operativ sökmotor, där det avsevärt förbättrar hämtning prestanda.
Joachims m.fl. REF presenterar en kontrafaktisk slutledningsram med en principiell teoretisk grund.
300,418
Unbiased Learning-to-Rank with Biased Feedback
{'venue': "WSDM '17", 'journal': None, 'mag_field_of_study': ['Computer Science']}
79,638
Abstrakt. Personåteridentifiering (re-ID) innebär unika utmaningar för oövervakad domänanpassning (UDA) i att klasser i käll- och måluppsättningarna (domäner) är helt olika och att bildvariationer till stor del orsakas av kameror. Med tanke på en "källkodsutbildningsset" och en omärkt utbildningsset syftar vi till att förbättra generaliseringsförmågan hos nya ID-modeller på måltestssetet. I detta syfte introducerar vi en Hetero-Hoomogeneous Learning (HHL) metod. Vår metod upprätthåller två egenskaper samtidigt: 1) kamerainvariant, inlärd via positiva par som bildas av omärkta målbilder och deras kamerastil överförd motsvarigheter; 2) domänuppkoppling, genom att betrakta käll / målbilder som negativa matchande par till målet / källbilder. Den första egenskapen implementeras genom homogen inlärning eftersom utbildning par samlas in från samma domän. Den andra egenskapen uppnås genom heterogen inlärning eftersom vi prov utbildning par från både källan och måldomäner. På Market-1501, DukeMTMC-reID och CUHK03 visar vi att de två fastigheterna bidrar oumbärligt och att mycket konkurrenskraftig re-ID UDA-noggrannhet uppnås. Koden finns på https://github.com/zhunzhong07/HHL
HHL REF-inlärda kamerainvarianta funktioner med kamerastil överförda bilder.
52,966,769
Generalizing a Person Retrieval Model Hetero- and Homogeneously
{'venue': 'ECCV', 'journal': None, 'mag_field_of_study': ['Computer Science']}
79,639
Vi presenterar en förbättrad trestegsrörledning för problemet med stereomatchning och introducerar flera nyheter i varje steg. Vi föreslår en ny motorvägsnätverk arkitektur för att beräkna matchningskostnaden vid varje möjlig skillnad, baserat på flernivåviktade resterande genvägar, tränas med en hybrid förlust som stöder multilevel jämförelse av bild fläckar. Ett nytt steg efter behandling introduceras sedan, som använder ett andra djupt konvolutionellt neuralt nätverk för att samla global information från flera skillnader. Detta nätverk ger både bildskillnader kartan, som ersätter den konventionella "vinnare tar alla" strategi, och ett förtroende för förutsägelsen. Konfidenspoängen uppnås genom att träna nätverket med en ny teknik som vi kallar reflekterande förlust. Slutligen används det inlärda förtroendet för att bättre upptäcka avvikelser i förädlingssteget. Den föreslagna rörledningen uppnår toppmodern noggrannhet på de största och mest konkurrenskraftiga stereoriktmärkena, och det inlärda förtroendet visar sig överträffa alla befintliga alternativ.
Shaked och Wolf REF föreslår ett motorvägsnät för att matcha kostnadsberäkning och ett globalt divergensnätverk för förutsägelse av konfidensvärden för skillnader, vilket underlättar en ytterligare förbättring av divergenskartorna.
11,020,309
Improved Stereo Matching with Constant Highway Networks and Reflective Confidence Learning
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
79,640
En distribuerad gemensam routing- och spektrumdelningsalgoritm för videoströmningstillämpningar över kognitiva ad hoc-nätverk föreslås i denna artikel. Det föreslagna kontrollsystemet över lager fördelar dynamiskt rutter, spektrum och kraft för att maximera nätgenomströmningen under de begränsningar som uppstår till följd av fördröjningskänsliga videoapplikationer. Algoritmen utvärderar den förväntade fördröjningen av konkurrerande flöden i enhops- och tvåhopsnätverk med tanke på tidsvariationerna i spektrumets tillstånd och beläggning, trafikegenskaper och köernas tillstånd vid mellanliggande noder. Simuleringsresultat visar att den föreslagna algoritmen avsevärt minskar paketförlusten och förbättrar det genomsnittliga förhållandet mellan toppsignal och buller (PSNR) för de mottagna videoströmmarna.
I REF föreslås en algoritm för att utvärdera den förväntade fördröjningen av konkurrerande flöden i en-hop och två-hop nätverk med beaktande av tidsvariation spektrum tillstånd och beläggning, trafik egenskaper, och villkor köer vid mellanliggande noder.
1,702,540
Distributed Spectrum Sharing for Video Streaming in Cognitive Radio Ad Hoc Networks
{'venue': 'ADHOCNETS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
79,641
Abstract-This paper tar upp problemet med lärande likhet-bevarande binära koder för effektiv likhetssökning i storskaliga bildsamlingar. Vi formulerar detta problem i termer av att hitta en rotation av noll-centrerade data för att minimera kvantifieringsfelet för att kartlägga dessa data till hörnen av en noll-centrerad binär hyperkub, och föreslå en enkel och effektiv alternerande minimization algoritm för att utföra denna uppgift. Denna algoritm, dubbad iterativ kvantisering (ITQ), har anslutningar till multiklassspektrala kluster och till ortogonala Procrustes problem, och det kan användas både med oövervakade data inbäddningar såsom PCA och övervakade inbäddningar såsom kanonisk korrelationsanalys (CCA). De resulterande binära koderna överträffar betydligt flera andra toppmoderna metoder. Vi visar också att ytterligare prestandaförbättringar kan bli resultatet av att omvandla data med en icke-linjär kärnkartläggning före PCA eller CCA. Slutligen visar vi en tillämpning av ITQ för att lära binära attribut eller "classemes" på ImageNet data set.
Iterativ kvantisering (ITQ) REF genererar hashing koder genom att samtidigt maximera variansen för varje binär bit och minimera kvantisering fel.
2,605,321
Iterative Quantization: A Procrustean Approach to Learning Binary Codes for Large-Scale Image Retrieval
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
79,642
Abstrakt. Tänk på följande spel mellan en mask och en alert 3 över ett nätverk av n noder. Inledningsvis är inga noder infekterade eller larmade och varje nod i nätverket är en speciell detektornod oberoende med liten men konstant sannolikhet. Spelet börjar med en enda nod som blir infekterad. I varje omgång därefter skickar varje infekterad nod ut ett konstant antal maskar till andra noder i befolkningen, och varje larmad nod skickar ut ett konstant antal varningar. Noder i nätverket ändrar tillstånd enligt följande fyra regler: 1) Om en mask tas emot av en nod som inte är en detektor och inte är varnad, att nod blir infekterad; 2) Om en mask tas emot av en nod som är en detektor, att nod blir varnad; 3) Om en varning tas emot av en nod som inte är infekterad, att nod blir varnad; 4) Om en mask eller en varning tas emot av en nod som redan är infekterad eller redan varnad, då finns det ingen förändring i tillståndet för den noden. Vi gör två antaganden om det här spelet. För det första, att en infekterad nod kan skicka mask meddelanden till någon annan nod i nätverket, men i motsats, en larmad nod kan skicka varningsmeddelanden endast genom en tidigare bestämd, konstant grad overlay nätverk. För det andra antar vi att de infekterade noderna är intelligenta, samordnade och i huvudsak allvetande. Med andra ord vet de infekterade noderna allt utom vilka noder som är detektorer och de larmade nodernas slumpmässiga myntflips d.v.s. De känner till topologin för det overlay-nätverk som används av larmen, vilka noder som larmas och som är infekterade när som helst, var varningar och maskar skickas, den övergripande strategi som används av de larmade noderna, etc. De larmade noderna antas inte veta något om vilka andra noder som är infekterade eller larmade, där varningar eller maskar skickas, eller den strategi som används av de infekterade noderna. Finns det en strategi för de larmade noderna som bara säkerställer en försvinnande liten del av noderna blir infekterade, oavsett vilken strategi som används av de infekterade noderna? Förvånansvärt nog är svaret ja. I synnerhet visar vi att en enkel strategi uppnår detta resultat med sannolikhet närmar sig 1 förutsatt att overlay nätverket har bra nod expansion. Specifikt, Detta resultat håller om d ≥ α och, Där α och 3 Specifikt, Vi anser självcertifierande varningar [6], som innehåller korta bevis på att en säkerhetsbrist finns och därmed eliminera falska varningar. β representerar hastigheten för spridningen av larmet respektive masken; γ är sannolikheten för att en nod är en detektornod; d är graden av överlagringsnätet; och c är nodexpansion av överlagringsnätet. Därefter ger vi empiriska resultat som tyder på att våra algoritmer för larmet kan vara användbara i nuvarande storskaliga nätverk. Slutligen visar vi att om overlay-nätverket har dålig expansion, särskilt om (1 − γ)β > d, då masken sannolikt infekterar nästan alla noder som inte är detektorer.
Mer specifikt finns det i REF två motsatta parter "varningen" och "masken" (kontrolleras av motståndaren) som båda försöker få kontroll över nätverket.
12,449,975
Worm Versus Alert: Who Wins in a Battle for Control of a Large-Scale Network?
{'venue': 'OPODIS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
79,643
Abstract-Pneumonia är en av de viktigaste orsakerna till barnadödlighet. Tyvärr finns det i utvecklingsländerna brist på infrastruktur och medicinska experter på landsbygden för att kunna tillhandahålla de nödvändiga diagnoserna på lämpligt sätt. Lung ultraljud ekografi har visat sig vara ett viktigt verktyg för att upptäcka lungan konsolideras som bevis på lunginflammation. Detta papper presenterar en metod för automatisk diagnostik av lunginflammation med ultraljud av lungorna. Den metod som presenteras här är baserad på analys av mönster som finns i rektangulära segment från ultraljud digitala bilder. Särskilda egenskaper från de karakteristiska vektorerna erhölls och klassificerades med standard neurala nätverk. En utbildnings- och testuppsättning med positiva och negativa vektorer sammanställdes. Vektorer som erhållits från en enda patient ingick endast i testet eller i träningssetet, men aldrig i båda. Vårt tillvägagångssätt kunde korrekt klassificera vektorer med tecken på lunginflammation, med 91,5% känslighet och 100% specificitet.
I REF föreslås därför en metod för automatisk diagnos med hjälp av ultraljud av lungorna.
21,238,669
Automatic detection of pneumonia analyzing ultrasound digital images
{'venue': '2016 IEEE 36th Central American and Panama Convention (CONCAPAN XXXVI)', 'journal': '2016 IEEE 36th Central American and Panama Convention (CONCAPAN XXXVI)', 'mag_field_of_study': ['Medicine']}
79,644
Abstrakt. Informationskaskader är fenomen där individer antar en ny handling eller idé på grund av inflytande från andra. Eftersom en sådan process sprider sig genom ett underliggande socialt nätverk kan den leda till allmänt utbredda adoptioner. Vi betraktar informationskaskader i samband med rekommendationer, och i synnerhet studera de mönster av kaskadrekommendationer som uppstår i stora sociala nätverk. Vi undersöker ett stort person-till-person-rekommendation nätverk, bestående av fyra miljoner människor som gjorde sexton miljoner rekommendationer om en halv miljon produkter. En sådan datauppsättning gör att vi kan ställa ett antal grundläggande frågor: Vilka slags kaskader uppstår ofta i verkliga livet? Vilka drag utmärker dem? Vi räknar upp och räknar kaskadesubgrafer på stora riktade grafer; som en del av detta utvecklar vi en ny effektiv heurism baserad på grafisomorfism som testar stora datauppsättningar. Vi upptäcker nya mönster: fördelningen av kaskadestorlekar är ungefär tungstjärtad; kaskader tenderar att vara grunda, men enstaka stora utbrott av förökning kan förekomma. Det relativa överflödet av olika kaskaddelografier tyder på subtila egenskaper hos det underliggande sociala nätverket och rekommendationsprocessen.
Leskovec m.fl. I REF presenteras informationskaskader inom ramen för rekommendationen.
332,896
Patterns of Influence in a Recommendation Network
{'venue': 'PAKDD', 'journal': None, 'mag_field_of_study': ['Computer Science']}
79,645
Eftersom små cellnät blir kärndelar av femte generationens (5G) cellulära nät är det ett viktigt problem att utvärdera effekterna av användarens rörlighet på 5G små cellnät. Tendensen och klustervanorna inom mänsklig verksamhet har dock inte beaktats i traditionella modeller för användarrörlighet. I detta dokument, mänskliga tendens och kluster beteende först anses utvärdera användarens rörlighet prestanda för 5G små cellnätverk baserat på individuell rörlighet modell (IMM). Som viktiga bidrag, användaren paus sannolikhet, användare ankomst, och avgång sannolikheter härleds i detta dokument för att utvärdera användarens rörlighet prestanda i en hotspot-typ 5G liten cell nätverk. Dessutom är sannolikheten för täckning av små cell- och makrocells BS härledd för alla användare i 5G små cellnätverk, respektive. Jämfört med den traditionella slumpmässiga waypoint (RWP) modellen, IMM ger en annan synvinkel för att undersöka inverkan av mänsklig tendens och klusterbeteenden på prestanda 5G små cellnätverk. Index Terms-User rörlighet, små cellnätverk, 5G nätverk, individuell rörlighet modell.
Ge och al. I REF föreslogs en algoritm baserad på individuell rörlighetsmodell för att utvärdera effekten av användarrörlighetsprestanda på 5G små cellnätverk med beaktande av människans tendens och klusterbeteenden.
7,911,791
User Mobility Evaluation for 5G Small Cell Networks Based on Individual Mobility Model
{'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science']}
79,646
Vi introducerar en allmän konditioneringsmetod för neurala nätverk som heter FiLM: Feature-wise Linear Modulation. FiLM-lager påverkar neurala nätverksberäkningar via en enkel, funktionsmässigt affin transformation baserad på konditioneringsinformation. Vi visar att FiLM-lager är mycket effektiva för visuellt resonemang - svar bildrelaterade frågor som kräver en process i flera steg, hög nivå - en uppgift som har visat sig svår för vanliga djupinlärningsmetoder som inte uttryckligen modellerar resonemang. Specifikt visar vi på visuella resonemang uppgifter som FiLM lager 1) halvera tillstånd-av-hjärta fel för CLEVR-riktmärket, 2) modulera funktioner på ett sammanhängande sätt, 3) är robusta till ablationer och arkitektoniska modifieringar, och 4) generalisera väl till utmanande, nya data från några exempel eller till och med noll-shot. Index termer: Djupt lärande, språk och vision 1. FiLM modeller uppnå state-of-the-art över en mängd olika visuella resonemang uppgifter, ofta med betydande marginaler. 2. Utgångspunkten är följande: FiLM verkar på ett enhetligt sätt. Den lär sig en komplex, underliggande struktur och manipulerar det konditionerade nätverkets funktioner på ett selektivt sätt. Det gör det också möjligt för CNN att korrekt lokalisera frågor-referenterade objekt. 3. Vad är det som händer? FiLM är robust; många FiLM modell ablations fortfarande outper-arXiv:1709.07871v1 [cs.CV]
Ett nyligen och ett mer allmänt system, Feature-wise Linear Modulation (FiLM) REF, tillämpar funktionsmässigt affin transformation med skalnings- och skiftningsparametrar som genereras från konditioneringsinformation.
19,119,291
FiLM: Visual Reasoning with a General Conditioning Layer
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
79,647
Abstract-The tradeoff mellan robusthet och motståndskraft är en central designfråga för moderna industriella styrsystem. Trenden att integrera informationsteknik i infrastruktur för kontrollsystem har gjort motståndskraften till en viktig del av det kritiska infrastrukturskyddsuppdraget. Det är önskvärt att systemen stöder statens medvetenhet om hot och anomalier och upprätthåller godtagbara drifts- eller servicenivåer inför oförutsedda eller aldrig tidigare skådade incidenter. I detta dokument föreslår vi en hybrid teoretisk ram för robust och motståndskraftig kontrollkonstruktion där det stokastiska bytet mellan strukturtillståndsmodeller oförutsedda händelser och deterministiska osäkerheter i varje struktur representerar det kända intervallet av störningar. Vi föreslår en uppsättning kopplade optimala kriterier för en holistisk robust och motståndskraftig design för cyberfysiska system. Vi tillämpar denna metod på en spänningsregulator design problem för en synkron maskin med oändlig buss och illustrerar lösningen metod med numeriska exempel.
I Ref, Zhu och Başar har föreslagit en hybrid ram för robust och motståndskraftig kontroll design med tillämpningar till kraftsystem genom att beakta både oförutsedda händelser och deterministiska osäkerheter.
14,139,765
Robust and resilient control design for cyber-physical systems with an application to power systems
{'venue': 'IEEE Conference on Decision and Control and European Control Conference', 'journal': 'IEEE Conference on Decision and Control and European Control Conference', 'mag_field_of_study': ['Computer Science']}
79,648
Abstrakt. Fallanpassning, som är en central del av det fallbaserade resonemanget, anses ofta vara den svåraste delen av ett fallbaserat resonemangssystem. Svårigheterna beror på att anpassningen ofta inte konvergerar, särskilt inte om den inte sker på ett systematiskt sätt. Detta problem, som ibland kallas assimileringsproblem, är särskilt uttalat i den fallbaserade problemlösningsdomänen där en stor uppsättning begränsningar och funktioner bearbetas. Inom designområdet måste dessutom flera fall beaktas tillsammans för att lösa det nya problemet, vilket leder till svårigheten att effektivt kombinera fallen till en global lösning på det nya problemet. För att uppnå fallkombination undersöker vi en metod som formaliserar processen med hjälp av begränsande tillfredsställelse tekniker. Vi representerar varje fall som ett primitivt problem med begränsad tillfredsställelse (CSP) med ytterligare kunskap som underlättar insamling, och tillämpar en befintlig reparationsbaserad CSP-algoritm för att kombinera dessa primitiva CSP:er till en globalt konsekvent lösning för det nya problemet. Tiden är tillfredsställande för att ge ett snabbt och oförklarligt svar på om befintliga ärenden kan anpassas eller om nya ärenden skulle behöva skapas. Vi har testat vår metodik inom konfigurationsdesign och monteringssekvensgenereringsdomäner. Analys av resultat och resultat kommer att visas i slutet av detta dokument.
En av dem gjordes av Purvis och Pu REF i en fallbaserad design problemlösning domän baserat på begränsningar över diskreta CSPs.
15,764,155
Adaptation Using Constraint Satisfaction Techniques
{'venue': 'ICRA', 'journal': None, 'mag_field_of_study': ['Computer Science']}
79,649
Abstract-En energi skörd kognitiv radio scenario beaktas där en sekundär användare (SU) med ändlig batterikapacitet opportunistiskt får tillgång till primäranvändaren (PU) kanaler. Målet är att maximera genomströmningen av SU under energineutralitet begränsning och blekning kanalförhållanden i en enda användare multi-kanal inställning. Kanalurvalskriterium baserat på den probabilistiska tillgången på energi med SU, kanalförhållanden, och primära nätverkets tro tillstånd föreslås, som väljer den bästa delmängd av kanaler för avkänning, vilket ger högre genomströmning. Vi konstruerar kanalmedvetna optimala och myopiska avkänningsstrategier i ett delvis observerbart Markovbeslut Processram baserat på det föreslagna kanalurvalskriteriet. Effekterna av avkänningsfel och kollisioner mellan PU och SU på genomströmningen av senare studeras. Det visas att det finns en kompromiss mellan överföringstiden och den energi som går förlorad vid kollisioner.
I REF, för en enda användare multi-channel inställning, tillsammans med probabilistic ankomstenergi, kanal villkor och sannolikheten för PU: s yrke, författarna föreslå ett kanal urvalskriterium.
2,537,563
Energy Harvesting Cognitive Radio with Channel-Aware Sensing Strategy
{'venue': 'IEEE Communications Letters', 'journal': 'IEEE Communications Letters', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
79,650
: Skärmdumpar från vår realtidsredigerare för grammatikbaserad procedurarkitektur. Vänster: Visuell redigering av grammatikregler. Mellan till vänster: Direkt dragning av den röda markplan vertex och ändra höjden med ett skjutreglage skapar byggnaden på mitten höger. När du drar, är byggnaden uppdateras omedelbart. Höger: Redigering är möjlig på flera nivåer, här ändras högnivåskalet för en byggnad. Vi introducerar en realtid interaktiv visuell redigering paradigm för form grammatik, vilket gör det möjligt att skapa regelbaser från grunden utan textfilredigering. I tidigare arbeten har form-grammarbaserade procedurtekniker framgångsrikt tillämpats på skapandet av arkitektoniska modeller. Dessa metoder är dock textbaserade och kan därför vara svåra att använda för konstnärer med liten datavetenskaplig bakgrund. Målet var därför att möjliggöra ett visuellt arbetsflöde som kombinerar kraften i form grammatik med traditionella modelleringsmetoder. Vi utökar tidigare form grammatik metoder genom att ge direkt och ihållande lokal kontroll över de genererade instanserna, undvika kombinatoriska explosion av grammatiska regler för ändringar som inte bör påverka alla fall. Den resulterande visuella redaktören är flexibel: Alla element i en komplex toppmodern grammatik kan skapas och modifieras visuellt.
Lipp m.fl. REF, till exempel, införa en visuell frontend för att definiera form grammatik interaktivt med direkt visuell redigering.
2,825,415
Interactive visual editing of grammars for procedural architecture
{'venue': "SIGGRAPH '08", 'journal': None, 'mag_field_of_study': ['Computer Science']}
79,651
Detektion av fotgängare är ett kritiskt problem i datorseendet, vilket har en betydande inverkan på säkerheten vid autonoma stadskörningar. I detta arbete undersöker vi hur semantisk segmentering kan användas för att öka fotgängardetektionens noggrannhet samtidigt som den har liten eller ingen påverkan på näteffektiviteten. Vi föreslår ett segmenteringsinfusionsnätverk för att möjliggöra gemensam övervakning av semantisk segmentering och fotgängardetektering. När den placeras på rätt sätt, hjälper den extra övervakningen till att styra funktioner i delade lager för att bli mer sofistikerade och hjälpsamma för nedströms fotgängardetektorn. Med hjälp av detta tillvägagångssätt finner vi svagt kommenterade rutor vara tillräckliga för betydande resultatvinster. Vi tillhandahåller en fördjupad analys för att visa hur delade lager formas av segmenteringsövervakningen. Genom att göra det visar vi att de resulterande funktionskartorna blir mer semantiskt meningsfulla och robusta att forma och ocklusion. Sammantaget vår samtidig detektering och segmentering ramar uppnå en betydande vinst över state-of-the-art på Caltech fotgängare dataset, konkurrenskraftig prestanda på KITI, och utför 2× snabbare än konkurrenskraftiga metoder.
REF utnyttjar svagt kommenterade lådor via ett infusionsnätverk för segmentering för att uppnå betydande resultatvinster.
20,340,159
Illuminating Pedestrians via Simultaneous Detection and Segmentation
{'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
79,652
Den här artikeln handlar om stabilisering och feltolerans. Vi betraktar två typer av stabilisering: själv- och pseudostabiliseringen. Vårt mål är att genomföra själv- och/eller pseudostabiliserande ledarval i system med processkrascher, svag tillförlitlighet och synkroniseringsantaganden. Vi försöker föreslå, när det är möjligt, kommunikationseffektiva genomföranden. Vårt tillvägagångssätt gör det möjligt att få algoritmer som tolererar både transienta och kraschfel. Observera att vissa av våra lösningar är anpassade från befintliga feltoleranta algoritmer. Motiveringen här är inte att föreslå nya algoritmer utan bara att visa några antaganden som krävs för att uppnå stabiliserande ledare val i system med kraschfel. I synnerhet fokuserar vi på gränsantagandena där vi går från möjligheten att ha självstabiliserande lösningar till möjligheten att bara ha pseudostabiliserande sådana.
Författaren i REF studerade stabiliserings- och feltoleranta val i system med statiska kraschfel.
12,730,922
Stabilizing leader election in partial synchronous systems with crash failures
{'venue': 'J. Parallel Distributed Comput.', 'journal': 'J. Parallel Distributed Comput.', 'mag_field_of_study': ['Computer Science']}
79,653
Vi betraktar problemet med djupuppskattning från en enda monokulär bild i detta arbete. Det är en utmanande uppgift eftersom det inte finns några tillförlitliga djupsignaler, t.ex. stereokorrespondenser, rörelser etc. Tidigare insatser har varit inriktade på att utnyttja geometriska föregångare eller ytterligare informationskällor, med alla handgjorda funktioner. Nyligen finns det ökande bevis för att funktioner från djupa konvolutionella neurala nätverk (CNN) sätter nya rekord för olika synapplikationer. Å andra sidan, med tanke på den kontinuerliga egenskapen hos djupvärden, djupuppskattningar kan naturligt formuleras till en kontinuerlig villkorlig slumpmässig fält (CRF) lärande problem. Därför presenterar vi i detta dokument en djup konvolutionell neural fältmodell för att uppskatta djup från en enda bild, syftar till att gemensamt utforska kapaciteten hos djup CNN och kontinuerlig CRF. I synnerhet föreslår vi ett djupgående strukturerat utbildningsprogram som lär sig de oföränderliga och parvisa potentialerna i kontinuerlig CRF inom en enhetlig djup CNN-ram. Den föreslagna metoden kan användas för djupuppskattningar av allmänna scener utan geometriska föregångare eller någon ytterligare information som injiceras. I vårt fall kan integralen av partitionsfunktionen beräknas analytiskt, så vi kan exakt lösa log-likelihood optimering. Dessutom är det mycket effektivt att lösa MAP-problemet för att förutsäga djupet av en ny bild eftersom det finns slutna lösningar. Vi visar experimentellt att den föreslagna metoden överträffar toppmoderna djupuppskattningsmetoder på både inomhus- och utomhusscensdata.
Liu m.fl. REF föreslår en djup konvolutionell neural fältmodell för djupuppskattning genom att undersöka CNN och CRF.
13,153
Deep convolutional neural fields for depth estimation from a single image
{'venue': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
79,654
Media verkar ha blivit mer partisan, ofta ger en partisk täckning av nyheter catering till intresse för specifika grupper. Det är därför viktigt att identifiera trovärdigt informationsinnehåll som ger en objektiv beskrivning av en händelse. Nyhetsgemenskaper som digg, reddit eller newstrust erbjuder rekommendationer, recensioner, kvalitetsbetyg och ytterligare insikter om journalistiska verk. Det finns dock ett komplext samspel mellan olika faktorer i sådana nätgemenskaper: rättvisa och stil för rapportering, språkuppfattbarhet och objektivitet, aktuella perspektiv (som politisk synpunkt), sakkunskap och partiskhet hos samhällsmedlemmar med mera. Detta dokument presenterar en modell för att systematiskt analysera de olika interaktionerna i en nyhetsgemenskap mellan användare, nyheter och källor. Vi utvecklar en probabilistisk grafisk modell som utnyttjar denna gemensamma interaktion för att identifiera 1) mycket trovärdiga nyhetsartiklar, 2) pålitliga nyhetskällor och 3) expertanvändare som utför rollen som "medborgarjournalister" i samhället. Vår metod utökar CRF modeller för att införliva real-värderade betyg, eftersom vissa samhällen har mycket finkorniga skalor som inte kan lätt diskretiseras utan att förlora information. Såvitt vi vet är detta dokument den första fullständiga analysen av trovärdighet, förtroende och expertis i nyhetsgemenskaper.
Slutligen har det också arbetats med att studera trovärdighet, förtroende och expertis i nyhetsgemenskaper REF.
23,983,162
Leveraging Joint Interactions for Credibility Analysis in News Communities
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
79,655
Varial inferens har blivit en allmänt använd metod för att approximera posteriors i komplexa latent variabler modeller. Men att härleda en variationell inferensalgoritm kräver i allmänhet en betydande modellspecifik analys, och dessa ansträngningar kan hindra och avskräcka oss från att snabbt utveckla och utforska en mängd olika modeller för ett problem som finns. I den här artikeln presenterar vi en "svart låda" variationell inferencealgoritm, en algoritm som snabbt kan appliceras på många modeller med lite ytterligare härledning. Vår metod är baserad på en stokastisk optimering av variationsmålet där den bullriga lutningen beräknas från Monte Carlo prover från variationsfördelningen. Vi utvecklar ett antal metoder för att minska variansen av lutningen, alltid upprätthålla kriteriet att vi vill undvika svåra modellbaserade härledningar. Vi utvärderar vår metod mot motsvarande svart box provtagning baserade metoder. Vi finner att vår metod når bättre prediktiva sannolikheter mycket snabbare än provtagningsmetoder. Slutligen visar vi att Black Box Variational Inference lätt kan utforska ett brett utrymme av modeller genom att snabbt konstruera och utvärdera flera modeller av longitudinella hälsodata.
REF bygger vidare på detta arbete med hjälp av poängfunktionen i den ungefärliga bakre för att styra lutningen av Black Box Variational Inference mål.
1,580,089
Black Box Variational Inference
{'venue': 'AISTATS 2014', 'journal': 'arXiv: Machine Learning', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
79,656
Vi introducerar en modell för att konstruera vektor representationer av ord genom att komponera tecken med hjälp av dubbelriktade LSTMs. I förhållande till traditionella ordrepresentationsmodeller som har oberoende vektorer för varje ordtyp, kräver vår modell endast en vektor per teckentyp och en fast uppsättning parametrar för kompositionsmodellen. Trots att denna modell är kompakt och framför allt den godtyckliga karaktären hos förhållandet mellan form och funktion i språket, ger våra "komponerade" ord representationer toppmoderna resultat i språkmodellering och del-av-tal taggning. Fördelarna jämfört med traditionella baslinjer är särskilt uttalade i morfologiskt rika språk (t.ex. turkiska).
REF läs tecken i det sällsynta ordet med en dubbelriktad LSTM för att hantera öppna ordförråd problem i språkmodellering och NER.
1,689,426
Finding Function in Form: Compositional Character Models for Open Vocabulary Word Representation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
79,658
I detta dokument introduceras AntNet, en ny metod för adaptiv inlärning av routingtabeller i kommunikationsnät. AntNet är ett distribuerat, mobila agenter baserat Monte Carlo-system som inspirerades av det senaste arbetet med myrkolonimetaforen för att lösa optimeringsproblem. AntNets agenter utforskar samtidigt nätverket och utbyter insamlad information. Kommunikationen mellan agenterna är indirekt och asynkron, förmedlad av nätverket självt. Denna form av kommunikation är typisk för sociala insekter och kallasstigmergi. Vi jämför vår algoritm med sex toppmoderna routingalgoritmer som kommer från telekommunikation och maskininlärning. Algoritmernas prestanda utvärderas över en uppsättning realistiska testbäddar. Vi kör många experiment över verkliga och arti ciella IP datagram nätverk med ökande antal noder och under flera paradigmatiska rumsliga och temporal tra c distributioner. Resultaten är mycket uppmuntrande. AntNet visade överlägsen prestanda under alla experimentella förhållanden med avseende på sina konkurrenter. Vi analyserar algoritmens huvudegenskaper och försöker förklara orsakerna till dess överlägsenhet.
I REF introducerar författarna en distribuerad och mobil agent baserad routing med överlägsen prestanda inspirerad av samarbetet i myrkolonin.
11,564,347
AntNet: Distributed Stigmergetic Control for Communications Networks
{'venue': 'Journal Of Artificial Intelligence Research, Volume 9, pages 317-365, 1998', 'journal': None, 'mag_field_of_study': ['Computer Science']}
79,660
Dataeffektivt lärande i kontinuerliga tillståndszoner med hjälp av mycket högdimensionella observationer är fortfarande en viktig utmaning när det gäller att utveckla helt autonoma system. I detta dokument överväger vi ett exempel på denna utmaning, problemet med pixlar-totorques, där en agent måste lära sig en sluten loop kontroll politik endast från pixel information. Vi introducerar en dataeffektiv, modellbaserad förstärkande inlärningsalgoritm som lär sig en sådan sluten loop-policy direkt från pixelinformation. Nyckelingrediensen är en djup dynamisk modell som använder djupa autokodrar för att lära sig en lågdimensionell inbäddning av bilder tillsammans med en förutsägelse modell i detta lågdimensionella funktionsutrymme. Detta gemensamma lärande säkerställer att inte bara statiska egenskaper data redovisas, men också dynamiska egenskaper. Detta är avgörande för långsiktiga förutsägelser, som är kärnan i den adaptiva modellprediktiva kontrollstrategi som vi använder för sluten kontroll. Jämfört med state-of-the-art förstärkning lärande metoder, vår strategi lär sig snabbt, skalor till högdimensionella tillstånd utrymmen och underlättar helt autonomt lärande från pixlar till vridmoment.
Pixel till Torques (P2T) REF använder en autoencoder för att få lågdimensionella latenta representationer från bilder tillsammans med en övergångsmodell.
15,083,675
From Pixels to Torques: Policy Learning with Deep Dynamical Models
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
79,661
Abstract-This paper föreslår en ny metod för användarsamarbete i både beräkning och kommunikation för mobila edge computing-system (MEC) för att förbättra energieffektiviteten för latency-konstruerade beräkningar. Vi anser att ett grundläggande trenode MEC-system består av en användarnod, en hjälpnod, och en åtkomstpunkt (AP) nod ansluten med en MEC-server, där användaren har latency-conscrived och beräkningsintensiva uppgifter som ska utföras. Vi anser att det finns två olika beräkningsmodeller, nämligen den partiella respektive den binära avlastningen. För partiell avlastning, uppgifterna hos användaren är uppdelade i tre delar som utförs hos användaren, hjälpare, respektive AP, medan för binär avlastning, uppgifterna utförs som en helhet endast vid en av tre noder. Under denna uppställning fokuserar vi på ett särskilt tidsblock och utvecklar ett effektivt fyradelat överföringsprotokoll för att möjliggöra det gemensamma beräknings- och kommunikationssamarbetet. Förutom den lokala uppgift computing över hela blocket, kan användaren avlasta vissa beräkningsuppgifter till hjälparen i den första slot, och hjälparen gemensamt beräkna dessa uppgifter i den återstående tiden; medan i den andra och tredje slots, hjälper hjälparen fungerar som ett samarbetsrelä för att hjälpa användaren att avlasta några andra uppgifter till AP för fjärrkörning i den fjärde slot. För båda fallen med partiell och binär avlastning optimerar vi gemensamt fördelningen av beräknings- och kommunikationsresurser vid både användaren och hjälparen (dvs. tids- och överföringstilldelningar för avlastning, och central processenhet (CPU) frekvenser för beräkning), för att minimera deras totala energiförbrukning samtidigt som användarens beräkningslatensrestriktion uppfylls. Även om de två problemen är icke-konvexa i allmänhet, utvecklar vi effektiva algoritmer för att lösa dem optimalt. Numeriska resultat visar att den föreslagna gemensamma metoden för beräknings- och kommunikationssamarbete avsevärt förbättrar beräkningskapaciteten och energieffektiviteten hos användaren och medhjälparen jämfört med andra referenssystem utan en sådan gemensam utformning.
De arbeten som visas i Ref övervägde ett trenode MEC-system och följde en gemensam metod för beräknings- och kommunikationssamarbete.
52,948,198
Joint Computation and Communication Cooperation for Energy-Efficient Mobile Edge Computing
{'venue': 'IEEE Internet of Things Journal', 'journal': 'IEEE Internet of Things Journal', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
79,662
Abstract-Power konsumtion innebär en betydande kostnad för datacenter som genomför molntjänster, men mycket av den kraften används för att upprätthålla överskott av servicekapacitet under perioder av låg belastning. I detta dokument undersöks hur mycket som kan sparas genom att dynamiskt "högeranpassa" datacentret genom att stänga av servrar under sådana perioder och hur man uppnår denna besparing via en online-algoritm. Vi föreslår en mycket allmän modell och bevisar att den optimala offline-algoritmen för dynamisk högerstorlek har en enkel struktur när den ses i omvänd tid, och denna struktur utnyttjas för att utveckla en ny "lazy" online-algoritm, som har visat sig vara 3-konkurrenskraftig. Vi validerar algoritmen med hjälp av spår från två verkliga datacenter arbetsbelastningar och visar att betydande kostnadsbesparingar är möjliga. Dessutom ställer vi denna nya algoritm i kontrast till det mer traditionella tillvägagångssättet att minska horisontstyrningen.
Den dynamiska högerdimensionerings-REF-metoden uppnådde effektproportionalitet genom att stänga av servrar under perioder med låg arbetsintensitet med hjälp av en online-algoritm som kallas lat kapacitetsavsättning.
52,800,274
Dynamic Right-Sizing for Power-Proportional Data Centers
{'venue': 'IEEE/ACM Transactions on Networking', 'journal': 'IEEE/ACM Transactions on Networking', 'mag_field_of_study': ['Computer Science']}
79,663
Abstrakt. Lejonets andel av processgruveforskningen fokuserar på upptäckten av end-to-end processmodeller som beskriver det karakteristiska beteendet hos observerade fall. Begreppet processexemple (dvs. fallet) spelar en viktig roll i processbrytningen. Mönster gruvdrift tekniker (såsom frekventa itemet gruvdrift, förening regel lärande, sekvens gruvdrift, och traditionell episod gruvdrift) inte överväga process fall. Ett avsnitt är en samling av delvis beställda händelser. I detta dokument presenterar vi en ny teknik (och motsvarande genomförande) som upptäcker ofta förekommande episoder i händelseloggar och därmed utnyttjar det faktum att händelser är förknippade med fall. Därför kan arbetet placeras mellan processbrytning och mönsterbrytning. Episode upptäckt har sina tillämpningar i bland annat att upptäcka lokala mönster i komplexa processer och konformans kontroll baserad på partiella order. Vi upptäcker också avsnitt regler för att förutsäga beteende och upptäcka korrelerade beteenden i processer. Vi har utvecklat en ProM plug-in som utnyttjar effektiva algoritmer för upptäckt av frekventa episoder och avsnitt regler. Experimentella resultat baserade på verkliga händelser visar att metoden är genomförbar och användbar.
Händelseloggar är inte den enda lämpliga inmatningen för de tekniker som presenteras i detta dokument: vi ser en intressant länk till arbetet med upptäckt av frekventa episoder, t.ex. som nyligen rapporterats i REF.
7,388,338
Discovery of Frequent Episodes in Event Logs
{'venue': 'SIMPDA', 'journal': None, 'mag_field_of_study': ['Computer Science']}
79,664
Abstract-This paper introducerar ett automatiserat datorstödd system för diagnos av cervikal intraepitelial neoplasi (CIN) med hjälp av ultra-stora cervikal histologiska digitala diabilder. Systemet innehåller två delar: segmentering av skivepitel och diagnos av CIN. För segmentering, för att minska bearbetningstiden, utvecklas en multiupplösningsmetod. Det skivepitelskiktet är först segmenterat med en låg (2X) upplösning. Gränserna finjusteras ytterligare vid en högre (20X) upplösning. Den blockbaserade segmenteringsmetoden använder robusta texturegenskaper vektorer i kombination med stödvektormaskiner (SVM) för att utföra klassificering. Läkarregler tillämpas äntligen. Vid testning uppnår segmentering med 31 digitala diabilder 94,25 % noggrannhet. För diagnos av CIN, förändringar i nuclei struktur och morfologi längs linjer vinkelrätt mot huvudaxeln av skivepitelet kvantifieras och klassificeras. Med hjälp av SVM i flera kategorier klassificeras vinkelräta linjer i normal, CIN I, CIN II och CIN III. Den robusthet i systemet i termer av regional diagnos mäts mot patologers diagnoser och inter-observer variabilitet mellan två patologer beaktas. De första resultaten tyder på att systemet har potential som ett verktyg både för att hjälpa patologer diagnoser, och i utbildning.
Till exempel använde Wang REF en multi-upplösning metod för diagnos av cervikal intraepitelial neoplasi.
9,153,764
Assisted Diagnosis of Cervical Intraepithelial Neoplasia (CIN)
{'venue': 'IEEE Journal of Selected Topics in Signal Processing', 'journal': 'IEEE Journal of Selected Topics in Signal Processing', 'mag_field_of_study': ['Computer Science']}
79,665
Specifikationen av schemakartläggningar har visat sig vara tid och resurskrävande, och har erkänts som en kritisk flaskhals för storskalig utbyggnad av dataintegrationssystem. I ett försök att ta itu med denna fråga, datarymder har föreslagits som en datahantering abstraktion som syftar till att minska de initiala kostnader som krävs för att installera ett dataintegrationssystem genom att gradvis specificera schemakartläggningar genom interaktion med slutanvändare på ett pay-asyou-go mode. Som ett steg i denna riktning, utforskar vi en strategi för stegvis kommentera schema kartläggningar med hjälp av feedback från slutanvändare. När vi gör det förväntar vi oss inte att användarna ska undersöka kartläggningsspecifikationerna, utan de kommenterar resultaten till frågor som utvärderas med hjälp av kartläggningarna. Med hjälp av kommentarer som beräknas på grundval av användarens feedback, presenterar vi en metod för att välja från uppsättningen kandidatkartläggningar, de som ska användas för frågeutvärdering med hänsyn till användarkrav i form av precision och återkallande. På så sätt kastar vi kartval som ett optimeringsproblem. Kartläggning kommentarer kan avslöja att kvaliteten på schema kartläggningar är dålig. Vi visar också hur feedback kan användas för att stödja härledning av bättre kvalitet kartläggningar från befintliga kartläggningar genom förfining. En evolutionär algoritm används för att effektivt och effektivt utforska det stora utrymmet för kartläggningar som kan erhållas genom förfining. Resultaten av utvärderingsövningar visar effektiviteten i vår lösning för att kommentera, välja ut och förfina schemakartläggningar.
I REF utforskar författarna ett tillvägagångssätt för att stegvis kommentera schemakartläggningar med hjälp av återkoppling från slutanvändare.
14,199,755
Feedback-based annotation, selection and refinement of schema mappings for dataspaces
{'venue': "EDBT '10", 'journal': None, 'mag_field_of_study': ['Computer Science']}
79,666
Datorseende har gynnats av att initiera flera djupa lager med vikter förtränade på stora övervakade träningsset som ImageNet. Naturlig språkbehandling (NLP) ser vanligtvis initiering av endast det lägsta lagret av djupa modeller med förtränade ordvektorer. I detta papper använder vi en djup LSTM kodare från en uppmärksamhetssekvens-till-sekvens modell tränad för maskinöversättning (MT) för att kontextualisera ordvektorer. Vi visar att lägga till dessa sammanhangsvektorer (CoVe) förbättrar prestandan över att endast använda oövervakade ord- och teckenvektorer på en mängd olika gemensamma NLP-uppgifter: känsloanalys (SST, IMDb), frågeklassificering (TREC), implementation (SNLI) och frågesvar (SQuAD). CoVe förbättrar prestandan hos våra baslinjemodeller till den senaste tekniken för finkorniga känsloanalyser och -förutsättningar.
McCann m.fl. REF utvecklat en uppmärksamhetssekvens-till-sekvens maskinöversättning modell för att generera kontextualiserade ord vektorer, kallas CoVe.
9,447,219
Learned in Translation: Contextualized Word Vectors
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
79,667
Att skilja två sannolikhetsfördelningar från en blandningsmodell som består av de två kombinationerna är viktigt för ett brett spektrum av tillämpningar. Till exempel, i informationssökning (IR), finns det ofta en blandningsfördelning som består av en relevansfördelning som vi behöver uppskatta och en irrelevansfördelning som vi hoppas bli av med. Nyligen föreslogs en distributionsseparationsmetod (DSM) för att approximera den relevanta distributionen, genom att skilja ett utsäde från distributionen av blandningen irrelevans. Det tillämpades framgångsrikt på en IR-uppgift, nämligen pseudo-relevans feedback (PRF), där frågeexpansionsmodellen ofta är en blandning termfördelning. Även om den ursprungligen utvecklades i samband med IR, DSM är verkligen en allmän matematisk formulering för sannolikhetsfördelning separation. Därför är det viktigt att ytterligare generalisera sin grundläggande analys och att utforska dess kopplingar till andra relaterade metoder. I denna artikel utvidgar vi först DSM:s teoretiska analys, som ursprungligen baserades på Pearsons korrelationskoefficient, till entropirelaterade åtgärder, inklusive KL-divergensen (Kullback-Leibler divergens), den symmetriska KL-divergensen och JS-divergensen (Jensen-Shannon divergensen). För det andra undersöker vi idén om distributionsseparation i en välkänd metod, nämligen metoden med blandningsmodellåterkoppling (MMF). Vi bevisar att penningmarknadsfonden också överensstämmer med antagandet om linjär kombination, och då kan DSM:s linjära separationsalgoritm i stor utsträckning förenkla EM-algoritmen i penningmarknadsfonden. Dessa teoretiska analyser samt ytterligare empiriska utvärderingsresultat visar fördelarna med vår DSM-strategi. Entropi 2016, 18, 105 2 av 21 snarare än den verkliga relevansfördelning som ska härledas från de verkligt relevanta dokumenten. Den senaste tidens forskning om återkoppling av negativ relevans har försökt att använda irrelevanta dokument för att förbättra hämtningsprestandan [3] [4] [5]. Genom att anta att en uppsättning frö irrelevanta dokument finns tillgängliga, har en distribution separationsmetod (DSM) föreslagits i vårt tidigare arbete [6]. Med tanke på en blandningsdistribution och en distribution av utsäde irrelevans syftar DSM i huvudsak till att uppnå en approximation av den verkliga relevansfördelningen, med andra ord att skilja den irrelevansfördelningen från blandningen. Det har visats i [6] att det teoretiskt sett är mer allmänt att skilja den orelevanta distributionen från blandningsdistributionen, jämfört med det direkta avlägsnandet av irrelevanta dokument, och praktiskt taget har lett till bättre resultat. Formuleringen av DSM baserades på två antaganden, nämligen antagandet om linjär kombination och antagandet om minsta korrelation. Den förstnämnda antar att blandningstermen fördelning är en linjär kombination av relevans och irrelevansfördelning, medan den senare antar att relevansfördelningen bör ha en minsta korrelation med den irrelevansfördelningen. DSM gav en lägre bundet analys för den linjära kombinationskoefficienten, baserad på vilken den önskade relevansfördelningen kan uppskattas. Det har också bevisats att den lägre gränsen för den linjära kombinationskoefficienten motsvarar villkoret i den minsta korrelationskoefficienten för Pearson mellan DSM:s distribution av produktionsrelevans och distributionen av det ingående utsädet irrelevans. Även om den ursprungligen utvecklades i samband med IR, DSM är verkligen en allmän matematisk formulering för sannolikhetsfördelning separation. Separationsalgoritm och analys av DSM är inte begränsade till frågetermfördelningar eller andra distributioner för IR-uppgifter. Det är därför viktigt att ytterligare undersöka dess teoretiska egenskaper och göra det mer allmänt. I denna artikel föreslår vi att generalisera DSM:s teoretiska analys, som ursprungligen baserades på Pearsons korrelationskoefficient, till entropirelaterade mätningar, särskilt KL-divergensen och två varianter. Dessutom undersöker vi idén om distributionsseparation i en allmänt använd metod, dvs. blandningsmodellens återkoppling (MMF) [7]. Teoretisk analys har visat att den linjära separationsalgoritmen i DSM kan tillämpas för att förenkla EM-algoritmen i penningmarknadsfonder. De särskilda beskrivningarna av ovanstående bidrag är följande. För det första undersöker vi DSM:s effekt på KL-divergensen mellan DSM:s uppskattade relevansfördelning och fröets irrelevansfördelning. I avsnitt 3 visar vi att DSM:s nedre gränsanalys också kan utvidgas till KL-divergens, och den minsta korrelationskoefficienten motsvarar den maximala KL-divergensen. Vi bevisar vidare att den minskande korrelationskoefficienten också leder till den maximala symmetriiserade KL-divergensen, liksom den maximala JS-divergensen mellan DSM:s produktionsfördelning och utsädets orelevansfördelning. Dessa utökade analyser berikar DSM:s egna teoretiska egenskaper. För det andra undersöker vi relationen mellan DSM och blandningsmodellåterkopplingen (MMF) [7]. I avsnitt 4 visar vi att antagandet om linjär kombination är giltigt i penningmarknadsfonder, och den EM-baserade iterativa algoritmen för penningmarknadsfonder är i huvudsak en distributionsseparationsprocess. Således kan dess iterativa steg i stor utsträckning förenklas av den linjära separationsalgoritmen (se Ekvation (2)) som utvecklats i DSM. Jämfört med penningmarknadsfonder med en empiriskt tilldelad kombinationskoefficient är dessutom DSM:s kombinationskoefficient analytiskt härledd och adaptiv för varje fråga. De experimentella resultaten när det gäller hämtningsprestanda och driftskostnader har visat fördelarna med vår DSM-strategi.
Vi generaliserar även DSM:s teoretiska analys genom att tillhandahålla ytterligare KL-divergensanalys i REF.
6,894,852
Generalized Analysis of a Distribution Separation Method
{'venue': 'Entropy', 'journal': 'Entropy', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
79,668
Detta papper presenterar en uppsättning full upplösning förlustbild komprimeringsmetoder baserade på neurala nätverk. Var och en av de arkitekturer som vi beskriver kan ge variabla komprimeringshastigheter under utbyggnaden utan att kräva omskolning av nätverket: varje nätverk behöver bara utbildas en gång. Alla våra arkitekturer består av ett återkommande neuralt nätverk (RNN)-baserad kodare och dekoder, en binarizer, och ett neuralt nätverk för entropikodning. Vi jämför RNN-typer (LSTM, associative LSTM) och introducerar en ny hybrid av GRU och ResNet. Vi studerar också "one-shot" kontra additive rekonstruktion arkitekturer och introducerar en ny skalad-additive ram. Vi jämför med tidigare arbete, visar förbättringar på 4,3%-8,8% AUC (area under hastighetsförvrängningskurvan), beroende på den perceptuella metriska används. Så vitt vi vet, är detta den första neurala nätverk arkitektur som kan överträffa JPEG vid bildkomprimering över de flesta bithastigheter på hastighets-förvrängning kurvan på Kodak dataset bilder, med och utan hjälp av entropi kodning.
Toderici m.fl. REF presenterar flera återkommande neurala nätverk (RNN) arkitekturer som ger variabla komprimeringshastigheter under utplacering utan att kräva omskolning.
24,041,818
Full Resolution Image Compression with Recurrent Neural Networks
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
79,669
ABSTRACT Med den explosiva spridningen av mobila enheter och tjänster fortsätter användartätheten i storskaliga cellulära nätverk att öka, vilket resulterar i ytterligare eskalerande trafikgenerering. Ändå finns det en stark efterfrågan på att minska nätets energiavledning. Därför modellerar vi energieffektiviteten i storskaliga cellulära nät för att karakterisera dess beroende av basstationens (BS) densitet samt för att kvantifiera teletrafikens inverkan på den uppnåeliga energieffektiviteten under specifika kvalitetskrav för tjänster. Detta gör att vi kan matcha BS-utbyggnaden till nätverkets teletrafik samtidigt som värdefull energi bevaras. Mer specifikt, vi formulerar en praktisk tele-trafik-aware BS distributionsproblem för att optimera nätets energieffektivitet och samtidigt uppfylla användarnas maximala tolerabla avbrott sannolikhet. Detta uppnås genom att analysera den optimala BS-densiteten under specifika teletrafikförhållanden. Dessutom studerar vi energibesparingspotentialen i vår optimala BS-strategi under olika praktiska parametrar och ger insikter i de uppnåeliga energibesparingarna i täta slumpmässiga cellulära nätverk. Våra simuleringsresultat bekräftar exaktheten i vår analys och verifierar effekten av de parametrar som beaktas på nätets energieffektivitet. Våra resultat visar också att den föreslagna optimala strategin för BS-utbyggnad av teletrafik är betydligt bättre än den befintliga strategin när det gäller energieffektivitet. INDEX TERMS Storskaliga cellulära nätverk, energieffektivitet, utbyggnad av teletrafik-aware, energibesparande prestanda.
Däremot har den senaste studien i REF formulerat en optimal strategi för utbyggnad av mobiltrafik-aware BS för att maximera nätverkets EE samtidigt som användarens sannolikhetskrav för avbrott, för täta storskaliga homogena cellulära nätverk.
29,358,603
A Tele-Traffic-Aware Optimal Base-Station Deployment Strategy for Energy-Efficient Large-Scale Cellular Networks
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
79,670
Vi presenterar en metod för att extrahera sociala nätverk ur litteraturen, nämligen 1800-talets brittiska romaner och serier. Vi härleder nätverken från dialoginteraktioner, och därmed beror vår metod på förmågan att avgöra när två tecken är i samtal. Vårt tillvägagångssätt handlar om teckennamnsskärning, citerad taltillskrivning och samtalsdetektering med tanke på antalet citat. Vi extraherar funktioner från de sociala nätverken och undersöker deras korrelation med varandra, samt metadata som romanens inställning. Våra resultat ger bevis för att majoriteten av romanerna under denna tidsperiod inte passar två karakteriseringar som tillhandahålls av läskunniga forskare. I stället föreslår våra resultat en alternativ förklaring till skillnader i sociala nätverk.
REF föreslog en dialogbaserad metod för att extrahera sociala nätverk.
1,974,676
Extracting Social Networks from Literary Fiction
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
79,671
Abstract-World-omfattande datacenter förbrukar cirka 300 miljarder kWh energi per år, vilket står för 2 % av den totala elanvändningen. Som MapReduce blir det vanliga paradigmet för dataintensiva datorer i datacenter, optimera MapReduce energieffektivitet kan kraftigt minska energibehov och minska energiräkningar. Många studier har försökt förbättra MapReduce energieffektivitet, men få har tagit itu med detta problem från att förstå och minska energieffekterna av datarörelser. Eftersom datarörelser ofta är prestanda- och energiflaskhalsar föreslår vi ett datarörelsecentriskt tillvägagångssätt och presenterar ett analysramverk med metoder och mätvärden för att utvärdera dyra inbyggda kartorMinska datarörelser. Vår experimentella undersökning utnyttjar det finkorniga ramverket för prestanda- och effektprofilering eTune och avslöjar unika energiegenskaper på systemnivå och komponentnivå för datarörelser. Den visar också skalbarheten av energieffektivitet med karta Minska arbetsbelastning och systemparametrar. Dessa energiegenskaper kan utnyttjas vid systemutformning och resursallokering för att förbättra dataintensiv energieffektivitet hos datorer. Index Terms-KartaReduce, Data Movement, Energy-Efficient Computing Kraft och energiförbrukning är bland de viktigaste frågorna i datacenter design och drift. Dagens datacenter förbrukar vanligtvis flera megawatt ström. I hela världen är den totala energiförbrukningen i datacenter cirka 300 miljarder kWh per år, vilket motsvarar 2 % av den totala elförbrukningen [10]. Denna massiva efterfrågan på kraft/energi begränsar inte bara datacentrens överkomlighet och hållbarhet, utan ger också upphov till stora miljöproblem och politiska reaktioner. Att förbättra energieffektiviteten hos datacentertillämpningar kan effektivt ta itu med detta problem, men kräver att vi först förstår kraften och energiegenskaperna hos datacenterarbetsbelastningen för guidad design. I detta dokument fokuserar vi på energieffektivitet i MapReduce-baserade dataintensiva arbetsbelastningar. Särskilt studerar vi kraften, energin och energieffektiviteten i datarörelser i MapReduce [4] applikationer. Detta fokus beror på tre rea söner. För det första förbrukar datarörelser en betydande del av systemenergin i datacenter genom att låta datorservrar vänta på data eller flytta data [1]. För det andra, MapRe-978-1-4799-0623-9/13/$31.00 © 2013 IEEE duce har blivit en stor dator paradigm i datacenter för behandling av storskaliga datamängder, tack vare sin automatiska parallellbehandling och ultra hög skalbarhet. För det tredje, på grund av den tekniska revolutionen i datainsamling och lagring, har datacenter upplevt en fördubbling av datavolymen vartannat år [5]. Effektiv lagring och behandling av massiva data är inte bara ett grundläggande krav utan också en praktisk utmaning för de flesta datacenter. Forskare har försökt flera metoder för att förbättra energieffektiviteten i MapReduce datarörelser. Dessa meth ods inkluderar: minska volymen av data i rörelse med datakompression [3], öka datarörelsehastighet med hjälp av höghastighetsanslutningar [16], [17], tillämpa dynamisk spänning och frekvensskalning (DVFS) för att minska CPU-effektförbrukningen under datarörelser [18], och dela upp datalagring i flera zoner baserat på dataåtkomstmönster för att underlätta olika effekthanteringar Medan de flesta av dessa metoder kan förbättra den totala energieffektiviteten i MapReduce arbetsbelastningar, de ger inte detaljer om effekt och energikrav för inbyggda MapReduce datarörelser. Som visas av effektprofilen för en MapReduce-applikation i figur 1, systemeffekt förändras avsevärt med MapReduce utförandefaser och datarörelser; varje MapReduce datarörelse medför tydlig strömförbrukning. Systemhårdvara och programvarudesign måste känna igen sådana skillnader och använda lämpliga strategier för att uppnå optimal energieffektivitet för varje datarörelse. I detta arbete studerar vi kraft- och energiegenskaper hos datarörelser med hjälp av förstahandsdata som samlats in på en fysisk Hadoop MapReduce compute cluster. Vi beskriver ett analysramverk för att utvärdera energieffektiviteten i MapReduce datarörelser, och karakteriserar kraften och energin i tre huvudtyper av MapReduce datarörelser: HDFS (Hadoop File System) läsa, HDFS skriva, och data shuffle. Dessutom diskuterar vi olika faktorer som påverkar datarörelsernas energieffektivitet. Resten av detta dokument är organiserat enligt följande. Vi presenterar analysramen i avsnitt II. Vi analyserar de totala energiprofilerna för typiska datarörelser i Avsnitt III
Wirtz REF föreslår en centrerad datarörelse och presenterar en analytisk ram med metoder och mätvärden för utvärdering av kostsamma inbyggda datarörelser i MapReduce.
6,073,900
Power and energy characteristics of MapReduce data movements
{'venue': '2013 International Green Computing Conference Proceedings', 'journal': '2013 International Green Computing Conference Proceedings', 'mag_field_of_study': ['Computer Science']}
79,672
Abstract-Location-baserade tjänster (LBS) har blivit en oerhört värdefull källa till information och vägledning i realtid. Icke desto mindre utvecklas det potentiella missbruket av användarnas känsliga personuppgifter av en LBS-server till ett allvarligt problem. Privacy oro i LBS finns på två fronter: plats integritet och fråga integritet. I den här artikeln undersöker vi frågor som rör sekretess. I synnerhet syftar vi till att förhindra LBS-servern från att korrelera tjänsten attribut, t.ex. bar / tavern, i frågan till användarens verkliga identitet. Plats obfuscation med hjälp av rumslig generalisering med hjälp av anonymisering av LBS-frågor är ett konventionellt sätt för detta ändamål. Denna tekniks effektivitet skulle dock minska i kontinuerliga LBS-scenarier, dvs. där användarna rör sig och regelbundet begär LBS. I detta dokument presenterar vi ett nytt fråge-perturbation-baserat system som skyddar frågeintegritet i kontinuerlig LBS även när användaridentiteter avslöjas. Till skillnad från de flesta spännande verk, kräver vårt system inte närvaron av en betrodd tredje part.
Referensreferensreferensen föreslår en mekanism för att kontinuerligt skydda frågeintegriteten.
6,578,359
Protection of query privacy for continuous location based services
{'venue': '2011 Proceedings IEEE INFOCOM', 'journal': '2011 Proceedings IEEE INFOCOM', 'mag_field_of_study': ['Computer Science']}
79,673
Deep-Learning (DL) computing frameworks är beroende av hur data tas emot och kontrolleras. I själva verket, under utbildningen, ett betydande stort antal relativt små filer först laddas och förbehandlas på processorer och sedan flyttas till accelerator för beräkning. Dessutom utförs kontroll- och omstartsoperationer för att göra det möjligt för DL computing frameworks att starta om snabbt från en kontrollpunkt. På grund av detta påverkar I/O DL-tillämpningarnas prestanda. I detta arbete karakteriserar vi I/O-prestandan och skalningen av TensorFlow, ett programmeringsramverk med öppen källkod utvecklat av Google och speciellt utformat för att lösa DL-problem. För att mäta TensorFlow I/O prestanda, vi först utforma en mikro-benchmark för att mäta TensorFlow-avläsningar, och sedan använda en TensorFlow mini-application baserat på AlexNet för att mäta prestandakostnaden för I/O och checkpointing i TensorFlow. För att förbättra kontrollen designar och implementerar vi en sprängbuffert. Vi finner att öka antalet trådar ökar TensorFlow bandbredd med maximalt 2,3× och 7,8× på våra referensmiljöer. Användningen av tensorFlow prefetcher resulterar i en fullständig överlappning av beräkning på accelerator och ingångsrörledning på CPU eliminerar den effektiva kostnaden för I/O på den totala prestandan. Användningen av en sprängbuffert för att kontrollera till en snabb liten kapacitet lagring och kopiera asynkront kontrollpunkterna till en långsammare stor lagringskapacitet resulterade i en prestandaförbättring på 2,6× när det gäller att kontrollera direkt till långsammare lagring på vår referensmiljö.
Chien m.fl. REF analyserade effekterna av antalet trådar, sprängbuffert för kontrollpunkt och prefetcher på TensorFlow prestanda med Xeon-baserade multi-GPU superdatorer.
52,939,013
Characterizing Deep-Learning I/O Workloads in TensorFlow
{'venue': '2018 IEEE/ACM 3rd International Workshop on Parallel Data Storage & Data Intensive Scalable Computing Systems (PDSW-DISCS)', 'journal': '2018 IEEE/ACM 3rd International Workshop on Parallel Data Storage & Data Intensive Scalable Computing Systems (PDSW-DISCS)', 'mag_field_of_study': ['Computer Science']}
79,674
Människor fokuserar uppmärksamheten på olika ansiktsregioner när de erkänner ansiktsattribut. De flesta befintliga klassificeringsmetoder för ansiktsattribut använder hela bilden som indata. Dessutom är vissa av dessa metoder beroende av tillförlitliga landmärken för att ge definierade ansiktsdelar. I detta dokument föreslår vi ett kaskadnätverk som samtidigt lär sig att lokalisera regioner som är specifika för attribut och utför egenskapsklassificering utan anpassning. För det första är ett svagt övervakat regionlokaliseringsnätverk utformat för att automatiskt upptäcka regioner (eller delar) som är specifika för attribut. Därefter konstrueras och kombineras flera delbaserade nätverk och ett helbildsbaserat nätverk separat av regionbytesskiktet och attributrelationsskiktet för slutlig attributklassificering. För att få en effektiv lokaliseringsmodell och en kompakt klassificeringsmodell föreslås vidare en multi-net-inlärningsmetod och en hint-baserad modellkompression. Vårt tillvägagångssätt ger betydligt bättre resultat än de senaste metoderna på ojusterade CelebA-data, vilket minskar klassificeringsfelet med 30,9 %.
I REF föreslog författarna ett kaskadnätverk för att samtidigt lokalisera regioner till olika attribut och utföra attributklassificering.
19,231,876
A Deep Cascade Network for Unaligned Face Attribute Classification
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
79,675
Nya 5G-mobila nät är tänkta att bli flertjänstemiljöer, vilket möjliggör en dynamisk spridning av tjänster med en rad olika prestandakrav, som tillgodoser behoven hos mobilnätsoperatörer, vertikala och över-the-top (OTT) tjänsteleverantörer. Att virtualisera det mobila nätet på ett flexibelt sätt är av största vikt för ett kostnadseffektivt förverkligande av denna vision. Medan virtualisering har studerats i stor utsträckning i fallet med den mobila kärnan är virtualiseringen av radioaccessnätet (RAN) fortfarande i sin linda. I detta dokument presenterar vi Orion, ett nytt RAN-slicing-system som möjliggör dynamisk on-the-fly-virtualisering av basstationer, flexibel anpassning av skivor för att möta deras respektive servicebehov och som kan användas i en end-to-end nätverksslicing-inställning. Orion garanterar funktionell och prestandaisolering av skivor, samtidigt som den möjliggör en effektiv användning av RAN resurser bland dem. Vi presenterar en konkret prototyp implementering av Orion för LTE, med experimentella resultat, med beaktande av alternativa RAN-slicing metoder, indikerar dess effektivitet och belyser dess isolering kapacitet. Vi presenterar också en förlängning till Orion för att tillgodose behoven hos OTT leverantörer.
Inom forskningsområdet skiva virtualisering, till exempel, utvecklades ett RAN skärsystem för enkel RAT-inställning för att möjliggöra dynamisk virtualisering av basstationer (BS) i REF.
1,993,958
Orion: RAN Slicing for a Flexible and Cost-Effective Multi-Service Mobile Network Architecture
{'venue': "MobiCom '17", 'journal': None, 'mag_field_of_study': ['Computer Science']}
79,676
Abstract-In plats-baserade tjänster, användare med plats-medveten mobila enheter kan ställa frågor om sin omgivning var som helst och när som helst. Även om detta allestädes närvarande datorparadigm ger stor bekvämlighet för informationsåtkomst, väcker det också oro över potentiella intrång i användarens plats integritet. För att skydda platsens integritet är ett typiskt tillvägagångssätt att dölja användarplatser i rumsliga regioner baserade på användarspecificerade integritetskrav, och att omvandla platsbaserade frågor till regionbaserade frågor. I detta dokument identifierar och tar vi itu med tre nya frågor som rör denna plats döljande strategi. För det första studerar vi representationen av kamouflageregioner och visar att en cirkulär region i allmänhet leder till en liten resultatstorlek för regionbaserade frågor. För det andra utvecklar vi en mobility-aware position kamouflage teknik för att motstå spår analys attacker. Två kamouflagealgoritmer, nämligen MaxAccu_Cloak och MinComm_Cloak, är utformade utifrån olika prestandamål. Slutligen utvecklar vi en effektiv polynomalgoritm för utvärdering av cirkulär-region-baserade kNN frågor. Två frågebehandlingslägen, nämligen bulk och progressiv, presenteras för att returnera frågeresultat antingen alla på en gång eller på ett stegvist sätt. Experimentella resultat visar att våra föreslagna mobilitet-medveten kamouflage algoritmer avsevärt förbättra kvaliteten på platsen kamouflage i termer av entropi åtgärd utan att kompromissa mycket på fråge latens eller kommunikationskostnad. Dessutom uppnår det progressiva frågebehandlingsläget en kortare svarstid än bulkläget genom att parallellisera frågeutvärderingen och resultatöverföringen.
I REF föreslås en mobilitetsmedveten kamouflagealgoritm för att försvara spåranalysattacker.
13,929,362
Privacy-Conscious Location-Based Queries in Mobile Environments
{'venue': 'IEEE Transactions on Parallel and Distributed Systems', 'journal': 'IEEE Transactions on Parallel and Distributed Systems', 'mag_field_of_study': ['Computer Science']}
79,677
Abstract-Understanding och inställning prestanda komplexa applikationer på modern hårdvara är utmanande uppgifter, kräver förståelse för algoritmer, implementering, kompilator optimeringar och underliggande arkitektur. Många verktyg finns för att mäta och analysera körtidens prestanda hos applikationer. Få tillräckligt detaljerade prestandadata och jämföra det med toppprestanda för en arkitektur är en väg för att förstå beteendet hos en viss algoritm implementation. Ett kompletterande tillvägagångssätt bygger på analysen av källkoden själv, koppla den med en förenklad arkitektur beskrivning för att komma fram till prestandauppskattningar som kan ge en mer meningsfull övre gräns än topphårdvaruprestanda. Vi presenterar ett verktyg för att uppskatta övre prestandagränser för C/C++-applikationer genom statisk kompilatoranalys. Det genererar parameteriserade uttryck för olika typer av minnesåtkomster och heltal och flytta-punkt beräkningar. Vi införlivar sedan arkitektoniska parametrar för att uppskatta övre gränser för utförandet av en ansökan på ett visst system. Vi presenterar valideringsresultat för flera koder på två arkitekturer.
Krishna m.fl. REF uppskattar övre prestandagränser för applikationer genom statisk programanalys.
17,524,018
Generating Performance Bounds from Source Code
{'venue': '2010 39th International Conference on Parallel Processing Workshops', 'journal': '2010 39th International Conference on Parallel Processing Workshops', 'mag_field_of_study': ['Computer Science']}
79,678
Abstract-State-of-the-art objekt detekteringsnätverk är beroende av region förslag algoritmer för att hypothesize objekt platser. Framsteg som SPPnet [1] och Fast R-CNN [2] har minskat drifttiden för dessa detektionsnät, vilket exponerar beräkning av regionförslag som flaskhals. I detta arbete introducerar vi ett regionförslagsnätverk (RPN) som delar fullbildskonvolutionella funktioner med detektionsnätverket, vilket möjliggör nära nog kostnadsfria regionförslag. Ett RPN är ett helt konvolutionellt nätverk som samtidigt förutsäger objektgränser och objektitetspoäng vid varje position. RPN är utbildad end-to-end för att generera högkvalitativa regionförslag, som används av Fast R-CNN för detektion. Vi slår ytterligare samman RPN och Fast R-CNN till ett enda nätverk genom att dela deras konvolutionella funktioner-med hjälp av den nyligen populära terminologin för neurala nätverk med "attention" mekanismer, RPN komponenten talar om för det enhetliga nätverket var man ska leta. För den mycket djupa VGG-16-modellen [3] har vårt detektionssystem en bildhastighet på 5 fps (inklusive alla steg) på en GPU, samtidigt som vi uppnår toppmoderna objektdetektionsnoggrannhet på PASCAL VOC 2007, och MS COCO-datauppsättningar med endast 300 förslag per bild. I ILSVRC och COCO 2015 tävlingar, Snabbare R-CNN och RPN är grunden för den 1: a plats vinnande poster i flera spår. Koden har gjorts tillgänglig för allmänheten. Regionens förslagsmetoder är vanligtvis beroende av billiga funktioner och ekonomiska slutledningssystem. Selektiv sökning [4], en av de mest populära metoderna, sammansmälter girigt superpixel baserat på konstruerade låg nivå funktioner. Ändå jämfört med effektiva detektionsnätverk [2], Selektiv sökning är en storleksordning långsammare, på 2 sekunder per bild i en CPU-implementation. EdgeBoxar [6] ger för närvarande den bästa kompromissen mellan förslagskvalitet och hastighet, med 0,2 sekunder per bild. Trots detta konsumerar regionförslaget lika mycket drifttid som nätverket för upptäckt. Man kan notera att snabba regionbaserade CNN dra nytta av GPU, medan de regionala förslag metoder som används i forskning genomförs på CPU, vilket gör sådana runtime jämförelser ojämförliga. Ett självklart sätt att påskynda beräkningen av förslag är att återinföra det för GPU. Detta kan vara en effektiv teknisk lösning, men omgenomförandet bortser från down-stream detektion nätverk och därför missar viktiga möjligheter att dela beräkningar. I detta dokument visar vi att en algoritmisk förändringskomputerande förslag med en djup konvolutionell neural nätverk-leads till en elegant och effektiv lösning där förslagsberäkning är nästan gratis med tanke på detektionsnätverkets beräkning. I detta syfte introducerar vi nya regionala förslagsnätverk (RPN) som delar konvolutionella skikt med toppmoderna nätverk för objektdetektering [1], [2]. Genom att dela konvolutioner vid testtid är marginalkostnaden för datorförslag liten (t.ex. 10 ms per bild). Vår iakttagelse är att de konvolutionella funktionskartor som används av regionbaserade detektorer, som Fast R-CNN, också kan användas för att generera regionförslag. Ovanpå dessa konvolutionella funktioner konstruerar vi en RPN genom att lägga till några ytterligare konvolutionella lager som samtidigt regresserar regiongränser och objektitet poäng på varje plats på ett vanligt rutnät. RPN är således ett slags fullständigt konvolutionsnätverk [7] och kan utbildas från början till slut särskilt för uppgiften att ta fram förslag på detektering. RPN är utformade för att effektivt förutsäga regionala förslag med ett brett spektrum av skalor och proportioner. I motsats till vanliga metoder [1], [2], [8], [9] som använder pyramider av bilder (Fig. 1a) eller filterpyramider (Fig. 1b), Vi introducerar nya "anchor" rutor som fungerar som referenser på flera skalor och proportioner. Vårt schema kan ses som en pyramid av regressionsreferenser (Fig. 1c), som undviker att räkna upp bilder eller filter av flera skalor eller proportioner. Denna modell fungerar bra när den är tränad och testad med enskaliga bilder och därmed gynnar körhastigheten. För att förena RPNs med snabba R-CNN [2] objektdetekteringsnätverk, föreslår vi ett utbildningsprogram som alternerar S. Ren är med
Zhang m.fl. [44] Undersöka prestandan hos Snabbare R-CNN REF för uppgiften att upptäcka fotgängare.
10,328,909
Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
79,679
Abstract-Tidigare vektor arkitekturer delade det tillgängliga registret filutrymme i ett fast antal register i lika storlekar och former. Vi föreslår en registerfil organisation som tillåter dynamiskt skapande av ett variabelt antal flerdimensionella register av godtyckliga storlekar som kallas en Polymorphic Register File. Vårt mål är att utvärdera prestandafördelarna med den föreslagna organisationen. Simuleringsresultat med hjälp av verkliga applikationer (Floyd och CG) tyder på hastighetsökningar på upp till 3 gånger jämfört med Cell SPU för Floyd och 2 gånger jämfört med en endimensionell vektoriserad version av gles matrisvektor multiplikation. Dessutom uppnås i samma experimentella sammanhang en stor minskning av antalet utförda instruktioner på upp till 3000 gånger för Floyd och 2000 gånger för gles matrisvektormultiplikation.
Tidigare arbeten visar minskningar av antalet utförda instruktioner med tre storleksordningar på grund av PRF REF.
8,132,246
A Polymorphic Register File for matrix operations
{'venue': '2010 International Conference on Embedded Computer Systems: Architectures, Modeling and Simulation', 'journal': '2010 International Conference on Embedded Computer Systems: Architectures, Modeling and Simulation', 'mag_field_of_study': ['Computer Science']}
79,680
Att lära av några exempel är fortfarande en viktig utmaning när det gäller maskininlärning. Trots de senaste framstegen inom viktiga områden som vision och språk erbjuder det standardstyrda djupinlärningsparadigmet inte en tillfredsställande lösning för att snabbt lära sig nya begrepp från lite data. I detta arbete, använder vi idéer från metrisk inlärning baserat på djupa neurala funktioner och från senaste framsteg som förstärker neurala nätverk med externa minnen. Vårt ramverk lär sig ett nätverk som kartlägger ett litet märkt support set och ett omärkt exempel på dess etikett, vilket undanröjer behovet av finjustering för att anpassa sig till nya klasstyper. Vi definierar sedan en-shot inlärningsproblem på vision (med Omniglot, ImageNet) och språkuppgifter. Vår algoritm förbättrar noggrannheten i ett ögonblick på ImageNet från 87,6% till 93,2% och från 88,0% till 93,8% på Omniglot jämfört med konkurrerande tillvägagångssätt. Vi visar också nyttan av samma modell för språkmodellering genom att införa en engångsuppgift på Penn Treebank.
Matchning Networks REF kartlägger en liten märkt supportuppsättning och ett omärkt exempel på dess etikett, vilket undanröjer behovet av finjustering för att anpassa sig till nya klasstyper.
8,909,022
Matching Networks for One Shot Learning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
79,681
Människor tweetar mer än 100 Miljoner gånger dagligen, vilket ger en bullrig, informell, men ibland informativ corpus av 140 tecken meddelanden som speglar zeitgeist på ett aldrig tidigare skådat sätt. Prestandan hos standard NLP-verktyg försämras kraftigt på tweets. Detta dokument tar upp denna fråga genom att bygga om NLP-ledningen och börja med del-av-tal-märkning, genom styckning, till namngiven enhet erkännande. Vårt nya T-NER-system fördubblar F 1-poäng jämfört med Stanford NER-systemet. T-NER utnyttjar redundansen i tweets för att uppnå denna prestanda, med hjälp av LabeledLDA för att utnyttja Freebase ordböcker som en källa till avlägsen övervakning. Märkt LDA överträffar samutbildning, vilket ökar F 1 med 25 % över tio vanliga enhetstyper. Våra NLP-verktyg finns tillgängliga på: http:// github.com/aritter/twitter_nlp
I REF rapporterade författarna att prestandan hos standard NLP-verktyg allvarligt försämras på tweets.
12,861,120
Named Entity Recognition in Tweets: An Experimental Study
{'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
79,682
Stora flash-skivor, eller solid state-enheter (SSD), har blivit ett attraktivt alternativ till magnetiska hårddiskar, på grund av deras höga slumpmässiga läsprestanda, låg energiförbrukning och andra funktioner. Skriver dock, särskilt små slumpmässiga skriver, på flash-skivor är naturligt mycket långsammare än läser på grund av radering-föreskriva mekanism. För att ta itu med denna asymmetri av läshastigheter i trädindexering på flashdisken föreslår vi FD-träd, ett trädindex utformat med logaritmisk metod och fraktionerad kaskadteknik. Med den logaritmiska metoden består ett FD-träd av huvudträdet - ett litet B+-träd på toppen, och några nivåer av sorterade runningar av ökande storlekar på botten. Denna design är skrivoptimerad för flashdisken; i synnerhet, en indexsökning kommer potentiellt gå igenom fler nivåer eller besöka fler noder, men slumpmässiga skriver begränsas till ett litet område - huvudet träd, och senare omvandlas till sekventiella genom sammanslagning till de lägre körningar. Med den fraktionerade kaskadteknik, lagrar vi pekare, kallas staket, i lägre nivå körs för att påskynda sökningen. Med tanke på ett FD-träd av n poster, visar vi analytiskt att det utför en uppdatering i O(log B n) sekventiella I/Os och slutför en sökning i O(log B n) slumpmässiga I/Os, där B är Flash page storlek. Vi utvärderar FD-träd i jämförelse med representativa B+-trädvarianter under en mängd olika arbetsbelastningar på tre produktblixt SSD:er. Våra resultat visar att FD-tree har en liknande sökprestanda som standard B+-tree, och en liknande uppdateringsprestanda som den skrivoptimerade B+-tree varianten. Som ett resultat, FD-tree dominerar de andra B+-tree indexvarianter på den totala prestandan på flashskivor samt på magnetiska diskar.
Ett FD-tree föreslås i REF för dataindexering på SSD-enheter utan slumpmässiga skrivningar, som har en liknande idé som LSMtree och förstärks med fraktionerad kaskadteknik för en låg minnesanvändning.
15,450,842
Tree Indexing on Solid State Drives
{'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']}
79,683
Feature banor har visat sig vara effektiva för att representera videor. Vanligtvis extraheras de med hjälp av KLT tracker eller matchande SIFT deskriptorer mellan ramar. Kvaliteten och mängden av dessa banor är dock ofta inte tillräcklig. Inspirerad av de senaste framgångarna med tät provtagning i bildklassificering föreslår vi ett tillvägagångssätt för att beskriva videor med täta banor. Vi provar täta punkter från varje ram och spårar dem baserat på förskjutningsinformation från ett tätt optiskt flöde fält. Med tanke på en toppmodern optisk flödesalgoritm är våra banor robusta för snabba oregelbundna rörelser och skjutgränser. Dessutom täcker täta banor rörelseinformationen väl i videor. Vi undersöker också hur man utformar deskriptorer för att koda kursinformationen. Vi introducerar en ny deskriptor baserad på rörelsegränshistogram, som är robust för kamerarörelse. Denna deskriptor överträffar konsekvent andra toppmoderna deskriptorer, särskilt i okontrollerade realistiska videor. Vi utvärderar vår videobeskrivning i samband med åtgärdsklassificering med en bag-of-features strategi. Experimentella resultat visar en betydande förbättring jämfört med den senaste tekniken på fyra datauppsättningar med varierande svårighetsgrad, dvs. KTH, YouTube, Hollywood2 och UCF sporter.
I REF, Wang et al. införa en videorepresentation baserad på täta banor och rörelsegränser histogram (MBH) som uppnådde toppmoderna resultat på en mängd olika åtgärdsklassificeringsdata.
13,537,104
Action recognition by dense trajectories
{'venue': 'CVPR 2011', 'journal': 'CVPR 2011', 'mag_field_of_study': ['Computer Science']}
79,684
Abstructqew algoritmer för överföring schemaläggning i multihop radionät presenteras. Både schemaläggning av länkar och schemaläggning av sändningar beaktas. I varje fall ges schemaläggningsalgoritmer som förbättrar befintliga algoritmer både teoretiskt och experimentellt. Teoretiskt sett visas det att trädnät kan schemaläggas optimalt och att godtyckliga nätverk kan schemaläggas så att schemat avgränsas av en längd som är proportionell mot en funktion av nätets tjocklek gånger den optimala. Tidigare algoritmer kunde garantera endast att scheman begränsas av en längd inte sämre än den maximala nodgrad gånger optimal. Eftersom tjockleken vanligtvis är flera storleksordningar mindre än den maximala nodgraden, representerar algoritmerna som presenteras här en betydande teoretisk förbättring. Experimentellt ges en realistisk modell av ett radionät och de nya algoritmernas prestanda studeras. Dessa resultat visar att de nya algoritmerna (experimentellt) för båda typerna av schemaläggning genomgående presterar bättre än tidigare metoder.
Ramanathan och Lloyd REF övervägde både trädnät och godtyckliga nätverk, och de föreslagna algoritmernas prestanda begränsas av ett näts tjocklek.
15,441,840
Scheduling Algorithms for Multihop Radio Networks
{'venue': 'IEEE/ACM Transactions on Networking', 'journal': None, 'mag_field_of_study': ['Computer Science']}
79,685
Vi initierar studien av marknader för privata data, genom linsen av differential integritet. Även om köp och försäljning av privata data redan har börjat i stor skala, saknas en teori om integritet som en vara. I detta dokument föreslår vi att man bygger upp en sådan teori. I synnerhet överväger vi en miljö där en dataanalytiker vill köpa information från en befolkning från vilken han kan uppskatta viss statistik. Analytikern vill få en korrekt uppskattning billigt, medan ägarna av privata data upplever vissa kostnader för deras förlust av integritet, och måste kompenseras för denna förlust. Agenter är själviska, och vill maximera sin vinst, så vårt mål är att utforma sanningsenliga mekanismer. Vårt huvudsakliga resultat är att sådana problem naturligtvis kan ses och lösas optimalt som varianter av flera enhetsauktioner. Baserat på detta resultat härleder vi auktioner som är optimala upp till små konstanta faktorer för två naturliga inställningar: 1. När dataanalytikern har ett fast precisionsmål visar vi att en tillämpning av den klassiska Vickrey-auktionen uppnår analytikerns precisionsmål samtidigt som den minimerar hans totala betalning. 2. Utgångspunkten är följande: När dataanalytikern har en fast budget, ger vi en mekanism som maximerar riktigheten av den resulterande uppskattningen samtidigt som den garanterar att de resulterande summan betalningar inte överstiger analytikerns budget. I båda fallen är vår jämförelseklass den uppsättning avundslösa mekanismer som motsvarar den naturliga klassen av fasta prismekanismer i vår miljö. I båda dessa resultat bortser vi från kostnaden för privatlivet på grund av möjliga samband mellan en individs privata data och hans värdering av integriteten i sig. Vi visar sedan att generiskt, ingen individuellt rationell mekanism kan kompensera individer för den integritetsförlust som uppstått på grund av deras rapporterade värderingar för integritet. Detta är dock en viktig fråga, och att modellera den på rätt sätt är en av de många spännande riktlinjerna för det framtida arbetet.
REF visar att när integritetskostnaderna är korrelerade till data kan ingen individuellt rationell mekanism för direkt avslöjande samtidigt uppnå icke-trivial noggrannhet och differentiell integritet.
1,934,476
Selling privacy at auction
{'venue': "EC '11", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
79,686
Kameranätverk är kanske den vanligaste typen av sensornätverk och är utplacerade i en mängd olika tillämpningar i verkligheten, inklusive övervakning, intelligenta miljöer och vetenskaplig fjärrövervakning. Ett nyckelproblem vid utbyggnaden av ett nätverk av kameror är kalibrering, dvs. att bestämma placeringen och orienteringen för varje sensor så att observationer i en bild kan kartläggas till platser i den verkliga världen. I detta dokument föreslås ett fullständigt distribuerat tillvägagångssätt för kameranätverkskalibrering. Kamerorna samarbetar för att spåra ett objekt som rör sig genom miljön och resonerar probabilistiskt om vilka kameraposer som överensstämmer med de observerade bilderna. Detta resonemang använder sig av sofistikerade tekniker för att hantera de svåra icke-linjäriteter som påförs genom projektiva omvandlingar, liksom de täta korrelationer som uppstår mellan avlägsna kameror. Vår metod kräver minimal överlappning av kamerornas synfält och gör mycket få antaganden om föremålets rörelse. I motsats till befintliga tillvägagångssätt, som är centraliserade, våra distribuerade algoritmskalor lätt till mycket stora kameranätverk. Vi utvärderar systemet på ett verkligt kameranätverk med 25 noder samt simulerade kameranätverk med upp till 50 kameror och visar att vårt tillvägagångssätt fungerar bra även när kommunikationen går förlorad.
Ett exempel på sådant arbete är REF där distribuerad kameralokalisering används för att bestämma varje kameras placering och orientering.
1,798,374
Distributed localization of networked cameras
{'venue': "IPSN '06", 'journal': None, 'mag_field_of_study': ['Computer Science']}
79,687
Vi föreslår en enkel tvåstegsmetod för att påskynda konvolutionslager inom stora konvolutionella neurala nätverk baserat på tensor sönderdelning och diskriminativ finjustering. Med tanke på ett lager, använder vi icke-linjära minst kvadrater för att beräkna en låg-rank CP-dekomposition av 4D-konvolution kärna tensor till en summa av ett litet antal rank-en tensorer. I det andra steget används denna nedbrytning för att ersätta det ursprungliga konvolutionslagret med en sekvens av fyra konvolutionslager med små kärnor. Efter en sådan ersättning är hela nätverket finjusterat på träningsdata med hjälp av standard backpropagation process. Vi utvärderar detta tillvägagångssätt på två CNNs och visar att det ger större CPU hastigheter på bekostnad av lägre noggrannhet sjunker jämfört med tidigare metoder. För 36-klass teckenklassificering CNN, vår strategi får en 8,5x CPU hastighetsökning av hela nätverket med endast mindre noggrannhet nedgång (1% från 91% till 90%). För den vanliga ImageNet arkitekturen (AlexNet), påskyndar inflygningen upp det andra konvolutionsskiktet med en faktor på 4x till priset av 1% ökning av den totala top-5 klassificeringsfel.
I REF föreslogs att CP-nedbrytningen skulle dela upp hela 4D-konvolutionsskiktet i fyra 1D-konvolutioner.
15,002,492
Speeding-up Convolutional Neural Networks Using Fine-tuned CP-Decomposition
{'venue': 'ICLR 2015', 'journal': 'arXiv: Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
79,688