src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
Tidningen ger en översikt över utvecklingen av intelligent dataanalys inom medicin utifrån ett maskininlärningsperspektiv: en historisk syn, ett toppmodernt synsätt och en syn på vissa framtida trender inom detta subfält av tillämpad artificiell intelligens. Tidningen är inte avsedd att ge en heltäckande översikt utan beskriver snarare vissa delområden och riktningar som ur min personliga synvinkel verkar vara viktiga för att tillämpa maskininlärning vid medicinsk diagnos. I den historiska översikten betonar jag den naiva Bayesian klassificerare, neurala nätverk och beslut träd. Jag presenterar en jämförelse av några toppmoderna system, representanter från varje gren av maskininlärning, när de tillämpas på flera medicinska diagnostiska uppgifter. De framtida trenderna illustreras av två fallstudier. Den första beskriver en nyligen utvecklad metod för att hantera tillförlitligheten i klassificeringsbeslut, som verkar lovande för intelligent dataanalys inom medicin. Den andra beskriver ett tillvägagångssätt för att använda maskininlärning för att verifiera några oförklarliga fenomen från kompletterande medicin, som inte (ännu) godkänts av den ortodoxa medicinska samhället men kan i framtiden spela en viktig roll i övergripande medicinsk diagnos och behandling.
Forskning som REF gav en riktning av maskininlärning algoritmer i disciplin av medicin.
17,327,610
Machine learning for medical diagnosis: history, state of the art and perspective
{'venue': 'Artificial Intelligence in Medicine', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Medicine']}
80,197
Abstract-I trådlösa sensornätverk, är det redan noteras att närliggande sensornoder övervakning en miljöfunktion normalt registrerar liknande värden. Denna typ av data redundans på grund av den rumsliga korrelationen mellan sensorobservationer inspirerar forskningen i nätverksdataaggregation. I detta dokument föreslås en -lokal rumslig klusteralgoritm för sensornätverk. Genom att mäta den rumsliga korrelationen mellan data från olika sensorer konstruerar algoritmen en dominerande uppsättning som det sensornätverk som används för att realisera dataaggregationen baserat på Dominatorernas informationsbeskrivning/sammanfattningsprestanda. För att utvärdera algoritmens prestanda presenteras ett mönsterigenkänningsscenario över miljödata. Utvärderingen visar att det resulterande nätverket som uppnås med vår algoritm kan ge miljöinformation med högre noggrannhet jämfört med andra algoritmer.
I en senaste publikation REF har motsvarande författare presenterat α-lokal rumslig klusteralgoritm tillsammans med dataaggregeringsmekanism.
1,639,100
Distributed Clustering-Based Aggregation Algorithm for Spatial Correlated Sensor Networks
{'venue': 'IEEE Sensors Journal', 'journal': 'IEEE Sensors Journal', 'mag_field_of_study': ['Computer Science']}
80,198
Djupare neurala nätverk är svårare att träna. Vi presenterar en återstående utbildningsram för att underlätta utbildningen av nätverk som är betydligt djupare än de som användes tidigare. Vi omformulerar uttryckligen lagren som lärande restfunktioner med hänvisning till lageringångar, istället för att lära sig orefererade funktioner. Vi tillhandahåller omfattande empiriska bevis som visar att dessa kvarvarande nätverk är lättare att optimera, och kan få noggrannhet från avsevärt ökat djup. På ImageNet dataset utvärderar vi kvarvarande nät med ett djup på upp till 152 lager-8× djupare än VGG nät [41] men fortfarande har lägre komplexitet. En ensemble av dessa restnät uppnår 3.57% fel på ImageNet testuppsättningen. Detta resultat vann första plats på ILSVRC 2015 klassificering uppgift. Vi presenterar även analys på CIFAR-10 med 100 och 1000 lager. Djupet av representationer är av central betydelse för många visuella igenkänningsuppgifter. På grund av våra extremt djupa representationer får vi en relativ förbättring på 28 % av COCO-datan för objektdetektering. Djupa restnät är grunden för våra bidrag till ILSVRC & COCO 2015 tävlingar 1, där vi också vann 1: a platser på uppgifterna ImageNet upptäckt, ImageNet lokalisering, COCO upptäckt och COCO segmentering.
För att underlätta utbildningen av djupa CNN föreslogs Residual Networks (ResNets) Ref.
206,594,692
Deep Residual Learning for Image Recognition
{'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
80,199
Hur man modellerar ett par meningar är en kritisk fråga i många NLP-uppgifter såsom svarsval (AS), parafrasidentifiering (PI) och textingrepp (TE). De flesta tidigare arbeten (i) handlar om en enskild uppgift genom finjustering av ett specifikt system; (ii) modellerar varje menings representation separat, sällan med tanke på inverkan av den andra meningen; eller (iii) bygger helt på manuellt utformade, uppgiftsspecifika språkliga funktioner. Detta arbete presenterar en allmän uppmärksamhetsbaserad Convolutional Neural Network (ABCNN) för att modellera ett par meningar. Vi ger tre bidrag. (i) ABCNN kan tillämpas på en mängd olika uppgifter som kräver modellering av meningspar. (ii) Vi föreslår tre uppmärksamhetsprogram som integrerar ömsesidigt inflytande mellan meningar i CNN, vilket innebär att varje menings representation tar hänsyn till dess motsvarighet. Dessa inbördes beroende mening par representationer är mer kraftfull än isolerade mening representationer. (iii) ABCNN:er uppnår toppmoderna resultat när det gäller AS-, PI- och TE-uppgifter. Vi släpper kod på: https://github.com/ yinwenpeng/Answer_Selection.
I REF föreslogs ett uppmärksamhetsbaserat konvolutionsnätverk (ABCNN) för modellering av meningspar.
5,535,381
ABCNN: Attention-Based Convolutional Neural Network for Modeling Sentence Pairs
{'venue': 'Transactions of the Association for Computational Linguistics', 'journal': 'Transactions of the Association for Computational Linguistics', 'mag_field_of_study': ['Computer Science']}
80,200
Vi undersöker problemet med inomhuspositionering med omodifierade smartphones och något modifierade kommersiella LED-armaturer. Armaturerna-modifierade för att möjliggöra snabb, on-off nyckelöverföring-transmittera sina identifierare och / eller platser kodade i mänskliga-omärkliga optiska pulser. En kamerautrustad smartphone, med bara en bildram, kan upptäcka närvaron av armaturerna i bilden, avkoda deras överförda identifierare och/eller platser, och bestämma smartphonens läge och orientering i förhållande till armaturerna. Kontinuerlig bildtagning och bildbearbetning möjliggör kontinuerliga positionsuppdateringar. De viktigaste insikterna bakom detta arbete är (i) förarkretsarna i nya LED-belysningssystem kan enkelt ändras för att överföra data genom on-off-tangentering; (ii) den rullande avtryckare effekten av CMOS-bildare kan utnyttjas för att ta emot många bitar av data kodade i de optiska överföringarna med bara en enda ram fånga, (iii) en kamera är i sig en vinkel-av-arrival sensor, så projektion av flera närliggande ljuskällor med kända positioner på en kamera bildplan kan ramas som ett exempel på en tillräckligt konsensifierad vinkel-av-arrival lokalisering problem, och (iv) detta problem kan lösas med optimering tekniker. Vi undersöker konstruktionens genomförbarhet genom en analytisk modell, visar konstruktionens genomförbarhet genom ett prototypsystem, diskuterar utmaningarna för en praktisk användning, inklusive användbarhet och skalbarhet, och visar precision på decimeternivå i både noggrant kontrollerade och mer realistiska mobilitetsscenarier.
Luxapose REF, som föreslogs 2014, integrerar synliga ljusfyrar, omodifierade smartphone, och moln / cloudlet-server för att bestämma plats och orientering för en smartphone.
12,187,098
Luxapose: indoor positioning with mobile phones and visible light
{'venue': "MobiCom '14", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,201
Abstrakt. JavaScript är det huvudsakliga skriptspråket för webbläsare, och det är viktigt för moderna webbapplikationer. Programmerare har börjat använda den för att skriva komplexa applikationer, men det finns fortfarande lite verktygsstöd tillgängligt under utvecklingen. Vi presenterar en statisk programanalysinfrastruktur som kan härleda detaljerad och ljudtypsinformation för JavaScript-program med abstrakt tolkning. Analysen är utformad för att stödja det fullständiga språket enligt ECMAScript-standarden, inklusive dess säregna objektmodell och alla inbyggda funktioner. Analysresultaten kan användas för att upptäcka vanliga programmeringsfel - eller snarare bevisa deras frånvaro, och för att producera typinformation för programförståelse. Preliminära experiment utförda på real-life JavaScript kod indikerar att metoden är lovande när det gäller analysprecision på små och medelstora program, som utgör majoriteten av JavaScript program. Med potential för ytterligare förbättringar föreslår vi analysen som en grund för att bygga verktyg som kan hjälpa JavaScript programmerare.
TAJS REF är en statisk analysator baserad på abstrakt tolkning för JavaScript.
5,542,582
Type Analysis for JavaScript
{'venue': 'SAS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,202
Gemensamma audiovisuella mönster finns ofta i videor och ger starka multimodala signaler för att upptäcka multimediahändelser. Men konventionella metoder i allmänhet sammansmälta visuell och ljud information endast på en ytlig nivå, utan att tillräckligt utforska djupa inneboende gemensamma mönster. I detta dokument föreslår vi en gemensam audiovisuell bimodal representation, så kallade bimodala ord. Vi bygger först en bipartite graf till modell relation över de kvantiserade ord som extraheras från visuella och ljud modaliteter. Skiljetecken över bipartitgrafen används sedan för att konstruera de bimodala ord som avslöjar de gemensamma mönstren över olika modaliteter. Slutligen används olika pooling strategier för att omkvantifiera visuella och ljudord till bimodala ord och bilda bimodala Bag-of-Words representationer som matas till efterföljande multimedia händelse klassificerare. Vi visar experimentellt att den föreslagna multimodala funktionen uppnår statistiskt signifikanta prestandavinster jämfört med metoder som enbart använder individuella visuella och ljudrelaterade funktioner och alternativa multimodala fusionsmetoder. Dessutom fann vi att genomsnittlig poolning är den lämpligaste strategin för bimodal funktionsgenerering.
- Ja, det är jag. REF upptäckte de bimodala audiovisuella kodorden och utnyttjade de gemensamma mönstren över ljud- och visuellrymden för att öka händelsedetekteringsprestandan.
14,735,617
Joint audio-visual bi-modal codewords for video event detection
{'venue': "ICMR '12", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,203
I detta papper introducerar vi en generativ parametrisk modell som kan producera högkvalitativa prover av naturliga bilder. Vår strategi använder en kaskad av konvolutionella nätverk inom en Laplacian pyramid ram för att generera bilder på ett grovt till fint sätt. På varje nivå av pyramiden tränas en separat generativ konvnetmodell med hjälp av Generative Adversarial Nets (GAN) approach [10]. Prover från vår modell är av betydligt högre kvalitet än alternativa metoder. I en kvantitativ bedömning av mänskliga utvärderare misstogs våra CIFAR10-prover för verkliga bilder omkring 40 % av tiden, jämfört med 10 % för prover som tagits från en GAN-baslinjemodell. Vi visar också prover från modeller som är utbildade på de högre upplösningsbilderna av LSUN scendatasetet.
REF föreslår en Laplacian pyramid av generator-discriminator par för att generera bilder.
1,282,515
Deep Generative Image Models using a Laplacian Pyramid of Adversarial Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
80,204
Abstract-Design av effektiva protokoll för medium åtkomst (MAC) med både hög genomströmningsprestanda och hög grad av rättvisa prestanda är ett stort fokus inom distribuerad innehållsbaserad MAC-protokollforskning. I detta dokument föreslår vi ett nytt och effektivt innehållsbaserat MAC-protokoll för trådlösa lokala nätverk, nämligen algoritmen Fast Collision Resolution (FCR). Denna algoritm är utvecklad baserat på följande innovativa idéer: för att påskynda kollisionsupplösningen, vi aktivt omfördela backoff timers för alla aktiva noder; för att minska det genomsnittliga antalet tomgångar, använder vi mindre strid fönsterstorlekar för noder med framgångsrika paketöverföringar och minska backoff timers exponentiellt snabbt när ett fast antal på varandra följande tomgångar upptäcks. Vi visar att den föreslagna FCR-algoritmen ger hög genomströmningsprestanda och låg latens i trådlösa LAN. De omfattande simuleringsstudierna visar att FCR-algoritmen avsevärt kan förbättra prestandan för IEEE 802.11 MAC-protokollet om vår effektiva kollisionsupplösningsalgoritm används och att den ganska schemalagda FCR-algoritmen (FS-FCR) samtidigt kan uppnå hög genomströmningsprestanda och en hög grad av rättvisa.
Snabb kollisionsupplösning (FCR) är ett nytt tvistebaserat MAC-protokoll REF.
17,136,896
A novel MAC protocol with fast collision resolution for wireless LANs
{'venue': 'IEEE INFOCOM 2003. Twenty-second Annual Joint Conference of the IEEE Computer and Communications Societies (IEEE Cat. No.03CH37428)', 'journal': 'IEEE INFOCOM 2003. Twenty-second Annual Joint Conference of the IEEE Computer and Communications Societies (IEEE Cat. No.03CH37428)', 'mag_field_of_study': ['Computer Science']}
80,205
Vi presenterar vikt normalisering: en reparameterisering av viktvektorer i ett neuralt nätverk som frikopplar längden på dessa viktvektorer från deras riktning. Genom att omparameterisera vikterna på detta sätt förbättrar vi konditioneringen av optimeringsproblemet och vi påskyndar konvergensen av stokastisk lutning nedstigning. Vår reparameterisering är inspirerad av batch normalisering men introducerar inga beroenden mellan exemplen i en minibatch. Detta innebär att vår metod också kan tillämpas framgångsrikt på återkommande modeller som LSTMs och på bullerkänsliga applikationer såsom djup förstärkning lärande eller generativa modeller, för vilka batch normalisering är mindre väl lämpad. Även om vår metod är mycket enklare, ger det fortfarande mycket av upphastigheten av full batch normalisering. Dessutom är de beräkningsmässiga omkostnaderna för vår metod lägre, vilket gör det möjligt att ta fler optimeringssteg på samma tid. Vi demonstrerar nyttan av vår metod för applikationer i övervakad bildigenkänning, generativ modellering och djupt förstärkande lärande.
Viktnormalisering REF är också en lösning för att förenkla optimeringsproblemet och påskynda konvergensen av stokastisk lutning nedstigning under träningsprocessen.
151,231
Weight Normalization: A Simple Reparameterization to Accelerate Training of Deep Neural Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,206
Abstract-Problemet med att modellera navigation beteende av flera interagerande agenter uppstår i olika områden, inklusive robotik, datorgrafik, och beteendevetenskap. I detta dokument presenterar vi en strategi för att lära sig det sammansatta navigeringsbeteendet hos interagerande agenter från demonstrationer. Beslutsprocessen som i slutändan leder till de observerade kontinuerliga banorna hos agenterna omfattar ofta också diskreta beslut, som delar upp utrymmet för sammansatta banor i homotopiklasser. Därför använder vår metod en blandning sannolikhetsfördelning som består av en diskret fördelning över homotopy klasser och kontinuerliga fördelningar över de sammansatta banor för varje homotopy klass. Vår strategi lär sig modellparametrarna för denna distribution som i förväntan motsvarar det observerade beteendet i termer av användardefinierade funktioner. För att beräkna funktionsförväntningarna över de högdimensionella kontinuerliga distributionerna använder vi Hamiltonian Markov chain Monte Carlo sampling. Vi utnyttjar att distributionerna är mycket strukturerade på grund av fysiska begränsningar och vägleder provtagningsprocessen till regioner med hög sannolikhet. Vi tillämpar vår strategi för att lära sig fotgängarnas beteende och visar att det överträffar toppmoderna metoder.
För att ta itu med detta problem och möjliggöra korrekt modellering av fotgängare beteende, REF föreslår datorfunktioner förväntningar med Hamiltonian Markov kedjan Monte Carlo provtagning.
9,960,489
Learning to predict trajectories of cooperatively navigating agents
{'venue': '2014 IEEE International Conference on Robotics and Automation (ICRA)', 'journal': '2014 IEEE International Conference on Robotics and Automation (ICRA)', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,207
Under de senaste åren har det gjorts ett omfattande arbete med det viktiga problemet med samreferenslösning, varav de flesta har koncentrerats på utveckling av nya modeller och algoritmiska tekniker. Dessa verk visar ofta att komplexa modeller förbättras över en svag parvis baslinje. Mindre uppmärksamhet har dock ägnats åt vikten av att välja starka egenskaper för att stödja inlärningen av en samreferensmodell. Detta dokument beskriver en ganska enkel parvis klassificering modell för coreferens upplösning, utvecklad med en väl utformad uppsättning funktioner. Vi visar att detta skapar ett toppmodernt system som överträffar system som byggs med komplexa modeller. Vi föreslår att vårt system kan användas som grund för utvecklingen av mer komplexa modeller som kan ha mindre inverkan när en mer robust uppsättning funktioner används. Dokumentet presenterar också en ablation studie och diskuterar de relativa bidragen av olika egenskaper.
Bengtson och Roth Ref föreslog en ganska enkel modell som kombinerar en coreferensklassificeringsmodell med en stark uppsättning funktioner.
8,179,642
Understanding the Value of Features for Coreference Resolution
{'venue': 'Conference On Empirical Methods In Natural Language Processing', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,208
Säkerhets- och effektivitetstillämpningar i fordonsnätverk bygger på utbyte av periodiska meddelanden mellan fordon. Dessa meddelanden innehåller position, hastighet, kurs och annan viktig information som gör fordonen medvetna om sin omgivning. Nackdelen med att utbyta periodiska samarbetsmeddelanden är att de genererar betydande kanalbelastning. Decentraliserade Congestion Control-algoritmer (DCC) har föreslagits för att minimera kanalbelastningen. Även om syftet med periodiskt meddelandeutbyte är att öka medvetenheten, använder befintliga DCC-algoritmer inte medvetenhet som ett mått för att avgöra när, med vilken effekt och i vilken takt de periodiska meddelandena måste skickas för att se till att alla fordon informeras. Vi föreslår en miljö- och kontextmedveten DCC-algoritm som kombinerar kraft och hastighetskontroll för att förbättra den kooperativa medvetenheten genom att anpassa sig till både specifika spridningsmiljöer (t.ex. stadskorsningar, öppna motorvägar, förortsvägar) och tillämpningskrav (t.ex. olika målkooperativt medvetandeområde). Genom att studera olika driftsförhållanden (t.ex. hastighet, riktning och tillämpningskrav) justerar ECPR meddelandenas sändningseffekt för att nå önskat medvetandeförhållande vid målavståndet och samtidigt styra kanalbelastningen med hjälp av en adaptiv hastighetskontrollalgoritm. Genom att utföra omfattande simuleringar, * Korresponderande författare * * M. Boban utförde detta arbete under NEC Laboratories Europe.
Aygun m.fl. I REF föreslogs en miljö- och kontextmedveten decentraliserad algoritm för kontroll av överbelastning som kombinerar effekt och hastighetskontroll för att förbättra den kooperativa medvetenheten genom att anpassa sig till spridningsmiljöer för fordonskommunikation.
15,463,998
ECPR: Environment- and Context-aware Combined Power and Rate Distributed Congestion Control for Vehicular Communications
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
80,209
Mobila meddelanden används i allt större utsträckning av en mängd olika program för att informera användare om händelser, nyheter eller bara för att skicka varningar och påminnelser till dem. Många anmälningar är dock varken användbara eller relevanta för användarnas intressen och de anses därför vara störande och potentiellt irriterande. I detta dokument presenterar vi design, implementation och utvärdering av PrefMiner, en ny lösning för avstängningshantering som lär sig användarnas preferenser för att ta emot meddelanden baserade på automatisk utvinning av regler genom att bryta deras interaktion med mobiltelefoner. Målet är att bygga ett system som är begripligt för användare, dvs. inte bara en "svart-box"-lösning. Regler visas för användare som kan besluta att acceptera eller kassera dem i körtid. PrefMiners utformning bygger på en storskalig datauppsättning för mobila underrättelser och dess effektivitet utvärderas med hjälp av en in-the-vild utbyggnad.
I ytterligare en studie, Mehrotra et al. I REF föreslogs en mekanism för hantering av avbrott som lär sig användarnas preferenser för att ta emot anmälningar baserade på automatisk utvinning av regler genom att bryta deras interaktion med mobila anmälningar.
14,237,136
PrefMiner: mining user's preferences for intelligent mobile notification management
{'venue': "UbiComp '16", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,210
Med tanke på den ökande spridningen av molndatacentrum och den överdrivna användningen av serverresurser ökar också deras tillhörande energi- och miljöeffekter i alarmerande takt. Leverantörer av molntjänster är under enorm press att avsevärt minska båda dessa konsekvenser för att främja gröna datorer. Att upprätthålla den önskade nivån på tjänsternas kvalitet (QoS) utan att bryta mot servicenivåavtalet (SLA), samtidigt som man försöker minska användningen av datacenterresurserna är en uppenbar utmaning för molntjänstleverantörerna. Skalning av nivån på aktiva serverresurser i enlighet med den förväntade inkommande arbetsbelastningen är ett möjligt sätt att minska den oönskade energiförbrukningen för de aktiva resurserna utan att påverka prestandakvaliteten. I detta syfte analyserar detta dokument de dynamiska egenskaperna hos molnets arbetsbelastning och definierar en hierarki för latenskänslighetsnivåer för molnets arbetsbelastning. Vidare föreslås en ny modell för arbetsbelastningsförutsägelse för energieffektiv Cloud Computing, som heter RVLBPNN (Rand Variable Learning Rate Backpropagation Neural Network) baserat på BPN (Backpropagation Neural Network). Experiment som utvärderar prediktionsnoggrannheten hos den föreslagna prediktionsmodellen visar att RVLBPNN uppnår en förbättrad prediktionsnoggrannhet jämfört med modellerna HMM och Naïve Bayes Classifier med betydande marginal.
Lu m.fl. REF skisserade förutsägelse modell för att minska oönskad energiförbrukning av datacenter baserat på backpropagation neurala nätverk.
21,404,323
RVLBPNN: A Workload Forecasting Model for Smart Cloud Computing
{'venue': 'Scientific Programming', 'journal': 'Scientific Programming', 'mag_field_of_study': ['Computer Science']}
80,211
I en slow-fading kanal är det fortfarande ett öppet problem att hitta ett samarbetsprogram för mångfald som leder till att mångfalden överförs. I själva verket förbättras inte alla tidigare föreslagna system för att förstärka och vidareutveckla (AF) och avkoda och avkoda (DF) med antalet reläer när det gäller multiplexa avräkningar (DMT) för multiplexa vinster r högre än 0,05. I detta arbete studeras klassen sloted amplify-and-forward (SAF). För det första fastställs en övre gräns på DMT för alla SAF-system med ett godtyckligt antal reläer N och antal ankomst- och avgångstider M. Därefter föreslås ett SAF-system som kan utnyttja den potentiella mångfaldsvinsten i systemet med hög multiplexvinst. Mer exakt, under vissa förhållanden, uppnår det sekventiella SAF-systemet den föreslagna övre DMT-gränsen som tenderar att överföra mångfalden bunden när M går till oändlighet. Särskilt när det gäller två-relay-ärendet uppnår det tredelade SAF-systemet det föreslagna övre bundet och överträffar det två-relay icke-ortogonala amplify-and-forward-systemet (NAF) i Azarian et al. för multiplexing vinster r 2=3. Numeriska resultat avslöjar en betydande vinst av vårt system över de tidigare föreslagna AF-system, särskilt i hög spektral effektivitet och stor nätstorlek regim. Index Terms-Cooperative diversity, Mångfald-multiplexing tradeoff (DMT), relä, relä schemaläggning, slitsade förstärka-och-framåt (SAF).
Referens REF presenterar en övre gräns på DMT av SAF och visar att det är omöjligt att uppnå multipel-ingång singel-utmatning (MISO) övre gräns för finita värden av, Även med antagandet om full duplex relä.
2,001,582
Towards the Optimal Amplify-and-Forward Cooperative Diversity Scheme
{'venue': 'IEEE Transactions on Information Theory', 'journal': 'IEEE Transactions on Information Theory', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,212
Vi föreslår en gemensam modell för oövervakad introduktion av känsla, aspekt- och diskursinformation och visar att vi genom att införliva ett begrepp om latenta diskursrelationer i modellen förbättrar exaktheten i förutsägelsen för aspekt- och känslopolaritet på sub-sentiell nivå. Vi avviker från den traditionella synen på diskurs, eftersom vi framkallar typer av diskursrelationer och tillhörande diskursfrågor som är relevanta för den övervägda opinionsanalysen; följaktligen spelar de inducerade diskursrelationerna rollen som åsikts- och aspektskiftare. Den kvantitativa analys som vi genomförde visade att integrationen av en diskursmodell ökade prediktionsnoggrannheten med avseende på det diskurs-agnostiska förhållningssättet och den kvalitativa analysen tyder på att de inducerade representationerna kodar en meningsfull diskursstruktur.
I REF föreslogs en gemensam modell för oövervakad introduktion av känslor, aspekter och diskursinformation.
12,501,197
A Bayesian Model for Joint Unsupervised Induction of Sentiment, Aspect and Discourse Representations
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,213
Abstruct-This paper beskriver nätverkstidsprotokoll (NTP), som är utformad för att distribuera tidsinformation i ett stort, varierat internetsystem som arbetar med hastigheter från världslig till ljusvåg. Den använder en symmetrisk arkitektur där ett distribuerat subnät av tidsservrar som arbetar i en självorganiserande, hierarkisk konfiguration synkroniserar lokala klockor inom subnätet och till nationella tidsstandarder via tråd, radio eller kalibrerad atomklocka. Servern kan också omfördela tidsinformation inom ett nätverk via lokala routingalgoritmer och tidsdemoner. I detta dokument diskuteras också arkitektur, protokoll och algoritmer, som har utvecklats under flera års genomförandeförfining och resulterade i att NTP utsågs till ett Internetstandardprotokoll. NTP-synkroniseringssystemet, som har varit i regelbunden drift på Internet under de senaste åren, beskrivs tillsammans med prestandadata som visar att tidshållning noggrannhet i de flesta delar av Internet kan normalt upprätthållas inom några millisekunder, även vid fel eller avbrott av klockor, tidsservrar eller nätverk.
På Internet används nätverkstidsprotokollet (NTP) REF för distribuerad synkronisering, inklusive justering av frekvensen för varje nods oscillator.
12,796,557
Internet time synchronization: The Network Time Protocol
{'venue': 'IEEE Transactions on Communications', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,214
Abstract-I detta dokument, samordning och kommunikation problem i Wireless Sensor and Actor Networks (WSAN) gemensamt behandlas i en enhetlig ram. En sensor-actor samordningsmodell föreslås baserat på en händelsedriven partitionering paradigm. Sensorer delas upp i olika uppsättningar, och varje uppsättning består av ett dataleveransträd som är associerat med en annan aktör. Den optimala lösningen för partitioneringsstrategin bestäms av matematisk programmering, och en distribuerad lösning föreslås. Dessutom införs en ny modell för problemet med samordning mellan aktörer och aktörer. Skådespelarsamordningen är formulerad som ett problem för optimering av uppdrag för en klass av samordningsproblem där det område som ska hanteras måste fördelas optimalt mellan olika aktörer. En auktionsbaserad distribuerad lösning på problemet presenteras också. Resultatutvärdering visar hur globala nätmål, såsom efterlevnad av begränsningar i realtid och minimal energiförbrukning, kan uppnås inom den föreslagna ramen med enkla interaktioner mellan sensorer och aktörer som lämpar sig för storskaliga nät av energianslutna enheter.
Melodia m.fl. REF presenterade en samordningsmodell för givare och aktuator baserat på ett händelsestyrt partitioneringsparadigm.
1,624,103
Communication and Coordination in Wireless Sensor and Actor Networks
{'venue': 'IEEE Transactions on Mobile Computing', 'journal': 'IEEE Transactions on Mobile Computing', 'mag_field_of_study': ['Computer Science']}
80,215
Detta dokument föreslår romanen Pose Guidad Person Generation Network (PG 2 ) som gör det möjligt att syntetisera personbilder i godtyckliga poser, baserat på en bild av den personen och en roman pose. Vår generations ramverk PG 2 använder pose information explicit och består av två viktiga steg: pose integration och bildförfining. I det första steget är tillståndet bilden och målet pose matas in i ett U-Net-liknande nätverk för att generera en initial men grov bild av personen med målet pose. Det andra steget förfinar sedan det inledande och suddiga resultatet genom att träna en U-Net-liknande generator på ett kontradiktoriskt sätt. Omfattande experimentella resultat på både 128×64 återidentifierande bilder och 256×256 modebilder visar att vår modell genererar högkvalitativa personbilder med övertygande detaljer. * Lika lön.
När det gäller person bildgenerering föreslogs PG 2 för att syntetisera personbilder i godtyckliga poser i REF.
30,484,693
Pose Guided Person Image Generation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
80,216
Ett brett spektrum av on-line beteenden förmedlas av gränssnitt där människor gör val bland uppsättningar av alternativ. Ett rikt och växande arbete inom beteendevetenskapen visar att mänskliga val inte bara beror på nyttan av alternativ, utan också på det val i vilket alternativ presenteras. I detta arbete studerar vi jämförelsebaserade valfunktioner, en enkel men förvånansvärt rik klass av funktioner som kan uppvisa så kallade choice-set e ects. Motiverade av utmaningen att förutsäga komplexa val, studerar vi frågan komplexiteten i dessa funktioner i en mängd olika aspekter. Vi anser att åtgärder som möjliggör aktiva frågor eller passiv observation av en ström av frågor, och ger analyser både på granularitet av individer eller populationer som kan uppvisa heterogena val beteende. Vårt huvudsakliga resultat är att varje jämförelsebaserad valfunktion i en dimension kan härledas lika effektivt som en grundläggande maximal eller minimal valfunktion i många frågekontexter, vilket tyder på att choice-set eects inte behöver medföra några grundläggande algoritmiska hinder för slutledning. Vi introducerar också en klass av valfunktioner som vi kallar distansjämförelsebaserade funktioner, och brie y diskuterar analysen av sådana funktioner. Ramverk vi beskriver ger spännande kopplingar mellan mänskligt val beteende och en rad frågor i teorin om sortering. Ytterligare nyckelord och fraser: Choice-set eects, sortering med bullriga jämförelser, sortering i en omgång. Moderna informationssystem över ett brett spektrum av domäner brottas med allt mer expansiva och heterogena corpora av data som beskriver mänskliga beslut - från online marknadsplatser som Amazon och AirBnB inspelning olika inköp beteende till sökmotorer och rekommendationssystem som behandlar kontinuerliga klickströmmar, där klick re ect val. Många av de beslut som fattas i dessa on-line miljöer har en konsekvent struktur: användarna presenteras med en uppsättning alternativ - en lista över rekommenderade böcker, sökresultat, ight alternativ, eller användare att följa - och de väljer en eller flera objekt från uppsättningen. Allestädes närvarande inom denna ram har lett till en aktiv forskningslinje om problemet med rankningsfunktioner för lärande [1]. Ere är många formuleringar i litteraturen, men det viktigaste är att anta att en användare har en rankning över alternativ som är dolda för oss, och genom att observera deras val skulle vi vilja dra slutsatsen denna rankning. Frågan kan ställas på individnivå eller på populationsnivå som innehåller heterogena men besläktade rankningar. Valbara eekter. Ett centralt antagande i arbetet med ranking är att individer utgår från en underliggande total order på möjliga alternativ. Ungefär, överväga en inventering Z = {z 1, z 2,. .., z n } av möjliga val, globalt beställt så att en viss användare föredrar z i till z j för i < j. När användaren presenteras med en uppsättning val S på Z, de väljer det objekt i S som rankas rst enligt denna globala ordning. Det finns många variationer på denna grundläggande pa ern - det kan finnas buller i valet, eller alternativ kan vara oobserverade - men den totala beställningen är en avgörande del av strukturen. En lång rad av arbete inom beteendevetenskap [9, 15, 22, 25, 28], visar dock att människors empiriska val tenderar att avvika avsevärt från denna bild. En persons val beror i själva verket inte bara på den totala beställningen på den fullständiga uppsättningen alternativ Z, som är o en enorm och implicit, men också på valet uppsättning S de visas som en del av den specifika c beslut till hands. Viktiga exempel på sådana val-set e ect inkluderar kompromiss e ect, likhet aversion, och lockbete e ect (även känd som asymmetrisk dominans), och har observerats i olika sammanhang både o ine och online; nyligen arbete inom maskininlärning har lyft fram förekomsten av val-set e ects [4, 19, 23, 33] och icke-transitiva jämförelser [7, 8], särskilt i online-sökning, online-annonser och online-spel. Ett kanoniskt exempel på ett val-set e ect är den så kallade kompromiss e ect [24]: inför valet mellan ett medelmåttigt alternativ för $ 10, ett bra alternativ för $ 15, och ett utmärkt alternativ för $ 20, kommer människor tenderar att välja det bra alternativet för $ 15, men ställs istället inför ett val mellan samma bra alternativ för $ 15, det utmärkta alternativet för $ 20, och ett enastående alternativ för $ 25, människor kommer att vara mer benägna att välja det utmärkta alternativet för $ 20. Med andra ord finns det en tendens att gynna alternativet att kompromissa mellan de två ytterligheterna i den uppsättning som presenteras. Mer allmänt, anta att en uppsättning produkter uppvisar en trade-o mellan två faktorer -till exempel, pris vs. kvalitet, kraft vs. tillförlitlighet, eller estetik vs. bränsleeffektivitet. De är de alternativ för vilka ingen annan produkt är mer önskvärd i båda faktorerna. Betrakta fyra produkter A, B, C och D som arrangeras i denna ordning längs den endimensionella gränsen (A är den minst kraftfulla men mest tillförlitliga, och D som den mest kraftfulla men minst tillförlitliga). I en mängd olika set, B kommer empiriskt väljas mer o en när det presenteras som ett av de tre valen S = {A, B, C} än när det är ett av de tre valen S = {B, C, D} -med andra ord, när det är kompromissalternativet snarare än ett extremt alternativ. Genom samma resonemang, C kommer att väljas mer o en när det presenteras som en del av S än som en del av S. Man kan fråga om detta är helt enkelt en representativ fråga, men i själva verket är det mycket djupare. e Poängen är att i varje modell baserat på en total beställning på alternativen Z, skulle en användare föredra antingen B eller C, och detta skulle hålla i alla val som S som innehåller båda av dem. Men B och C är alternativ i båda uppsättningarna S = {A, B, C} och S = {B, C, D}, och den sammanlagda fördelningen av val till förmån för B kontra C förändringar över dessa två uppsättningar. är tyder på att den relativa beställningen av B och C i själva verket inte är väl avgränsade separat, men måste utvärderas i samband med valet som (S eller S ). Det är vad som annars finns på Oer. Jämförelsebaserade valfunktioner. I det här dokumentet överväger vi en uppsättning grundläggande algoritmiska frågor som uppstår när vi försöker dra slutsatser om modeller av användarval i närvaro av jämförelsebaserade choice-set e ects. Vi fokuserar på en grundläggande formulering där dessa eekter uppstår, och visar hur vårt ramverk gör det möjligt att härleda asymptotiska gränser på frågekomplexitet och prov komplexitet i att utföra dessa typer av inferens. Vi satte upp problemet på följande sätt. (1) Inbäddning av alternativ. e full samling av alternativ är en uppsättning U = {u 1,. ., u n }, och det finns en inbäddning av U i ett utrymme av en rimutes X via en funktion h : U → X. För de flesta av vår diskussion kommer vi att ta X att vara den verkliga linjen R 1, så att h (u i ) är ett reellt tal; således större delen av tiden kan vi tänka på de inbäddade punkterna { h(u 1 ),. .., h (u n )} som representerar en endimensionell trade-o continuum som i diskussionen ovan. Vi kommer att anta att inbäddningen h inte är känd för oss. Ja, även om vi ibland kan veta den avgörande endimensionella en ribout av ett objekt, sådan
Kleinberg m.fl. Ref överväga en allmän klass av jämförelsebaserade urvalsmodeller, och studera komplexiteten i att lära sig sin modell från prover.
7,044,702
Comparison-based Choices
{'venue': "EC '17", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,217
Vi föreslår ett visuellt analysförfarande för analys av rörelsedata, d.v.s. inspelade spår av rörliga objekt. Det är inriktat på en klass av problem där det är nödvändigt att fastställa betydande platser på grundval av vissa typer av händelser som inträffar upprepade gånger i rörelsedata. Förfarandet består av fyra huvudsteg: 1) händelseextraktion från banor; 2) händelseklustring och utvinning av relevanta platser; 3) spatiotemporell aggregation av händelser eller banor; 4) analys av aggregerade data. Alla steg är skalbara med avseende på mängden av de data som analyseras. Vi demonstrerar användningen av förfarandet genom exempel på två verkliga problem som kräver analys på olika rumsliga skalor. KEYORD: rörelse, trajectories, spatio-temporal data, rumsliga händelser, rumslig klusterbildning, spatio-temporal kluster Rörelsedata (även kallade mobilitetsdata) som beskriver förändringar av rumsliga positioner av diskreta mobila objekt samlas numera in i växande mängder med hjälp av aktuella spårningstekniker, såsom GPS, RFID, radar och andra. Automatiskt insamlade rörelsedata är semantiskt dåliga eftersom de i princip består av objektidentifierare, koordinater i rymden och tidsstämplar. Trots detta kan värdefull information om föremålen och deras rörelsebeteende samt om det utrymme och den tid de rör sig i fås från rörelsedata genom analys [2]. Rörelse kan betraktas som bestående av kontinuerliga stigar i rum och tid [18], även kallade banor, eller som en sammansättning av olika rumsliga händelser [3]. Som anges i [6] och [30] finns det många definitioner av begreppet händelse. Vi följer Kims definition av händelser som exeplifieringar av fastigheter eller relationer vid några tillfällen [22]. Spatial händelser är händelser lokaliserade i rymden [6]. Den händelsebaserade synen på rörelse är särskilt lämplig för tillämpningar och uppgifter där analytiker är intresserade av händelser av vissa rörelseegenskaper såsom mycket höga eller mycket låga hastigheter. Varje händelse är en rumslig händelse. Händelser som är relevanta för analysmålen måste extraheras från rörelsedata. Sådana händelser kommer ytterligare att kallas rörelsehändelser, eller m-händelser. Det finns en klass av problem där analytiker behöver bestämma platser där m-händelser av en viss typ förekommer upprepade gånger och sedan använda dessa platser i den fortsatta analysen. Till exempel, att ha spår av flera bilar i en stad, en trafikanalytiker kan först behöva hitta platser där trafikstockningar förekommer och sedan undersöka i vilka tider på dagen de händer och hur länge de varar. Ur vandringsfåglars spår kan en ornitolog vilja utvinna platser där fåglarna stannar för att vila och äta och sedan analysera tidsmönstren för att besöka dessa platser och resa mellan platserna. Vi påpekar att relevanta platser endast kan avgränsas genom att behandla uppgifter om förflyttningar, dvs. det finns ingen fördefinierad uppsättning platser (t.ex. delområden i en områdesindelning) från vilka analytikern kan välja platser av intresse. De relevanta platserna kan ha godtyckliga former och storlekar och oregelbunden rumslig fördelning. De kan till och med överlappa varandra i rymden, och därför är metoder som bygger på en uppdelning av territoriet i områden som inte överlappar varandra (som i [4]) inte lämpliga. Vi föreslår ett visuellt analysförfarande för platscentrerad analys av mobilitetsdata som inkluderar (1) visuellt understödd extraktion av relevanta m-händelser, (2) att hitta och avgränsa viktiga platser på grundval av interaktiv klusterbildning av meventen enligt olika attribut, (3) spatio-temporal aggregation av m-händelser och rörelsedata av de definierade platser eller par av platser och tidsintervall, (4) analys av aggregerade data för att studera spatio-temporala mönster händelser och / eller anslutningar mellan platserna. Vi demonstrerar användningen av proceduren genom att tillämpa den på två verkliga problem som skiljer sig åt i den rumsliga skala och karaktär av rörelsen som analyseras. De viktigaste bidragen i detta dokument är följande: • Vi föreslår ett generiskt visuellt analysförfarande för en viss klass av problem, vilket uttryckligen anges. Den befintliga litteraturen beskriver särskilda tekniker som kan användas i olika steg av förfarandet. Vi sätter teknikerna i ett arbetsflöde, där utgångar av en teknik används som en ingång för en annan teknik. • Förfarandet kan skalas upp till stora mängder data. Vi beskriver uttryckligen användningen av förfarandet i ett fall då uppgifterna inte passar in i RAM-minnet (avsnitt 4.5). • Vi föreslår ett originellt tillvägagångssätt för klusterbildning av händelser, som använder en särskild avståndsfunktion som kan redogöra för avstånd mellan händelser i geografiskt utrymme, i tid, och med avseende på värden av tematiska attribut. Funktionen hanterar korrekt cykliska attribut såsom rörelseriktning eller tid på en dag. Resten av pappret är uppbyggt på följande sätt. Efter att ha introducerat huvudkoncepten i avsnitt 2, diskuterar vi den relaterade forskningen (avsnitt 3) och beskriver den föreslagna proceduren (avsnitt 4). I avsnitten 5 och 6 ges två exempel på användningen av förfarandet: ett tillägg med större siffror och mer information finns på http://geoanalytics.net/and/papers/vast11att.pdf. Avsnitt 7 avslutar dokumentet. Förflyttningsdata består av positionsposter < object-identifierare, tid, rumsliga koordinater>. Tidsbeställda positionsposter för ett objekt representerar objektets bana. Den verkliga banan är kontinuerlig (dvs. objektet har någon position när som helst) medan de data som representerar den är diskreta (dvs. positioner specificeras för ett urval av tid ögonblick). När tidsintervallen mellan de kända positionerna är tillräckligt korta,
Författarna i REF tittade på egenskaperna hos rörelsen såsom omedelbar hastighet, riktning, tillryggalagd sträcka, förskjutning och temporal avstånd till start och slut av banorna.
17,329,552
From movement tracks through events to places: Extracting and characterizing significant places from mobility data
{'venue': '2011 IEEE Conference on Visual Analytics Science and Technology (VAST)', 'journal': '2011 IEEE Conference on Visual Analytics Science and Technology (VAST)', 'mag_field_of_study': ['Computer Science']}
80,218
Taggar har nyligen blivit populära som ett sätt att kommentera och organisera webbsidor och blogginlägg. Förespråkare för märkning hävdar att användningen av taggar skapar en "folksonomi", ett system där innebörden av en tagg bestäms av dess användning bland samhället som helhet. Vi analyserar effektiviteten av taggar för att klassificera blogginlägg genom att samla de bästa 350 taggarna från Technorati och mäta likheten mellan alla artiklar som delar en tagg. Vi finner att taggar är användbara för att gruppera artiklar i breda kategorier, men mindre effektiva för att ange det specifika innehållet i en artikel. Vi visar sedan att automatiskt extrahera ord som anses vara mycket relevanta kan producera en mer fokuserad kategorisering av artiklar. Vi visar också att klusteralgoritmer kan användas för att rekonstruera en aktuell hierarki bland taggar, och föreslår att dessa metoder kan användas för att ta itu med några av svagheterna i nuvarande märkningssystem.
I REF analyserade författarna effektiviteten av taggar för att klassificera blogginlägg och hävdade att det finns en aktuell hierarki bland taggar.
2,838,063
Improved annotation of the blogosphere via autotagging and hierarchical clustering
{'venue': "WWW '06", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,219
Under de första dagarna studerades innehållsbaserad bildsökning (CBIR) med globala funktioner. Sedan 2003 har bildsökning baserad på lokala deskriptorer (de facto SIFT) studerats ingående i över ett decennium på grund av fördelen med SIFT när det gäller bildomvandlingar. Nyligen har bildrepresentationer baserade på det konvolutionella neurala nätverket (CNN) lockat till sig ett ökat intresse för samhället och visat imponerande prestanda. Med tanke på denna tid av snabb utveckling, ger den här artikeln en omfattande undersökning av exempel hämtning under det senaste årtiondet. Två breda kategorier, SIFT-baserade och CNN-baserade metoder, presenteras. För den förra, enligt kodbokens storlek, organiserar vi litteraturen till att använda stora/medelstora/små kodböcker. För det senare diskuterar vi tre typer av metoder, dvs. med hjälp av förträngda eller finjusterade CNN-modeller och hybridmetoder. De två första utför ett enda pass av en bild till nätverket, medan den sista kategorin använder en patch-baserad funktion extraktionsschema. Denna undersökning presenterar milstolpar i modern hämtning, granskar ett brett urval av tidigare verk i olika kategorier och ger insikter om kopplingen mellan SIFT- och CNN-baserade metoder. Efter analys och jämförelse hämtning prestanda för olika kategorier på flera dataset, diskuterar vi lovande riktningar mot generiska och specialiserade instans hämtning.
Zheng m.fl. REF ger en omfattande översyn av de senaste tillvägagångssätten för bildsökning.
4,570,087
SIFT Meets CNN: A Decade Survey of Instance Retrieval
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
80,220
Vi undersöker arkitekturer av discriminativt utbildade djupa Convolutional Networks (ConvNets) för åtgärdsigenkänning i video. Utmaningen är att fånga den kompletterande informationen om utseende från stillbildsramar och rörelse mellan ramar. Vi strävar också efter att i nätverksdesignen integrera aspekter av de bäst presterande handgjorda funktionerna. Vårt bidrag är trefaldigt. För det första föreslår vi en tvåströms ConvNet-arkitektur som innehåller rumsliga och tidsmässiga nätverk. För det andra visar vi att ett ConvNet utbildat på multi-frame tät optiskt flöde kan uppnå mycket bra prestanda trots begränsade träningsdata. Slutligen visar vi att multitask-inlärning, som tillämpas på två olika åtgärdsklassificeringsdatauppsättningar, kan användas för att öka mängden utbildningsdata och förbättra prestandan på båda. Vår arkitektur är utbildad och utvärderas på standard video åtgärder riktmärken för UCF-101 och HMDB-51, där det matchar den senaste tekniken. Det överstiger också med stor marginal tidigare försök att använda djupa nät för videoklassificering.
Simonyan m.fl. REF utformade två stream ConvNets som innehåller rumsligt och temporalt nät genom att utnyttja stora ImageNet dataset för förutbildning och explicit beräkna optiskt flöde för att fånga rörelseinformation, och slutligen matchade den toppmoderna prestanda.
11,797,475
Two-Stream Convolutional Networks for Action Recognition in Videos
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
80,221
Neural Style Transfer [7] har nyligen visat mycket spännande resultat som fångar ögon i både akademi och industri. Trots de fantastiska resultaten, principen om neural stil överföring, särskilt varför gram matriser kan representera stil förblir oklar. I detta dokument föreslår vi en ny tolkning av överföringen av neurala stilar genom att behandla det som ett problem med domänanpassning. Specifikt, vi teoretiskt visar att matcha Gram matriser av funktionskartor är likvärdigt att minimera maximal genomsnittlig Discrepancy (MMD) med den andra ordningen polynomial kärna. Således hävdar vi att essensen av neural stil överföring är att matcha funktionen fördelningar mellan stil bilder och de genererade bilderna. För att ytterligare stödja vår ståndpunkt experimenterar vi med flera andra distributionsanpassningsmetoder och uppnår tilltalande resultat. Vi tror att denna nya tolkning knyter samman dessa två viktiga forskningsområden och kan upplysa om framtida forskning.
Löjtnant m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m för m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. REF pekar på matchningen av Gram-baserad stil representation är likvärdig med att minimera maximal genomsnittlig Discrepancy (MMD) mellan funktionskartor för stil bilder och stiliserade bilder, och demonstrera andra distribution anpassningsalternativ för stilöverföring.
12,634,703
Demystifying Neural Style Transfer
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
80,222
I Submodular välfärd Maximization (SWM) problem, indata består av en uppsättning av n objekt, som var och en måste tilldelas en av m agenter. Varje agent har en värdering funktion v, där v (S) betecknar den välfärd som erhålls av denna agent om hon får uppsättningen av objekt S. Funktionerna v är alla submodulära; som är standard, antar vi att de är monoton och v (∅) = 0. Målet är att dela upp objekten i m separata undergrupper S1, S2,. .. Sm för att maximera den sociala välfärden, definieras som m = 1 v (S ). En enkel girig algoritm ger en 1/2-uppskattning till SWM i offline-inställningen, och detta var den mest kända tills Vondrak nyligen (1 − 1/e)-uppskattning algoritm [34]. I detta dokument överväger vi online-versionen av SWM. Här, objekt anländer en åt gången på ett online sätt; när ett objekt anländer, algoritmen måste göra ett oåterkalleligt beslut om vilken agent att tilldela det innan du ser några efterföljande objekt. Detta problem motiveras av applikationer för Internetreklam, där användare annons intryck måste tilldelas annonsörer vars värde är en submodulär funktion av den uppsättning användare / intryck de får. Det finns två naturliga modeller som skiljer sig åt i den ordning i vilken föremål anländer. I den helt kontradiktoriska inställningen, kan en motståndare konstruera en godtycklig / värsta fall instans, samt välja den ordning i vilken objekt anländer för att minimera algoritmens prestanda. I denna inställning är den 1/2-konkurrenskraftiga giriga algoritmen den bästa möjliga. För att förbättra på detta måste man försvaga motståndaren något: I slumpmässig ordning modell, motståndaren kan konstruera en värsta fall uppsättning poster och värderingar, men inte kontrollera den ordning i vilken objekten anländer; istället antas de komma i en slumpmässig ordning. Den slumpmässiga ordermodellen har studerats väl för SWM online och olika specialfall, men det mest kända konkurrensförhållandet (även för flera specialfall) är 1/2 + 1/n [9, 10], knappt bättre än förhållandet för den kontradiktoriska ordern. Det har under flera år varit ett viktigt öppet problem att få fram ett konkurrensförhållande på 1/2 + 1 för den slumpmässiga ordermodellen. Vi löser detta öppna problem genom tillstånd att göra digitala eller hårda kopior av delar eller allt detta arbete för personligt eller klassrum användning beviljas utan avgift, förutsatt att kopior inte görs eller distribueras för vinst eller kommersiella fördelar, och att kopior bär detta meddelande och den fullständiga hänvisning på första sidan. Upphovsrätt till tredje parts delar av detta arbete måste hedras. För all annan användning, kontakta ägaren/författarna. Upphovsrätten innehas av upphovsmannen/ägarna. visar att den giriga algoritmen har ett konkurrensförhållande på minst 0.505 för online SWM i slumpmässig ordning modell. Detta är det första resultatet som visar en konkurrenskvot som är begränsad till mer än 1/2 i den slumpmässiga ordermodellen, även i specialfall som de viktade matchnings- eller budgeterade tilldelningsproblemen (utan de så kallade "stora kapacitets antagandena"). För specialfall av submodulära funktioner, inklusive viktade matchningsfunktioner, viktade täckningsfunktioner och en bredare klass av "andra klassens supermodulära" funktioner, tillhandahåller vi en annan analys som ger ett konkurrensförhållande på 0,51. Vi analyserar den giriga algoritmen med hjälp av ett faktoruppenbarande linjärt program, som begränsar hur tilldelningen av ett objekt kan minska potentiella välfärd från att tilldela framtida objekt. Vi formulerar också ett naturligt antagande som, om det är sant, skulle förbättra konkurrensförhållandet mellan den giriga algoritmen till minst 0,567. Utöver våra nya konkurrensförhållanden för SWM online gör vi ytterligare två bidrag: För det första definierar vi de klasser av modulära, supermodulära och submodulära funktioner som sannolikt kommer att vara av oberoende intresse för submodulära optimeringar. För det andra får vi ett förbättrat konkurrensförhållande via en teknik som vi hänvisar till som vinst linjärisering, vilket kan vara användbart i andra sammanhang (se [26] ): I huvudsak, vi linjärisera submodulär funktion genom att dividera vinsten av en optimal lösning i vinst från enskilda element, jämföra algoritmens vinst när det tilldelar ett element till den optimala lösningens vinst från elementet, och, avgörande nog, avgränsa i vilken utsträckning tilldela element kan påverka den potentiella vinsten av andra element.
I detta fall är även den giriga algoritmen känd för att vara 1 /2-konkurrenskraftig i kontradiktorisk ordning men minst 0.505-konkurrenskraftig i slumpmässig ordning REF.
1,787,787
Online Submodular Welfare Maximization: Greedy Beats 1/2 in Random Order
{'venue': "STOC '15", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,223
: En scen av fem träd automatiskt rekonstrueras av vår algoritm. Bilderna visar ett foto av scenen, punktmoln, rekonstruerade träd och texturerade modeller med blad. Infällningarna visar vår metods förmåga att hantera överlappande kronor och saknade data. Träd, buskar och andra växter är allestädes närvarande i stadsmiljöer, och realistiska modeller av träd kan lägga en hel del realism till en digital urban scen. Det har varit mycket forskning om modellering trädstrukturer, men begränsat arbete med att rekonstruera geometrin hos verkliga träd - även då har de flesta verk fokuserat på rekonstruktion från fotografier med hjälp av betydande användarinteraktion. I detta papper utför vi aktiv laserskanning av verklig vegetation och presenterar ett automatiskt tillvägagångssätt som robust rekonstruerar skelettstrukturer av träd, från vilka full geometri kan genereras. Kärnan i vår metod är en serie globala optimeringar som passar skelettstrukturer till de ofta glesa, ofullständiga och bullriga punktdata. En viktig fördel med vår strategi är dess förmåga att rekonstruera flera överlappande träd samtidigt utan segmentering. Vi visar effektiviteten och robustheten i vår strategi på många råa skanningar av olika trädsorter.
REF använder en trädskelettmodell för att rekonstruera trädstrukturer från punktmolnets ingång.
3,153,962
Automatic reconstruction of tree skeletal structures from point clouds
{'venue': "SIGGRAPH ASIA '10", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,224
Förmågan att exakt identifiera mänskliga aktiviteter är avgörande för att utveckla automatiska rehabiliterings- och idrottsträningssystem. I detta papper klassificeras storskaliga motionsdata som erhållits från en underarmssliten bärbar sensor med ett konvolutionellt neuralt nätverk (CNN). Tidsseriedata som består av accelerometer- och orienteringsmätningar formateras som bilder, vilket gör det möjligt för CNN att automatiskt extrahera diskriminerande funktioner. En jämförande studie om effekterna av bildformatering och olika CNN-arkitekturer presenteras också. Den bäst presterande konfigurationen klassificerar 50 gym övningar med 92,1% noggrannhet. Loo, ON, N2L 3G1, Kanada. ( )...............................................................................................................
Um et al. - Vad är det för fel på dig? använder djup inlärning för att klassificera motion från storskaliga bärbara sensor data som uppnår 92,14% noggrannhet med en 3-lagers Convolutional Neural Network (CNN) REF.
7,243,878
Exercise motion classification from large-scale wearable sensor data using convolutional neural networks
{'venue': '2017 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)', 'journal': '2017 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)', 'mag_field_of_study': ['Computer Science']}
80,225
Abstract-I det nuvarande arbetet har författarna infört en ny metod för att dölja eventuella krypterade hemliga meddelanden i en omslagsfil. För kryptering av hemligt meddelande har författarna använt ny algoritm som föreslagits av Nath et al(1). För att dölja hemligt meddelande har vi använt en metod som föreslagits av Nath et al (2). I MSA (1) metod har vi ändrat tanken på Spela rättvis metod till en ny plattform där vi kan kryptera eller dekryptera någon fil. Vi har infört en ny randomiseringsmetod för att generera den randomiserade nyckelmatrisen för att kryptera vanlig textfil och för att dekryptera chiffer textfil. Vi har också infört en ny algoritm för kryptering av den enkla texten flera gånger. Vår metod är helt beroende av den slumpmässiga text_nyckeln som ska levereras av användaren. Den maximala längden på text_tangenten kan vara 16 tecken lång och den kan innehålla alla tecken (ASCII-kod 0 till 255). Vi har utvecklat en algoritm för att beräkna randomiseringsnumret och krypteringsnumret från den givna text_nyckeln. Storleken på krypteringsnyckelmatrisen är 16x16 och det totala antalet matriser kan bildas från 16 x 16 är 256! vilket är ganska stort och därför om någon tillämpar brute force metoden då måste han / hon ge spår för 256! Tider som är helt absurda. Dessutom gör flera krypteringsmetoden systemet ytterligare säkrat. För att dölja hemligt meddelande i omslagsfilen har vi infogat 8 bitar av varje tecken av krypterad meddelandefil i 8 på varandra följande byte av omslagsfilen. Vi har infört lösenord för att dölja data i omslagsfilen. Vi föreslår att vår nya metod kan vara mest lämplig för att dölja någon fil i någon standard omslagsfil såsom bild, ljud, videofiler. Eftersom det dolda meddelandet krypteras är det nästan omöjligt för inkräktaren att dölja det faktiska hemliga meddelandet från den inbäddade omslagsfilen. Denna metod kan vara den mest säkra metoden vid digital vattenmärkning.
En sista utforskad metod för att dölja krypterade hemliga meddelanden i en omslagsfil har införts av Joyshree Nath i REF.
59,218,816
Advanced Steganography Algorithm using Encrypted secret message
{'venue': None, 'journal': 'International Journal of Advanced Computer Science and Applications', 'mag_field_of_study': ['Computer Science']}
80,226
Abstract-I detta dokument analyseras effektiv driftsättning av flera obemannade luftfartyg (UAV) med riktade antenner som fungerar som trådlösa basstationer som ger täckning för markanvändare. För det första, nedlänk täckning sannolikheten för UAVs som en funktion av höjden och antennen vinst härleds. Därefter, med hjälp av cirkelpackning teori, tredimensionella platser för UAVs bestäms på ett sätt som den totala täckningsområdet maximeras samtidigt maximera täckning livslängden för UAVs. Våra resultat visar att för att minska störningarna måste UAV:s höjd justeras korrekt baserat på strålbredden på den riktade antennen samt täckningskraven. Dessutom fastställs det minsta antal UAV som krävs för att garantera en sannolikhet för måltäckning för ett visst geografiskt område. Numeriska resultat utvärdera de olika kompromisser som är inblandade i olika UAV driftsättningsscenarier.
I REF använde författarna Circle Packing Theory (CPT) för att hitta en effektiv placering av flera UAV som fungerar som flygbasstationer som maximerar täckningsområdet.
17,058,668
Efficient Deployment of Multiple Unmanned Aerial Vehicles for Optimal Wireless Coverage
{'venue': 'IEEE Communications Letters', 'journal': 'IEEE Communications Letters', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,227
För att anpassa en översättningsmodell som är utbildad från data på ett område till ett annat, ägnade tidigare verk större uppmärksamhet åt studier av parallell corpus samtidigt som man ignorerade den in-domänen enspråkiga corpora som lättare kan erhållas. I det här dokumentet föreslår vi ett nytt tillvägagångssätt för anpassning av översättningsmodeller genom att använda enspråkig enspråkig information i stället för den tvåspråkiga in-domänen corpora, som införlivar ämnesinformationen i uppskattningen av översättningssannolikheten. Vår metod fastställer förhållandet mellan den utanför-domänen tvåspråkiga corpus och den inom-domänen enspråkiga corpora via ämnesmappning och fras-topic fördelning sannolikhetsuppskattning från in-domain monolingual corpora. Experimentellt resultat på NIST Kinesisk-Engelska översättning uppgift visar att vår strategi avsevärt överträffar baslinjesystemet.
I REF undersöktes sambandet mellan tvåspråkiga data som inte är tillgängliga för alla och enspråkiga data i allmänhet via ämneskartläggning med hjälp av HTMM-metoder.
3,707,608
Translation Model Adaptation for Statistical Machine Translation with Monolingual Topic Information
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,228
I detta arbete introducerar vi en ny videorepresentation för handlingsklassificering som aggregerar lokala konvolutionella funktioner över hela den spatio-temporala omfattningen av videon. Vi gör det genom att integrera toppmoderna tvåströmsnätverk [42] med inlärningsbar spatiotemporal-aggregering [6]. Den resulterande arkitekturen är end-toend trainingable för hela-video klassificering. Vi undersöker olika strategier för pooling över rum och tid och kombinerar signaler från de olika strömmarna. Vi finner att: (i) det är viktigt att samla gemensamt över rum och tid, men (ii) utseende och rörelse strömmar bäst aggregeras i sina egna separata representationer. Slutligen visar vi att vår representation överträffar den två-ström basarkitekturen med stor marginal (13% relativ) samt överträffar andra baslinjer med jämförbara basarkitekturer på HMDB51, UCF101, och Charades video klassificering riktmärken.
REF införde en spatio-temporal aggregation av lokala konvolutionella funktioner för bättre inlärning representationer i videon.
16,091,693
ActionVLAD: Learning Spatio-Temporal Aggregation for Action Classification
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
80,229
I Sydkorea byggs ett LTE-baserat nätverk för allmän säkerhet (PS)-LTE med 718 ~ 728 MHz för upplänk och 773 ~ 783 MHz för nedlänk. Samma band tilldelas dock också det LTE-baserade järnvägsnätet för höghastighetståg (LTE-R), vilket innebär att det är absolut nödvändigt med stora farhågor och praktiska undersökningar om förvaltningssystem för samkanalsinterferens (CCI). I detta dokument analyseras och utvärderas prestanda genom att man tar hänsyn till fall av icke-RAN (radioaccess network) delning och LTE-R RAN delning av PS-LTE användarutrustning (UE). Eftersom en tågstyrningssignal kräver hög tillförlitlighet och låg latens för att uppfylla sina uppdragskritiska servicekrav ger vi högre prioritet åt LTE-R UE under resurstilldelningen under LTE-R RAN-delningen av PS-LTE UE. Dessutom är interferenshanteringssystem effektivare när det gäller samexistensen mellan PS-LTE- och LTE-R-nätverk inom ramen för RAN-delningsmiljön. I detta dokument använder vi förbättrad intercellinterferenssamordning (eICIC) och ytterligare förbättrade ICIC-system (FeICIC) för att minska störningen från PS-LTE-nätverk till LTE-R-nätverk och samtidigt förbättra resursutnyttjandet av LTE-R eNodeB (eNB) genom att avlasta fler PS-LTE UEs till LTE-R-nätverk. Dessutom beaktas ett samordnat flerpunktsöverföringssystem (CoMP) bland LTE-R eNBs för att förbättra LTE-R-cellkantanvändarnas prestanda. Genom att använda FeICIC tillsammans med samordnad schemaläggning (CS) CoMP, kan den bästa genomströmningen uppnås när det gäller RAN-delning.
Arbetet i REF använde förbättrad störningsavstängning mellan celler (eICIC) och ytterligare eICIC (FeICICIC) i närvaro av samordnad schemaläggning (CS) CoMP inom ramen för RAN-delningsfallet för avlastning av fler användare av allmän säkerhet till järnvägsnätet.
8,387,269
Co-channel interference management using eICIC/FeICIC with coordinated scheduling for the coexistence of PS-LTE and LTE-R networks
{'venue': None, 'journal': 'EURASIP Journal on Wireless Communications and Networking', 'mag_field_of_study': ['Computer Science']}
80,230
Vi presenterar en ny metod för att generera utdragsrika sammanfattningar av flera dokument. Metoden använder Integer Linear Programmering för att gemensamt maximera betydelsen av de meningar som ingår i sammanfattningen och deras mångfald, utan att överskrida en maximal tillåten sammanfattningslängd. För att få en viktig poäng för varje mening, använder den en Support Vector Regression modell tränas på människa-auktoriserade sammanfattningar, medan mångfalden av de valda meningarna mäts som antalet distinkta ord bigrams i den resulterande sammanfattningen. Experimentella resultat på allmänt använda riktmärken visar att vår metod uppnår toppmoderna resultat, jämfört med konkurrenskraftiga utvinningssammanfattningar, samtidigt som den är beräkningseffektiv.
REF använder ILP för att gemensamt maximera betydelsen av meningarna och deras mångfald i sammanfattningen.
12,873,285
Extractive Multi-Document Summarization with Integer Linear Programming and Support Vector Regression
{'venue': 'COLING', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,231
Många undersökningar har visat att webbanvändare är oroade över förlusten av integritet i samband med online-spårning. Dessa undersökningar visar också att människor också är omedvetna om den mängd datadelning som sker mellan annonsutbyten, och därmed underskattar de integritetsrisker som är förknippade med online-spårning. I verkligheten drivs det moderna annonsekosystemet av ett flöde av användardata mellan spårare och annonsutbyten. Även om det senaste arbetet har visat att annonsutbyten rutinmässigt utför cookie matchning med andra utbyten, dessa studier bygger på sköra heuristik som inte kan upptäcka alla former av informationsutbyte, särskilt under kontradiktoriska förhållanden. I denna studie utvecklar vi en metodik som kan upptäcka kund- och serverflöden av information mellan godtyckliga annonsutbyten. Vår nyckelinsikt är att utnyttja omriktade annonser som ett verktyg för att identifiera informationsflöden. Intuitivt, vår metodik fungerar eftersom den bygger på semantiken av hur utbyten tjänar annonser, snarare än att fokusera på specifika cookies matchningsmekanismer. Med hjälp av crawled data på 35.448 annons intryck, visar vi att vår metodik kan framgångsrikt kategorisera fyra olika typer av informationsdelning beteende mellan annons utbyten, inklusive fall där befintliga heuristiska metoder misslyckas. Vi avslutar med en diskussion om hur våra resultat och metoder kan utnyttjas för att ge användarna mer kontroll över vilken typ av annonser de ser och hur deras information delas mellan annonsutbyten.
I REF syftar de till att öka insynen i ad-ekosystemet när det gäller informationsutbyte, utveckla en innehållsorienterad metod för att upptäcka kund- och serverflöden av information mellan annonsutbyten genom att utnyttja nyriktade annonser.
16,141,882
Tracing Information Flows Between Ad Exchanges Using Retargeted Ads
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
80,232
Vi studerar Maximum Independent Set of Rectangles (MISR) problem: med tanke på en samling R av n axel-parallell rektanglar, hitta en maximal-kardinalitet delmängd av separata rektanglar. MISR är ett specialfall av det klassiska problemet Maximum Independent Set, där inmatningen är begränsad till skärningsdiagram över axelparallellrektanglar. På grund av dess många tillämpningar, allt från kartmärkning till datautvinning, har MISR fått stor uppmärksamhet från olika forskarsamfund. Eftersom problemet är NP-hård, har huvudfokus varit på utformningen av approximationsalgoritmer. Flera grupper av undersökningar har självständigt föreslagit O(log n)-tillnärmning algoritmer för MISR, och detta förblev den mest kända approximationsfaktorn för problemet. Huvudresultatet av vårt papper är en O(log log n)-tillnärmningsalgoritm för MISR. Vår algoritm kombinerar befintliga metoder för att lösa speciella fall av problemet, där inmatningsmängden av rektanglar är begränsad till att innehålla specifika skärningstyper, med nya insikter i den kombinatoriska strukturen av uppsättningar skärande rektanglar i planet. Vi överväger också en generalisering av MISR till högre dimensioner, där rektanglar ersätts av ddimensionella hyper-rektanglar. Våra resultat för MISR innebär en O(log n) d−2 log log n) - approximation algoritm för detta problem, förbättra på den mest kända O(log n) d−1 ) - approximation.
I det oviktade fallet finns även en O(log log n)-tillnärmning av Chalermsook och Chuzhoy REF.
1,115,821
Maximum independent set of rectangles
{'venue': 'In: SODA', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,233
Till skillnad från utvinningssammanfattning, abstrakt sammanfattning måste sammansmälta olika delar av källtexten, som lutar för att skapa falska fakta. Vår förstudie avslöjar nästan 30% av resultaten från ett toppmodernt neurala summeringssystem lider av detta problem. Medan tidigare abstrakta sammanfattningar vanligtvis fokuserar på förbättring av informativhet, hävdar vi att trofasthet också är en viktig förutsättning för ett praktiskt abstrakt sammanfattande system. För att undvika att generera falska fakta i en sammanfattning utnyttjar vi öppen informationsextrahering och beroendetolkteknik för att extrahera faktiska faktabeskrivningar från källtexten. Den dual-attention sequency-to-sequence ram föreslås sedan att tvinga den generation som är beroende av både källtexten och de extraherade faktabeskrivningar. Experiment på Gigaword benchmarking dataset visar att vår modell kan kraftigt minska falska sammanfattningar med 80%. I synnerhet ger faktabeskrivningarna också betydande förbättringar i fråga om upplysningsförmåga, eftersom de ofta kondenserar källtextens innebörd.
I synnerhet, REF utnyttja OpenIE och beroende tolkning för att extrahera fakta tuples från källtexten och använda dem för att förbättra trofastheten i sammanfattningar.
19,198,109
Faithful to the Original: Fact Aware Neural Abstractive Summarization
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
80,234
Den senaste tidens framsteg har gjorts när det gäller att använda uppmärksamhetsbaserade enkoder-dekoderramar för videotextning. De flesta befintliga dekodrar använder dock uppmärksamhetsmekanismen för varje genererat ord, inklusive både visuella ord (t.ex. "gun" och "shooting") och icke-visuella ord (t.ex. "den", "a"). Dessa icke-visuella ord kan dock lätt förutsägas med hjälp av naturlig språkmodell utan hänsyn till visuella signaler eller uppmärksamhet. Att införa en mekanism för att uppmärksamma icke-visuella ord skulle kunna vilseleda och minska videotexternas övergripande prestanda. För att ta itu med denna fråga föreslår vi en hierarkisk LSTM med justerad tidsuppmärksamhet (hLSTMat) för videotextning. Det föreslagna ramverket utnyttjar den tidsbundna uppmärksamheten för att välja specifika ramar för att förutsäga de relaterade orden, medan den justerade tidsuppmärksamheten är att avgöra om den ska vara beroende av den visuella informationen eller den språkkontextinformationen. Dessutom är en hierarkisk LSTMs utformad för att samtidigt beakta både låg nivå visuell information och hög nivå språkkontext information för att stödja videotextgenerering. För att visa effektiviteten i vårt föreslagna ramverk testar vi vår metod på två vanliga datauppsättningar: MSVD och MSR-VTT, och experimentella resultat visar att vårt tillvägagångssätt överträffar de senaste metoderna på båda två datauppsättningar.
Sång och al. REF föreslog en hierarkisk LSTM-strategi med justerad temporal uppmärksamhet för att lösa videotextning.
19,594,479
Hierarchical LSTM with Adjusted Temporal Attention for Video Captioning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
80,235
Många tillämpningar av övervakad inlärning kräver god generalisering från begränsade märkta data. I Bayesian inställningen, kan vi försöka uppnå detta mål genom att använda en informativ tidigare över parametrarna, en som kodar användbar domän kunskap. Fokusering på logistisk regression, presenterar vi en algoritm för att automatiskt bygga en multivariat Gaussian tidigare med en fullständig covariance matris för en given övervakad inlärning uppgift. Detta föregående slappnar av en vanlig men alltför förenklad självständighet antagande, och tillåter parametrar att vara beroende. Algoritmen använder andra "liknande" inlärningsproblem för att uppskatta kovariansen av par av enskilda parametrar. Vi använder sedan ett semidefinit program för att kombinera dessa uppskattningar och lära sig en bra innan för den nuvarande inlärningsuppgiften. Vi tillämpar våra metoder för binär text klassificering, och visar en 20 till 40% test fel minskning jämfört med en vanlig används tidigare.
Raina m.fl. REF fokuserade på att bygga en kovariance matris för informativ Gaussian tidigare överförda från relaterade uppgifter om binär text klassificering.
3,056,583
Constructing informative priors using transfer learning
{'venue': "ICML '06", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,236
I en multi-armad bandit (MAB) problem, en online-algoritm gör en sekvens av val. I varje omgång väljer man en tidsinvariant uppsättning alternativ och får den utdelning som är förknippad med detta alternativ. Medan fallet med små strategiuppsättningar är nu välförståeligt, har en hel del av det senaste arbetet fokuserat på MAB-problem med exponentiellt eller oändligt stora strategiuppsättningar, där man behöver anta extra struktur för att göra problemet hanterbart. Särskilt den senaste litteraturen behandlade information om likheter mellan armar. Vi anser likhetsinformation i inställningen av kontextuella banditer, en naturlig förlängning av det grundläggande MAB-problemet där före varje omgång en algoritm ges sammanhanget - en antydan om vinsterna i denna omgång. Sammanhangsbanditer är direkt motiverade genom att placera annonser på webbsidor, ett av de avgörande problemen i sponsrad sökning. Ett särskilt enkelt sätt att representera likhetsinformation i kontextuell banditinställning är genom ett likhetsavstånd mellan context-arm-paren, vilket ger en övre gräns för skillnaden mellan respektive förväntad vinst. Tidigare arbete på kontextuella banditer med likhet använder "uniforma" partitioner av likhetsutrymmet, så att i huvudsak varje sammanhang-arm par approximeras av närmaste par i partitionen. Algoritmer baserade på "uniforma" partitioner bortser från strukturen av utbetalningar och kontexten ankomster. Detta är potentiellt slösaktigt, eftersom det kan vara fördelaktigt att upprätthålla en finare uppdelning i högavlönade regioner av likheten utrymme och populära regioner i sammanhanget utrymme. I detta dokument designar vi algoritmer som är baserade på adaptiva partitioner som är anpassade till de populära och hög payoff regioner, och därmed kan dra nytta av problemfall med "benig" utbetalningar eller sammanhang ankomster.
I REF har kontextuella banditer med likhetsinformation i ett metriska utrymme studerats både i den kontradiktoriska och den stokastiska inställningen.
15,132,124
Contextual Bandits with Similarity Information
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,237
Abstrakt. CNN arkitekturer har fantastisk igenkänning prestanda men förlitar sig på rumslig poolning vilket gör det svårt att anpassa dem till uppgifter som kräver tät, pixel-noggrannhet märkning. Detta dokument ger två bidrag: (1) Vi visar att medan den skenbara rumsliga upplösningen av konvolutionella funktionskartor är låg, innehåller den högdimensionella funktionsrepresentationen betydande information om lokalisering av sub-pixel. (2) Vi beskriver en rekonstruktionsarkitektur med flera upplösningar som bygger på en Laplacisk pyramid som använder sig av skip-anslutningar från kartor med högre upplösning och multiplikativa gating för att successivt förfina segmentgränser som rekonstrueras från kartor med lägre upplösning. Detta tillvägagångssätt ger toppmoderna semantiska segmenteringsresultat på PASCAL VOC och Cityscapes-segmenteringsriktmärken utan att ta till mer komplexa slumpmässiga fältinferenser eller exempel detekteringsdrivna arkitekturer.
LRR REF genererar en multiplikativ gating för att förfina segmentgränser rekonstrueras från lägre upplösning poängkartor.
14,891,367
Laplacian Pyramid Reconstruction and Refinement for Semantic Segmentation
{'venue': 'ECCV', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,238
Abstrakt. Detta dokument presenterar en enkel oövervakad inlärningsalgoritm för att känna igen synonymer, baserat på statistiska data som förvärvats genom att fråga en webbsökmotor. Algoritmen, som kallas PMI-IR, använder Pointwise Mutual Information (PMI) och Information Retrieval (IR) för att mäta likheten mellan ordpar. PMI-IR utvärderas empiriskt med hjälp av 80 synonymtestfrågor från Test of English as a Foreign Language (TOEFL) och 50 synonymtestfrågor från en samling tester för studenter av engelska som andraspråk (ESL). På båda testerna får algoritmen en poäng på 74%. PMI-IR kontrasteras med Latent Semantic Analysis (LSA), som uppnår en poäng på 64% på samma 80 TOEFL frågor. I dokumentet diskuteras potentiella tillämpningar av den nya oövervakade inlärningsalgoritmen och vissa konsekvenser av resultaten för LSA och LSI (Latent Semantic Indexing).
En av de mest använda är den engelska som en Second Language dataset (ESL), infördes i REF.
5,509,836
Mining the Web for Synonyms: PMI-IR versus LSA on TOEFL
{'venue': 'Proceedings of the Twelfth European Conference on Machine Learning, (2001), Freiburg, Germany, 491-502', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,239
Obemannade flygfordon monterade basstationer (UAV-BS) kan tillhandahålla trådlösa tjänster i en mängd olika scenarier. I detta brev föreslår vi en optimal placeringsalgoritm för UAV-BS som maximerar antalet täckta användare med minsta sändningseffekt. Vi frikopplar UAV-BS-utplaceringsproblemen i vertikala och horisontella dimensioner utan att förlora optimalitet. Dessutom modellerar vi UAV-BS-utplaceringen i den horisontella dimensionen som ett cirkelplaceringsproblem och ett minsta cirkelproblem. Simuleringar genomförs för att utvärdera prestandan hos den föreslagna metoden för olika rumsliga fördelningar av användarna.
Författarna till REF fokuserade sin uppmärksamhet på den optimala 3D-utplaceringen av UAV:er för att minimera sändningskraften genom att formulera installationsproblemet som ett problem med cirkelplacering.
505,889
3-D Placement of an Unmanned Aerial Vehicle Base Station (UAV-BS) for Energy-Efficient Maximal Coverage
{'venue': 'IEEE Wireless Communications Letters', 'journal': 'IEEE Wireless Communications Letters', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,240
Den enorma ökningen av elfordonens penetration har banat väg för framsteg i laddningsinfrastrukturen. Anslutning mellan laddningsstationer är en nödvändig förutsättning för framtida införande av elfordon för att lindra användarens "range consensus". De befintliga laddningsstationerna klarar inte av att tillhandahålla kraftförsörjning, tilldelning och schemaläggning. För att förbättra den befintliga laddningsinfrastrukturen skulle data som bygger på realtidsinformation och tillgång till reserver vid laddningsstationer kunna laddas upp till användarna för att hjälpa dem att lokalisera närmaste laddningsstation för en EV. Denna forskningsartikel fokuserar på en interaktiv användarapplikation som utvecklats genom SQL- och PHP-plattform för att fördela laddningsplatserna baserat på uppskattade batteriparametrar, som använder datakommunikation med laddningsstationer för att få tillgång till information om ankomst- och avgångstider. Den föreslagna serverbaserade realtidsprognosen för laddningsinfrastruktur undviker väntetider och dess schemaläggning förhindrar effektivt EV från att stanna på vägen på grund av att batteriet rinner ut. Den föreslagna modellen genomförs med hjälp av en lågkostnadsmikrocontroller och den systemetikett som testats.
Arbetet inom REF utvecklade ett interaktivt användarprogram för tilldelning av ankomst- och avgångstider som utvecklats på plattformar för strukturerat frågespråk (SQL) och hypertextpreprocessor (PHP).
12,584,574
Real-Time Forecasting of EV Charging Station Scheduling for Smart Energy Systems
{'venue': None, 'journal': 'Energies', 'mag_field_of_study': ['Engineering']}
80,241
Vi föreslår en ny metod för maktstyrning för störningar begränsade trådlösa nätverk med Rayleigh blekning av både önskade och interferenssignaler. Vår metod tar explicit hänsyn till den statistiska variationen av både den mottagna signalen och interferensen kraft, och optimalt allokerar kraft med begränsningar av sannolikheten för blekning inducerade avbrott för varje sändare / mottagare par. Vi fastställer flera resultat för denna typ av problem. För det fall där de enda begränsningarna är de på avbrott sannolikheter, vi ger en snabb iterativ metod för att hitta den optimala effektallokering. Vi etablerar snäva gränser som relaterar den avbrottsannolikhet som orsakas av att kanalen bleknar till den signal-till-interferens marginal som beräknas när den statistiska variationen av signalen och intereferens befogenheter ignoreras. Detta gör det möjligt för oss att visa att välkända metoder för att fördela makt, baserade på Perron-Frobenius eigen value teori, kan användas för att bestämma makttilldelningar som är bevisligen nära att uppnå optimal (dvs. minimal) avbrottsannolikhet. I det mest allmänna fallet, som inkluderar begränsningar av befogenheter och andra begränsningar, visar vi att problemet med maktstyrning kan ses som ett geometriskt program, vilket är en speciell typ av optimeringsproblem som kan omvandlas till en icke-linjär konvex optimering genom en förändring av variabler, och därför lösas globalt och effektivt genom nyligen utvecklade interiör-punkt metoder.
Ett undantag är REF, som tar itu med problemet med maktstyrning för att balansera sannolikheten för avbrott i länkarna.
14,062,283
Optimal Power Control in Interference Limited Fading Wireless Channels with Outage Probability Specifications
{'venue': None, 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,242
Fokus för övervakningsuppdrag är att inhämta och verifiera information om fiendens kapacitet och positioner av fientliga mål. Sådana uppdrag innebär ofta en stor risk för den mänskliga personalen och kräver en hög grad av smygsamhet. Förmågan att sätta in obemannade övervakningsuppdrag, genom att använda trådlösa sensornätverk, är därför av stor praktisk betydelse för militären. På grund av energibegränsningarna hos sensorenheter, kräver sådana system en energimedveten design för att säkerställa livslängden för övervakningsuppdrag. Lösningar som nyligen föreslagits för denna typ av system visar lovande resultat genom simuleringar. De förenklade antaganden de gör om systemet i simulatorn håller dock ofta inte bra i praktiken och energiförbrukningen redovisas snävt i ett enda protokoll. I detta dokument beskriver vi utformningen och genomförandet av ett fungerande system för energieffektiv övervakning. Systemet gör det möjligt för en grupp av samarbetsvilliga sensorenheter att upptäcka och spåra positionerna för rörliga fordon på ett energieffektivt och smygande sätt. Vi kan byta ut energimedvetandet och övervakningsprestandan genom att anpassa systemets känslighet. Vi utvärderar prestandan på ett nätverk av 70 MICA2 motar utrustade med dubbelaxliga magnetometrar. Våra resultat visar att vår övervakningsstrategi är anpassningsbar och ger en betydande förlängning av nätverkets livslängd. Slutligen delar vi lärdomar när det gäller att bygga ett sådant komplett körsystem. * Detta arbete stöddes av DAPRPA IXO-kontoren inom ramen för NEST-projektet (bidragsnummer F336615-01-C-1905). Tillstånd att göra digitala eller papperskopior av hela eller delar av detta arbete för personligt bruk eller klassrum beviljas utan avgift, förutsatt att kopiorna inte görs eller distribueras för vinst eller kommersiella fördelar och att kopiorna är försedda med detta meddelande och den fullständiga hänvisningen på första sidan. För att kopiera på annat sätt, för att återpublicera, för att posta på servrar eller för att omfördela till listor, krävs tidigare specifik behörighet och/eller avgift. Kategorier och ämnesdeskriptorer C.2.1 [Computer Communication Networks]: Nätverksarkitektur och design, Prestanda, Experimentation, Mätsensornätverk, Energibevarande, Spårning, Trådlös En av de viktigaste fördelarna med trådlösa sensornätverk (WSN) är deras förmåga att överbrygga klyftan mellan de fysiska och logiska världarna, genom att samla in viss användbar information från den fysiska världen och kommunicera denna information till mer kraftfulla logiska enheter som kan bearbeta den. Om WSN:s förmåga utnyttjas på lämpligt sätt kan man föreställa sig att WSN:s kan minska eller eliminera behovet av mänskligt deltagande i informationsinsamling i vissa civila och militära tillämpningar. Inom en nära framtid kommer sensorenheter att tillverkas i stora mängder till en mycket låg kostnad och användas tätt för att förbättra robustheten och tillförlitligheten. De kan minimeras till ett kubikmillimeterpaket (t.ex. smart damm [16] ) för att vara smygande i en fientlig miljö. Kostnads- och storleksöverväganden innebär att de resurser som finns tillgängliga för enskilda noder är starkt begränsade. Vi tror dock att begränsad processor bandbredd och minne är tillfälliga begränsningar i sensornätverk. De kommer att försvinna med snabbutvecklade tillverkningstekniker. Å andra sidan är energibegränsningarna mer grundläggande. Enligt R.A. Krafter [20], batterikapaciteten fördubblas bara på 35 år. Energibegränsningar kommer sannolikt inte att lösas inom en snar framtid med de långsamma framstegen när det gäller batterikapacitet och energisopning. Dessutom utesluter den oavsedda karaktären hos sensornoder och den farliga avkänningsmiljön manuell batteribyte. Av dessa skäl blir energimedvetenhet den viktigaste forskningsutmaningen för design av sensornätverksprotokoll. Flera forskare har nyligen tagit itu med energibesparingar. De flesta 270
I REF beskriver författarna utformningen och genomförandet av ett körsystem för energieffektiv övervakning som gör det möjligt för en grupp av samarbetsvilliga givare att upptäcka och spåra positioner i rörliga fordon.
920,081
Energy-efficient surveillance system using wireless sensor networks
{'venue': "MobiSys '04", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,243
Användningen av "Big Data" i politiken och beslutsfattandet är ett aktuellt diskussionsämne. 2013 års mord på Drummer Lee Rigby i Woolwich, London, Storbritannien ledde till en omfattande offentlig reaktion på sociala medier, vilket ger möjlighet att studera spridningen av online hatpropaganda (cyberhat) på Twitter. Mänskligt kommenterade Twitter data samlades in i de omedelbara efterdyningarna av Rigby mord för att träna och testa en övervakad maskininlärning text klassificerare som skiljer mellan hatiska och / eller antagonistiska svar med fokus på ras, etnicitet, eller religion; och mer allmänna svar. Klassificeringsdetaljerna härleddes från innehållet i varje tweet, inklusive grammatiska beroenden mellan ord för att känna igen "othering" fraser, anstiftan att svara med antagonistiska åtgärder, och påståenden om välgrundad eller berättigad diskriminering av sociala grupper. Classifierns resultat var optimala med hjälp av en kombination av probabilistiska, regelbaserade och rumsliga klassificerare med en vald ensemblemeta-klassificerare. Vi visar hur resultaten av klassificeringen på ett robust sätt kan användas i en statistisk modell som används för att förutsäga den sannolika spridningen av cyberhat i ett urval av Twitter-data. Tillämpningarna på politik och beslutsfattande diskuteras.
REF studerade cyberhat i twitter.
18,256,736
Cyber Hate Speech on Twitter: An Application of Machine Classification and Statistical Modeling for Policy and Decision Making
{'venue': None, 'journal': 'Policy & Internet', 'mag_field_of_study': ['Computer Science']}
80,244
Kommunikation med obemannade luftfartyg (UAV) förväntas i stor utsträckning tillämpas i den kommande femte generationens trådlösa nät, på grund av dess många fördelar såsom låga kostnader, hög rörlighet och utbyggnad på begäran. Sändningen och linje-av-sikt naturen av luft-till-mark trådlösa kanaler ger dock upphov till en ny utmaning om hur man kan förverkliga säker UAV-kommunikation med de avsedda noderna på marken. Syftet med detta dokument är att ta itu med denna utmaning genom att tillämpa den fysiska lagersäkerhetstekniken. Vi anser att både nedlänken och upplänken UAV kommunikationer med en mark nod, nämligen UAV-to-ground (U2G) och mark-to-UAV (G2U) kommunikationer, respektive, under förutsättning att en potentiell tjuvlyssnare på marken. I motsats till den befintliga litteraturen om den trådlösa fysiska lagersäkerheten endast med marknoder på fasta eller kvasistatiska platser, utnyttjar vi den höga rörligheten av UAV att proaktivt etablera gynnsamma och degraderade kanaler för legitima och tjuvlyssnande länkar, genom sin bana design. Vi formulerar nya problem för att maximera den genomsnittliga sekretessgraden för U2G- och G2U-sändningarna, genom att gemensamt optimera UAV:s bana, och sändningskraften hos den legitima sändaren under en given flygperiod av UAV. Även om de formulerade problemen är icke-konvexa, föreslår vi iterativa algoritmer för att lösa dem effektivt genom att tillämpa blockkoordinatens nedstigning och successiva konvexa optimeringsmetoder. Specifikt är både sändningskraften och UAV-banan optimerade, med den andra fixeras på ett alternerande sätt, tills algoritmerna konvergerar. Simuleringsresultaten visar att de föreslagna algoritmerna kan förbättra sekretessgraden för både U2G- och G2U-kommunikation, jämfört med andra referenssystem utan effektstyrning och/eller banoptimering. Index Terms-5G och UAV kommunikation, fysisk lagersäkerhet, sekretessgrad maximering, bana design, maktstyrning.
Referens Ref undersöker både nedlänk och upplänk kommunikationssystem, och föreslår en effektiv algoritm för att maximera den genomsnittliga sekretessgraden genom att gemensamt optimera UAV-banan och överföra kraft.
24,797,392
Securing UAV Communications via Joint Trajectory and Power Control
{'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,245
Länkade eller nätverksanslutna data är allmänt förekommande i många tillämpningar. Exempel är webbdata eller hypertextdokument kopplade via hyperlänkar, sociala nätverk eller användarprofiler anslutna via vänlänkar, medförfattare och citeringsinformation, bloggdata, filmrecensioner och så vidare. I dessa dataset (så kallade "informationsnätverk") bildar närbesläktade objekt som delar samma egenskaper eller intressen en gemenskap. Till exempel, en gemenskap i bloggsfären kan vara användare mest intresserade av recensioner mobil telefon och nyheter. Outlier upptäckt i informationsnätverk kan avslöja viktiga avvikande och intressanta beteenden som inte är uppenbara om community information ignoreras. Ett exempel kan vara en låginkomsttagare som är vän med många rika människor, även om hans inkomst inte är minimalt låg när han betraktas över hela befolkningen. I detta dokument introduceras först begreppet "community outliers" (intressanta punkter eller stigande stjärnor för en mer positiv känsla), och sedan visar att välkända baslinjestrategier utan att ta hänsyn till länkar eller gemenskapsinformation inte kan hitta dessa "community outliers". Vi föreslår en effektiv lösning genom att modellera nätverksdata som en blandningsmodell bestående av flera normala samhällen och en uppsättning slumpmässigt genererade avvikelser. Den probabilistiska modellen karakteriserar både data och länkar samtidigt genom att definiera deras gemensamma distribution baserad på dolda Markov slumpmässiga fält (HMRF). Maximering av datasannolikheten och den bakre delen av modellen ger lösningen på problemet med avvikande inferens. Vi tillämpar modellen på båda
Gao m.fl. REF utför community detection på nätverk och outlier detection tillsammans i ett integrerat ramverk med hjälp av dolda Markov Random Fields (HMRF) för att identifiera community outliers.
840,252
On community outliers and their efficient detection in information networks
{'venue': "KDD '10", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,246
Vi jämför den förväntade effektiviteten av intäkter maximering (eller optimal) mekanismer med den av effektivitet maximering dem. Vi visar att effektiviteten av intäktsmaximering mekanism för att sälja en enda post med (k + log e‐1 k + 1) budgivare är minst lika mycket som effektiviteten av effektivitet maximering mekanism med k budgivare, när budgivare värderingar görs i.i.d. från en fördelning av monotona faror. Förvånansvärt nog visar vi också att denna gräns ligger tätt inom en liten additiv konstant på 4,7. Med andra ord är extra budgivare tillräckligt för att intäktsmaximeringsmekanismen ska motsvara effektiviteten hos mekanismen för maximering av effektivitet, medan o(log k) inte gör det. Detta står i kontrast till resultatet av att Bulow och Klemperer [1] jämför intäkterna från de två mekanismerna, där endast en extra budgivare räcker till. Närmare bestämt visar de att intäkterna från effektivitetsmaximeringsmekanismen med k + 1 budgivare inte är mindre än intäkterna från intäktsmaximeringsmekanismen med k budgivare. Vi utökar vårt resultat för fallet med att sälja t identiska objekt och visar att ska (log k) + t på (log log k) extra budgivare räcker för intäkterna maximering mekanism för att matcha effektiviteten av effektivitet maximering mekanism. För att bevisa våra resultat, gör vi en klassificering av Monotone Hazard Rate (MHR) distributioner och identifiera en familj av MHR distributioner, så att för varje klass i vår klass, det finns en medlem av denna familj som är punktvis lägre än varje fördelning i den klassen. Detta låter oss bevisa intressanta strukturella teorem om distributioner med Monotone Hazard Rate.
I REF visar författarna att för värderingar som görs oberoende av samma entoniga fördelning av riskfrekvensen, har ett liknande teorem en effektivitet: genom att lägga till extra budgivare (log n) och genomföra Myersons auktion, får man åtminstone effektiviteten i Vickreys auktion.
199,217
Efficiency of (revenue-)optimal mechanisms
{'venue': "EC '09", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,247
Recurrent neural networks (RNN) föreslogs nyligen för den sessionsbaserade rekommendationsuppgiften. Modellerna visade lovande förbättringar jämfört med traditionella rekommendationsstrategier. I detta arbete studerar vi vidare RNN-baserade modeller för sessionsbaserade rekommendationer. Vi föreslår tillämpning av två tekniker för att förbättra modellens prestanda, nämligen dataförstärkning, och en metod för att redovisa förändringar i indatadistributionen. Vi studerar också empiriskt användningen av generell destillation, och en ny alternativ modell som direkt förutsäger objektinbäddningar. Experiment på RecSys Challenge 2015 dataset visar relativa förbättringar på 12,8% och 14,8% jämfört med tidigare rapporterade resultat på Recall@20 respektive Medel Reciprocal Rank@20 metrics.
En förbättrad variant av RNN i REF visade till exempel lovande förbättringar jämfört med standardmodeller av RNN genom att föreslå tekniker för dataförstärkning.
2,552,056
Improved Recurrent Neural Networks for Session-based Recommendations
{'venue': 'DLRS 2016', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,248
Realtidstillämpning av djupinlärningsalgoritmer hindras ofta av hög beräknings komplexitet och frekventa minnesåtkomster. Nätbeskärning är en lovande teknik för att lösa detta problem. Beskärning resulterar dock vanligtvis i oregelbundna nätverksanslutningar som inte bara kräver extra representationsinsatser utan också inte passar bra vid parallell beräkning. Vi introducerar strukturerad sparhet på olika skalor för konvolutionella neurala nätverk: har kart-wise, kärn-wise, och intra-kernel steg sparity. Denna strukturerade sparsamhet är mycket fördelaktig för direkta beräkningsresurser på inbyggda datorer, i parallella datormiljöer och i hårdvarubaserade system. För att avgöra betydelsen av nätverksanslutningar och nätvägar använder den föreslagna metoden en partikelfiltreringsmetod. Vikten av varje partikel tilldelas genom att man bedömer felklassificeringshastigheten med ett motsvarande konnektivitetsmönster. Det beskurna nätet omskolas för att kompensera för förlusterna på grund av beskärning. Samtidigt som vi implementerar convolutions som matrisprodukter, visar vi särskilt att intra-kärnan steg spartyngd med en enkel begränsning kan avsevärt minska storleken på kärnan och funktionen kart tensorer. Det föreslagna arbetet visar att när granulariteterna beskärs i kombination kan vi beskära CIFAR-10-nätverket med mer än 70 % med mindre än 1 % noggrannhetsförlust. mål kan uppnås genom att tillämpa beskärningstekniken på högpresterande stora nätverk, där beskärning minskar beräkningskostnaden. Dessutom kan dessa lätta nätverk implementeras med hjälp av endast on-chip minne för energibesparingar eftersom frekventa DRAM-åtkomst förbrukar mycket energi. Beskärning framkallar sparsamhet i ett nätverk och kan kategoriseras som strukturerad och ostrukturerad. Ostrukturerad beskärning följer inte någon specifik geometri eller begränsning. I de flesta fall behöver denna teknik extra information för att representera glesa platser. Det leder till oregelbunden sparhet, vilket är svårt att utnyttja för effektiv beräkning. Å andra sidan placerar strukturerad gleshet icke-nollparametrar på väldefinierade platser. Denna typ av begränsning gör det möjligt för moderna processorer och grafik bearbetningsenheter (GPU) att enkelt utnyttja beräkningsbesparingar. Nätverksbeskärning har undersökts av flera forskare [Han et al. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning. , 2015b Castellano et al. 1997; Collins och Kohli 2014; Stepniewski och Keane 1997; Reed 1993]. Han et als verk. [2015a Han et al.]............................................................................................................. [, 2015b har visat att en mycket större del av vikter kan sättas till noll med minsta eller ingen förlust i prestanda. De tränar ett nätverk med ytterligare L1/L2-förlustfunktion på vikterna och beskär det gradvis. Om vikten på en anslutning är mindre än en tröskel, kopplas anslutningen ned. Författarna i Han et al. [2015b] utöka detta arbete ytterligare genom att kvantifiera det slutligen beskurna nätverket [Han et al. - Vad är det? - 2015a. Båda verken måste dock uttryckligen lokalisera icke-nollvikter med gles representation. Konventionellt använder sparsam representation formatet Komprimerad Sparse Row/Compressed Sparse Column (CSR/CSC) som representerar m icke-nolltal med 2m + n + 1 tal, där n representerar antalet rader eller kolumner. Han et al:s arbete. [2015a] visar att hälften av AlexNets minnesutrymme krävs för att lagra indexen för icke-nollparametrarna. Detta dubblar också minnesåtkomst eftersom varje vikt hämta nu blir ett (index, vikt) par. Vårt föreslagna arbete kräver inte en sådan extra representation. I detta arbete utforskar vi funktionskartan och den intrakärniga sparsamheten som ett sätt att strukturera beskärningen. I funktionen karta beskärning, alla inkommande och utgående vikter till / från en funktion karta beskärs. Den intra-kärna sparty beskär vikter i en kärna. Beskärningen på kärnnivå är ett specialfall av intrakärna med 100 % beskärning. Dessa beskärning granulariteter kan tillämpas i olika kombinationer och olika beställningar. Det föreslagna arbetet innehåller följande bidrag:
Anwar m.fl. REF föreslog att man skulle använda partikelfilter för att mäta betydelsen av anslutningar och stigar.
7,333,079
Structured Pruning of Deep Convolutional Neural Networks
{'venue': 'JETC', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,249
Rekommenderar system kan minska problemet med informationsöverbelastning genom att föreslå användares personliga objekt. I verkliga rekommendationer som e-handel, är en typisk interaktion mellan systemet och dess användare - användare rekommenderas en sida av objekt och ge feedback; och sedan systemet rekommenderar en ny sida av objekt. För att effektivt fånga sådan interaktion för rekommendationer, måste vi lösa två viktiga problem -(1) hur man uppdaterar rekommendationer strategi enligt användarens realtid feedback, och 2) hur man skapar en sida av objekt med korrekt display, vilket innebär enorma utmaningar för traditionella rekommendationssystem. I detta dokument studerar vi problemet med sidvisa rekommendationer som syftar till att ta itu med ovan nämnda två utmaningar samtidigt. I synnerhet föreslår vi en principiell strategi för att gemensamt generera en uppsättning kompletterande objekt och motsvarande strategi för att visa dem på en 2-D-sida; och föreslå en ny sida-wise rekommendation ram baserad på djup förstärkning lärande, DeepPage, som kan optimera en sida av objekt med korrekt visning baserat på realtid återkoppling från användare. De experimentella resultat som bygger på en verklig datauppsättning för e-handel visar hur effektiv den föreslagna ramen är.
Zhao m.fl. REF 34] föreslår en ny sidavis rekommendationsram baserad på djupt förstärkande lärande, som kan optimera en sida av objekt med korrekt visning baserad på realtidsfeedback från användare.
24,131,880
Deep reinforcement learning for page-wise recommendations
{'venue': "RecSys '18", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,250
Abstract-Graphs är en grundläggande datarepresentation som har använts i stor utsträckning inom olika domäner. I grafbaserade tillämpningar fungerar en systematisk undersökning av grafen såsom en bredd-första sökning (BFS) ofta som en nyckelkomponent i behandlingen av deras massiva datamängder. I detta dokument presenterar vi en ny metod för att implementera den parallella BFS-algoritmen på multi-core processorer som utnyttjar en grundläggande egenskap av slumpmässigt formade verkliga graf instanser. Genom att utnyttja minnesbandbredden mer effektivt, visar vår metod förbättrade prestanda över den aktuella toppmoderna implementeringen och ökar dess fördel när storleken på grafen ökar. Vi föreslår sedan en hybridmetod som, för varje nivå av BFS algoritm, dynamiskt väljer det bästa genomförandet från: en sekventiell körning, två olika metoder för multicore utförande, och en GPU utförande. En sådan hybrid tillvägagångssätt ger den bästa prestandan för varje graf storlek samtidigt undvika dåliga värsta fall prestanda på högdiameter grafer. Slutligen studerar vi effekterna av den underliggande arkitekturen på BFS prestanda genom att jämföra flera CPU- och GPU-system; en high-end GPU-system utförs samt en quad-socket highend CPU-system.
Till exempel Hong et al. i REF presenterade en hybridmetod som dynamiskt bestämmer den bästa genomförandemetoden för varje BFS-nivå iteration, skiftning mellan sekventiell körning, multi-core CPU-enbart utförande, och GPUs.
14,016,145
Efficient Parallel Graph Exploration on Multi-Core CPU and GPU
{'venue': '2011 International Conference on Parallel Architectures and Compilation Techniques', 'journal': '2011 International Conference on Parallel Architectures and Compilation Techniques', 'mag_field_of_study': ['Computer Science']}
80,251
Många datamängder innehåller rik information om objekt, såväl som parvisa relationer mellan dem. Till exempel, i nätverk av webbplatser, vetenskapliga papper och andra dokument, varje nod har innehåll som består av en samling ord, samt hyperlänkar eller citeringar till andra noder. För att kunna dra slutsatser om sådana datamängder och göra förutsägelser och rekommendationer är det bra att ha modeller som kan fånga upp de processer som genererar texten vid varje nod och länkarna mellan dem. I denna uppsats kombinerar vi klassiska idéer inom ämnesmodellering med en variant av den blockmodell för blandade medlemmar som nyligen utvecklats inom statistikfysiken. Den resulterande modellen har fördelen att dess parametrar, inklusive blandningen av ämnen i varje dokument och de resulterande överlappande samhällen, kan härledas med en enkel och skalbar förväntan-maximering algoritm. Vi testar vår modell på tre datauppsättningar, utför oövervakad ämnesklassificering och länkförutsägelse. För båda uppgifterna överträffar vår modell flera befintliga state-of-the-art metoder, uppnå högre noggrannhet med betydligt mindre beräkning, analysera en datauppsättning med 1,3 miljoner ord och 44 tusen länkar på några minuter.
REF kombinerade klassiska idéer inom ämnesmodellering med en variant av blockmodell för blandade medlemmar som nyligen har utvecklats i den statistiska fysikvärlden.
176,425
Scalable Text and Link Analysis with Mixed-Topic Link Models
{'venue': 'Proc. 19th SIGKDD Conference on Knowledge Discovery and Data Mining (KDD) 2013, 473-481', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics', 'Mathematics']}
80,252
Abstract-Distribuerad detektion i närvaro av kooperativ (byzantin) attack beaktas. Det antas att en bråkdel av övervakningssensorerna äventyras av en motståndare, och dessa komprometterade (bysantinska) sensorer programmeras om för att överföra fiktiva observationer som syftar till att förvirra beslutsfattaren vid fusionscentret. För detektion under binära hypoteser med kvantiserade sensorobservationer erhålls de optimala attackerande fördelningarna för bysantinska sensorer som minimerar detektionsfelet exponenten med hjälp av ett "vattenfyllningsförfarande". Det minsta felet exponenten, som en funktion av den bysantinska sensorpopulationen, karakteriserar kraften av attack. Dessutom erhålls den minsta fraktionen av bysantinska sensorer som förstör konsekvensen av detektion vid fusionscentret. Fallet när flera mätningar görs vid de avlägsna noderna beaktas också, och det visas att detektionsprestandan skalor med antalet sensorer skiljer sig från antalet observationer vid varje sensor. Index Terms-bysantinska attack, distribuerad upptäckt, nätverk försvar.
I REF ansåg författarna problemet med distribuerad detektion i närvaro av byzantiner under NeymanPearson (NP) setup och bestämde den optimala anfallsstrategi som minimerar detektionsfel exponenten.
14,173,578
Distributed Detection in the Presence of Byzantine Attacks
{'venue': 'IEEE Transactions on Signal Processing', 'journal': 'IEEE Transactions on Signal Processing', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,253
Abstract-This paper föreslår en statistisk parametrisk talsyntes teknik baserad på Gaussian process regression (GPR). GPR-modellen är utformad för att direkt förutsäga akustiska egenskaper på ramnivå från motsvarande information om ramkontext som erhålls från språklig information. Ramsammanhanget inkluderar den aktuella ramens relativa position inom telefonen och artikulatorisk information och används som förklarande variabel i GPR. Här introducerar vi klusterbaserade glesa Gaussiska processer (GPs), dvs lokala GPs och delvis oberoende villkorlig (PIC) approximation, för att minska beräkningskostnaden. De experimentella resultaten för både isolerad telefonsyntes och fullständig talsyntes visade att den föreslagna GPR-baserade tekniken utan dynamiska funktioner något överträffade den konventionella dolda Markov-modellen (HMM)-baserad talsyntes med hjälp av minsta generationsfelträning med dynamiska funktioner. Index Terms-Gaussian process regression, nonparametric Bayesian modell, delvis oberoende villkorlig (PIC) approximation, sparse Gaussian processer, statistisk talsyntes.
GPR använder ram-nivå kontextuella faktorer - såsom läget för ramen inom telefonen, och artikulatoriska funktioner - för att uppskatta ram-nivå akustiska banor REF.
876,017
Statistical Parametric Speech Synthesis Based on Gaussian Process Regression
{'venue': 'IEEE Journal of Selected Topics in Signal Processing', 'journal': 'IEEE Journal of Selected Topics in Signal Processing', 'mag_field_of_study': ['Computer Science']}
80,254
Det är ett mycket viktigt steg att hitta objektkanter i tillämpningar som objektigenkänning, klassificering och segmentering. Därför påverkar den edge detektionsalgoritm som ska användas direkt dessa tillämpningars prestanda. I denna studie föreslås en ny kantdetekteringsmetod baserad på Neutrosophic Set (NS) struktur genom att använda maximal normentropi (EDA-NMNE). Många experter och underrättelsesystem, inklusive det luddiga systemet, lyckas inte på ett tillfredsställande sätt lösa osäkerheter och brister. Men i NS-metoden löser man problemen genom att dela in dem i True (T), False (F) och Indeterminacy (I) undergrupper. Dessutom, eftersom metoden har en kraftfull algoritmisk struktur, NS villkor med obestämda och saknade situationer kan lösas framgångsrikt. I denna studie, objektkanter kan hittas framgångsrikt med den föreslagna metoden eftersom kanterna på objektet anses som obestämda. Således, med hjälp av den föreslagna EDA-NMNE, en stark intelligent expert systembaserad edge finding programvara utformades. I vår studie, 5 olika objekt edge detektion resultat erhölls genom att omvandla 5 olika typer av entropi till NS-baserade edge detektion programvara. Således har kantdetektion analys utförts genom att experimentera många typer av entropi som inte tidigare har använts för NS kantdetektion. Den metriska bilden
I papper REF föreslås en ny kantdetekteringsmetod baserad på Neutrosophic Set (NS) struktur genom att använda maximal normentropi (EDA-NMNE).
53,116,024
A new edge detection approach via neutrosophy based on maximum norm entropy
{'venue': 'Expert Syst. Appl.', 'journal': 'Expert Syst. Appl.', 'mag_field_of_study': ['Computer Science']}
80,255
Abstract-The key frame är en enkel men effektiv form av att sammanfatta en lång videosekvens. Antalet nyckelramar som används för att abstraktera ett skott bör överensstämma med komplexiteten i det visuella innehållet inom skottet och placeringen av nyckelramar bör representera det mest framträdande visuella innehållet. Rörelse är den mer framträdande funktionen i att presentera åtgärder eller händelser i video och bör därför vara funktionen för att bestämma nyckelramar. I detta dokument föreslår vi en triangelmodell av upplevd rörelseenergi (PME) för att modellera rörelsemönster i video och ett system för att extrahera nyckelramar baserat på denna modell. Ramarna vid rörelseaccelerationens och rörelseretardationens vändpunkt väljs som nyckelramar. Valprocessen för nyckelramar är tröskelfri och snabb och de extraherade nyckelramarna är representativa.
För att ta itu med en sådan begränsning byggde REF en rörelseenergimodell för att uppfatta rörelsemönster i den okomprimerade domänen.
6,525,893
A novel video key-frame-extraction algorithm based on perceived motion energy model
{'venue': 'IEEE Trans. on CSVT', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,256
Sedan uppfinningen av word2vec [28, 29], har hoppa-gram modellen avsevärt avancerat forskningen av nätverk inbäddning, såsom den senaste utvecklingen av DeepWalk, LINE, PTE, och node2vek metoder. I detta arbete visar vi att alla ovan nämnda modeller med negativ provtagning kan förenas i matris factorization ram med slutna former. Vår analys och bevis avslöjar att: (1) DeepWalk [31] empiriskt producerar en lågvärdig omvandling av ett näts normaliserade Laplacian-matris; (2) LINE [37] är i teorin ett specialfall av DeepWalk när storleken på hörnens sammanhang är satt till en; (3) Som en förlängning av LINE, PTE [36] kan ses som den gemensamma faktoriseringen av flera nätverk Laplacians; (4) node2vec [16] faktoriserar en matris relaterad till den stationära distributionen och övergångssannolikheten tensor av en 2: a ordningen slumpmässig gång. Vi tillhandahåller vidare de teoretiska kopplingarna mellan skip-gram-baserade nätverk inbäddande algoritmer och teorin om graf Laplacian. Slutligen presenterar vi NetMF metod 1 samt dess approximation algoritm för datornätverk inbäddning. Vår metod erbjuder betydande förbättringar över DeepWalk och LINE för konventionella nätverksbrytningsuppgifter. Detta arbete lägger den teoretiska grunden för hoppa-gram baserade nätverk inbäddning metoder, vilket leder till en bättre förståelse av latent nätverk representation lärande.
Dessutom kan ovan nämnda tekniker förenas under en matris factorization ram REF.
3,952,914
Network Embedding as Matrix Factorization: Unifying DeepWalk, LINE, PTE, and node2vec
{'venue': "WSDM '18", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,257
Vi utökar ett träd T med en genväg pq för att minimera det största avståndet mellan två punkter längs den resulterande augmented träd T + pq. Vi studerar detta problem i en kontinuerlig och geometrisk inställning där T är ett geometriskt träd i Euclidean planet, där en genväg är en linje segment som förbinder två punkter längs kanterna på T, och vi anser alla punkter på T + pq (dvs, hörn och punkter längs kanter) när man bestämmer det största avståndet längs T + pq. Vi hänvisar till det största avståndet mellan två punkter längs kanterna som den kontinuerliga diametern för att skilja den från den diskreta diametern, dvs. det största avståndet mellan två hörn. Vi fastställer att en enda genväg är tillräcklig för att minska den kontinuerliga diametern på ett geometriskt träd T om och endast om skärningspunkten mellan alla diametriala vägar av T varken är ett linjesegment eller en enda punkt. Vi bestämmer en optimal genväg för ett geometriskt träd med n raka kanter i O(n log n) tid. Bortsett från löptiden sträcker sig våra resultat till geometriska träd vars kanter är rektifierbara kurvor. Algoritmen för träd generaliserar vår algoritm för stigar. ACM Subject Classification Ett nätverk är en ansluten, oriktad graf med positiva kantvikter. Ett geometriskt nätverk är ett nätverk som är inbäddat i Euclidean planet vars kanter är rektifierbara kurvor viktade med sin längd. Vi beskriver våra resultat för raka kanter, även om de sträcker sig till mer allmänna kanter. Vi säger att en punkt p ligger på ett geometriskt nätverk G och skriva p på G när det finns en kant e av G sådan att p är en punkt längs inbäddningen av e. En punkt p på en kant e av längd l delar e i två delkanter av längder (1 − λ) · l och λ · l för något värde λ och [0, 1]. Vi representerar punkterna om G när det gäller deras relativa position (uttryckt med λ) längs deras innehållande kant, och på så sätt undviker vi tvetydighet vid korsningar.
Träd har studerats i en nyligen genomförd uppföljningsarbete REF, som presenterar en algoritm för att hitta en optimal genväg för ett träd av storlek n i O(n log n) tid.
17,590,361
Minimizing the Continuous Diameter When Augmenting a Tree with a Shortcut
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,258
Trots framsteg i perceptuella uppgifter som bildklassificering, datorer fortfarande dåligt utför kognitiva uppgifter såsom bildbeskrivning och frågesvar. Kognition är kärnan i uppgifter som innebär att inte bara erkänna, men resonemang om vår visuella värld. Modeller som används för att hantera det rika innehållet i bilder för kognitiva uppgifter tränas dock fortfarande med hjälp av samma datauppsättningar som är utformade för perceptuella uppgifter. För att uppnå framgång vid kognitiva uppgifter måste modellerna förstå interaktionen och relationen mellan objekt i en bild. När man frågade: "Vilket fordon är den som rider?", datorer måste identifiera föremålen i en bild samt förhållanden ridning(man, vagn) och dra (häst, vagn) för att korrekt svara att "personen rider en häst dragen vagn." I detta dokument presenterar vi Visual Genome dataset för att möjliggöra modellering av sådana relationer. Vi samlar täta annoteringar av objekt, attribut och relationer inom varje bild för att lära sig dessa modeller. Specifikt innehåller vårt dataset över 108K bilder där varje bild har i genomsnitt 35 objekt, 26 attribut och 21 parvisa relationer mellan objekt. Vi kanonicalize objekt, attribut, relationer, och substantiv fraser i regionbeskrivningar och frågor svarar par till Word-Net synsets. Tillsammans representerar dessa kommentarer de tätaste Kommunicerade av och största datauppsättningen av bildbeskrivningar, objekt, attribut, relationer och frågesvar par.
Den nyligen släppta Visual Genome dataset REF ger en storskalig annotering av bilder som innehåller ett stort antal objekt, attribut och relationer.
4,492,210
Visual Genome: Connecting Language and Vision Using Crowdsourced Dense Image Annotations
{'venue': 'International Journal of Computer Vision', 'journal': 'International Journal of Computer Vision', 'mag_field_of_study': ['Computer Science']}
80,259
Vi presenterar en effektiv och skalbar teknik för spatiotemporal segmentering av långa videosekvenser med hjälp av en hierarkisk grafbaserad algoritm. Vi börjar med att oversegmentera en volymetrisk videograf i rum-tid regioner grupperade efter utseende. Vi konstruerar sedan en "regiongraf" över den erhållna segmenteringen och upprepar iterativt denna process över flera nivåer för att skapa ett träd av spatio-temporala segmenteringar. Detta hierarkiska tillvägagångssätt genererar hög kvalitet segmenteringar, som tidsmässigt överensstämmer med stabila regiongränser, och gör det möjligt för efterföljande tillämpningar att välja mellan olika nivåer av granularitet. Vi förbättrar segmenteringskvaliteten ytterligare genom att använda tät optiskt flöde för att styra tidsanslutningar i den ursprungliga grafen. Vi föreslår också två nya metoder för att förbättra skalbarheten av vår teknik: a) en parallell utanför kärnalgoritm som kan bearbeta volymer som är mycket större än en in-core algoritm, och b) en clip-baserad processalgoritm som delar upp videon i överlappande klipp i tiden, och segmenterar dem successivt samtidigt som konsekvensen upprätthålls. Vi demonstrerar hierarkiska segmenteringar på videobilder så länge som 40 sekunder, och stöder även ett strömmande läge för godtyckligt långa videor, om än utan förmågan att bearbeta dem hierarkiskt.
Spatio-temporal segmentering av videosekvenser i segment med sammanhängande lokala egenskaper har också behandlats genom grafbaserade metoder REF.
9,363,299
Efficient hierarchical graph-based video segmentation
{'venue': '2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition', 'journal': '2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
80,260
Neurala nätklassificerare som är utbildade på data med kommenterade klassetiketter kan också fånga skenbar visuell likhet mellan kategorier utan att bli instruerade att göra det. Vi studerar om denna observation kan utvidgas utanför det traditionella området för övervakad inlärning: Kan vi lära oss en bra funktionsrepresentation som fångar uppenbara likheter mellan fall, istället för klasser, genom att bara be funktionen att vara diskriminerande i enskilda fall? Vi formulerar denna intuition som ett icke-parametriskt klassificeringsproblem på instansnivå, och använder bullerkontrastiv uppskattning för att ta itu med de beräkningsutmaningar som det stora antalet instansklasser medför. Våra experimentella resultat visar att vår metod, under oövervakade inlärningsinställningar, överträffar den senaste tekniken på ImageNet klassificering med stor marginal. Vår metod är också anmärkningsvärd för att ständigt förbättra testprestandan med mer träningsdata och bättre nätverksarkitekturer. Genom att finjustera den inlärda funktionen får vi ytterligare konkurrenskraftiga resultat för halvövervakade inlärnings- och objektdetekteringsuppgifter. Vår icke-parametriska modell är mycket kompakt: Med 128 funktioner per bild, kräver vår metod endast 600 MB lagring för en miljon bilder, vilket möjliggör snabb närmaste grannhämtning på körtid.
Denna metod är relaterad till en annan oövervakad inlärningsmetod REF.
4,591,284
Unsupervised Feature Learning via Non-parametric Instance Discrimination
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
80,261
Detta dokument introducerar problemet med att kombinera flera partitioner av en uppsättning objekt till en enda konsoliderad klustering utan att komma åt de funktioner eller algoritmer som bestämde dessa partitioner. Vi identifierar först flera tillämpningsscenarier för det resulterande ramverket "kunskapsåteranvändning" som vi kallar klusterensembler. Klustret ensemble problemet formaliseras sedan som ett kombinatoriskt optimeringsproblem i termer av delad ömsesidig information. Utöver en direkt maximering föreslår vi tre effektiva tekniker för att erhålla högkvalitativa kombinatorer (konsensusfunktioner). Den första kombinatorn inducerar ett likhetsmått från partitioneringarna och drar sedan tillbaka objekten. Den andra kombinatorn är baserad på hypergrafpartitionering. Den tredje en kollapsar grupper av kluster i meta-kluster som sedan tävlar om varje objekt för att bestämma den kombinerade klustret. På grund av de låga beräkningskostnaderna för våra tekniker, är det fullt möjligt att använda en supra-consensus funktion som utvärderar alla tre metoder mot den objektiva funktionen och väljer den bästa lösningen för en given situation. Vi utvärderar effektiviteten av klusterensembler i tre kvalitativt olika tillämpningsscenarier: (i) där de ursprungliga klusteren bildades baserat på icke-identiska uppsättningar av funktioner, (ii) där de ursprungliga klusteralgoritmerna arbetade på icke-identiska uppsättningar av objekt, och (iii) där en gemensam datauppsättning används och huvudsyftet med att kombinera flera kluster är att förbättra kvaliteten och robustheten i lösningen. Lovande resultat erhålls i alla tre situationer för syntetiska såväl som verkliga datauppsättningar.
Ref överväga olika formuleringar för problemet, varav de flesta minskar problemet till en hypergraf partitionering problem.
3,068,944
Cluster Ensembles – A Knowledge Reuse Framework for Combining Multiple Partitions
{'venue': 'ICML', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,262
Obemannade luftfartyg (UAV) har nyligen ansetts vara ett sätt att tillhandahålla bättre täckning eller återsändningstjänster för mobila användare i trådlösa system med begränsad eller ingen infrastruktur. I denna uppsats studeras ett UAV-baserat mobilt molndatasystem där en rörlig UAV är utrustad med datorkapacitet för att erbjuda beräkningsavlastningsmöjligheter till MUs med begränsad lokal bearbetningskapacitet. Systemet syftar till att minimera den totala mobila energiförbrukningen samtidigt som kvaliteten på servicekraven för den avlastade mobila applikationen tillgodoses. Avlastning möjliggörs genom upplänk och nedlänkning mellan de mobila enheterna och UAV, som sker med hjälp av frekvensdelning duplex via ortogonala eller icke-ortogonala system för flera åtkomster. Problemet med att gemensamt optimera bit allokeringen för upplänk och nedlänk kommunikation samt för beräkning vid UAV, tillsammans med cloudlet's bana under latency och UAV: s energi budget begränsningar formuleras och hanteras genom att utnyttja på varandra följande konvexa approximeringsstrategier. Numeriska resultat visar de betydande energibesparingar som kan uppnås med hjälp av den föreslagna gemensamma optimeringen av bit allokering och cloudlet bana jämfört med lokala mobila utförande samt partiell optimering metoder som designar endast bit allokering eller cloudlet bana.
Jeong m.fl. I REF studerades användningen av obemannade luftfartyg (UAV) för att förse användarna med utlastningstjänster.
3,914,009
Mobile Edge Computing via a UAV-Mounted Cloudlet: Optimization of Bit Allocation and Path Planning
{'venue': 'IEEE Transactions on Vehicular Technology', 'journal': 'IEEE Transactions on Vehicular Technology', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,263
Vi presenterar en ny metod för att generera utdragsrika sammanfattningar av flera dokument. Metoden använder Integer Linear Programmering för att gemensamt maximera betydelsen av de meningar som ingår i sammanfattningen och deras mångfald, utan att överskrida en maximal tillåten sammanfattningslängd. För att få en viktig poäng för varje mening, använder den en Support Vector Regression modell tränas på människa-auktoriserade sammanfattningar, medan mångfalden av de valda meningarna mäts som antalet distinkta ord bigrams i den resulterande sammanfattningen. Experimentella resultat på allmänt använda riktmärken visar att vår metod uppnår toppmoderna resultat, jämfört med konkurrenskraftiga utvinningssammanfattningar, samtidigt som den är beräkningseffektiv.
REF föreslog en stödvektor regressionsmodell för att uppskatta bigramfrekvensen i sammanfattningen.
12,873,285
Extractive Multi-Document Summarization with Integer Linear Programming and Support Vector Regression
{'venue': 'COLING', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,264
Abstract-In trådlösa sensornätverk (WSNs), diagnos är en avgörande och utmanande uppgift på grund av den distribuerade naturen och stränga resurser. De flesta tidigare metoder övervakas, beroende på a-prioriterad kunskap om nätverksfel. Å andra sidan avslöjar vår erfarenhet av GreenOrbs, ett långsiktigt storskaligt WSN-system, behovet av diagnos på ett agnostiskt sätt. Förutom fördefinierade fel (dvs. med kända typer och symtom) står tysta fel som är okända i förväg för en stor del av nätprestandanedbrytningen. För närvarande finns det ingen effektiv lösning för tysta fel eftersom de ofta är olika och mycket systemrelaterade. I detta dokument föreslår vi Agnostic Diagnosis (AD), en online lättviktsdetektion metod. AD motiveras av det faktum att systemmåtten (t.ex. radio-on-tid, antal paket som överförs) av GreenOrbs sensorer vanligtvis uppvisar vissa korrelationsmönster. Brott mot sådana mönster tyder på potentiella tysta misslyckanden. Vi utformar därför ett korrelationsdiagram, som systematiskt karakteriserar interna korrelationer inuti en nod. Tysta fel upptäcks genom att spåra förändringar och anomalier i korrelationsdiagram. Vi implementerar AD på en fungerande WSN bestående av 330 noder. Våra experimentella resultat visar fördelarna med AD för att upptäcka tysta misslyckanden, effektivt utöka kapaciteten och omfattningen av WSN diagnos.
Miao m.fl. REF, har föreslagit en online lättviktsfel detektionsmetod som syftar till att upptäcka noder fel i ett trådlöst sensornätverk.
3,992,131
Agnostic diagnosis: Discovering silent failures in wireless sensor networks
{'venue': '2011 Proceedings IEEE INFOCOM', 'journal': '2011 Proceedings IEEE INFOCOM', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,265
De flesta kontextuella banditalgoritmer minimerar ånger till den bästa fasta policy-ett tvivelaktigt riktmärke för icke-stationära miljöer allmänt förekommande i applikationer. I detta arbete får vi effektiva kontextuella banditalgoritmer med starka garantier för alternativa föreställningar om ånger anpassade till dessa icke-stationära miljöer. Två av våra algoritmer utrustar befintliga metoder för i.i.d problem med sofistikerade statistiska tester, dynamiskt anpassa sig till en förändring i distribution. Den tredje metoden använder en ny teknik för att kombinera flera bandit algoritmer, med varje kopia börjar på en annan runda för att lära sig över olika datasegment. Vi analyserar flera föreställningar om ånger för dessa metoder, inklusive de första resultaten på dynamisk ånger för effektiva kontextuella banditalgoritmer. antaganden och studera lämpliga generaliseringar av ånger från i.i.d. till icke-stationära miljöer. Vi börjar med att modifiera den enklaste kontextuella banditalgoritmen, EPOCH-GREEDY [16], för att arbeta i icke-stationära inställningar. 1 Vi anpassar ytterligare den statistiskt och beräkningsmässigt optimala metoden för Agarwal et al. [1] till denna inställning också. Båda våra ändringar, ADA-GREEDY och ADA-ILTCB, sond för den längsta perioden i det förflutna där datadistributionen ser ungefär i.i.d., och beräkna en fördelning över policyer baserade på den perioden. Det exakta testet är algoritmspecifikt och bygger på att verifiera vissa koncentrationsojämlikheter som algoritmen förlitar sig på, men den allmänna idén kan vara tillämplig på att utöka andra kontextuella banditalgoritmer också.
Nyligen studerade Luo et al REF det icke-stationära banditproblemet och föreslog flera banditalgoritmer med statistiska tester för att anpassa sig till förändringar i miljön.
3,438,916
Efficient Contextual Bandits in Non-stationary Worlds
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
80,266
Vi introducerar begreppet grupphuvudman och presenterar ett antal olika klasser av grupphuvudmän, inklusive tröskelgruppshuvudmän. Dessa verkar naturligt användbara begrepp för att titta på säkerhet. Vi tillhandahåller ett tillhörande epistemiskt språk och logik och använder det för att resonera om anonymitet protokoll och anonymitet tjänster, där skydd egenskaper formuleras från inkräktarens kunskap om grupp principer. Med vårt språk ger vi en epistemisk karakterisering av anonymitetsegenskaper. Vi presenterar också en specifikation av ett enkelt anonymiseringssystem och informell bedömning med hjälp av vår teori.
I synnerhet introducerar REF begreppet grupphuvudman och en tillhörande modell, språk och logik för att axiomatisera anonymitet.
8,716,623
Group Principals and the Formalization of Anonymity
{'venue': 'World Congress on Formal Methods', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,267
Abstract-Ett visuellt uppmärksamhetssystem, inspirerad av beteendet och den neuronala arkitekturen i det tidiga primata visuella systemet, presenteras. Flerskaliga bildfunktioner kombineras till en enda topografisk karta. Ett dynamiskt neuralt nätverk väljer sedan deltagande platser i ordning av minskande salthalt. Systemet bryter ner det komplexa problemet med scen förståelse genom att snabbt välja, på ett beräkningseffektivt sätt, iögonfallande platser som ska analyseras i detalj.
REF föreslog en modell inspirerad av det primära visuella systemet.
3,108,956
A Model of Saliency-Based Visual Attention for Rapid Scene Analysis
{'venue': 'IEEE Trans. Pattern Anal. Mach. Intell.', 'journal': 'IEEE Trans. Pattern Anal. Mach. Intell.', 'mag_field_of_study': ['Computer Science', 'Geography']}
80,268
3D form är en avgörande men kraftigt underutnyttjad kö i dagens datorseende system, främst på grund av bristen på en bra generisk form representation. Med den senaste tillgängligheten av billiga 2.5D djupgivare (t.ex. Microsoft Kinect), blir det allt viktigare att ha en kraftfull 3D-form representation i loopen. Förutom kategoriigenkänning, återhämta hela 3D-former från vybaserade 2.5D djupkartor är också en kritisk del av visuell förståelse. I detta syfte föreslår vi att representera en geometrisk 3D-form som en sannolikhetsfördelning av binära variabler på ett 3D voxel rutnät, med hjälp av ett Convolutional Deep Belief Network. Vår modell, 3D ShapeNets, lär sig fördelningen av komplexa 3D-former över olika objektkategorier och godtyckliga poser från råa CAD-data, och upptäcker hierarkisk sammansättningsdel representation automatiskt. Den stöder naturligtvis gemensam objektigenkänning och form färdigställande från 2.5D djupkartor, och det möjliggör aktiv objektigenkänning genom vyplanering. För att träna vår 3D djupt lärande modell, konstruerar vi ModelNet - en storskalig 3D CAD modell dataset. Omfattande experiment visar att vår 3D djupa representation möjliggör betydande prestandaförbättringar jämfört med den senaste tekniken i en mängd olika uppgifter. 978-1-4673-6964-0/15/$31.00 ©2015 IEEE
Wu och Al. REF lär sig en sannolikhetsfördelning över binära variabler som representerar voxel beläggning i ett 3D rutnät baserat på Convolutional Deep Trolief Networks (CDBNs).
206,592,833
3D ShapeNets: A deep representation for volumetric shapes
{'venue': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
80,269
I detta dokument undersöks forskningen om energihanteringsteknik för högpresterande system. Dessa omfattar både kommersiella kluster med hög prestanda och vetenskapliga system med hög prestanda (HPC). Kraftförbrukningen har snabbt stigit till en oacceptabel skala. Detta leder till både höga driftskostnader och höga felfrekvenser, så det är nu en stor källa till oro. Det innebär nya utmaningar för utvecklingen av högpresterande system. I detta dokument går vi först igenom de grundläggande mekanismer som ligger till grund för energihanteringstekniker. Sedan undersöker vi två grundläggande tekniker för energihantering: mätvärden och profilering. Därefter går vi igenom forskningen för de två stora typerna av högpresterande system: kommersiella kluster och superdatorer. Baserat på detta diskuterar vi de nya möjligheter och problem som presenteras av den nyligen antagna virtualiseringstekniken, och återigen presenterar vi den senaste forskningen om detta. Slutligen sammanfattar och diskuterar vi framtida forskningsinriktningar.
Dessutom ger REF en litteraturstudie om två grundläggande energihanteringstekniker i HPC-miljöer: Metrics och Profiling.
206,510,536
A survey of the research on power management techniques for high-performance systems
{'venue': 'Softw. Pract. Exp.', 'journal': 'Softw. Pract. Exp.', 'mag_field_of_study': ['Computer Science']}
80,270
Abstrakt-nyligen, mobila agenter har använts för att lösa många problem i trådlösa sensornätverk. De överförs vanligtvis från en nod till en annan för att aggregera de sensed data och förenkla komplexiteten i routing algoritmer. Intelligenta agenter kan minska kommunikationskostnaderna över en mycket låg bandbredd länkar bland sensorerna. I detta dokument föreslår vi en Agent Based Multipath Routing (ABMR) algoritm för trådlöst sensornätverk. Algoritmen tar hänsyn till många av sensorerna och de övervakade fältparametrarna såsom energi, tillförlitlighet och antal humle, samt datans betydelse. Algoritmen bygger en tillförlitlig flera vägar från källan till destinationen. Antalet sökvägar väljs baserat på betydelsen av de sensed data. Intelligenta medel är utformade för att konstruera multipaten samt för att skicka de avkännbara uppgifterna till dess destination. För att visa den föreslagna algoritmens effektivitet jämförs ABMR med icke-agentbaserad algoritm (NABMR) samt med en av de senaste multipaternas routingalgoritm genom en omfattande uppsättning experiment.
Icke-agentbaserad multipatrouting (NABMR) och agentbaserad multipatrouting (ABMR) som faromedvetna multipatsäkra routingalgoritmer presenteras i REF.
14,083,073
Agent Based Multipath Routing in wireless sensor networks
{'venue': '2009 IEEE Symposium on Intelligent Agents', 'journal': '2009 IEEE Symposium on Intelligent Agents', 'mag_field_of_study': ['Computer Science']}
80,271
Med ökad penetration av solenergi som en variabel energiresurs (VER), solceller (PV) kraftproduktion ökar snabbt in i storskaliga kraftindustrier. Eftersom PV-systemens effekt är beroende av vädret kan oväntade variationer av deras effekt leda till ökade driftskostnader för kraftsystemet. Ett stort hinder för att integrera denna VER i nätet är dessutom dess oförutsägbarhet, eftersom en jämn produktion inte kan garanteras vid någon viss tidpunkt. Detta missgynnar kraftbolag mot att använda solcellskraft eftersom planering och övergripande balansering av elnätet blir mycket utmanande. Att utveckla en tillförlitlig algoritm som kan minimera de fel som är förknippade med att förutse den nära framtidens solcellskraftgenerering är mycket fördelaktigt för att effektivt integrera VER i elnätet. Energiprognoser för solcellsceller kan spela en viktig roll för att ta itu med dessa utmaningar. I detta dokument presenteras en timmes prognoser för uteffekten av ett solcellssystem med hjälp av en kombination av wavelettransform (WT) och artificiell intelligens (AI) teknik genom att integrera samspelet mellan PV-system med solstrålning och temperaturdata. I den föreslagna metoden, WT tillämpas för att ha en betydande inverkan på dålig PV effekt tidsserie data, och AI tekniker fånga icke-linjär PV fluktuation på ett bättre sätt.
En wavelet transformation (WT) metod användes för nedbrytning av PV tidsserie data med hjälp av ANN metoden REF.
31,905,689
Forecasting Power Output of Solar Photovoltaic System Using Wavelet Transform and Artificial Intelligence Techniques
{'venue': 'Complex Adaptive Systems', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,272
Abstract-Till nyligen, var det allmänt trott att kod randomisering (såsom finkornig ASLR) effektivt kan minska kod återanvändning attacker. Men, en nyligen attack strategi, dubbade just-in-time retur orienterad programmering (JIT-ROP), kringgår kod randomisering genom att avslöja (randomized) innehållet i många minnessidor på runtime. För att avhjälpa denna situation, nya och förbättrade kod randomisering försvar har föreslagits. Bidraget från detta dokument är tvåfaldigt: För det första genomför vi en säkerhetsanalys av ett nyligen föreslaget finkornigt ASLR-system som syftar till att mildra JIT-ROP baserat på att dölja direkta kodreferenser i filialinstruktioner. I synnerhet visar vi sina svagheter genom att konstruera en ny JIT-ROP-attack som enbart bygger på att utnyttja kodreferenser som finns på stacken och högen. Vår attack betonar att utforma kod randomisering system motståndskraftig mot minnesdisclosure är mycket utmanande. För det andra presenterar vi en ny och hybrid försvarsstrategi, dubbade Isomeron, som kombinerar kod randomisering med exekutivväg randomisering för att mildra konventionella ROP och JIT-ROP attacker. Vår referens implementering av Isomeron varken kräver källkod eller en statisk analysfas. Vi utvärderade dess effektivitet baserat på SPEC-riktmärken och diskutera dess effektivitet mot olika typer av kod återanvändning attacker.
Isomeron REF kombinerar finkornig kod randomisering med körningsväg randomisering för att mildra typiska ROP- och JIT-ROP-attacker.
14,639,553
Isomeron: Code Randomization Resilient to (Just-In-Time) Return-Oriented Programming
{'venue': 'NDSS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,273
Hur vet folk så mycket som de gör med så lite information som de får? Problemet tar sig många former; att lära sig ordförråd från text är ett särskilt dramatiskt och bekvämt fall för forskning. En ny allmän teori om förvärvad likhet och kunskapsrepresentation, latent semantisk analys (LSA), presenteras och används för att framgångsrikt simulera sådant lärande och flera andra psykolingvistiska fenomen. Genom att indirekt ta fram global kunskap från lokala co-occurence data i en stor mängd representativ text, har LSA skaffat sig kunskap om engelskans fullständiga vokabulär i samma takt som skolbarn. LSA använder ingen tidigare språklig eller perceptuell likhetskunskap; den baseras enbart på en allmän matematisk inlärningsmetod som uppnår kraftfulla induktiva effekter genom att extrahera rätt antal dimensioner (t.ex. 300) för att representera objekt och sammanhang. Förhållandet till andra teorier, fenomen och problem är skissat. Prolog "Hur mycket vet vi när som helst? Mycket mer, eller så tror jag, än vi vet att vi vet!" -Agatha Christie, The Moving Finger En typisk amerikansk sjundeklassare vet innebörden av 10-15 ord idag som hon inte visste igår. Hon måste ha förvärvat de flesta av dem som ett resultat av läsning eftersom a) majoriteten av de engelska orden endast används i tryckt form, b) hon redan visste väl nästan alla de ord hon skulle ha stött på i tal, och c) hon lärde sig mindre än ett ord genom direkt undervisning. Studier av barn som läser grundskolans text finner att ungefär ett ord i 20 stycken går från fel till rätt på ett ordförrådstest. Den typiske sjundeklassaren skulle ha läst mindre än 50 stycken sedan i går, av vilka hon borde ha lärt sig mindre än tre nya ord. Hon behärskade tydligen innebörden i många ord som hon inte mötte. Bevis för alla dessa påståenden ges i detalj senare. Detta fenomen erbjuder ett idealiskt fall för att studera ett problem som har plågat filosofi och vetenskap sedan Platon för 24 århundraden sedan, det faktum att människor har mycket mer kunskap än verkar vara närvarande i den information som de har exponerats för. Platons lösning, naturligtvis, var att människor måste komma utrustade med det mesta av sin kunskap och behöver bara tips och kontemplation för att slutföra det. I den här artikeln föreslår vi en helt annan hypotes för att förklara mysteriet med överdriven inlärning. Det beror på den enkla uppfattningen att vissa kunskapsområden innehåller ett stort antal svaga inbördes förhållanden som, om de utnyttjas på rätt sätt, i hög grad kan förstärka lärandet genom en inferensprocess. Vi har upptäckt att en mycket enkel induktionsmekanism, valet av den rätta dimensionaliteten för att representera likheten mellan objekt och händelser, ibland, särskilt när det gäller att lära sig om likheten mellan ordens betydelser, kan ge tillräcklig kunskap för att överbrygga klyftan mellan den information som finns tillgänglig i den lokala kontinuiteten och vad människor vet efter stora mängder erfarenhet. I denna artikel rapporterar vi resultaten av att använda latent semantisk analys (LSA), en högdimensionell linjär associativ modell som förkroppsligar ingen mänsklig kunskap utöver dess allmänna inlärningsmekanism, för att analysera en stor corpus av naturlig text och generera en representation som fångar likheten mellan ord och text passager. Modellens resulterande kunskap testades med en standard flervalssynonymtest, och dess inlärningsförmåga jämfört med den takt med vilken skolbarn förbättrar sin prestation på liknande tester som ett resultat av läsning. Modellens förbättring per stycke i den text som påträffats approximerade den naturliga andelen för skolbarn, och den största delen av dess förvärvade kunskap berodde på indirekt inferens snarare än direkt samverkan. Detta resultat kan tolkas på minst två sätt. Den mer konservativa tolkningen visar att med rätt analys kan en stor del av den information som behövs för att besvara vanliga vokabulärtestfrågor härledas enbart från den kontextuella statistiken över användningen. Detta är ingen trivial slutsats. Som vi anspelade på tidigare 211
En annan välkänd statistisk metod för att mäta semantisk likhet är latent semantisk analys (LSA) REF.
1,144,461
A solution to Plato’s problem: The latent semantic analysis theory of acquisition, induction, and representation of knowledge
{'venue': 'Psychological review', 'journal': None, 'mag_field_of_study': ['Psychology']}
80,274
Abstract-Cluster baserade protokoll som LEACH hittades bäst lämpade för routing i trådlösa sensornätverk. I mobilitetscentriska miljöer föreslogs vissa förbättringar i grundsystemet. LEACH-Mobile är ett sådant protokoll. Det grundläggande LEACH-protokollet förbättras i det mobila scenariot genom att säkerställa om en sensornod kan kommunicera med sitt klusterhuvud. Eftersom alla noder, inklusive klusterhuvudet, rör sig, är det bättre att välja en nod som klusterhuvud som har mindre rörlighet i förhållande till sina grannar. I detta dokument, LEACH-Mobile protokoll har förbättrats baserat på en rörlighet metrisk "fjärrighet" för kluster huvudval. Detta säkerställer hög framgång i dataöverföring mellan klusterhuvudet och samlarnoder även om noder rör sig. Vi har simulerat och jämfört vårt LEACH-Mobilförstärkta protokoll med LEACHMobile. Resultaten visar att införandet av angränsande nodinformation förbättrar routingprotokollet.
I LEACH-M REF föreslås ett mobilitetsmått.
53,341,028
Mobility Metric based LEACH-Mobile Protocol
{'venue': '2008 16th International Conference on Advanced Computing and Communications', 'journal': '2008 16th International Conference on Advanced Computing and Communications', 'mag_field_of_study': ['Computer Science']}
80,275
Sammanfattning av denna webbsida: Spridning av medicinska data bortom det skyddade molnet av institutioner innebär allvarliga risker för patienternas integritet, eftersom överträdelser driver dem till den punkt där de avstår från att helt avslöja sitt tillstånd. Denna situation påverkar patienten, den vetenskapliga forskningen och alla berörda parter negativt. För att ta itu med denna utmaning föreslår vi ett blockchain-baserat ramverk för datadelning som tillräckligt tar itu med åtkomstkontrollutmaningarna i samband med känsliga data som lagras i molnet med hjälp av immutability och inbyggda autonomiegenskaper hos blockchain. Vårt system är baserat på en auktoriserad blockchain som tillåter tillgång till endast inbjudna, och därmed verifierade användare. Som ett resultat av denna design, garanteras ytterligare ansvar eftersom alla användare redan är kända och en logg över deras åtgärder hålls av blockkedjan. Systemet tillåter användare att begära data från den delade poolen efter att deras identiteter och kryptografiska nycklar verifierats. Bevisen från systemutvärderingen visar att vårt system är lätt, skalbart och effektivt.
Xia m.fl. REF föreslog ett godkänt blockchain-baserat ramverk för datadelning för att tillåta endast kontrollerade användare att komma åt molndata.
2,206,177
BBDS: Blockchain-Based Data Sharing for Electronic Medical Records in Cloud Environments
{'venue': 'Information', 'journal': 'Information', 'mag_field_of_study': ['Computer Science']}
80,276
Med tanke på datacentrens betydande energiförbrukning är det ett viktigt socialt problem att förbättra deras energieffektivitet. Energieffektivitet är dock nödvändig men inte tillräcklig för hållbarhet, vilket kräver minskad energianvändning från fossila bränslen. I detta dokument undersöks möjligheten att driva internetsystem med (nästan) helt förnybar energi. Vi utför en spårbaserad studie för att utvärdera tre frågor relaterade till att uppnå detta mål: effekten av geografisk belastningsbalansering, lagringens roll och den optimala blandningen av förnybara energikällor. Våra resultat belyser att geografisk lastbalansering avsevärt kan minska den nödvändiga kapaciteten för förnybar energi genom att använda energin mer effektivt med "följ de förnybara" routing. Dessutom visar våra resultat att småskalig lagring kan vara användbar, särskilt i kombination med geografisk belastningsbalansering, och att en optimal blandning av förnybara energikällor inkluderar betydligt mer vind än solceller.
I REF beaktas genomförbarheten av att driva datacenterinfrastruktur med användning av förnybar energi.
6,070,495
Geographical load balancing with renewables
{'venue': 'PERV', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,277
I detta dokument presenterar vi en ny metod för mänsklig aktivitetsförutsägelse. Mänsklig aktivitetsförutsägelse är en probabilistisk process för att sluta sig till pågående aktiviteter från videor som endast innehåller debuter (dvs. den första delen) av verksamheten. Målet är att möjliggöra ett tidigt erkännande av oavslutad verksamhet i motsats till klassificeringen av slutförd verksamhet i efterhand. Verksamhetsförutsägelsemetoder är särskilt nödvändiga för övervakningssystem som krävs för att förhindra att brott och farlig verksamhet inträffar. Vi formulerar probabilistiskt aktivitetsförutsägelseproblemet och introducerar nya metoder som är utformade för förutsägelsen. Vi representerar en aktivitet som en integrerad histogram av spatio-temporala funktioner, effektivt modellera hur funktionsfördelningen förändras över tid. Den nya igenkänningsmetoden kallas dynamisk bag-of-words utvecklas, som beaktar sekventiell karaktär av mänskliga aktiviteter samtidigt som fördelarna med bag-of-words för att hantera bullriga observationer. Våra experiment bekräftar att vårt tillvägagångssätt på ett tillförlitligt sätt känner igen pågående aktiviteter från strömmande videor med hög noggrannhet.
Ryoo REF definierade aktivitetsförutsägelseuppgiften som en slutsats av den pågående åtgärden med tanke på tidsmässigt ofullständiga observationer, och utformade metoderna Integral Bag-of-Words (IBoW) och Dynamic Bag-of-Words (DBoW) för att hantera problemet med åtgärdsförutsägelse.
9,342,979
Human activity prediction: Early recognition of ongoing activities from streaming videos
{'venue': '2011 International Conference on Computer Vision', 'journal': '2011 International Conference on Computer Vision', 'mag_field_of_study': ['Computer Science']}
80,278
Numera är ett stort antal åsiktsrecensioner publiceras på webben. Sådana granskningar är en mycket viktig informationskälla för kunder och företag. Den förstnämnda förlitar sig mer än någonsin på online-recensioner för att fatta sina köpbeslut, och den senare för att snabbt svara på sina kunders förväntningar. Tyvärr, på grund av den verksamhet som ligger bakom, finns det ett ökande antal bedrägliga åsikter, det vill säga fiktiva åsikter som avsiktligt har skrivits för att låta autentiska, för att lura konsumenterna att främja en produkt av låg kvalitet (positiva vilseledande åsikter) eller kritisera en potentiellt god kvalitet (negativa vilseledande åsikter). I detta dokument fokuserar vi på att upptäcka båda typerna av bedrägliga åsikter, positiva och negativa. På grund av bristen på exempel på vilseledande åsikter föreslår vi att man tar itu med problemet med att upptäcka bedrägliga åsikter som använder PU-lärande. PU-learning är en halvt övervakad teknik för att bygga en binär klassificering på grundval av positiva (dvs. vilseledande åsikter) och omärkta exempel. Konkret föreslår vi en ny metod som med avseende på dess ursprungliga version är mycket mer konservativ vid tidpunkten för att välja de negativa exemplen (dvs. inte vilseledande åsikter) från de omärkta. De uppnådda resultaten visar att den föreslagna PU-learning-metoden konsekvent överträffade den ursprungliga PU-learning-metoden. Särskilt re- * Korresponderande författare E-postadresser: [email protected] (Donato Hernández Fusilier), [email protected] (Manuel Montes-y-Gómez), [email protected] (Paolo Rosso), [email protected] (Rafael Guzmán Cabrera) visar en genomsnittlig förbättring på 8,2 % respektive 1,6 % jämfört med den ursprungliga metoden för att upptäcka positiva respektive negativa vilseledande åsikter.
Hernández m.fl. Ref försökte upptäcka både positiva och negativa vilseledande utvärderingar genom att inta en mer konservativ hållning än den ursprungliga PU-learning-metoden.
205,486,503
Detecting positive and negative deceptive opinions using PU-learning
{'venue': 'Inf. Process. Manag.', 'journal': 'Inf. Process. Manag.', 'mag_field_of_study': ['Computer Science']}
80,279
Att ge säker och effektiv tillgång till storskaliga outsourcade data är en viktig del av molntjänster. I detta dokument föreslår vi en mekanism för att lösa detta problem i program som läses av ägare och användare. Vi föreslår att kryptera varje datablock med en annan nyckel så att flexibel kryptografisk-baserad åtkomstkontroll kan uppnås. Genom att använda viktiga härledningsmetoder behöver ägaren bara upprätthålla några få hemligheter. Analysen visar att den viktigaste härledningsprocessen med hashfunktioner kommer att införa mycket begränsade beräkningar overhead. Vi föreslår att använda överkryptering och/eller lata återkallande för att förhindra återkallade användare från att få tillgång till uppdaterade datablock. Vi utformar mekanismer för att hantera både uppdateringar av outsourcade data och ändringar i användarrättigheter. Vi undersöker de allmänna omkostnaderna och säkerheten i det föreslagna tillvägagångssättet, och studerar mekanismer för att förbättra dataåtkomsteffektiviteten.
Wang m.fl. föreslås att kryptera varje datablock med en annan nyckel för att uppnå en flexibel kryptografi-baserad åtkomstkontroll i Reference Ref.
7,180,791
Secure and efficient access to outsourced data
{'venue': "CCSW '09", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,280
Vi beskriver det system som byggts av National Research Council Canada för den gemensamma uppgiften "Diskriminering mellan liknande språk" (DSL). Vårt system använder olika statistiska klassificeringar och gör förutsägelser baserade på en tvåstegsprocess: vi förutspår först språkgruppen, sedan diskriminerar vi mellan språk eller varianter inom gruppen. Språkgrupper förutspås med hjälp av en generativ klassificerare med 99.99% noggrannhet på de fem målgrupperna. Inom varje grupp (utom engelska) använder vi en röstkombination av diskriminativa klassiatorer tränade på en mängd olika funktionsytor, med en genomsnittlig noggrannhet på 95,71%, med noggrannhet per grupp mellan 90,95% och 100% beroende på grupp. Detta tillvägagångssätt visar sig nå de bästa resultaten bland alla system som omfattas av de öppna och slutna uppgifterna.
Båda systemen använde en klassifikation på två lager, jämförbar med REF: Det första skiktet identifierade språkgruppen, det andra skiktet utbildade flera klassiatorer för att identifiera språkvarianter inom grupperna.
15,527,754
The NRC System for Discriminating Similar Languages
{'venue': 'VarDial@COLING', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,281
I detta dokument presenteras ett nytt tillvägagångssätt för känsloanalys på frasnivå som först avgör om ett uttryck är neutralt eller polart och sedan deambiguerar polaritetsuttrycken. Med detta tillvägagångssätt, systemet kan automatiskt identifiera den kontextuella polaritet för en stor del av känslor uttryck, uppnå resultat som är betydligt bättre än baslinje.
För att upptäcka kontextuell polaritet med hjälp av känsloanalys på frasnivå identifierar REF om en fras är neutral eller polär.
11,668,878
Recognizing Contextual Polarity In Phrase-Level Sentiment Analysis
{'venue': 'Human Language Technology Conference And Empirical Methods In Natural Language Processing', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,282
De senaste åren har varit mycket framgångsrika med att tillämpa djupinlärning för att förbättra kvaliteten på komprimerad bild/video. De befintliga strategierna är främst inriktade på att förbättra kvaliteten på en enda ram och bortse från likheten mellan på varandra följande ramar. I detta papper undersöker vi att tung kvalitet fluktuation finns över komprimerade videoramar, och därmed låg kvalitet ramar kan förbättras med hjälp av närliggande högkvalitativa ramar, ses som MultiFrame Quality Enhancement (MFQE). I detta dokument föreslås därför en MFQE-strategi för komprimerad video, som ett första försök i denna riktning. I vårt tillvägagångssätt utvecklar vi först en Support Vector Machine (SVM)-baserad detektor för att lokalisera Peak Quality Frames (PQF) i komprimerad video. Därefter är en ny Multi-Frame Convolutional Neural Network (MF-CNN) utformad för att förbättra kvaliteten på komprimerad video, där icke-PQF och dess närmaste två PQF är som ingång. MF-CNN kompenserar rörelse mellan icke-PQF och PQF genom delnätet Rörelsekompensation (MC-subnet). Därefter, Quality Enhancement subnet (QE-subnet) minskar komprimering artefakter av icke-PQF med hjälp av sina närmaste PQFs. Slutligen, experimenten validera effektiviteten och allmänheten i vår MFQE-strategi för att främja den toppmoderna kvalitetsförbättringen av komprimerad video. Koden för vår MFQE-strategi finns på https://github.com/ryangBUAA/MFQE.git.
För att ta itu med detta problem, Yang et al. REF föreslog en MFQE-modell med indata med flera ramar för kvalitetsförbättring av HEVC komprimerad video där information om angränsande nyckelramar övervägdes.
3,940,958
Multi-Frame Quality Enhancement for Compressed Video
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
80,283
Abstract-Mobile-edge computing (MEC) har nyligen utvecklats som en framstående teknik för att frigöra mobila enheter från beräkningsintensiva arbetsbelastningar, genom att avlasta dem till den proximate MEC-servern. För att göra avlastningen effektiv måste radio- och beräkningsresurserna hanteras dynamiskt, för att klara de tidsvarierande beräkningskraven och de trådlösa blekningskanalerna. I detta dokument, utvecklar vi en online gemensam radio-och beräkningsresurshanteringsalgoritm för MEC-system med flera användare, med målet att minimera den långsiktiga genomsnittliga viktade totalförbrukningen av de mobila enheterna och MEC-servern, under förutsättning att en uppgift buffert stabilitet begränsning. Specifikt, vid varje tid slits, den optimala CPU-cykel frekvenser för de mobila enheterna erhålls i slutna former, och den optimala sändningseffekt och bandbredd allokering för beräkning offloading bestäms med Gauss-Seidel-metoden; medan för MEC-servern, både den optimala frekvensen av CPU-kärnor och den optimala MEC-server schemaläggning beslut härleds i slutna former. Dessutom föreslås en mekanism för att minska förseningen av genomförandet. Rigorös prestandaanalys utförs för den föreslagna algoritmen och dess delay-förbättrade version, vilket indikerar att den viktade summan effektförbrukning och genomförandefördröjning lyder en [O (1/V ), O (V )] kompromiss med V som en kontrollparameter. Simuleringsresultat tillhandahålls för att validera den teoretiska analysen och visa effekterna av olika parametrar. Index Terms-Mobile-edge beräkning, dynamisk spänning och frekvensskalning, radio och beräkning resurshantering, Lyapunov optimering.
I REF används Lyapunov-optimeringsmetoden för att minimera den långsiktiga genomsnittliga viktade energiförbrukningen för de mobila enheterna och eggservern i en fleranvändarmiljö med mobila kanter.
14,910,649
Stochastic Joint Radio and Computational Resource Management for Multi-User Mobile-Edge Computing Systems
{'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
80,284
Abstract-I detta dokument presenterar vi en förbättrad version av routingprotokollet Landmark Ad Hoc Routing (LANMAR). LANMAR kombinerar Fisheye State Routing (FSR) och Landmark routing. Den förbättrade versionen har landmärkesval för att klara av den dynamiska och mobila miljön. Andra fördelar med LANMAR inkluderar användningen av landmärken för varje logisk grupp (t.ex. ett team av medarbetare vid en konvention eller en stridsvagnsbataljon på slagfältet) för att minska routing uppdatering overhead i stora nätverk, och utbyte av grannskap länk stat endast med grannar. När nätverksstorleken växer, är avlägsna grupper av noder "summarized" av motsvarande landmärken. Som ett resultat, varje nod kommer att upprätthålla korrekt routing information om omedelbara grannskap; samtidigt kommer det att hålla reda på routing riktningar till de landmärken noder och därmed, till avlägsna grupper. Simuleringsförsök visar att den förbättrade versionen lider en viss prestandanedbrytning i fast tillstånd på grund av val overhead. Det ger dock fortfarande en effektiv och skalbar routinglösning i en mobil, ad hoc-miljö. Dessutom ger valet en välbehövlig återhämtning från viktiga misslyckanden. Allteftersom den trådlösa och inbyggda datortekniken fortsätter att utvecklas kommer allt fler små och högpresterande dator- och kommunikationsenheter att kunna länklösa kommunikationer och trådlösa ad hoc-nätverk. Ett trådlöst ad hoc-nätverk är ett självorganiserande och självkonfigurerande nätverk med kapacitet för snabb distribution som svar på applikationsbehov. En viktig egenskap som skiljer ad hoc-nät från cellulära nät är att de inte är beroende av en fast infrastruktur. Ad hoc-nätverk är mycket attraktiva för taktisk kommunikation inom militär och brottsbekämpning. De förväntas också spela en viktig roll i civila forum som kongresscenter, konferenser och elektroniska klassrum. Nodrörlighet/dynamik, potentiellt mycket stort antal noder, och begränsade kommunikationsresurser (t.ex. bandbredd och kraft) gör routing i ad hoc-nätverk extremt utmanande. Routingprotokollen för trådlösa ad hoc-nätverk måste snabbt anpassas till de ofta förekommande och oförutsägbara förändringarna av topologin och måste vara jämbördiga med kommunikations- och bearbetningsresurserna. Befintliga trådlösa routingsystem kan delas in i två kategorier enligt deras designfilosofi: a) proaktiva (dvs. avståndsvektorn eller länktillståndsbaserade) och b) reaktiva (dvs. vid behov). Proaktiva system beräknar rutter i bakgrunden, oberoende av trafikkrav. Historiskt sett var den första typen av routing som användes i tidiga paketradionät som PRNET den typ av distansvektor [5]. Avståndsvektorn är enkel men lider av långsam konverDetta arbete stöddes delvis av NSF enligt kontrakt ANI-9814675, delvis av DARPA enligt kontrakt DAAB07-97-C-D321 och delvis av Intel. och tendensen att skapa slingor. Dessa problem löstes senare genom Link State (LS), som i stor utsträckning används i trådbundna nät (t.ex. Internet [12] eller ATM [l]). I Link State, globalt nätverk topologi information upprätthålls i alla routrar genom periodiska översvämningar av länktillstånd uppdateringar av varje nod. Alla länkbyten utlöser en omedelbar uppdatering. Följden blir att konvergensen till en ny topologi går snabbare och att förebygga slingor blir lättare på grund av den globala topologikunskapen. Tyvärr kan överdriven kontroll overhead genereras av LS spridning, särskilt när hög rörlighet utlöser frekventa uppdateringar. Vanligtvis när trådlösa nätverk storlek och rörlighet ökar (bortom vissa tröskelvärden), nuvarande "platta" proaktiva routing system (dvs avstånd vektor och länktillstånd) blir ogenomförbar på grund av linje och bearbetning O M. Ett sätt att lösa detta problem och generera skalbara och effektiva lösningar är hierarkisk routing. En hierarkisk version av länktillståndet HSR (Hierarchical State Routing) har visat sig vara ganska effektiv i stora trådlösa nätverk [lo]. HSR kräver emellertid komplicerad bokföring av hierarkiska adresser. En mycket enklare version av Link State med hierarkisk "smak" är Fisheye State Routing (FSR) [ 101. FSR använder tekniken "fisheye" (som först föreslogs av Kleinrock och Stevens [11 för visuella displayer) för att minska routing update overhead. I FSR saktar varje nod gradvis ned uppdateringshastigheten för destinationen med ökande humleavstånd. Således, poster som motsvarar noder inom en mindre omfattning sprids till grannar med en högre frekvens. Som ett resultat, en betydande del av topologi tabellposter (motsvarande avlägsna destinationer) undertryckas i en typisk uppdatering, vilket minskar linjen overhead. Detta tillvägagångssätt ger korrekt avstånd och vägkvalitet information om det omedelbara grannskapet av en nod, med gradvis mindre detaljer som avståndet ökar. När ett paket närmar sig sin destination blir rutten mer exakt. I takt med att nätverksstorleken ökar och rörligheten ökar tenderar dock rutterna att bli föråldrade snabbt och förseningarna till noder på långt håll tenderar att växa sig stora. En annan ny strategi för skalbarhet och routing overhead-problem är reaktiva, på efterfrågan routing. Flera system har föreslagits, däribland AODV [ 151, DSR [7], TORA [13] och ABR [17] etc. I dessa "reaktiva" protokoll upptäcker en nod en rutt "på begäran", nämligen den beräknar en rutt endast när det behövs. Små Query/Reply paket används för att upptäcka (möjligt mer än en) rutt till en given destination. Eftersom en rutt måste upptäckas helt före den faktiska dataöverföringen, kan dock den ursprungliga söklatensen försämra prestandan hos interaktiva program (t.ex.
Senare presenterade samma författare en förbättrad version av LANMAR i REF.
9,012,627
Landmark routing for large ad hoc wireless networks
{'venue': "Globecom '00 - IEEE. Global Telecommunications Conference. Conference Record (Cat. No.00CH37137)", 'journal': "Globecom '00 - IEEE. Global Telecommunications Conference. Conference Record (Cat. No.00CH37137)", 'mag_field_of_study': ['Computer Science']}
80,285
Befintliga studier på BitTorrent-system är baserade på entorrent, medan mer än 85% av alla deltagare deltar i flera dataflöden enligt vår spåranalys. Dessutom är dessa studier inte tillräckligt insiktsfulla och korrekta inte ens för enskilda modeller, på grund av några orealistiska antaganden. Vår analys av representativ BitTorrent trafik ger flera nya rön om begränsningarna i BitTorrent system: (1) På grund av den exponentiellt minskande kamrata ankomsten i verkligheten, tjänstetillgänglighet i sådana system blir dålig snabbt, varefter det är svårt för filen att lokaliseras och laddas ner. (2) Kundens prestanda i BitTorrent-liknande system är instabil och varierar kraftigt med den peer-populationen. (3) Befintliga system skulle kunna erbjuda orättvisa tjänster till kamrater, där kamrater med hög nedladdningshastighet tenderar att ladda ner mer och ladda upp mindre. I den här artikeln studerar vi dessa begränsningar av dataflödesutvecklingen i realistiska miljöer. Motiverade av analys och modelleringsresultat bygger vi vidare en grafbaserad multi-torrent modell för att studera inter-torrent samarbete. Vår modell ger kvantitativt en stark motivation för inter-torrent samarbete istället för att direkt stimulera frön att stanna längre. Vi diskuterar också en systemdesign för att visa genomförbarheten av multi-torrent samarbete.
Guo m.fl. REF avslöjade att mer än 85% av alla kamrater deltar i flera dataflöden och noterade peer migration beteende.
15,574,919
Measurements, analysis, and modeling of BitTorrent-like systems
{'venue': "IMC '05", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,286
FPGA:er, på grund av sin omprogrammeringsförmåga, blir mycket populära för att skapa och utbyta VLSI:s intellektuella egenskaper (IP:er) i det återanvändningsbaserade designparadigmet. Befintliga vattenmärknings- och fingeravtryckstekniker har framgångsrikt inbäddat identifieringsinformation i FPGA-konstruktioner för att förhindra intrång i immateriella rättigheter. Sådana metoder ger dock upphov till timing och/eller omkostnader för resurser, som ibland är oförutsägbara, vilket leder till försämring av prestandan. I detta dokument föreslår vi en ny FPGA vattenmärkningsteknik som garanterar noll design overhead. Vår strategi består av två faser. Först designar vi som vanligt för att få bästa möjliga kvalitet IP. Sedan kartlägger vi den nödvändiga signaturen till ytterligare tidsbegränsningar på noggrant utvalda nät och gör om en liten del av konstruktionen (t.ex. plats och rutt). FPGA-konfigurationen bitström för den resulterande vattenmärkta designen kommer att skilja sig avsevärt från den ursprungliga designen, vilket ger oss ett starkt bevis på författarskap. Vattenstämpel tekniken har noll design overhead eftersom den är utvecklad för att upprätthålla prestandan för konstruktionen från den första fasen. Detta demonstreras genom att tillämpa den föreslagna tekniken på flera verkliga FPGA-konstruktioner, som varierar i storlek från några tusen till mer än två miljoner grindar, på Xilinx-enheter.
Jain m.fl. föreslog en teknik för noll överliggande vattenmärkning baserad på tidsbegränsningar REF.
172,859
Zero overhead watermarking technique for FPGA designs
{'venue': "GLSVLSI '03", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,287
Onlineplattformar kan delas in i informationsorienterade och socialt orienterade områden. e fd hänvisar till forum eller e-handelswebbplatser som betonar interaktion mellan användare, som Trip.com och Amazon; medan la er hänvisar till sociala nätverkstjänster (SNSs) som har rika användaranslutningar, såsom Facebook och Twi er. Trots deras heterogenitet kan dessa två domäner överbryggas av några överlappande användare, dubbade som broanvändare. I detta arbete tar vi upp problemet med gränsöverskridande sociala rekommendationer, dvs. att rekommendera relevanta informationsområden till potentiella användare av sociala nätverk. Såvitt vi vet är detta ett nytt problem som sällan har studerats tidigare. Befintliga gränsöverskridande rekommendationssystem är olämpliga för denna uppgift eftersom de antingen har fokuserat på homogena informationsområden eller förutsatt att användarna överlappar varandra helt och hållet. I detta syfte presenterar vi en ny strategi för Neural Social Collaborative Ranking (NSCR), som sömlöst syr upp interaktionen mellan användarobjekt i informationsdomäner och användaranslutningar i SNS. När det gäller informationsdomänen utnyttjas en mängd användare och objekt för att stärka inlärningen av användare och objekt. I SNS-delen sprids broanvändarnas inbäddningar för att lära sig andra icke-broanvändares inbäddningar. Omfattande experiment på två verkliga dataset visar effektiviteten och rationaliteten hos vår NSCR-metod.
NSCR REF föreslog en neural social samarbetsrankning rekommendationssystem.
25,396,851
Item Silk Road: Recommending Items from Information Domains to Social Users
{'venue': "SIGIR '17", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,288
Multivariata tidsseriedata i praktiska tillämpningar, såsom hälso- och sjukvård, geovetenskap och biologi, kännetecknas av en mängd saknade värden. I tidsseriers förutsägelse och andra relaterade uppgifter har det noterats att saknade värden och deras saknade mönster ofta korreleras med måletiketterna, t.ex. informationsfel. Det finns mycket begränsat arbete på att utnyttja de saknade mönster för effektiv imputering och förbättra förutsägelse prestanda. I detta dokument utvecklar vi nya modeller för djupt lärande, nämligen GRU-D, som ett av de tidiga försöken. GRU-D baseras på Gated Recurrent Unit (GRU), ett toppmodernt återkommande neuralt nätverk. Det tar två representationer av saknade mönster, d.v.s., maskering och tidsintervall, och effektivt införliva dem i en djup modell arkitektur så att det inte bara fångar de långsiktiga temporal beroenden i tidsserier, men också använder de saknade mönster för att uppnå bättre förutsägelse resultat. Experiment av tidsserieklassificeringsuppgifter på verkliga kliniska dataset (MIMIC-III, PhysiNet) och syntetiska dataset visar att våra modeller uppnår toppmoderna prestanda och ger användbara insikter för bättre förståelse och utnyttjande av saknade värden i tidsserieanalys. Multivariata tidsseriedata är allmänt förekommande i många praktiska tillämpningar som sträcker sig från hälso- och sjukvård, geovetenskap, astronomi, biologi och andra. De bär ofta med sig felande observationer på grund av olika orsaker, såsom medicinska händelser, kostnadsbesparingar, anomalier, olägenheter och så vidare. Det har noterats att dessa saknade värden är oftast informativ saknashet 1, dvs. de saknade värden och mönster ger rik information om måletiketter i övervakade lärande uppgifter (t.ex. tidsserie klassificering). För att illustrera denna idé visar vi några exempel från MIMIC-III 2, en verklig värld sjukvård dataset, i Bild. 1................................................................ Vi ritar Pearson korrelationskoefficienten mellan variabla saknade frekvenser, vilket indikerar hur ofta variabeln saknas i tidsserierna, och etiketterna på våra intressen, som är dödlighet och ICD-9 diagnos kategorier. Vi observerar att värdet av saknad hastighet korreleras med etiketterna, och den saknade frekvensen av variabler med låg saknad hastighet är oftast hög (antingen positiv eller negativ) korrelerad med etiketterna. Med andra ord, den saknade frekvensen av variabler för varje patient är användbar, och denna information är mer användbar för de variabler som observeras oftare i datauppsättningen. Dessa fynd visar nyttan av saknade mönster för att lösa en förutsägelse uppgift. Under de senaste årtiondena har olika metoder utvecklats för att ta itu med saknade värden i tidsserie 3. En enkel lösning är att utelämna de saknade uppgifterna och att utföra analyser endast på de observerade uppgifterna, men det ger inte bra prestanda när den saknade frekvensen är hög och otillräckliga prover hålls. En annan lösning är att fylla i de saknade värdena med substituerade värden, som kallas dataimputation. Utjämning, interpolation 4, och spline 5 metoder är enkla och effektiva, vilket allmänt tillämpas i praktiken. Dessa metoder fångar dock inte upp variabla korrelationer och får inte fånga upp komplexa mönster för att utföra imputering. En mängd imputeringsmetoder har utvecklats för att bättre uppskatta saknade data. Dessa inkluderar spektralanalys 6, kärnmetoder 7, EM algoritm 8, matris komplettering 9 och matris faktorisering 10. Multipel imputation 11,12 kan tillämpas ytterligare med dessa imputation metoder för att minska osäkerheten, genom att upprepa imputation förfarande flera gånger och medelvärde resultaten. Att kombinera imputeringsmetoder med förutsägelsemodeller resulterar ofta i en tvåstegsprocess där imputering och förutsägelsemodeller separeras. Genom att göra detta, de saknade mönster inte effektivt utforskas i förutsägelsemodellen, vilket leder till suboptimala analyser resultat 13. Dessutom har de flesta imputeringsmetoder också andra krav som kanske inte är uppfyllda i verkliga tillämpningar, till exempel arbetar många av dem med data Publicerad: xx xx xxxx OPEN www.nature.com/science reports/ 2 ScIenTIFIc RAPPORTER (2018) 8:6085
- Che et al. - Vad är det? I REF föreslogs GRU-D, som tillskriver saknade värden i hälso- och sjukvårdsdata på ett smidigt sätt.
4,900,015
Recurrent Neural Networks for Multivariate Time Series with Missing Values
{'venue': 'Scientific Reports', 'journal': 'Scientific Reports', 'mag_field_of_study': ['Mathematics', 'Medicine', 'Computer Science']}
80,289
Abstract-This paper presenterar en undersökning av evolutionära algoritmer som är utformade för beslut träd induktion. I detta sammanhang fokuserar merparten av dokumentet på strategier som utvecklar beslutsträd som en alternativ heurist till den traditionella top-down-klyftan och-konvergensen. Dessutom presenterar vi några alternativa metoder som använder sig av evolutionära algoritmer för att förbättra vissa komponenter i beslutsträdsklassificeringar. Dokumentets ursprungliga bidrag är följande: För det första ger det en uppdaterad översikt som är helt fokuserad på evolutionära algoritmer och beslutsträd och inte koncentrerar sig på någon specifik evolutionär strategi. För det andra ger det en taxonomi, som behandlar verk som utvecklar beslutsträd och verk som designar beslutsträdskomponenter genom användning av evolutionära algoritmer. Slutligen ges ett antal referenser som beskriver tillämpningar av evolutionära algoritmer för beslutsträdsinduktion inom olika områden. I slutet av detta dokument tar vi upp några viktiga frågor och öppna frågor som kan bli föremål för framtida forskning.
REF för en enkät).
365,692
A Survey of Evolutionary Algorithms for Decision-Tree Induction
{'venue': 'IEEE Transactions on Systems, Man, and Cybernetics, Part C (Applications and Reviews)', 'journal': 'IEEE Transactions on Systems, Man, and Cybernetics, Part C (Applications and Reviews)', 'mag_field_of_study': ['Computer Science']}
80,290
Beräkningen för dagens intelligenta personliga assistenter som Apple Siri, Google Now och Microsoft Cortana utförs i molnet. Detta moln-enbart tillvägagångssätt kräver betydande mängder data som ska skickas till molnet över det trådlösa nätverket och sätter betydande beräkningstryck på datacenteret. Men när beräkningsresurserna i mobila enheter blir mer kraftfulla och energieffektiva uppstår frågor om huruvida denna molnbaserade behandling är önskvärd framåt, och vad är konsekvenserna av att driva en del eller alla av denna beräkning till de mobila enheterna på kanten. I detta dokument undersöker vi status quo-metoden för molnbaserad bearbetning och undersöker datadelningsstrategier som effektivt utnyttjar både cyklerna i molnet och den mobila enheten för att uppnå låg latens, låg energiförbrukning och hög datacenterkapacitet för denna klass av intelligenta applikationer. Vår studie använder 8 intelligenta applikationer som spänner över datorseende, tal, och naturliga språkdomäner, alla använder state-of-the-art Deep Neural Networks (DNNs) som kärnan maskininlärning teknik. Vi finner att med tanke på egenskaperna hos DNN-algoritmer, en finkornig, lagernivå-beräkning partitioneringsstrategi baserad på data och beräkningsvariationer för varje skikt i en DNN har betydande latens och energifördelar jämfört med status quo-metoden. Med hjälp av denna insikt designar vi Neurosurgeon, en lätt schemaläggare för att automatiskt partitionera DNN-beräkning mellan mobila enheter och datacenter vid granulariteten i neurala nätverkslager. Neurokirurg kräver inte profilering per applikation. Den anpassar sig till olika DNN-arkitekturer, hårdvaruplattformar, trådlösa nätverk och serverbelastningsnivåer, intelligent partitionera beräkning för tillstånd att göra digitala eller hårda kopior av hela eller delar av detta arbete för personligt eller klassrum användning beviljas utan avgift, förutsatt att kopior inte görs eller distribueras för vinst eller kommersiella fördelar och att kopior bär detta meddelande och den fullständiga hänvisning på första sidan. Upphovsrätt till delar av detta verk som ägs av andra än ACM måste hedras. Abstraktering med kredit är tillåten. Att kopiera på annat sätt, eller återpublicera, att posta på servrar eller att omfördela till listor, kräver tidigare specifik behörighet och / eller en avgift. Begär tillstånd från [email protected]. bästa latens eller bästa mobila energi. Vi utvärderar neurokirurgi på en toppmodern mobil utvecklingsplattform och visar att det förbättrar end-to-end latency med 3,1× i genomsnitt och upp till 40,7×, minskar mobil energiförbrukning med 59,5% i genomsnitt och upp till 94,7%, och förbättrar datacenter genomströmning med 1,5× i genomsnitt och upp till 6,7×.
Neurosurgeon REF utforskar en liknande offloading idé med CoINF i vissa aspekter, eftersom det kan automatiskt partitionera DNN beräkning mellan mobila enheter och datacenter vid granulariteten av neurala nätverkslager.
1,158,124
Neurosurgeon: Collaborative Intelligence Between the Cloud and Mobile Edge
{'venue': "ASPLOS '17", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,291
: Slumpmässiga exempel på människor som genereras med vår modell. För varje rad är provtagningen beroende av silhuetten som visas till vänster. Vårt föreslagna ramverk stöder också okonditionerad provtagning samt konditionering på lokal utseende coutes, såsom färg. Vi presenterar den första bildbaserade generativa modellen av människor i kläder för hela kroppen. Vi kringgår den vanliga komplexa grafik rendering pipeline och behovet av högkvalitativa 3D-skanningar av klädda människor. Istället lär vi oss generativa modeller från en stor bilddatabas. Den största utmaningen är att klara av den höga variationen i människans pose, form och utseende. Av denna anledning har man hittills inte övervägt rena bildbaserade metoder. Vi visar att denna utmaning kan övervinnas genom att man delar upp produktionsprocessen i två delar. Först lär vi oss att skapa en semantisk segmentering av kroppen och kläderna. För det andra lär vi oss en villkorlig modell för de resulterande segmenten som skapar realistiska bilder. Den fullständiga modellen är olika och kan konditioneras på pose, form eller färg. Resultatet är prover av människor i olika klädesplagg och stilar. Den föreslagna modellen kan skapa helt nya människor med realistiska kläder. I flera experiment presenterar vi uppmuntrande resultat som tyder på att en helt datadriven strategi för att skapa människor är möjlig. * Detta arbete utfördes medan P. V. Gehler var med BCCN 1 och MPI-IS 2.
T.ex. REF presenterar en metod för att producera helkroppsbilder av människor i kläder från semantisk segmentering av kroppen och kläder.
32,665,336
A Generative Model of People in Clothing
{'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
80,292
Ett antal programmeringsspråk använder rika typsystem för att verifiera säkerhetsegenskaper kod. Vissa av dessa språk är avsedda för källprogrammering, men program skrivna på dessa språk sammanställs utan uttryckliga säkerhetsbevis, vilket begränsar deras användbarhet i inställningar där bevis är nödvändiga, t.ex. bevisbärande behörighet. Andra språk innehåller explicita bevis, men dessa är i allmänhet lambda calculi inte avsedd för källprogrammering, som måste ytterligare sammanställas till en körbar form. Ett språk som lämpar sig för källprogrammering och som stöds av en kompilator som möjliggör end-to-end-verifiering saknas. I den här artikeln presenterar vi en typbevarande kompilator som översätter program skrivna i FINE, ett funktionellt språk på källnivå med beroende finesser och affinetyper, till DCIL, en ny förlängning av.NET Common Intermediate Language. FINE är typkontrollerad med hjälp av en extern SMT-lösning för att minska bevisbördan för källprogrammerare. Vi extraherar explicita LCF-stil bevis termer från lösaren och bär dessa bevis termer i sammanställningen till DCIL, vilket tar bort lösaren från den betrodda datorbas. Explicit bevis gör det möjligt för DCIL att användas i ett antal viktiga scenarier, inklusive verifiering av mobil kod, bevisbärande tillstånd, och evidensbaserad revision. Vi rapporterar om vår erfarenhet med hjälp av FINE för att bygga referensskärmar för flera applikationer, allt från en plugin-baserad e-postklient till en konferenshanteringsserver.
Chen och Al. REF utveckla en typebevarande kompilator från Fine, ett ML-liknande språk med förfining typer, till en version av.NET mellanspråk med typnivå beräkning.
15,248,492
Type-preserving compilation of end-to-end verification of security enforcement
{'venue': "PLDI '10", 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,293
Den kombinerade ansträngningar av mänskliga volontärer har nyligen extraherat många fakta från Wikipedia, lagra dem som maskin-skördbara objekt-attribut-värde triples i Wikipedia infoboxar. Maskininlärningssystem, såsom Kylin, använder dessa infoboxar som träningsdata, exakt extraherar ännu mer semantiska kunskaper från naturlig språktext. Men för att kunna förverkliga denna informations fulla kraft måste den vara belägen i en renstrukturerad ontologi. Detta papper introducerar KOG, ett autonomt system för att förfina Wikipedias infobox-klass ontologi i detta syfte. Vi kastar problemet av ontologi förfining som en maskininlärning problem och lösa det med hjälp av både SVMs och en mer kraftfull gemensam-inference tillvägagångssätt uttryckt i Markov Logic Networks. Vi presenterar experiment som visar överlägsenheten i det gemensamma slutledningssättet och utvärderar andra aspekter av vårt system. Med hjälp av dessa tekniker bygger vi en rik ontologi, integrera Wikipedias infobox-klass schemata med WordNet. Vi visar hur den resulterande ontologin kan användas för att förbättra Wikipedia med förbättrad frågebehandling och andra funktioner.
REF integrera Wikipedias infobox information med WordNet för att bygga en rik ontologi med statistisk-relationell inlärning.
5,588,127
Automatically refining the wikipedia infobox ontology
{'venue': 'In Proceedings of the 17th International Conference on World Wide Web (WWW-2008', 'journal': None, 'mag_field_of_study': ['Computer Science']}
80,294
3D-scanning innebär traditionellt separat avskiljning och offline bearbetning faser, kräver mycket noggrann planering av fångsten för att se till att varje yta är täckt. I praktiken är det mycket svårt att undvika hål, vilket kräver flera iterationer av fångst, återuppbyggnad, identifiera hål, och återanpassning saknade regioner för att säkerställa en komplett modell. Rekonstruktionssystem i realtid som KinectFusion [18, 10] utgör ett stort framsteg, genom att ge användarna möjlighet att omedelbart se återuppbyggnaden och identifiera regioner som återstår att skanna. KinectFusion sporrade till en uppföljande forskning som syftade till att stärka spårningen [9, 32] och utöka dess rumsliga kartläggningskapacitet till större miljöer [22, 19, 34, 31, 9]. Men som med alla traditionella SLAM och täta återuppbyggnadssystem är det mest grundläggande antagandet bakom KinectFusion att den observerade scenen i stort sett är statisk. Kärnfrågan vi tar itu med i detta dokument är: Hur kan vi generalisera KinectFusion för att rekonstruera och spåra dynamisk, Därför introducerar vi DynamicFusion, ett tillvägagångssätt som bygger på att lösa för ett volymetriskt flöde fält som omvandlar tillståndet i scenen vid varje tillfälle till en fast, kanonisk ram. I fallet med en rörliga person, till exempel, denna omvandling upphäver personens rörelse, förvränger varje kropp konfiguration till pose av den första ramen. Efter dessa warp, scenen är effektivt stel, och standard KinectFusion uppdateringar kan användas för att få en hög kvalitet, denoised rekonstruktion. Denna gradvis denoiserade rekonstruktion kan sedan omvandlas tillbaka till den levande ramen med hjälp av den inversa kartan; varje punkt i den kanoniska ramen omvandlas till sin plats i den levande ramen (se figur 1). Att definiera ett kanoniskt "rigid" utrymme för en dynamiskt rörlig scen är inte enkelt. Ett viktigt bidrag av vårt arbete är en strategi för icke-rigid transformation och fusion som behåller optimalitet egenskaper volymetrisk scan fusion [5], som ursprungligen utvecklats för stela scener. Den viktigaste insikten är att om man upphäver scenens rörelse för att möjliggöra fusion av alla observationer till en enda fast ram kan man uppnå effektivt genom att enbart beräkna den omvända kartan. Under denna omvandling, varje kanonisk punkt projicerar längs en linje av syn i den levande kameraramen. Eftersom argumenten för optimalitet [5] (utvecklade för stela scener) endast beror på synfält, kan vi generalisera deras optimala resultat till det icke-rigida fallet. Vårt andra viktiga bidrag är att effektivt representera denna volymiska warp och beräkna den i realtid. Till och med en relativt låg upplösning skulle 256 3 deformationsvolym kräva 100 miljoner omvandlingsvariabler för att beräknas i bildhastighet. Vår lösning beror på en kombination av adaptiva, sparsamma, hierarkiska volymetriska basfunktioner och innovativt algoritmiskt arbete för att säkerställa ett verkligt-343 978-1-4673-6964-0/15/$31.00 ©2015 IEEE
För att ta itu med det icke stelbenta problemet är DynamicFusion REF det banbrytande arbetet och kan rekonstruera scengeometrin i realtid för en person som rör sig långsamt.
206,592,546
DynamicFusion: Reconstruction and tracking of non-rigid scenes in real-time
{'venue': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
80,295
Abstract-De flesta allmänt tillgängliga bildkvalitetsdatabaser har skapats under mycket kontrollerade förhållanden genom att man infört graderade simulerade snedvridningar på högkvalitativa fotografier. Dock är bilder som fångas med hjälp av typiska verkliga mobila kameraenheter oftast drabbade av komplexa blandningar av flera snedvridningar, som inte nödvändigtvis väl modelleras av de syntetiska snedvridningar som finns i befintliga databaser. Upphovsmännen till befintliga äldre databaser genomförde vanligtvis psykometriska studier på människor för att få statistiskt meningsfulla uppsättningar av bedömningar av mänskliga åsikter om bilder i en strikt kontrollerad visuell miljö, vilket resulterade i små datainsamlingar i förhållande till andra typer av databaser för bildanalys. För att övervinna dessa begränsningar har vi designat och skapat en ny databas som vi kallar LIVE I databasen Wild Image Quality Challenge, som innehåller vitt skilda autentiska bildförvrängningar på ett stort antal bilder som fångas med hjälp av en representativ mängd moderna mobila enheter. Vi har också utformat och implementerat ett nytt online crowdsourcing-system, som vi har använt för att genomföra en mycket storskalig, flermånaders bildkvalitetsbedömning (IQA) subjektiv studie. Vår databas består av över 350 000 opinionssiffror på 1162 bilder utvärderade av över 8100 unika mänskliga observatörer. Trots bristen på kontroll över de många studiedeltagarnas experimentella miljöer visar vi på en utmärkt intern konsekvens i den subjektiva datamängden. Vi utvärderar också flera topppresterande blinda IQA-algoritmer på den och presenterar insikter om hur blandningar av snedvridningar utmanar både slutanvändare och automatiska perceptuella kvalitetsförutsägelsemodeller. Den nya databasen finns tillgänglig för allmänheten på http://live.ece.utexas.edu/research/ChallengeDB/index.html. Index Terms-Perceptuell bildkvalitet, subjektiv bildkvalitetsbedömning, crowdsourcing, autentiska förvrängningar.
Resultaten visar att FRIQUE är starkt korrelerat med MOS, testat på LIVE och Wild Image Quality Challenge Database REF, som består av 1162 naturligt förvrängda bilder som normalt fångas med hjälp av mobila enheter under mycket varierande belysningsförhållanden.
8,531,217
Massive Online Crowdsourced Study of Subjective and Objective Picture Quality
{'venue': 'IEEE Transactions on Image Processing', 'journal': 'IEEE Transactions on Image Processing', 'mag_field_of_study': ['Computer Science', 'Medicine']}
80,296