src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
Abstrakt. Process upptäckt är en teknik som gör det möjligt att automatiskt upptäcka en process modell från inspelade utföranden av en process som det händer i verkligheten. Denna teknik har framgångsrikt tillämpats för klassiska processer där en process exekvering består av ett enda fall med en unik fallidentifierare. Datacentriska och artefaktcentriska system som ERP-system bryter mot detta antagande. Här drivs en processutförande av processdata med olika begrepp av inbördes relaterade identifierare som skiljer de olika inbördes relaterade dataobjekten i processen. Klassiska processbrytning tekniker misslyckas i denna miljö. Detta papper presenterar en automatisk teknik för att upptäcka för varje begrepp av dataobjekt i processen en separat processmodell som beskriver utvecklingen av detta objekt, även känd som artefakt livscykelmodell. Med tanke på en relationsdatabas som lagrar processinformation om utförande av ett datacentriskt system, extraherar tekniken händelseinformation, fallidentifierare och deras inbördes samband, upptäcker de centrala processdataobjekten och deras tillhörande händelser, och dekomponerar datakällan till flera loggar, där var och en beskriver fall av ett separat dataobjekt. Därefter kan klassiska processupptäcktstekniker användas för att erhålla en processmodell för varje objekt. Tekniken implementeras och har utvärderats på produktionen ERP system av en stor återförsäljare.
I REF presenteras en automatiserad teknik för att upptäcka, för varje begrepp av dataobjekt i processen, en separat processmodell som beskriver utvecklingen av detta objekt.
14,972,560
Automatic discovery of data-centric and artifact-centric processes
{'venue': 'Business Process Management Workshops', 'journal': None, 'mag_field_of_study': ['Computer Science']}
12,935
Abstract-Time seriemotiv är uppsättningar av mycket liknande undersekvenser av en lång tidsserie. De är av intresse för sin egen rätt, och används också som indata i flera högre nivåer data mining algoritmer inklusive klassificering, klustering, regel-upptäckt och sammanfattning. Trots omfattande forskning under de senaste åren är det ett öppet problem att hitta exakta tidsseriemotiv i massiva databaser. Tidigare insatser antingen hittade ungefärliga motiv eller anses relativt små dataset som bor i huvudminnet. I detta arbete beskriver vi för första gången en diskmedveten algoritm för att hitta exakta tidsseriemotiv i multi-gigabyte databaser som innehåller i storleksordningen tiotals miljoner tidsserier. Vi har utvärderat vår algoritm på dataset från olika områden, bland annat medicin, antropologi, datornätverk och bildbehandling och visar att vi kan hitta intressanta och meningsfulla motiv i dataset som är många storleksordningar större än något tidigare.
Författarna introducerade också för första gången en diskmedveten algoritm för exakt motivfyndighet för massiva disk-bofasta datauppsättningar REF.
2,083,231
Finding Time Series Motifs in Disk-Resident Data
{'venue': '2009 Ninth IEEE International Conference on Data Mining', 'journal': '2009 Ninth IEEE International Conference on Data Mining', 'mag_field_of_study': ['Computer Science']}
12,936
Bakgrund: SSWAP (Simple Semantic Web Architecture and Protocol; uttalad "swap") är en arkitektur, protokoll och plattform för att använda resonemang för att semantiskt integrera heterogena olika data och tjänster på webben. SSWAP utvecklades som en hybrid semantisk webbtjänstteknik för att övervinna begränsningar som finns i både ren webbtjänstteknik och ren semantisk webbteknik. Resultat: Det finns för närvarande över 2400 resurser publicerade i SSWAP. Cirka två dussin är skräddarsydda tjänster för QTL (Quantitative Trait Loci) och kartläggningsdata för baljväxter och gräs (korn). De återstående är omslag till Nucleic Acids Research Database och Web Server poster. Som arkitektur fastställer SSWAP hur kunder (användare av data, tjänster och ontologier), leverantörer (leverantörer av data, tjänster och ontologier) och sökservrar (semantiska sökmotorer) interagerar för att möjliggöra beskrivning, förfrågan, upptäckt, anrop och svar av semantiska webbtjänster. Som ett protokoll tillhandahåller SSWAP ordförråd och semantik för att tillåta kunder, leverantörer och upptäcktsservrar att engagera sig i semantiska webbtjänster. Protokollet är baserat på W3C-sanktionerade första ordningen beskrivning logik språk OWL DL. Som en plattform med öppen källkod använder sig en sökserver som körs på http://sswap.info (som i "swap info") av beskrivningens logiska skälare Pellet för att integrera semantiska resurser. Plattformen är värd för en interaktiv guide till protokollet på http://sswap.info/ protocol.jsp, utvecklarverktyg på http://sswap.info/developer.jsp och en portal till tredjeparts ontologies på http:// sswapmeet.sswap.info (ett "swap meet"). Slutsats: SSWAP tar upp de tre grundläggande kraven för en semantisk webbtjänstarkitektur (dvs. en gemensam syntax, delad semantisk och semantisk upptäckt) samtidigt som man tar itu med tre tekniska begränsningar som är vanliga i distribuerade servicesystem: d.v.s. den ödesdigra mutabiliteten hos traditionella gränssnitt, d.v.s. stelheten och skörheten i hierarkier för statisk subkonsumtion, och iii) sammanblandningen av innehåll, struktur och presentation. SSWAP är ny genom att etablera konceptet med en kanonisk men muterbara OWL DL diagram som gör det möjligt för data- och tjänsteleverantörer att beskriva sina resurser, att tillåta upptäckt servrar att erbjuda semantiskt rika sökmotorer, att tillåta kunder att upptäcka och åberopa dessa resurser, och att tillåta leverantörer att svara med semantiskt taggade data. SSWAP möjliggör en mix-och-match av termer från både nya och äldre tredje part ontologier i dessa grafer.
SSWAP REF föreslår en arkitektur, ett protokoll och en plattform för att semantiskt upptäcka och integrera heterogena olikartade resurser på webben.
9,389,649
SSWAP: A Simple Semantic Web Architecture and Protocol for semantic web services
{'venue': 'BMC Bioinformatics', 'journal': 'BMC Bioinformatics', 'mag_field_of_study': ['Computer Science', 'Medicine']}
12,937
Textdokument är strukturerade på flera nivåer av detaljer: enskilda ord är relaterade till syntax, och större enheter av text är relaterade till diskurs struktur. Befintliga språkmodeller misslyckas i allmänhet med att redogöra för diskursens struktur, men det är avgörande om vi ska ha språkmodeller som belönar samstämmighet och genererar sammanhängande texter. Vi presenterar och empiriskt utvärderar en uppsättning recidiverande neurala nätverksspråkmodeller på flera nivåer, så kallade Document-Context Language Models (DCLMs), som innehåller kontextuell information både inom och utanför meningen. I jämförelse med recidiverande neurala nätverk språk modeller, DCLMs få något bättre prediktiva sannolikheter, och betydligt bättre bedömningar av dokument samstämmighet.
Andra relaterade arbeten inkluderar dokument Sammanhang Språk modeller REF, där författarna har flera nivåer återkommande neurala nätverk språkmodeller som införlivar sammanhang från inom en mening och från tidigare meningar.
7,454,685
Document Context Language Models
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
12,938
Abstrakt. Web Service Modeling Language (WSML) är ett språk för specifikation av olika aspekter av Semantic Web Services. Det ger ett formellt språk för Web Service Modeling Ontology WSMO som bygger på välkända logiska formalismer, specificerar en sammanhängande språkram för beskrivningen av Semantic Web Services, från skärningspunkten mellan Datalog och Beskrivning Logic SHIQ. Detta kärnspråk utvidgas i riktningarna Beskrivning Logik och Logisk Programmering på ett principfast sätt med strikt skiktning. WSML skiljer mellan konceptuell och logisk modellering för att underlätta användare som inte är bekanta med formell logik, men inte begränsa den uttryckskraft av språket för expertanvändaren. IRI spelar en central roll i WSML som identifierare. Dessutom definierar WSML XML och RDF serialiseringar för inter-operation över den semantiska webben.
Web Services Modeling Ontology (WSMO) REF, är en EU-finansierad insats med många av samma mål och tillvägagångssätt som OWL-S och SWSF.
9,123,526
THE WEB SERVICE MODELING LANGUAGE WSML: AN OVERVIEW
{'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science']}
12,939
Abstract-Carrier sense multiple access (CSMA) protokoll är standardiserad för fordonskommunikation för att säkerställa en distribuerad och effektiv kommunikation mellan fordon. Flera fordonstillämpningar kräver dock en effektiv informationsspridning i flera steg. Detta papper utnyttjar stokastisk geometri för att utveckla en dragbar och exakt modellering ram för att karakterisera multi-hop sändningar för fordonsnätverk i en multilane motorväg installation. I synnerhet studerar vi avvägningarna mellan progress för per-hop-paket, sannolikheten för framgång för per-hop-överföring och den rumsliga frekvensåteranvändning (SFR) effektivitet som införs av olika paket vidarebefordringssystem, nämligen de flesta framåt med fast radie (MFR), de närmaste med progress (NFP) och slumpmässig med framåt framsteg (RFP). Vi definierar också en ny prestanda metriska, betecknad som den aggregerade paket framsteg (APP), som är en dimensionslös kvantitet som fångar de ovannämnda kompromisser. I detta syfte avslöjar den utvecklade modellen samspelet mellan spektrumavkännartröskeln (ρ e) i CSMA-protokollet och systemet för paketförsändelse. Våra resultat visar att, i motsats till ALOHA-nätverk, som alltid gynnar NFP, MFR kan uppnå den högsta APP i CSMA-nätverk om ρ th är korrekt valt.
De avvägningar mellan den aggregerade paketutveckling och rumslig frekvensåteranvändning för multi-hop överföring mellan fordon i en multilane motorväg installation studerades i REF.
27,543,241
A Stochastic Geometry Model for Multi-Hop Highway Vehicular Communication
{'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
12,940
Abstract-The DrivingStyles arkitektur integrerar både data mining tekniker och neurala nätverk för att generera en klassificering av körstilar genom att analysera förarens beteende längs varje rutt. I synnerhet, baserat på parametrar som hastighet, acceleration och varv per minut av motorn (rpm), har vi implementerat en neural nätverk baserad algoritm som kan karakterisera den typ av väg på vilken fordonet rör sig, samt graden av aggressivitet av varje förare. Det slutliga målet är att hjälpa förare att korrigera dåliga vanor i sitt körbeteende, samtidigt som de erbjuder användbara tips för att förbättra bränsleekonomin. I detta arbete drar vi nytta av två nyckelpunkter: utvecklingen av mobila terminaler och tillgången till ett standardgränssnitt för att få tillgång till bildata. Vår DrivingStyles plattform för att uppnå en symbios mellan smartphones och fordon som kan få den förra att fungera som en ombordenhet. Resultaten visar att neurala nätverk kunde uppnå en hög grad av exakthet vid klassificering av både väg- och förartyper baserat på användarspår. DrivingStyles är för närvarande tillgänglig på Google Play Store-plattformen för gratis nedladdning, och har uppnått mer än 1550 nedladdningar från olika länder på bara några månader.
Meseguer m.fl. REF har implementerat ett molnbaserat smartphone-stödd system som kontinuerligt analyserar förarens beteende med hjälp av ett neuralt nätverk.
10,992,014
DrivingStyles: A smartphone application to assess driver behavior
{'venue': '2013 IEEE Symposium on Computers and Communications (ISCC)', 'journal': '2013 IEEE Symposium on Computers and Communications (ISCC)', 'mag_field_of_study': ['Computer Science']}
12,941
Noggrann identifiering av nättillämpningar är viktigt för många nätverksaktiviteter. Den traditionella hamnbaserade tekniken har blivit mycket mindre effektiv eftersom många nya applikationer inte längre använder välkända fasta portnummer. I detta dokument föreslår vi ett nytt profilbaserat tillvägagångssätt för att identifiera trafikflöden som hör till måltillämpningen. I motsats till den metod som använts i tidigare studier, att klassificera trafiken baserat på statistik över individuella flöden, bygger vi beteendeprofiler i målapplikationen, som beskriver dominerande mönster i applikationen. Baserat på beteendeprofilerna används en två-nivå matchningsmetod för att identifiera ny trafik. Vi avgör först om en värd deltar i målansökan genom att jämföra dess beteende med profilerna. Därefter jämför vi varje flöde av värden med dessa mönster i applikationsprofilerna för att avgöra vilka flöden som hör till denna applikation. Vi visar effektiviteten i vår metod på Campus trafik spår. Våra resultat visar att man kan identifiera populära P2P-applikationer med mycket hög noggrannhet.
Hu et al föreslog en statistisk profilbaserad metod för att identifiera P2P trafikflöden REF.
536,109
Profiling and identification of P2P traffic
{'venue': 'COMPUTER NETWORKS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
12,942
Sammanfattning av denna webbsida: Vi börjar med att erbjuda ett nytt, direkt bevis på ekvivalensen mellan problemet med förekomsten av kärnor i digrafer, KER, och satisfiability av propositionsteorier, SAT, vilket ger linjära minskningar i båda riktningarna. Efter att ha infört några linjära minskningar av inmatningskurvan presenterar vi nya algoritmer för KER, med variationer som utnyttjar lösare av booleska ekvationer. I värsta fall, algoritmer prova alla uppdrag att antingen en feedback vertex uppsättning, $ F$, eller en uppsättning noder $ E$ vidrör endast alla jämna cykler. Därför är KER fast parameter dragbar inte bara i storleken på $ F$, som observerats tidigare, men också i storleken $ E$. En liten ändring av dessa algoritmer leder till en gren och bunden algoritm för KER som är praktiskt taget identisk med DPLL-algoritmen för SAT. Detta tyder på djupare analogier mellan de två områdena och det sannolika scenariot för KER-forskning som står inför de utmaningar som är kända från arbetet med SAT. 1 2 3 4 5 6 7 8 9 10 11 12 13 15 16 17 18 19 20 21 22 23 24 26 27 28 29 31 32 33 34 35 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 61 62 63 64 65 Hitta kärnor eller lösa SAT Micha l Walicki och Sjur Dyrkolbotn Institutionen för informationsteknologi, University of Bergen [email protected] Vi börjar med att erbjuda ett nytt, direkt bevis på likvärdigheten mellan problemet med förekomsten av kärnor i digrafer, KER, och satisfiability av propositionsteorier, SAT, vilket ger linjära minskningar i båda riktningarna. Efter att ha infört några linjära minskningar av inmatningskurvan presenterar vi nya algoritmer för KER, med variationer som utnyttjar lösare av booleska ekvationer. I värsta fall, algoritmer prova alla uppdrag att antingen en feedback vertex set, F, eller en uppsättning noder E vidrör endast alla jämna cykler. Därför är KER fast parameter dragbar inte bara i storleken på F, Som observerats tidigare, men också i storleken på E. En liten ändring av dessa algoritmer leder till en gren och bunden algoritm för KER som är praktiskt taget identisk med DPLL algoritm för SAT. Detta tyder på djupare jämförelser mellan de två områdena och det sannolika scenariot för KER-forskning som står inför de utmaningar som är kända i arbetet med SAT.
Samtidigt, enligt REF, är det ett ekvivalensförhållande mellan problemet med förekomsten av kärnor i digrafer och satisfiability av propositionsteorier (SAT).
6,758,588
Finding kernels or solving SAT
{'venue': 'J. Discrete Algorithms', 'journal': 'J. Discrete Algorithms', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
12,943
Vi inför effektiv inlärningsjämvikt (ELE), en normativ metod för lärande i icke-kooperativa miljöer. I ELE krävs att själva inlärningsalgoritmerna är i jämvikt. Dessutom måste inlärningsalgoritmer komma fram till ett önskat värde efter polynom tid, och en avvikelse från den föreskrivna ELE blir irrationell efter polynom tid. Vi bevisar existensen av en ELE (där det önskade värdet är den förväntade utdelningen i en Nash jämvikt) och en Pareto-ELE (där målet är att maximera det sociala överskottet) i upprepade spel med perfekt övervakning. Vi visar också att en ELE inte alltid existerar i fallet med bristfällig övervakning. Slutligen diskuterar vi utvidgningen av dessa resultat till allmänna stokastiska spel.
I REF införs begreppet "effektiv inlärningsjämvikt" (ELE), där ingen av sidorna uppmuntras att avvika från inlärningsregeln.
786,046
Efficient learning equilibrium
{'venue': 'Artificial Intelligence', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
12,944
I detta dokument undersöks metoder för att generera subjektivitetsanalysresurser på ett nytt språk genom att utnyttja de verktyg och resurser som finns tillgängliga på engelska. Med tanke på en bro mellan engelska och det valda målspråket (t.ex. en tvåspråkig ordbok eller en parallell corpus), kan metoderna användas för att snabbt skapa verktyg för subjektivitetsanalys i det nya språket.
Hittills är det mest närbesläktade arbetet REF, som undersöker flerspråkiga prognoser för att generera subjektivitetsanalys resurser på rumänska genom att utnyttja de verktyg och resurser som finns på engelska.
11,114,676
Learning Multilingual Subjective Language via Cross-Lingual Projections
{'venue': '45th Annual Meeting of the Association of Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']}
12,945
Långsiktig visuell lokalisering i utomhusmiljö är ett utmanande problem, särskilt inför den säsongsöverskridande, dubbelriktade uppgifter och föränderlig miljö. I detta dokument föreslår vi en ny visuell tröghet localization ram som lokaliserar mot LiDAR-byggd karta. Baserat på geometriinformationen av laserkartan, föreslås en hybrid bunt justering ram, som uppskattar poserna av kamerorna med avseende på den tidigare laserkartan samt optimerar tillståndsvariablerna i online visuell tröghet odometri systemet samtidigt. För mer exakt crossmodal databindning optimeras laserkartan med hjälp av flersessionslaser och visuell data för att extrahera den framträdande och stabila undergruppen för visuell lokalisering. För att validera effektiviteten i den föreslagna metoden samlar vi in data i södra delen av vårt campus under olika säsonger, längs samma och motsatt riktning. I alla sessioner av lokaliseringsdata, vår föreslagna metod ger tillfredsställande resultat, och visar överlägsenheten av hybrid bunt justering och karta optimering 1.
För att lösa detta problem använder REF först Lidar för att bygga en tidigare karta baserad på Lidar karta geometri information, och föreslår en hybrid bunt justering ramar för att korrigera nuvarande pose.
3,681,949
Laser Map Aided Visual Inertial Localization in Changing Environment
{'venue': '2018 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)', 'journal': '2018 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)', 'mag_field_of_study': ['Computer Science', 'Engineering']}
12,946
Recurrent neural network(RNN) har i stort sett tillämpats på problem med naturligt språkbehandling (NLP). Denna typ av neurala nätverk är utformad för att modellera sekventiella data och har intygats vara ganska effektiv i sekventiell märkning uppgifter. I detta dokument föreslår vi att använda dubbelriktade RNN med långsiktiga korttidsminnesenheter (LSTM) för kinesisk ordsegmentering, vilket är en avgörande förbehandlingsuppgift för modellering av kinesiska meningar och artiklar. Klassiska metoder fokuserar på att designa och kombinera handhantverksfunktioner från sammanhang, medan dubbelriktat LSTM-nätverk (BLSTM) inte behöver någon förkunskap eller fördesign, och det är expert på att hålla kontextuell information i båda riktningarna. Experimentellt resultat visar att vår strategi får toppmodern prestanda i ordsegmentering på både traditionella kinesiska datauppsättningar och förenklade kinesiska datauppsättningar.
REF föreslog en dubbelriktad RNN med långsiktiga korttidsminnesenheter (LSTM) som använder sig av teckeninbäddningar.
9,044,785
Bi-directional LSTM Recurrent Neural Network for Chinese Word Segmentation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
12,947
Fullt konvolutionella modeller för tät förutsägelse har visat sig framgångsrika för ett brett spektrum av visuella uppgifter. Sådana modeller fungerar bra i en övervakad miljö, men prestanda kan vara förvånansvärt dålig under domänskift som verkar milda för en mänsklig observatör. Till exempel, utbildning på en stad och testning på en annan i en annan geografisk region och / eller väderförhållanden kan resultera i avsevärt försämrad prestanda på grund av pixel-nivå fördelning skift. I detta dokument introducerar vi den första domänen adaptiv semantisk segmenteringsmetod, som föreslår en oövervakad kontradiktorisk metod för pixelförutsägelseproblem. Vår metod består av både globala och kategorispecifika anpassningsmetoder. Global domänanpassning utförs med hjälp av ett nytt semantiskt segmenteringsnätverk med fullständigt konvolutionellt domänkonversiellt lärande. Detta ursprungligen anpassade utrymme möjliggör sedan kategorispecifik anpassning genom en generalisering av begränsat svagt lärande, med en uttrycklig överföring av den rumsliga layouten från källan till måldomänerna. Vår strategi överträffar utgångsvärden för olika inställningar på flera storskaliga datauppsättningar, inklusive anpassning mellan olika verkliga stadsmiljöer, olika syntetiska sub-domäner, från simulerade till verkliga miljöer, och på en ny stor skala shamp-cam dataset.
I REF föreslås en oövervakad kontradiktorisk metod för semantisk segmentering, som använder både globala och kategorispecifika domänanpassningsmetoder.
10,172,006
FCNs in the Wild: Pixel-level Adversarial and Constraint-based Adaptation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
12,948
Abstract-This paper undersöker användningen av moln och autonoma molnbursting för att stödja en medicinsk bild registrering. Målet är att möjliggöra ett virtuellt beräkningsmoln som integrerar lokala beräkningsmiljöer och publika molntjänster on-the-fly, och stödja förfrågningar om bildregistrering från olika distribuerade forskargrupper med varierande beräkningskrav och QoS-begränsningar. Det virtuella molnet implementerar huvudsakligen delade och samordnade aktivitetsytor, som samordnar schemaläggningen av jobb som lämnas in av en dynamisk uppsättning forskargrupper till sina lokala jobbköer. En policydriven schemaläggningsagent använder QoS-begränsningarna tillsammans med prestandahistoriken och tillståndet för resurserna för att fastställa lämplig storlek och blandning av den offentliga och privata molnresursen som bör tilldelas en särskild begäran. Det virtuella datormolnet och den medicinska bildregistreringstjänsten har utvecklats med hjälp av CometCloud-motorn och har satts in på en kombination av privata moln vid Rutgers University och Cancer Institute of New Jersey och Amazon EC2. En experimentell utvärdering presenteras och visar effektiviteten i autonoma molnbursts och policybaserade autonoma schemaläggning för denna applikation.
Bildregistrering användes som drivkraft för en undersökning av virtuellt beräkningsmoln som integrerar lokala beräkningsmiljöer och publika molntjänster on-the-fly, och stödja begäran om bildregistrering från olika distribuerade forskargrupper REF.
15,921,656
Investigating the use of autonomic cloudbursts for high-throughput medical image registration
{'venue': '2009 10th IEEE/ACM International Conference on Grid Computing', 'journal': '2009 10th IEEE/ACM International Conference on Grid Computing', 'mag_field_of_study': ['Computer Science']}
12,949
Vi introducerar begreppet grupphuvudman och presenterar ett antal olika klasser av grupphuvudmän, inklusive tröskelgruppshuvudmän. Dessa verkar naturligt användbara begrepp för att titta på säkerhet. Vi tillhandahåller ett tillhörande epistemiskt språk och logik och använder det för att resonera om anonymitet protokoll och anonymitet tjänster, där skydd egenskaper formuleras från inkräktarens kunskap om grupp principer. Med vårt språk ger vi en epistemisk karakterisering av anonymitetsegenskaper. Vi presenterar också en specifikation av ett enkelt anonymiseringssystem och informell bedömning med hjälp av vår teori.
Syverson och Stubblebine (REF ) introducerar begreppet grupphuvudmän och en tillhörande epistemisk logik för att axiomatisera anonymitet.
8,716,623
Group Principals and the Formalization of Anonymity
{'venue': 'World Congress on Formal Methods', 'journal': None, 'mag_field_of_study': ['Computer Science']}
12,950
Vi introducerar strukturerade förutsägelser energinät (SPEN), en flexibel ram för strukturerade förutsägelser. En djup arkitektur används för att definiera en energifunktion av kandidatetiketter, och sedan förutsägelser produceras genom att använda backpropagation för att iterativt optimera energin med avseende på etiketterna. Denna djupa arkitektur fångar beroenden mellan etiketter som skulle leda till svåråtkomliga grafiska modeller, och utför strukturinlärning genom att automatiskt lära sig diskriminerande egenskaper hos den strukturerade produktionen. En naturlig tillämpning av vår teknik är multi-märkning klassifikation, vilket traditionellt har krävt strikta förutfattade antaganden om samspelet mellan etiketter för att säkerställa tractionabel inlärning och förutsägelse. Vi kan tillämpa SPENs på flermärkta problem med betydligt större etikettuppsättningar än tidigare tillämpningar av strukturerade förutsägelser, samtidigt som vi modellerar högorderinteraktioner med minimala strukturella antaganden. På det hela taget ger djupt lärande anmärkningsvärda verktyg för inlärningsegenskaper i indata till ett förutsägelseproblem, och detta arbete utvidgar dessa tekniker till inlärningsegenskaper i strukturerade resultat. Våra experiment ger imponerande prestanda på en mängd olika benchmarking-klassificeringsuppgifter, visar att vår teknik kan användas för att ge tolkningsbar strukturinlärning och belysa grundläggande kompromisser mellan feedforward och iterativ strukturerad förutsägelse.
Belangare m.fl. I REF föreslogs ett strukturerat förutsägelseenerginät (SPEN) där en DNN utnyttjas för att definiera en energifunktion, och förutsägelser erhålls genom att minimera energifunktionen med hjälp av lutning nedstigning.
6,366,436
Structured Prediction Energy Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
12,951
Abstrakt. Automatiserad sammansättning av webbtjänster eller processen för att skapa nya mervärdeswebbtjänster är en av de mest lovande utmaningarna inom forskningsområdet semantiska webbtjänster. Semantik är ett av de viktigaste inslagen i den automatiserade sammansättningen av webbtjänster eftersom en sådan process kräver rika maskin-förståeliga beskrivningar av tjänster som kan delas. Semantik gör det möjligt för webbtjänsten att beskriva sina funktioner och processer, men det finns fortfarande en del arbete att göra. Webbtjänster som beskrivs på funktionell nivå behöver ett formellt sammanhang för att utföra den automatiserade sammansättningen av webbtjänster. Den föreslagna modellen (dvs. Causal link matris) är en nödvändig utgångspunkt för att tillämpa problemlösning tekniker såsom regressionsbaserad sökning efter webbtjänst sammansättning. Modellen stödjer ett semantiskt sammanhang för att hitta en korrekt, komplett, konsekvent och optimal plan som lösning. I detta dokument presenteras en innovativ och formell modell för en AI-planeringsorienterad sammansättning.
Teoretiska verk, såsom Causal Link Matrix (CLM) REF, ger en solid bakgrund för semantisk webbtjänst sammansättning genom AI-tekniker.
4,812,098
A formal model for semantic web service composition
{'venue': 'IN ISWC’06', 'journal': None, 'mag_field_of_study': ['Computer Science']}
12,952
Sammanfattning av denna webbsida: Detta papper beskriver en realtidsrörelse planerare baserad på förarnas visuella beteende-styrda snabbt utforska slumpmässiga träd (RRT) metod, som är tillämplig på körning på väg av autonoma fordon. Den primära nyheten är i användningen av vägledningen av förarnas visuella sökbeteende inom ramen för RRT rörelse planerare. RRT är en inkrementell provtagningsbaserad metod som används i stor utsträckning för att lösa problemen med robotisk rörelseplanering. RRT är dock ofta opålitligt i ett antal praktiska tillämpningar såsom autonoma fordon som används för körning på väg på grund av den onaturliga banan, värdelös provtagning och långsam prospektering. För att ta itu med dessa problem presenterar vi en intressant RRT-algoritm som introducerar en effektiv guidad provtagningsstrategi baserad på förarnas visuella sökbeteende på väg och en kontinuerlig krökningsfri metod baserad på B-spline. Den föreslagna algoritmen genomförs på ett verkligt autonomt fordon och verifieras mot flera olika trafikscenarier. Ett stort antal av de experimentella resultaten visar att vår algoritm är genomförbar och effektiv för autonoma körningar på väg. Dessutom visar de jämförande test- och statistiska analyserna att dess utmärkta prestanda är överlägsen andra tidigare algoritmer.
En online motion planerare har föreslagits baserat på förarnas visuella beteende-styrda snabbt utforska slumpmässiga träd (RRT) metod som gäller för körning på väg av autonoma fordon REF.
12,145,599
Drivers’ Visual Behavior-Guided RRT Motion Planner for Autonomous On-Road Driving
{'venue': 'Sensors', 'journal': 'Sensors', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']}
12,953
Abstrakt. Befintliga algoritmer för regelbunden inferens (aka automata lärande) gör det möjligt att härleda en ändlig tillstånd maskin genom att observera den utgång som maskinen producerar som svar på en vald sekvens av ingång strängar. Vi generaliserar vanliga inferenstekniker för att härleda en klass av statsmaskiner med ett oändligt tillståndsutrymme. Vi anser Mealy maskiner utökade med tillståndsvariabler som kan anta värden från en potentiellt obegränsad domän. Dessa värden kan passeras som parametrar i inmatnings- och utmatningssymboler och kan användas i tester för likhet mellan tillståndsvariabler och/eller meddelandeparametrar. Detta är till vår kännedom den första utvidgningen av regelbunden slutledning till oändliga statliga system. Vi avser att använda dessa tekniker för att generera modeller av kommunikationsprotokoll från observationer av deras input-output beteende. Sådana protokoll har ofta parametrar som representerar nodadresser, anslutningsidentifierare, etc. som har en stor domän, och där test för jämlikhet är den enda meningsfulla verksamheten. Vår förlängning består av två faser. I den första fasen tillämpar vi en befintlig inferensteknik för finit-state Mealy-maskiner för att generera en modell för det fall att värdena tas från en liten datadomän. I den andra fasen omvandlar vi denna finit-state Mealy maskin till en oändlig-state Mealy maskin genom att vika den till en kompakt symbolisk form.
Det arbete som beskrivs i REF presenterar ett tillvägagångssätt för att härleda tillståndsmaskiner med ett oändligt tillståndsutrymme.
14,946,376
Regular inference for state machines using domains with equality tests
{'venue': 'FASE', 'journal': None, 'mag_field_of_study': ['Computer Science']}
12,954
Sammanfattning-Problemet hur man härleder en generisk lägre gräns för Fisher information åtgärd beaktas. Vi ser över en ny metod med två exempel och identifierar ett samband mellan uppbyggnaden av starka gränser för Fisher-information och tillräcklig statistik över den underliggande systemmodellen. För att kunna presentera problemet med sådan information inom en bred räckvidd diskuterar vi Fisher-informationens egenskaper för distributioner som tillhör den exponentiella familjen. Genom denna begränsning etablerar vi en identitet som förbinder Fisher-informationen, de naturliga parametrarna och den tillräckliga statistiken över systemmodellen. Genom att ersätta en godtycklig systemmodell med en likvärdig fördelning inom den exponentiella familjen får vi sedan en generell lägre gräns för Fisher-informationsåtgärden. Med den optimala estimeringsteoretiska modellens matchningsregel visar vi hur man får fram en stark version av den bundna informationen. Sedan demonstrerar vi olika tillämpningar av den föreslagna konservativa sannolikhetsramen och den härledda Fisher-informationen som är bunden. I synnerhet diskuterar vi hur man kan fastställa minsta garanterade slutledningsförmåga hos ett minneslöst system med okänd statistisk utdatamodell och visa hur man uppnår denna pessimistiska prestandabedömning med en konsekvent estimator som arbetar på en icke-linjär komprimerad version av observerade data. Slutligen identifierar vi att härledd konservativ maximal-likelihood algoritm kan formuleras som en speciell version av Hansens generaliserade metod för ögonblick. Index Terms-Fisher information, Cramér-Rao nedre gräns, icke-linjärt stokastiskt system, uppskattningsteori, exponentiell familj, kompression, icke-linjär inlärning, Rapp modell, generaliserad metod för ögonblick, mätosäkerhet.
Här ser vi över tillvägagångssättet med exponentiell ersättning som utgör grunden för en generaliserad Fisher information lägre bundna REF.
5,888,438
Fisher Information Bounds with Applications in Nonlinear Learning, Compression and Inference.
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
12,955
Även om mobila enheter idag har kraftfull hårdvara och nätverkskapacitet, de misslyckas när det gäller att utföra beräkna-intensiva program. Beräkning offloading (dvs. att delegera resurskrävande uppgifter till servrar i utkanten av nätverket) bidrar till att flytta till en mobil molndata paradigm. I detta arbete erbjuder en mekanism för resurstilldelning på två nivåer och åtkomstkontroll för ett kluster av kantservrar ett alternativ till mobila användare för att utföra sina uppgifter. På den lägre nivån, beteende eggservrar modelleras av en uppsättning linjära system, och linjära regulatorer är utformade för att uppfylla systemets begränsningar och kvalitet av servicemått, medan på den övre nivån, en optimizer hanterar problemen med lastbalansering och applikation placering mot maximering av antalet avlastade förfrågningar. Utvärderingen visar hur effektiv den föreslagna avlastningsmekanismen är när det gäller prestandaindikatorerna, t.ex. tillämpningsgenomsnittlig svarstid, och det optimala utnyttjandet av beräkningsresurserna för kantservrar.
En kontroll-teoretisk metod och en mekanism för resursfördelning och åtkomstkontroll på två nivåer för ett kluster av kantservrar i MEC-miljön presenteras i REF.
69,629,248
Adaptive Resource Allocation for Computation Offloading: A Control-Theoretic Approach
{'venue': 'TOIT', 'journal': None, 'mag_field_of_study': ['Computer Science']}
12,956
Abstract-A-minnesmodell baserad på avgränsade områden är en av de utmärkande dragen i Real-Time Specifikation för Java (RTSJ). Scoped Types säkerställer snabb återställning av minne och förutsägbar prestanda. Priset att betala för dessa fördelar är en obekant programmeringsmodell som samtidigt är komplex, kräver kontroll av alla minnesåtkomster, och belöningar design-tid fel med run-time krascher. Vi undersöker ett alternativt tillvägagångssätt, kallat Scoped Types, som förenklar uppgiften att hantera minne i realtidskoder. Det viktigaste inslaget i vårt förslag är att den run-time partition av minne som införts av avgränsade områden är enkelt speglas i programtexten. Således flyktig inspektion av ett program avslöjar vilka objekt som kommer att bebo de olika omfattningar, avsevärt förenkla uppgiften att förstå realtid Java-program. Dessutom inför vi ett typsystem som säkerställer att det inte uppstår några fel i körtiden på grund av kontroller av minnesåtkomst. En RTSJ-kompatibel virtuell maskin kräver alltså inga minneskontroller. Bidragen i detta dokument är begreppet Scoped Types, och en bevislig sundhet i typsystemet. Experimentella resultat kommer att beskrivas i det framtida arbetet.
Räckviddstyper är en av de senaste utvecklingarna inom det allmänna området för typsystem för kontrollerad delning av referenser REF ).
1,472,147
Scoped types for real-time Java
{'venue': '25th IEEE International Real-Time Systems Symposium', 'journal': '25th IEEE International Real-Time Systems Symposium', 'mag_field_of_study': ['Computer Science']}
12,957
Abstract This paper introduces a new ensemble approach, Feature-Subspace Aggregating (Feating), som bygger lokala modeller istället för globala modeller. Feating är ett generiskt ensemblesätt som kan förbättra den prediktiva prestandan hos både stabila och instabila elever. Däremot kan de flesta befintliga ensemblemetoder förbättra den prediktiva prestandan hos instabila elever endast. Vår analys visar att det nya tillvägagångssättet minskar exekveringstiden för att skapa en modell i en ensemble genom en ökad lokaliseringsnivå i Feating. Vår empiriska utvärdering visar att Feating presterar betydligt bättre än Boosting, Random Subspace och Baging i form av prediktiv noggrannhet, när en stabil inlärare SVM används som basinlärare. Den hastighet som uppnås genom Feating gör det möjligt för SVM-ensembler som annars skulle vara ogenomförbara för stora datamängder. När SVM är den föredragna basläraren visar vi att Feating SVM presterar bättre än Boosting beslutsträd och Random Forests. Vi visar vidare att Feating också avsevärt minskar felet hos en annan stabil inlärare, k-nearest granne, och en instabil inlärare, beslutsträd.
Genom att dela flera egenskaper med den metod som föreslås i detta dokument föreslog REF begreppet Feating, en generisk ensemblemetod som påstås förbättra den prediktiva noggrannheten hos både stabila och instabila klassificeringsmodeller.
21,174,602
Feature-subspace aggregating: ensembles for stable and unstable learners
{'venue': 'Machine Learning', 'journal': 'Machine Learning', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
12,958
Vi föreslår en metod för att generera flera hypoteser för människa 3D utgör alla av dem överensstämmer med 2D-detektering av leder i en monokulära RGB-bild. För att generera dessa pose hypoteser använder vi en ny generativ modell som definieras i utrymmet för anatomiskt rimliga 3D-poser som uppfyller de gemensamma vinkelgränser och lem längd förhållande. Den föreslagna generativa modellen är enhetlig i rummet för anatomiskt giltiga poser och som ett resultat, inte lider av dataset partiska i befintliga rörelse fånga dataset som Human3.6M (H36M), HumanEva, och CMU MoCap. En bra modell som spänner över den fulla variationen i människans pose och generaliserar till osynliga poser måste vara kompositionella d.v.s. producera en pose genom att kombinera delar. Vår modell är flexibel och kompositionell och kan därför generaliseras till varje rimlig mänsklig 3D-position eftersom den endast begränsas av fysiska begränsningar. Vi diskuterar provtagning från denna modell och använder dessa prover för att generera flera olika mänskliga 3D pose hypoteser med tanke på 2D-detektion av leder. Vi hävdar att generera flera pose hypoteser från en monocular RGB bild är mer rimligt än att generera endast en enda 3D pose med tanke på den djup tvetydighet och osäkerhet som orsakas av ocklusion och ofullständig 2D gemensam upptäckt. För att stödja detta argument har vi utfört empirisk utvärdering av den populära Human3.6M-datauppsättningen som bekräftar att minst en av våra posehypoteser oftast ligger närmare den sanna 3D-posen jämfört med den uppskattade posen av andra nya baslinjemetoder för 3D utgör rekonstruktion från monokulära RGB-bilder. Tanken på att skapa flera konsekventa och giltiga posehypoteser kan ge upphov till en ny linje av framtida arbete som inte tidigare har behandlats i litteraturen.
Jahangiri m.fl. REF genererar flera hypoteser från 2D-fogar med hjälp av en ny generativ modell.
16,963,265
Generating Multiple Hypotheses for Human 3D Pose Consistent with 2D Joint Detections
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
12,959
Att lösa uppgifter i Förstärkande Lärande är ingen lätt bedrift. Eftersom målet för agenten är att maximera den ackumulerade belöningen, lär den sig ofta att utnyttja kryphål och felspecifikationer i belöningssignalen som resulterar i oönskat beteende. Även om begränsningar kan lösa denna fråga, finns det ingen sluten formlösning för allmänna begränsningar. I detta arbete presenterar vi en ny multi-tidsskala metod för begränsad policyoptimering, kallad "Reward Constriced Policy Optimization" (RCPO), som använder en alternativ straffsignal för att styra politiken mot en begränsning tillfredsställande. Vi bevisar konvergensen i vårt tillvägagångssätt och ger empiriska bevis för dess förmåga att träna tvingande tillfredsställande politik.
Reward Constomed Policy Optimization (RCPO) REF föreslås som en flertidsskalas aktörs-kritisk strategi.
44,095,973
Reward Constrained Policy Optimization
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
12,960
I detta dokument undersöker vi inverkan av generalisering av ord till noggrannheten av kinesisk beroende tolkning. Speciellt, i vår skift-reducera parser, använder vi en neural språkmodell baserad ord inbäddning (NLMWE) metod (Bengio et al., 2003) för att generera distribuerade ordfunktion vektorer och sedan utföra K-means baserade ordkluster för att generera ordklasser. Vi designade mallar genom att använda ord, del-av-tal-taggar (POS), grovkorniga POS-taggar (CPOS), NLMWE-baserade ordklasser och deras kombinationer. NLMWE-baserade ordklasser visas vara ett viktigt tillägg av POS-taggar, särskilt när POS-taggar genereras automatiskt. Experiment på en Query Treebank, CTB5 och CTB7 visar att kombinationer av funktioner från CPOS-taggar, POS-taggar och NLMWE-baserade ordklasser ger de bästa omärkta infästningspoängen (UAS). Vår slutliga UAS-p (exklusive interpunktion) på 86.79% på CTB5-testet är jämförbar med toppresultat. Vår slutliga UAS-p på 86,80 % och 87,05 % på CTB7 Stanford-beroendetestet och originaltestuppsättningen är betydligt bättre än tre välkända tolkar med öppen källkod.
REF direkt tillämpad ord inbäddningar till kinesisk beroende tolkning.
131,771,968
Generalization of Words for Chinese Dependency Parsing
{'venue': 'IWPT', 'journal': None, 'mag_field_of_study': ['Computer Science']}
12,961
Sarkasmdetektion har modellerats som en binär dokumentklassificering uppgift, med rika funktioner som definieras manuellt över inmatningsdokument. Traditionella modeller använder diskreta manuella funktioner för att hantera uppgiften, med mycket forskning effekt ägnas åt utformningen av effektiva funktionsmallar. Vi undersöker användningen av neurala nätverk för tweet sarkasm detektion, och jämföra effekterna av de kontinuerliga automatiska funktioner med diskreta manuella funktioner. I synnerhet använder vi en dubbelriktad gated återkommande neurala nätverk för att fånga syntaktisk och semantisk information över tweets lokalt, och en pooling neurala nätverk för att extrahera kontextuella funktioner automatiskt från historia tweets. Resultat visar att neurala funktioner ger förbättrad noggrannhet för sarkasmdetektion, med olika felfördelningar jämfört med diskreta manuella funktioner.
REF använde en dubbelriktad gated återkommande neurala nätverk följt av en pooling neurala nätverk för att upptäcka sarkasm.
2,434,935
Tweet Sarcasm Detection Using Deep Neural Network
{'venue': 'COLING', 'journal': None, 'mag_field_of_study': ['Computer Science']}
12,962
Abstract-Ett problem med schemaläggning av godståg i järnvägsomlastningsvarv beaktas. Det är löst på en djupare nivå jämfört med ursprungliga dokument tillägnad detta problem: förutom schemaläggning ankomst- och avgångstider för tåg, denna artikel löser dessutom ett problem med att tilldela varje tåg till en järnvägsbana. En matematisk modell och en lösningsmetod för detta problem ges. Ett viktigt inslag i den givna matematiska modellen är att den inte använder booleska variabler utan snarare fungerar med kombinatoriska objekt (tupler av permutationer). Lösningen metoden är också baserad på generering av kombinatoriska uppsättningar, vilket är en ganska ovanlig metod för att lösa sådana problem.
I Ref behandlas problemet med schemaläggning av godståg på varven för omlastning på järnväg.
54,587,784
Scheduling Freight Trains in Rail-rail Transshipment Yards with Train Arrangements
{'venue': None, 'journal': 'International Journal of Intelligent Systems and Applications', 'mag_field_of_study': ['Computer Science']}
12,963
Vi använder nätverksforskningskonceptet modularitet för att mäta polarisering i USA:s kongress. Som ett mått på förhållandet mellan band inom och utom gemenskapen ger modulariteten ett begreppsmässigt tydligt mått på polarisering som direkt avslöjar både antalet relevanta grupper och styrkan i deras uppdelningar. Dessutom, till skillnad från åtgärder baserade på rumsliga modeller, modularitet inte kräver fördefinierade antaganden om antalet koalitioner eller partier, formen av lagstiftare verktyg, eller strukturen i partisystemet. Viktigt, modularitet kan användas för att mäta polarisering över alla kongresser, inklusive de utan en tydlig partiklyfta, vilket möjliggör utredning av partisan polarisering i ett bredare spektrum av historiska sammanhang. Med hjälp av detta nya mått av polarisering visar vi att partiets inflytande på kongresssamhällena varierar mycket över tiden, särskilt i senaten. Vi jämför modularitet med extrema polariseringsåtgärder, och konstaterar att befintliga metoder underskattar polarisering under perioder då partistrukturerna är svaga, vilket leder till artificiella överdrifter av den senaste tidens extrema polariseringsuppgång. Vi visar att modularitet är en betydande förutsägare av framtida partiförändringar i huset och senaten och att omsättningen är mer utbredd på medelstora modularitetsnivåer. Vi använder två individuella nivåvariabler, som vi kallar "divisivitet" och "solidaritet", från moduläritet och visar att de är betydande prediktorer för omval framgång för enskilda Husmedlemmar, bidrar till att förklara varför delvispolariserade Kongresser är mindre stabila. Våra resultat tyder på att modularitet kan fungera som en tidig varning signal om förändring av gruppdynamiken, vilket först senare återspeglas av förändringar i formella partietiketter.
Vaugh och Al. REF utvärderade polariseringen i USA:s kongress genom att även använda begreppet nätmodulalitet.
4,460,064
Party Polarization in Congress: A Network Science Approach
{'venue': None, 'journal': 'arXiv: Physics and Society', 'mag_field_of_study': ['Mathematics', 'Physics']}
12,964
Det är viktigt för den marine navigatör som utför manövrar av sitt fartyg till sjöss att känna till framtida positioner av sig själv och målfartyg i en viss tidsperiod för att effektivt lösa kollisionssituationer. I denna artikel presenteras en algoritm av fartygets rörelsebana förutsägelse, som, genom datafusion, tar hänsyn till mätningar av fartygets nuvarande position från ett antal dubbla autonoma enheter. Detta ökar tillförlitligheten och noggrannheten i förutsägelser. Algoritmen har implementerats i NAVDEC, ett navigationsbeslutsstödsystem och praktiskt taget används ombord på fartyg.
Borkowski REF föreslog en algoritm för beräkning av fartygets rörelsebana, som effektivt löser kollisionsproblemet genom datafusion och tar hänsyn till mätningar av fartygets nuvarande position från ett antal dubbla autonoma enheter.
3,498,195
The Ship Movement Trajectory Prediction Algorithm Using Navigational Data Fusion
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']}
12,965
Vi behandlar problemet med uppskattning av orienteringsparametrar vars värden är invarianta till omvandlingar från en sfärisk symmetrigrupp. Tidigare arbete har visat att en sådan grupp-invariant distribution måste uppfylla en begränsad ändlig blandning representation, vilket gör att orienteringsparametern kan uppskattas med hjälp av en Forecastation Maximization (EM) maximal sannolikhet (ML) uppskattningsalgoritm. I detta dokument introducerar vi två parametriska modeller för denna sfäriska symmetrigrupps skattningsproblem: 1) den hyperboliska Von Mises Fisher (VMF) blandning distribution och 2) Watson blandning distribution. Vi introducerar också en ny EM-ML-algoritm för klusterering av prover som kommer från blandningar av gruppinvarianta distributioner med olika parametrar. Vi tillämpar modellerna på problemet med genomsnittlig kristallorienteringsuppskattning under den sfäriskt symmetriska gruppen associerad med kristallformen, t.ex. kubik- eller oktahedral- eller hexahedral. Simuleringar och experiment fastställer fördelarna med den förlängda EM-VMF och EM-Watson estimatorer för data som förvärvats av Electron Backscatter Diffraktion (EBSD) mikroskopi av en polykristallin Nickel legering prov.
Chen och Al. REF introducerade den finita blandningen av Von Mises-Fisher (VMF) distribution för observationer som är invarianta till åtgärder av en sfärisk symmetrigrupp.
14,649,808
Statistical estimation and clustering of group-invariant orientation parameters
{'venue': '2015 18th International Conference on Information Fusion (Fusion)', 'journal': '2015 18th International Conference on Information Fusion (Fusion)', 'mag_field_of_study': ['Mathematics', 'Physics', 'Computer Science']}
12,966
Abstract-Indoor localization är en stödjande teknik för ett bredare utbud av omfattande trådlösa applikationer. Ett lovande tillvägagångssätt är att lokalisera användare med radiofrekvensfingeravtryck. Men dess breda antagande i verkliga system utmanas av den tid-och arbetskraft-krävande webbplats undersökning process, som bygger en fingeravtryck databas a priori för lokalisering. För att ta itu med detta problem visualiserar vi 3D RF fingeravtrycksdata som en funktion av platser (x-y) och index för åtkomstpunkter (fingeravtryck), som en tensor och använder tensor algebraiska metoder för en adaptiv tubal-ampling av detta fingeravtryck utrymme. Särskilt med hjälp av en nyligen föreslagen tensoralgebraisk ram i [1] fångar vi komplexiteten i fingeravtrycksutrymmet som ett lågdimensionellt tensorkolumnutrymme. I denna formulering utnyttjar det föreslagna systemet anpassningsförmåga för att identifiera referenspunkter som är mycket informativa för att lära sig detta lågdimensionella utrymme. Under vissa inkonsekventa förhållanden bevisar vi dessutom att det föreslagna systemet uppnår ett begränsat återvinningsfel och en nästan optimal provtagnings komplexitet. I motsats till flera befintliga arbeten som bygger på slumpmässig provtagning, visar detta papper att adaptivitet i provtagning kan leda till betydande förbättringar i lokalisering noggrannhet. Tillvägagångssättet är validerat både på data som genereras av den ray-tracing inomhusmodellen som står för golvplanen och påverkan av väggar och den verkliga världen data. Simuleringsresultat visar att samtidigt som man bibehåller samma lokaliseringsnoggrannhet hos befintliga metoder, kan mängden prover minskas med 71 % för det höga SNR-fallet och 55 % för det låga SNR-fallet.
I REF föreslogs en adaptiv provtagningsmetod för tensorfibrer baserat på vilken fingeravtrycksdata konstrueras med hjälp av tensorkomplettering.
2,486,377
Adaptive Sampling of RF Fingerprints for Fine-grained Indoor Localization
{'venue': 'IEEE Transactions on Mobile Computing, vol. 15, no. 10, pp. 2411-2423 (2016)', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
12,967
Bildgenerering är fortfarande ett grundläggande problem för artificiell intelligens, särskilt i djupt lärande. Det generativa kontrariska nätverket (GAN) arkitekturen var framgångsrik i att generera högkvalitativa prover av naturliga bilder. Vi föreslår en modell som kallas sammansatt generativt kontraarialt nätverk (CGN), som disentligger komplicerade faktorer för bilder med flera generatorer där varje generator genererar någon del av bilden. Dessa delar kombineras med en alfablandningsprocess för att skapa en ny enda bild. Till exempel kan det generera bakgrund, ansikte och hår sekventiellt med tre generatorer tränas på ansiktsbilder. Det finns ingen tillsyn över vad varje generator ska generera. CGAN tilldelar roller för varje generator genom att faktorisera de gemensamma faktorerna för bilder och skapar realistiska prover så bra som GAN. Dessutom kombinerade vi en variantal autoencoder med CGAN för att visualisera sub-manifols av latent utrymme lärt.
En relevant generativ modelleringsmetod är Kwak et al. REF som föreslog en modell för vilka delar av
15,807,234
Generating Images Part by Part with Composite Generative Adversarial Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
12,968
Den kliniska elementmodellen (CEM) är en informationsmodell utformad för att representera klinisk information i elektroniska patientjournaler (EHR) system i organisationer. Den nuvarande representationen av CEM stöder inte formella semantiska definitioner och det är därför inte möjligt att utföra resonemang och konsekvenskontroll av härledda modeller. I detta dokument presenteras våra insatser för att representera CEM-specifikationen med hjälp av Web Ontology Language (OWL). CEM-OWL-representationen kopplar samman CEM-innehållet med Semantic Web-miljön, som tillhandahåller författar-, resonemangs- och frågeverktyg. Detta arbete kan också underlätta harmoniseringen av CEM med domänkunskap representerad i terminologimodeller samt andra kliniska informationsmodeller såsom openEHR arketype-modellen. Vi har skapat CEM-OWL meta ontology baserat på CEM specifikationen. En konverterare har implementerats i Java för att automatiskt översätta detaljerade CEM från XML till OWL. En panelutvärdering har genomförts och resultaten visar att OWL-modelleringen troget kan representera CEM-specifikationen och patientdata.
Clinical Element Model (CEM) är en informationsmodell utformad för att ge en konsekvent arkitektur för att representera klinisk information i EHR-system REF.
6,313,105
A semantic-web oriented representation of the clinical element model for secondary use of electronic health records data
{'venue': 'Journal of the American Medical Informatics Association : JAMIA', 'journal': 'Journal of the American Medical Informatics Association : JAMIA', 'mag_field_of_study': ['Computer Science', 'Medicine']}
12,969
Den här artikeln karakteriserar videobaserade interaktioner som uppstår från YouTubes videosvarsfunktion, vilket gör det möjligt för användare att diskutera teman och att ge recensioner för produkter eller platser som använder mycket rikare medier än text. Baserat på crawled data som täcker en representativ delmängd av videor och användare, presenterar vi en karakterisering från två perspektiv: videosvarsvyn och interaktionsnätverksvyn. Förutom att tillhandahålla värdefulla statistiska modeller för olika egenskaper, avslöjar vår studie typiska användarbeteendemönster i videobaserade miljöer och visar tecken på opportunistiskt beteende.
Videointeraktionsmönster i YouTube, som gör det möjligt för användare att svara på en video med en annan, analyserades i REF.
16,697,444
Video interactions in online video social networks
{'venue': 'TOMCCAP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
12,970
I trådlösa nätverk (WBAN) placeras olika sensorer och ställdon på/inom människokroppen och ansluts trådlöst. WBAN har särskilda krav för hälso- och sjukvård och medicinska tillämpningar, varför standardprotokoll som IEEE 802.15.4 inte kan uppfylla alla krav. Följaktligen har många protokoll för medium åtkomstkontroll (MAC), som till största delen härrör från IEEE 802.15.4 superframe-strukturen, studerats. De stöder dock inte en differentierad tjänstekvalitet (QoS) för de olika trafikformer som finns i en WBAN. I synnerhet är ett QoS-aware MAC-protokoll viktigt för WBANs som arbetar i olicensierade industriella, vetenskapliga och medicinska (ISM) band, eftersom olika trådlösa tjänster som Bluetooth, WiFi och Zigbee kan samexistera där och orsaka allvarliga störningar. I detta dokument föreslår vi ett prioritetsbaserat adaptivt MAC-protokoll (PA-MAC) för WBAN i olicensierade band, som tilldelar ankomst- och avgångstider dynamiskt, baserat på trafikprioriteringen. Dessutom används flera kanaler effektivt för att minska åtkomstförseningar i en WBAN, i närvaro av samexisterande system. Våra resultat visar att den föreslagna PA-MAC överträffar IEEE 802.15.4 MAC och den konventionella prioritetsbaserade MAC när det gäller genomsnittlig överföringstid, genomströmning, energiförbrukning och datakollisionsförhållande.
Sabin Bhandari m.fl. I REF föreslogs ett protokoll med prioritetsbaserad adaptiv MAC (PA-MAC) för trådlösa nätverk inom området.
33,688,264
A Priority-Based Adaptive MAC Protocol for Wireless Body Area Networks
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']}
12,971
Crowdsourcing tekniker som Amazons Mechanical Turk ("MTurk") tjänst har exploderat i popularitet under de senaste åren. Dessa tjänster används i allt högre grad för komplexa databehandlingsuppgifter som är beroende av människan, t.ex. märkning av en samling bilder, kombination av två uppsättningar bilder för att identifiera personer som förekommer i båda, eller extrahera känslor från en samling textsnuttar. Det finns flera utmaningar med att utforma ett arbetsflöde som filtrerar, aggregaterar, sorterar och förenar mänskliga datakällor. För närvarande är crowdsourcingbaserade arbetsflöden handbyggda, vilket resulterar i allt mer komplexa program. Dessutom måste utvecklare handoptimera kompromisser mellan monetära kostnader, noggrannhet och tid till slutförande av resultat. Dessa utmaningar är väl lämpade för ett deklarativt frågegränssnitt som gör det möjligt för utvecklare att beskriva sin worflow på en hög nivå och optimerar automatiskt arbetsflöde och inställningsparametrar. I denna demonstration kommer vi att presentera Qurk, ett nytt frågesystem som tillåter humanbaserad bearbetning för relationella databaser. Publiken kommer att interagera med systemet för att bygga frågor och övervaka deras framsteg. Publiken kommer också att se Qurk ur en MTurk användares perspektiv, och slutföra flera uppgifter för att bättre förstå hur en fråga behandlas.
Qurk Ref ger en interaktiv miljö för människor att bygga frågor och övervaka deras framsteg.
6,195,358
Demonstration of Qurk: a query processor for humanoperators
{'venue': "SIGMOD '11", 'journal': None, 'mag_field_of_study': ['Computer Science']}
12,972
Abstract-I detta brev, fokuserar vi på utvärderingen av länk-nivå prestanda av LoRa-teknik, i det vanliga nätverksscenariot med en central gateway och hög densitet utbyggnad av slutenheter. LoRa-tekniken uppnår breda täckningsområden, låg strömförbrukning och robusthet till störningar tack vare en chirpspridningsspektrummodulering, där chirps moduleras med olika spridningsfaktorer (SF) är kvasi-ortogonala. Vi fokuserar på prestandaanalys av en enda mottagare vid kollisioner. Först analyserar vi LoRa modulation numeriskt och visar att kollisioner mellan paket modulerade med olika SF kan orsaka paketförlust om den interferenskraft som tas emot är tillräckligt stark. För det andra validerar vi sådana fynd i experiment baserade på kommersiella enheter och programvarudefinierade radioapparater. I motsats till den allmänna uppfattningen att SFs kan betraktas som ortogonala visar våra resultat att inter-SF-kollisioner verkligen är ett problem i LoRa-näten och att det därför kanske inte nödvändigtvis förbättrar deras länkkapacitet vid överbelastade nät att tilldela användare högre SFs långt från porten.
Bokstaven REF analyserar LoRas kopplingsprestanda på grund av ofullkomlig ortogonalitet.
4,713,042
Impact of LoRa Imperfect Orthogonality: Analysis of Link-Level Performance
{'venue': 'IEEE Communications Letters', 'journal': 'IEEE Communications Letters', 'mag_field_of_study': ['Computer Science']}
12,973
I den här artikeln går vi igenom två populära konvolutionella neurala nätverk i personre-identifikation (re-ID): verifierings- och identifieringsmodeller. De två modellerna har sina respektive fördelar och begränsningar på grund av olika förlustfunktioner. Här kastar vi ljus över hur man kombinerar de två modellerna för att lära sig mer diskriminerande fotgängardeskriptorer. Särskilt föreslår vi ett Siamese-nätverk som samtidigt beräknar identifieringsförlusten och verifieringsförlusten. Med tanke på ett par träningsbilder förutsäger nätverket identiteten på de två indatabilderna och om de tillhör samma identitet. Vårt nätverk lär sig en diskriminerande inbäddning och en likhet mätning på samma gång, vilket tar full användning av re-ID kommentarer. Vår metod kan enkelt tillämpas på olika förtränade nätverk. Även om det är enkelt, förbättrar den lärda inbäddningen den senaste prestandan på två offentliga person re-ID riktmärken. Vidare visar vi att vår arkitektur också kan tillämpas på bildsökning. Koden finns på https://github.com/layumi/2016_person_re-ID. 13:2 Z. Zheng et al. Nyligen har CNN visat potential för att lära sig toppmoderna funktioner inbäddade eller djupa mått [5, 18, 38, 43, 44, 47, 56]. Som visas i figur 1 finns det två huvudtyper av CNN-strukturer: verifieringsmodeller och identifieringsmodeller. De två modellerna är olika när det gäller inmatning, funktionsutdragning och förlustfunktion för träning. Vår motivation är att kombinera de två modellernas styrkor och lära oss en mer diskriminerande fotgängarbädd.
De två välkända CNN-strukturerna är verifierings- och identifieringsmodeller REF.
4,549,119
A Discriminatively Learned CNN Embedding for Person Reidentification
{'venue': 'TOMM', 'journal': None, 'mag_field_of_study': ['Computer Science']}
12,974
Abstract-Business Process Modelling har fått ökad relevans inom mjukvaruutveckling. Tillgängliga noteringar, såsom BPMN, gör det möjligt att beskriva komplexa organisationers verksamhet. Å ena sidan minskar detta kommunikationsklyftan mellan domänexperter och IT-specialister. Å andra sidan gör detta det möjligt att klargöra egenskaperna hos de programvarusystem som införs för att ge automatiskt stöd till sådan verksamhet. Bristen på formella semantik hindrar dock den automatiska kontrollen av relevanta egenskaper. I detta dokument presenteras en ny verifieringsram för BPMN 2.0, kallad BProVe. Den bygger på en operationell semantik, som genomförs med hjälp av MAUDE, utformad för att göra verifieringen allmän och effektiv. En komplett verktygskedja, baserad på Eclipse modellering miljö, möjliggör rigorös modellering och analys av affärsprocesser. Metoden har validerats med hjälp av mer än tusen modeller som finns tillgängliga i ett allmänt tillgängligt arkiv. Förutom att visa prestandan hos BProVe, visar denna validering sina praktiska fördelar när det gäller att identifiera korrekthetsproblem i verkliga modeller.
Corradini m.fl. REF presenterar BProVe, ett verktyg för verifiering av affärsprocesser som modelleras i BPMN.
28,702,268
BProVe: A formal verification framework for business process models
{'venue': '2017 32nd IEEE/ACM International Conference on Automated Software Engineering (ASE)', 'journal': '2017 32nd IEEE/ACM International Conference on Automated Software Engineering (ASE)', 'mag_field_of_study': ['Computer Science']}
12,975
ABSTRACT I detta dokument föreslås en flerkriteriell beslutsmetod som kallas neutrosofisk dataanalytisk hierarkiprocess (NDAHP) för den envärderade neutrosofiska uppsättningen (SVNS). Denna metod är en förlängning av den neutrosofiska analytiska hierarkiprocessen (NAHP) utformad för att hantera faktiska datauppsättningar som består av skarpa värden. Den föreslagna NDAHP-metoden använder en objektiv viktningsmekanism, medan alla andra befintliga versioner av AHP, fuzzy AHP och annan fuzzybaserad AHP-metod i litteraturen som NAHP och bildfuzzy AHP använder en subjektiv viktningsmekanism för att komma fram till beslutet. Detta gör den föreslagna NDAHP-metoden effektiv, eftersom viktningen av de kriterier som utgör inputen i utvärderingsmatrisen bestäms på ett objektivt sätt med hjälp av faktiska data som samlats in för problemet, och därför inte kommer att ändras enligt åsikter från olika beslutsfattare som är subjektiva. Den föreslagna NDAHP-metoden tillämpas på ett flerkriteriellt beslutsproblem i samband med rangordningen av det finansiella resultatet för fem börsnoterade petrokemiska företag som bedriver handel i styrelsen för Kuala Lumpur-börsen (KLSE). Faktiska datauppsättning på 15 finansiella index för de fem petrokemiska företagen för 2017 från Yahoo! Finansiering användes i detta dokument. Därefter genomförs en kort jämförande studie för att utvärdera prestandan hos vår NDAHP-algoritm mot resultaten av andra befintliga SVNS-baserade beslutsmetoder i litteraturen. Resultaten jämförs med de faktiska resultaten från KLSE. För att ytterligare verifiera de rankningar som erhållits genom varje metod, Spearman och Pearson ranking tester utförs på var och en av de beslutsfattande metoder som studeras. Det är bevisat att NDAHP producerar de mest korrekta resultaten, och detta verifierades ytterligare från resultaten av Spearman- och Pearson-rankningsproven. INDEX TERMS Envärdigt neutrosofiskt set, analytisk hierarkiprocess (AHP), beslutsfattande med flera kriterier, neutrosofiskt AHP, neutrosofiskt beslutsfattande.
En förlängning av NAHP som kallas Neutrosophic Data Analytic Hierarchy Process (NDAHP) infördes av Tey et al. i REF................................................................................................
145,049,314
A Novel Neutrosophic Data Analytic Hierarchy Process for Multi-Criteria Decision Making Method: A Case Study in Kuala Lumpur Stock Exchange
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
12,976
I detta dokument tar vi upp problemet med erkännande av motion med hjälp av händelsebaserade lokala motionsrepresentationer. Vi antar att liknande mönster av rörelse innehåller liknande händelser med konsekvent rörelse över bildsekvenser. Med detta antagande formulerar vi problemet med rörelseigenkänning som en matchning av motsvarande händelser i bildsekvenser. För att möjliggöra matchning presenterar och utvärderar vi en uppsättning rörelsedeskriptorer som utnyttjar den rumsliga och tidsmässiga konsekvensen av rörelsemätningar mellan motsvarande händelser i bildsekvenser. Eftersom rörelsemätningar kan bero på kamerans relativa rörelse, presenterar vi också en mekanism för lokal hastighetsanpassning av händelser och utvärderar dess påverkan när man känner igen bildsekvenser som utsätts för olika kamerarörelser. När vi känner igen rörelse, jämför vi prestanda hos närmaste granne (NN) klassificerare med prestanda för stöd vektor maskin (SVM). Vi jämför också händelsebaserade motionsrepresentationer med rörelserepresentationer med globala histogram. En experimentell utvärdering av en stor videodatabas med mänskliga åtgärder visar fördelen med det föreslagna systemet för händelsebaserad rörelserepresentation i kombination med SVM-klassificering. Den särskilda fördelen med händelsebaserade representationer och hastighetsanpassning betonas ytterligare när man erkänner mänskliga handlingar i okonstruerade scener med komplexa och icke-stationära bakgrunder.
Laptev m.fl. REF, å andra sidan, använde en metod baserad på den lokala rörelsen av händelser.
2,299,289
Local velocityadapted motion events for spatio-temporal recognition
{'venue': 'CVIU', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
12,977
Abstract-Robust modellmontering kräver i huvudsak tillämpning av två estimatorer. Den första är en estimator för värdena för modellparametrarna. Den andra är en estimator för bullerskalan i (inre) data. Vi föreslår två nya robusta tekniker: estimatorn för tvåstegsskalan (TSSE) och estimatorn för adaptive Scale Sample Consensus (ASSC). TSSE tillämpar icke-parametrisk densitetsuppskattning och täthetsuppskattningsteknik för att på ett robust sätt uppskatta skalan för inälvorna. ASSC-estimatorn kombinerar Random Sample Consensus (RANSAC) och TSSE: med hjälp av en modifierad objektiv funktion som beror både på antalet inliers och motsvarande skala. ASSC är mycket robust mot okontinuerliga signaler och data med flera strukturer, att kunna tolerera mer än 80 procent avvikelser. Den största fördelen med ASSC jämfört med RANSAC är att förkunskaper om omfattningen av inliers inte behövs. ASSC kan samtidigt uppskatta parametrarna för en modell och storleken på de inälvor som hör till den modellen. Experiment på syntetiska data visar att ASSC har bättre robusthet till kraftigt skadade data än Least Median Squares (LMedS), Residual Consensus (RESC) och Adaptive Least Kth Order Squares (ALKS). Vi tillämpar också ASSC på två grundläggande datorseende uppgifter: spännvidd bildsegmentering och robust grundläggande matrisuppskattning. Experiment visar mycket lovande resultat. Index Terms-Robust modellmontering, slumpmässigt urval konsensus, minst-median-av-kvartor, rest konsensus, adaptiv minst kth order kvadrater, kärna densitet uppskattning, genomsnittlig skiftning, avstånd bildsegmentering, grundläggande matris uppskattning.
Bland dem har Adaptive Scale Sample Consensus (ASSC) estimator REF visat den bästa prestandan där estimeringsprocessen inte kräver någon fri parameter som indata.
8,226,839
Robust adaptive-scale parametric model estimation for computer vision
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
12,978
Vi anser att uppgiften att topologi upptäckt av glesa slumpmässiga grafer med hjälp av end-to-end slumpmässiga mätningar (t.ex. fördröjning) mellan en delmängd av noder, kallas deltagarna. Resten av noderna är dolda, och ger inte någon information för topologi upptäckt. Vi anser topologi upptäckt under två routing modeller: a) deltagarna utbyter meddelanden längs de kortaste vägarna och få endto-end mätningar, och b) dessutom deltagarna utbyte meddelanden längs den näst kortaste vägen. För scenario a resulterar vår föreslagna algoritm i en sublinjär editdistansgaranti med hjälp av ett sublinjärt antal jämnt utvalda deltagare. För scenario b får vi ett mycket starkare resultat, och visar att vi kan uppnå konsekvent återuppbyggnad när ett sublinjärt antal jämnt utvalda noder deltar. Detta innebär att exakt upptäckt av glesa slumpmässiga grafer är dragbar med hjälp av ett extremt litet antal deltagare. Vi får slutligen en lägre gräns på det antal deltagare som krävs av någon algoritm för att rekonstruera den ursprungliga slumpmässiga grafen upp till ett givet redigeringsavstånd. Vi visar också att även om konsekvent upptäckt är dragbar för glesa slumpmässiga grafer med hjälp av ett litet antal deltagare, i allmänhet, finns det grafer som inte kan upptäckas av någon algoritm ens med ett betydande antal deltagare, och med tillgång till end-to-end information längs alla vägar mellan deltagarna.
Till exempel visar REF att för glesa slumpmässiga grafer är ett relativt litet antal samarbetsvilliga deltagare tillräckligt för att fastställa nätverkets topologi ganska bra.
2,534,567
Topology discovery of sparse random graphs with few participants
{'venue': 'PERV', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics', 'Mathematics']}
12,979
Det finns ett ökande behov av att inta, hantera och ifrågasätta stora volymer grafstrukturerade data som uppstår i tillämpningar som sociala nätverk, kommunikationsnät, biologiska nätverk och så vidare. Grafiska databaser som uttryckligen kan resonera om den grafiska karaktären hos data, som kan stödja flexibla scheman och nodecentriska eller kantcentriska analyser och frågor, är idealiska för lagring av sådana data. Även om det finns mycket arbete på singlesite grafdatabaser och på att effektivt utföra olika typer av frågor över stora grafer, hittills finns det inte mycket arbete med att förstå utmaningarna i distribuerade grafdatabaser, som behövs för att hantera den stora skalan av sådana data. I detta dokument föreslår vi utformningen av en in-minne, distribuerade grafdatahanteringssystem som syftar till att hantera en storskalig dynamiskt föränderlig graf, och stödja låg latent frågebehandling över den. Den viktigaste utmaningen i en distribuerad graf databas är att, partitionera en graf över en uppsättning maskiner i sig resulterar i ett stort antal distribuerade traversaler över partitioner för att svara på även enkla frågor. Vi föreslår aggressiv replikering av noderna i grafen för att stödja låga latensförfrågan, och undersöka tre nya tekniker för att minimera kommunikationsbandbredden och lagringskraven. Först utvecklar vi en hybrid replikation policy som övervakar node läs-skriv frekvenser för att dynamiskt bestämma vilka data att replikera, och om att göra ivrig eller lat replikering. För det andra föreslår vi ett klusterbaserat tillvägagångssätt för att avskriva kostnaderna för att fatta dessa beslut. Slutligen föreslår vi att man använder ett rättvisande kriterium för att bestämma hur beslut om replikering ska fattas. Vi tillhandahåller både teoretisk analys och effektiva algoritmer för de optimeringsproblem som uppstår. Vi har implementerat vårt ramverk som en middleware på toppen av CouchDB nyckelvärde butik med öppen källkod. Vi utvärderar vårt system på en social graf, och visar att vårt system kan hantera mycket stora grafer effektivt, och att det minskar nät bandbredd förbrukningen avsevärt.
Ett annat exempel är in-minnet, distribuerade grafdatahanteringssystem från Mondal och Deshpande REF, som är optimerad för att hantera storskaliga dynamiskt ändra grafer och stödja låg-latent frågebehandling över dem.
16,166,412
Managing large dynamic graphs efficiently
{'venue': 'SIGMOD Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']}
12,980
Abstrakt. Bred användning och allmänna ändamål datorfunktioner för nästa generations smartphones gör dem till nästa stora mål för skadlig programvara (malware) och säkerhetsattacker. Med tanke på batteri, datorkraft och bandbredd begränsningar inneboende för sådana mobila enheter, upptäckt av skadlig kod på dem är en forskningsutmaning som kräver en annan strategi än de som används för stationära / laptop dator. Vi presenterar en ny probabilistisk diffusion system för att upptäcka anomalier möjligen indikerar skadlig kod som är baserad på enhetens användningsmönster. Förhållandet mellan prover av normalt beteende och deras egenskaper modelleras genom en bipartit graf som utgör grunden för den stokastiska diffusionsprocessen. Därefter fastställer vi ett indirekt likhetsmått mellan provpunkterna. Den diffusionskärna som härleds över funktionsutrymmet tillsammans med skillnaden Kullback-Leibler över provutrymmet ger en anomalidetektionsalgoritm. Vi visar dess tillämplighet i två inställningar med hjälp av verkliga mobiltelefondata. De första experimenten visar att diffusionsalgoritmen överträffar andra även under begränsad tillgång till utbildningsdata.
Samarati m.fl. REF presenterar ett nytt probabilistiskt spridningssystem för anomalidetektering baserat på användningsmönster för mobila enheter.
15,625,882
A Probabilistic Diffusion Scheme for Anomaly Detection on Smartphones
{'venue': 'WISTP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
12,981
Abstrakt. Traditionellt har processbrytning använts för att extrahera modeller från händelseloggar och för att kontrollera eller utöka befintliga modeller. Detta har visat sig vara användbart för att förbättra processerna och deras IT-stöd. Process mining tekniker analyserar historisk information gömd i händelse loggar för att ge överraskande insikter för chefer, systemutvecklare, revisorer och slutanvändare. Hittills har dock processbrytning huvudsakligen använts offline och inte för operativt beslutsstöd. Medan befintliga processbrytningstekniker fokuserar på processen som helhet, fokuserar detta dokument på enskilda processfall (fall) som ännu inte har slutförts. För dessa löpande fall kan processbrytning användas för att kontrollera överensstämmelse, förutsäga framtiden och rekommendera lämpliga åtgärder. I detta dokument presenteras en ram för operativt stöd med hjälp av processutvinning och beskrivs en sammanhängande uppsättning strategier som är inriktade på tidsinformation. Tidsbaserat operativt stöd kan användas för att upptäcka deadlinekränkningar, förutsäga återstående processtid och rekommendera aktiviteter som minimerar flödestider. Allt detta har genomförts i ProM och inledande erfarenheter med hjälp av denna verktygsuppsättning rapporteras i detta dokument.
Studien av processer är också relaterad till området för processbrytning REF, som traditionellt har använts för att extrahera modeller från händelseloggar och för att kontrollera eller utöka befintliga modeller.
11,587,257
Beyond Process Mining: From the Past to Present and Future
{'venue': 'Advanced Information Systems Engineering, Proceedings of the 22nd International Conference on Advanced Information Systems Engineering (CAiSE’10), volume 6051 of Lecture Notes in Computer Science', 'journal': None, 'mag_field_of_study': ['Computer Science']}
12,982
Abstrakt. Vi beskriver ett nytt videogränssnitt baserat på en inspelad personlig navigeringshistorik som ger enkla mekanismer för att snabbt hitta och titta på tidigare visade intervaller, markera segment av video användaren fann intressant och stödja andra videouppgifter såsom crowd-sourced video popularitet åtgärder och konsument-nivå videoredigering. Vårt nya historikgränssnitt gör det möjligt för användare att hitta tidigare besökta intervall snabbare och ger en mer njutbar videonavigeringsupplevelse, vilket visas av studien vi utförde. Användarstudien gav deltagarna i uppdrag att visa en fördefinierad historik över en delmängd av videon och svara på frågor om videoinnehållet: 83,9% av frågorna (genomsnitt) besvarades korrekt med hjälp av den personliga navigeringshistoriken, medan 65,5% besvarades med hjälp av den senaste metoden; de tog betydligt mindre tid att svara på en fråga med vår metod. Det fullständiga gränssnittet för videonavigering fick ett genomsnittligt QUIS-betyg på 82 %. Resultaten visar att vårt historikgränssnitt kan vara en effektiv del av videospelare och webbläsare. Nyckelord: Video Navigation; Navigationshistorik; Video Summarization; Den dramatiska ökningen av mängden video nu tillgänglig, antingen i online-form av tjänster som YouTube TM, Vimeo TM eller den mer personliga formen av hemvideo, ger nya utmaningar såsom att hitta specifika videor (eller intervall inom video), skapa nya videor från befintligt innehåll (t.ex. video summering eller hem filmredigering), dela video spellistor (eller jämna mellanrum) av online-video och kommentera dynamiskt innehåll. Den ökade volymen och krympande genomsnittliga varaktighet online-video har lett till nya användningsfall: användare är i allmänhet fria att hoppa framåt för att hitta intervall som intresserar dem; användare kan åter titta på en del av videon de åtnjutit; användare kan använda temporal video länkar för att ge omedelbar tillgång till en viss tid inom en video, hoppa över irrelevanta avsnitt; spellistor och temporal länkar ger möjligheter till anpassning och delning av videokonsumtion bland användare. Kort sagt, användare kan och vill visa personligt intressanta intervaller enkelt och utan att visa hela videon. Dessa användningsfall stöds inom nuvarande gränssnitt, men det finns inga befintliga mekanismer för att stödja nya användningsfall som uppstår som en naturlig följd, såsom navigering av tidigare sedda intervall. Dessutom användare ofta re-watch segment av video som en del av den samtida surfning och navigering erfarenhet [24, 25, 28], och kan vilja dela dessa intervall med andra. En historisk inspelning av videovisning skulle göra det möjligt för användare att snabbt hitta populära intervaller, kommentera och dela dem. Vi introducerar vårt nya videogränssnitt, som fångar användarens visningshistorik (analog till en webbläsares historia) och tillåter dem att återanvända den som ett navigeringsverktyg, genom en användartidvisualisering med stöd för interaktioner. Historiken stöder åtgärder som snabbare tillgång till tidigare sedda intervall, visualisering av populära intervall inom videon baserat på en användares temporal vy räkna, enklare författare via val av sedda intervall och ger användaren möjlighet att skapa en personlig karta över videon (t.ex. besluta om sin egen uppdelning av videon i kapitel, eller belysa intressanta intervaller). Denna typ av historia gränssnitt stöds för närvarande inte i kommersiella produkter, därför studerar vi gränssnitt för att hantera personlig visning historia för att utvärdera effektiviteten för inkludering i framtida videogränssnitt. Vår forskning fokuserar på nyttan av videohistorik, undersöka användningsfall och fastställa vilka som påverkas avsevärt med tanke på en användarbaserad tidslinje för videovisning. Gränssnittet vi utformade (visas i figur 1 ) innehåller en filmtrip visualisering under huvudvideospelaren som representerar hela videon, och en historik till höger om spelaren med en sekvens av intervaller beställd top-down av användaren-tid. Vi upptäckte genom pilotstudier att filmtrippen och historien är likvärdiga i navigeringshastigheten för att hitta en tidigare sedd händelse i fallet där hela videon visas, även om historikgränssnittet föredrogs eftersom användarna kunde anpassa vilka intervall som visualiserades. Vår studie visar att när en delmängd av videon visas, historien betydligt överträffar state-of-art, och 75% av deltagarna föredrog historien i detta användningsfall. Studien visade att vårt historiska författargränssnitt var användbart, lätt att använda och roligt, och deltagarna var angelägna om att se denna funktionalitet i YouTube. Vi börjar med en diskussion om det relaterade arbetet, följt av en beskrivning av videonavigeringsgränssnittet (inklusive alla widgets och interaktioner som används). Utvärderingen av användningen av en historia och de gränssnitt vi utformade för att stödja den presenteras, tittar på användarnas intryck av att använda en personlig videohistorik och kraften i att använda historia för snabb videonavigering. Tänk på följande scenario med Robert. Detta scenario betonar de stora bidragen av vårt arbete: (1) en ny video navigering gränssnitt för videovisning som fångar och visualiserar en användares personliga historia; (2) ett experiment som bekräftar med hjälp av personlig video navigering historia är snabbare att hitta tidigare sett händelser i videor i motsats till den senaste tekniken metoden, filmtripp; (3) ett enkelt video mash-up verktyg som kan användas för att sammanfatta videor genom att använda intervaller från historien eller helt enkelt titta på motsvarande intervaller, i jämförelse med andra videoredigering programvara där användare behöver lägga till ett videoklipp, titta på den, och sedan trimma den.
Ingen av de tillvägagångssätt som hittills föreslagits har utvärderats eller använts för att visualisera en detaljerad video navigationshistorik bortsett från vårt senaste arbete REF.
6,877,050
Video Navigation with a Personal Viewing History
{'venue': 'INTERACT', 'journal': None, 'mag_field_of_study': ['Computer Science']}
12,983
Abstract-Agility och motståndskraft krav för framtida cellulära nätverk kanske inte helt tillgodoses av markbundna basstationer i fall av oväntade eller tillfälliga händelser. En lovande lösning är att hjälpa det cellulära nätverket via låghöjdiga obemannade luftfartyg utrustade med basstationer, d.v.s. drönarceller. Även om drönarceller ger en snabb driftsättning möjlighet som flygbasstationer, blir effektiv placering en av de viktigaste frågorna. Förutom drönarcellernas rörlighet i den vertikala dimensionen och den horisontella dimensionen leder skillnaderna mellan luft-till-mark- och markkanalerna till att drönarcellernas placering avviker från placeringen av markbaserade basstationer. I detta dokument lyfter vi först fram egenskaperna hos dronecellplaceringsproblemet och formulerar det som ett 3D-placeringsproblem med målet att maximera nätets intäkter. Efter några matematiska manipulationer formulerar vi en likvärdig kvadratiskt-konstruerad blandad heltal icke-linjär optimering problem och föreslår en beräkningseffektiv numerisk lösning för detta problem. Vi verifierar våra analytiska härledningar med numeriska simuleringar och berikar dem med diskussioner som kan tjäna som riktlinjer för forskare, mobilnätsoperatörer och beslutsfattare.
Utökat till 3-D-scenariot, Bor-Yaliniz et al. REF formulerade ett UAV-placeringsproblem för att maximera intäkterna för hela nätverket, och föreslog en beräkningseffektiv numerisk lösning.
17,679,573
Efficient 3-D placement of an aerial base station in next generation cellular networks
{'venue': '2016 IEEE International Conference on Communications (ICC)', 'journal': '2016 IEEE International Conference on Communications (ICC)', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
12,984
För att dra nytta av en platsbaserad tjänst måste en person avslöja sin plats för tjänsten. Att känna till var personen befinner sig kan dock göra det möjligt för tjänsten att identifiera personen på nytt. Platsintegritet baserat på k-anonymity adresserar detta hot genom att dölja personens plats så att det finns minst k - 1 andra personer inom det kamouflerade området. Vi föreslår en distribuerad strategi som är väl integrerad med befintlig infrastruktur för lokaliseringsbaserade tjänster, i motsats till tidigare arbete. Vår strategi är baserad på homomorphic kryptering och har flera organisationer, såsom operatörer av mobiltelefonnätverk, samarbeta för att låta en användare lära sig om k-anonymity håller för hennes område utan att organisationerna lär någon ytterligare information. Vi beskriver också flera utmaningar som återstår att ta itu med.
För att uppnå platsen integritet baserat på begreppet k-anonymitet, Zhong och Hengartner REF utveckla ett protokoll baserat på homomorphic kryptering som kan dölja en användares plats på ett sätt att det finns minst k-1 andra människor inom det kamouflerade området.
267,716
Toward a distributed k-anonymity protocol for location privacy
{'venue': "WPES '08", 'journal': None, 'mag_field_of_study': ['Computer Science']}
12,985
Valet av värdefulla egenskaper är avgörande för mönsterigenkänningen. I detta dokument behandlar vi frågan om att en del av egenskaperna kommer från riktningar i stället för gemensamma linjära data. Både för riktnings- och linjära data finns en teori för en statistisk modellering. Ingen av dessa teorier ger dock en integrerad lösning på problem, där linjära och riktningsvariabler ska kombineras i en enda multivariat sannolikhetstäthetsfunktion. Vi beskriver ett allmänt tillvägagångssätt för en enhetlig statistisk modellering, med tanke på begränsningen att varianserna av de cirkulära variablerna är små. Metoden utvärderas praktiskt taget i samband med vårt handstilsigenkänningssystem groda till hands och den så kallade tangentlutningsvinkelfunktionen. Erkännanderesultat jämförs med två alternativa modelleringsmetoder. Den föreslagna lösningen ger betydande förbättringar i igenkänningsnoggrannhet, beräkningshastighet och minneskrav.
Bahlmann integrerar linjära och cirkulära variabler i ett ganska annorlunda problem: online handstilsigenkänning REF.
13,964,894
Directional features in online handwriting recognition
{'venue': 'Pattern Recognit.', 'journal': 'Pattern Recognit.', 'mag_field_of_study': ['Computer Science']}
12,986
Digitala bilder från en CCD- eller CMOS-sensor med ett färgfiltersystem måste genomgå en demonteringsprocess för att kombinera de separata färgproverna till en enda färgbild. Denna interpoleringsprocess kan störa den efterföljande superupplösningsprocessen. Plenoptic superresolution, som bygger på exakt subpixel provtagning över fångade mikrobilder, är särskilt känslig för sådan omsampling av rådata. I detta dokument presenterar vi ett tillvägagångssätt för superresolving plenoptiska bilder som äger rum vid tiden för demosailing av råa färgbildsdata. Vårt tillvägagångssätt utnyttjar den interleaving som tillhandahålls av typiska färgfilter matriser (t.ex. Bayer filter) för att ytterligare förfina plenoptiska sub-pixel provtagning. Vår renderingsalgoritm behandlar färgkanalerna i en plenoptisk bild separat, vilket förbättrar den slutliga superupplösningen med en faktor på två. Med lämplig plenoptisk infångning visar vi den teoretiska möjligheten att göra slutliga bilder vid full sensorupplösning.
Georgjev m.fl. REF införlivar demosaiering som en del av rekonstruktionsprocessen och hävdar den teoretiska möjligheten att göra naturliga bilder vid full sensorupplösning.
16,981,308
Superresolution with the focused plenoptic camera
{'venue': 'Electronic Imaging', 'journal': None, 'mag_field_of_study': ['Physics', 'Engineering', 'Computer Science']}
12,987
Abstract-Multicast är ett effektivt paradigm för överföring av data från en avsändare till en grupp mottagare. I detta dokument fokuserar vi på multicast i enkanaliga trådlösa lokala nätverk (LANs) bestående av flera små celler. I ett sådant system kan en mottagare inte korrekt ta emot ett paket om två eller flera paket skickas till det samtidigt, eftersom paketen "kolliderar". Därför måste man se till att endast en nod skickas åt gången. Vi tittar på två viktiga frågor. För det första anser vi att problemet med att sändaren förvärvar multi-access-kanalen för multisändning. För det andra, för tillförlitlig multicast i varje cell i det trådlösa LAN, undersöker vi ARQ-baserade metoder. Den andra frågan är viktig eftersom felfrekvensen för trådlösa länkar kan vara mycket hög. Vi presenterar en ny strategi för att övervinna problemet med feedback kollision i enkanals multi-access trådlösa LANs, både för att förvärva kanalen och för tillförlitlighet. Vår strategi omfattar valet av en av de multicast-gruppmedlemmar (mottagare) som "ledare" eller representant i syfte att skicka feedback till avsändaren. För tillförlitlig multisändning, vid felaktig mottagning av ett paket, skickar ledaren inte ett erkännande, vilket föranleder en vidaresändning. Vid felaktig mottagning av paketet hos andra mottagare än ledaren, tillåter vårt protokoll negativa erkännanden från dessa mottagare att kollidera med bekräftelsen från ledaren, vilket förstör bekräftelsen och uppmanar avsändaren att sända paketet på nytt. Med hjälp av analytiska modeller visar vi att det ledarbaserade protokollet uppvisar högre genomströmning jämfört med två andra protokoll som använder traditionella fördröjda återkopplingsbaserade probabilistiska metoder. Sist lägger vi fram en enkel plan för valet av ledare.
REF (Leader Based Protocol, LBP) är det första förslaget att använda NAK-återkopplingar.
1,084,741
Reliable multicast in multi-access wireless LANs
{'venue': "IEEE INFOCOM '99. Conference on Computer Communications. Proceedings. Eighteenth Annual Joint Conference of the IEEE Computer and Communications Societies. The Future is Now (Cat. No.99CH36320)", 'journal': "IEEE INFOCOM '99. Conference on Computer Communications. Proceedings. Eighteenth Annual Joint Conference of the IEEE Computer and Communications Societies. The Future is Now (Cat. No.99CH36320)", 'mag_field_of_study': ['Computer Science']}
12,988
Vi presenterar en rörelsesegmenteringsalgoritm som delar bildplanet i olika regioner baserat på deras parametriska rörelse. Den bygger på en finare uppdelning av bilddomänen i regioner med enhetliga fotometriska egenskaper, med rörelsesegment som består av föreningar av sådana "superpixlar". Vi utnyttjar de senaste framstegen i kombinatoriska grafoptimering som ger beräkningseffektiva uppskattningar. Energifunktionen är byggd på en superpixelkurva, och minimeras iterativt genom att beräkna en parametrisk rörelsemodell i sluten form, följt av en grafskärning av superpixel adjacency-grafen. Den generaliserar naturligt till flermärkta partitioner som kan hantera flera rörelser.
Arbetet av Ayvaci och Soatto REF definierar en energifunktion på en superpixel graf som optimeras med hjälp av effektiva graf skär.
14,646,763
Motion segmentation with occlusions on the superpixel graph
{'venue': '2009 IEEE 12th International Conference on Computer Vision Workshops, ICCV Workshops', 'journal': '2009 IEEE 12th International Conference on Computer Vision Workshops, ICCV Workshops', 'mag_field_of_study': ['Computer Science']}
12,989
Traditionella filstrukturer som ger multikey tillgång till poster, till exempel, inverterade filer, är förlängningar av filstrukturer som ursprungligen utformats för enkel nyckel åtkomst. De uppvisar olika brister, särskilt när det gäller tillgång till mycket dynamiska filer med flera nycklar. Vi studerar de dynamiska aspekterna av kakelstrukturer som behandlar alla nycklar symmetriskt, det vill säga filstrukturer som undviker skillnaden mellan primära och sekundära nycklar. Vi börjar från en bitmap tillvägagångssätt och behandla problemet med fildesign som en av datakomprimering av en stor gles matris. Detta leder till begreppen om en rutnätspartition av sökutrymmet och en rutnätskatalog, som är nycklarna till en dynamisk filstruktur som kallas rutnätsfilen. Detta kakelsystem anpassar sig graciöst till sitt innehåll under tillägg och raderingar, och därmed uppnår en övre hound av två diskar för enkel skivhämtning; det hanterar också avståndsförfrågningar och delvis specificerade frågor på ett effektivt sätt. Vi diskuterar i detalj de designbeslut som ledde till rutnätsfilen, presenterar simuleringsresultat av dess beteende, och jämför den med andra multikey access filstrukturer.
Begreppet en rutnät partition av sökutrymmet först infördes med rutnätsfilen REF, där en rutnätsstruktur används för att ge multikey tillgång till filer.
1,056,811
The Grid File: An Adaptable, Symmetric Multikey File Structure
{'venue': 'TODS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
12,990
En stor utmaning i Bayesian Optimization är gränsfrågan (Swersky, 2017) där en algoritm spenderar alltför många utvärderingar nära gränsen för sitt sökutrymme. I detta dokument föreslår vi BOCK, Bayesian Optimization med Cylindrical Kernels, vars grundidé är att omvandla kulgeometrin i sökområdet med hjälp av en cylindrisk omvandling. På grund av den förändrade geometrin, spenderar Gaussian Process-baserade surrogat modell mindre budget söker nära gränsen, samtidigt koncentrera sina insatser relativt mer nära centrum av sökregionen, där vi förväntar oss att lösningen ska vara lokaliserad. Vi utvärderar BOCK utförligt, visar att det inte bara är mer exakt och effektiv, men det skalar också framgångsrikt till problem med en dimensionalitet så högt som 500. Vi visar att bättre noggrannhet och skalbarhet av BOCK även tillåter optimering blygsamt storlek neurala nätverkslager, liksom neurala nätverk hyperparametrar.
BOCK-algoritmen för Oh et al. REF använder en cylindrisk omvandling av sökytan för att uppnå skalbarhet till höga dimensioner.
46,937,410
BOCK : Bayesian Optimization with Cylindrical Kernels
{'venue': 'Proceedings of the 35th International Conference on Machine Learning, Stockholm, Sweden, PMLR 80, 2018', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
12,991
Tidsmässig och kostnadseffektiv behandling av stora dataset har blivit en viktig ingrediens för framgången för många akademiska, statliga och industriella organisationer. Kombinationen av MapReduce ramverk och cloud computing är ett attraktivt förslag för dessa organisationer. Men även för att köra ett enda program i ett MapReduce-ramverk måste ett antal inställningsparametrar ställas in av användare eller systemadministratörer. Användare stöter ofta på prestandaproblem eftersom de inte vet hur man ställer in dessa parametrar, eller eftersom de inte ens vet att dessa parametrar finns. Med MapReduce som relativt ny teknik är det inte lätt att hitta kvalificerade administratörer. I detta positionspapper gör vi ett argument för tekniker för att automatisera inställningen av inställningsparametrar för MapReduce-program. Målet är att ge bra out-of-the-box prestanda för ad hoc MapReduce-program körs på stora datauppsättningar. Denna funktion kan gå en lång väg mot att förbättra produktiviteten hos användare som saknar färdigheter att själva optimera program på grund av bristande kännedom om MapReduce eller med data som behandlas.
Användare stöter ofta på prestandaproblem eftersom de inte ens vet att dessa parametrar finns REF.
5,863,943
Towards automatic optimization of MapReduce programs
{'venue': "SoCC '10", 'journal': None, 'mag_field_of_study': ['Computer Science']}
12,992
Med de ökande volymerna av uppgifter om fordonsbanan blir det allt mer möjligt att fånga upp tidsvariationer och osäkra resekostnader i ett vägnät, inklusive restid och bränsleförbrukning. Det nuvarande paradigmet representerar ett vägnät som en viktad graf; det spränger banor i små fragment som passar de underliggande kanterna för att tilldela vikter till kanter; och det tillämpar sedan en routingalgoritm på den resulterande grafen. Vi föreslår ett nytt paradigm, hybridgrafen, som syftar till en mer exakt och effektivare kostnadsfördelning. Det nya paradigmet undviker sprängningsvägar i små fragment och tilldelar istället vikter till stigar snarare än helt enkelt till kanterna. Vi visar hur man beräknar banvikter med hjälp av bandata samtidigt som hänsyn tas till kostnadsberoenden bland kanterna i banorna. Med tanke på en avgångstid och en frågeväg, visar vi hur man väljer en optimal uppsättning vikter med tillhörande sökvägar som täcker sökvägen och så att vikterna möjliggör den mest korrekta gemensamma kostnadsfördelningsberäkningen för sökvägen. Kostnadsfördelningen för sökvägen beräknas sedan exakt med hjälp av den gemensamma distributionen. Slutligen visar vi hur den resulterande metoden för beräkning av kostnadsfördelning av vägar kan integreras i befintliga routingalgoritmer. Empiriska studier med omfattande kursdata från två olika städer ger insikt i den föreslagna metodens designegenskaper och bekräftar att metoden är effektiv i verkliga miljöer.
I REF beräknas fördelningen av vägkostnader på vägnätet utifrån historiska banor.
14,053,144
Path Cost Distribution Estimation Using Trajectory Data
{'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']}
12,993
Med ökad globalisering och arbetskraftens rörlighet har omfördelning av mänskliga resurser mellan företag, industrier och regioner blivit den nya normen på arbetsmarknaderna. Uppkomsten av massiva digitala spår av sådan rörlighet erbjuder en unik möjlighet att förstå arbetskraftens rörlighet i en aldrig tidigare skådad skala och granularitet. Medan de flesta studier om arbetskraftens rörlighet till stor del har fokuserat på att karakterisera makronivå (t.ex. region eller företag) eller mikronivå (t.ex. anställda) mönster, problemet med hur man exakt förutsäga en anställds nästa karriär (vilket företag med vilken jobbtitel) får liten uppmärksamhet. I denna rapport presenteras den första studien av storskaliga experiment för att förutsäga nästa karriärsteg. Vi fokuserar på två källor till prediktiva signaler: profilkontextmatchning och karriärvägbrytning och föreslår en kontextuell LSTM-modell, NEMO, för att samtidigt fånga signaler från båda källorna genom att gemensamt lära sig latenta representationer för olika typer av enheter (t.ex. anställda, färdigheter, företag) som förekommer i olika källor. I synnerhet skapar NEMO den kontextuella representationen genom att samla all profilinformation och utforska beroendena i karriärvägarna genom nätverken för långkortfristigt minne (LSTM). Omfattande experiment på en stor, realworld LinkedIn dataset visar att NEMO avsevärt överträffar starka baslinjer och också avslöja intressanta insikter i mikro-nivå arbetskraftens rörlighet.
L. Li et al. Ordförande introducerade en ny ansökan till nästa karriär flytta förutsägelse med en kontextuell LSTM modell REF.
13,256,064
NEMO: Next Career Move Prediction with Contextual Embedding
{'venue': 'WWW', 'journal': None, 'mag_field_of_study': ['Computer Science']}
12,994
Abstrakt. Traditionella innehållsbaserade publicerings-/prenumerationssystem (pub/sub) gör det möjligt för användare att uttrycka statslösa prenumerationer som utvärderats vid enskilda evenemang. Många applikationer som övervakning av RSS-strömmar, aktiekort eller hantering av RFID-dataströmmar kräver dock förmågan att hantera ståtliga prenumerationer. I detta dokument introducerar vi Cayuga, ett statligt pub/sub-system baserat på icke-deterministisk ändlig stat automata (NFA). Cayuga gör det möjligt för användare att uttrycka prenumerationer som spänner över flera händelser, och det stöder kraftfulla språkfunktioner såsom parameterisering och aggregering, vilket avsevärt utökar den expressiva kraften hos standard pub / sub system. Baserat på en uppsättning formellt definierade språkoperatörer erbjuder Cayugas prenumerationsspråk icke-ambikuösa prenumerationssemantik samt unika möjligheter till optimeringar. Vi demonstrerar experimentellt att gemensamma optimeringsmetoder som används i NFA-baserade system som statssammanslagning endast har begränsad effektivitet, och vi föreslår nya effektiva indexeringsmetoder för att påskynda prenumerationsbehandlingen. I en grundlig experimentell utvärdering visar vi effektiviteten i vårt tillvägagångssätt.
Författarna har noggrant studerat språksemantik och analyserat den uttrycksfulla kraften hos SASE+, SQL-TS och Cayuga REF, som är ett statligt publicerings-/prenumerationssystem baserat på NFA.
1,210,481
Towards Expressive Publish/Subscribe Systems
{'venue': 'In Proc. EDBT', 'journal': None, 'mag_field_of_study': ['Computer Science']}
12,995
Utvecklare undrar ofta hur man implementerar en viss funktionalitet (t.ex. hur man tolkar XML-filer) med hjälp av API:er. Att få en API-användningssekvens baserad på ett API-relaterat naturligt språk är till stor hjälp i detta avseende. Med tanke på en fråga använder befintliga metoder informationssökningsmodeller för att söka efter matchande API-sekvenser. Dessa tillvägagångssätt behandlar frågor och API:er som påsar-av-ord och saknar en djup förståelse av semantiken i frågan. Vi föreslår DeepAPI, ett djupt lärande baserat tillvägagångssätt för att generera API-användningssekvenser för en given naturlig språkfråga. Istället för en säck-of-words antagande, det lär sig sekvensen av ord i en fråga och sekvensen av associerade API:er. DeepAPI anpassar en neural språkmodell som heter RNN Encoder-Decoder. Det kodar en ordsekvens (användare fråga) i en fast längd sammanhang vektor, och genererar en API sekvens baserad på sammanhanget vektor. Vi utökar också RNN Encoder-Decoder genom att beakta vikten av enskilda API:er. Vi utvärderar empiriskt vårt tillvägagångssätt med mer än 7 miljoner kommenterade kodsnuttar som samlats in från GitHub. Resultaten visar att vårt tillvägagångssätt genererar i stort sett korrekta API-sekvenser och överträffar de relaterade tillvägagångssätten.
I REF beskriver författarna DeepAPI, en anpassad neural språkmodell (särskilt en Recursive Neural Network Encoder-Decoder) som genererar API-sekvenser som ges en naturlig språkfråga överträffar befintliga påsar-of-words metoder.
11,540,100
Deep API learning
{'venue': 'FSE 2016', 'journal': None, 'mag_field_of_study': ['Computer Science']}
12,996
Affärsverksamheten omfattar många faktorer och relationer och modelleras som komplexa arbetsflöden för affärsprocesser. Genomförandet av dessa affärsprocesser genererar stora volymer komplexa data. De operativa uppgifterna är exempel på processflödet och tar olika vägar genom processen. Målet är att använda den komplexa informationen för att analysera och förbättra verksamheten och optimera processflödet. I detta papper introducerar vi en ny visualiseringsteknik, kallad VisImpact, som omvandlar rå operativ affärsdata till värdefull information. VisImpact minskar data komplexitet genom att analysera operativa data och abstrahera de mest kritiska faktorerna, så kallade impact factors, som påverkar affärsverksamheten. Analysen kan identifiera enstaka noder av affärsflödet graf som viktiga faktorer, men det kan också bestämma aggregeringar av noder för att vara viktigt. Analysen kan dessutom visa att enskilda noder har vissa datavärden som är förknippade med dem och som påverkar vissa affärsmått eller parametrar för resursanvändning. Konsekvensfaktorerna presenteras som noder i en symmetrisk cirkulär graf, vilket ger insikt i kärnverksamhet och relationer. En orsak-effekt mekanism är inbyggd för att bestämma "bra" och "dåligt" operativt beteende och att vidta åtgärder därefter. Vi har tillämpat VisImpact på verkliga tillämpningar, bedrägerianalys och tjänstekontraktsanalys, för att visa kraften i VisImpact för att hitta relationer bland de viktigaste påverkansfaktorerna och för omedelbar identifiering av avvikelser. VisImpact-systemet tillhandahåller ett mycket interaktivt gränssnitt inklusive borrningsmöjligheter ner till transaktionsnivåer för att möjliggöra flernivåvyer av affärsdynamik.
Ett förhållningssätt till visuell analys av prestandamått för affärsprocesser, så kallade impact factors, ges i REF.
17,925,524
Business Process Impact Visualization and Anomaly Detection
{'venue': None, 'journal': 'Information Visualization', 'mag_field_of_study': ['Computer Science']}
12,997
Lokala skillnader i privatlivet har föreslagits som ett starkt mått på integritet under datainsamlingsscenarier, där enskilda personer är villiga att dela med sig av sina uppgifter men är oroade över att avslöja känslig information. Både dataleverantörer och datainsamlare vill maximera nyttan av statistiska slutsatser som görs på data men samtidigt måste skydda de deltagande individernas integritet. Vi tar itu med ett allmänt problem av nyttomaximering under lokal differential integritet. Vårt huvudsakliga resultat är en karakterisering av den kombinatoriska strukturen av den optimala lösningen vilket resulterar i en familj av yttre mekanismer som vi kallar trappmekanismer. Dessa databeroende mekanismer bidrar till de få grundläggande privatiseringssystem som är kända i litteraturen (t.ex. den exponentiella mekanismen och bullerskapande mekanismer). Slutligen visar vi att två enkla trappa mekanismer (den binära och randomiserade svarsmekanismer) är optimala i de höga respektive låga integritetssystem, respektive. Våra resultat kännetecknar också lägre gränser i differentiell integritet, vilket ger några nya lägre gränser samt återhämta några kända resultat. Som ett motiverande exempel tillhandahåller vi optimala mekanismer och visar att den effektiva provstorleken minskar från n till ε 2 n under differentialintegritet i samband med hypotestester.
Till exempel överväga att tillhandahålla ε-lokal differential integritet på källan till en transaktion REF.
6,232,226
Extremal Mechanisms for Local Differential Privacy
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
12,998
Konstruerad klusterbildning har varit välstuderad i det oövervakade lärande samhället. Men hur man kodar begränsningar i gemenskapens struktur upptäckt, inom komplexa nätverk, är fortfarande ett utmanande problem. I detta dokument föreslår vi en halvövervakad utbildningsram för upptäckt av samhällsstruktur. Detta ramverk kodar implicit för must-link och kan inte länka samman begränsningar genom att ändra adjacensmatrisen för nätet, som också kan betraktas som att de-noise consensus-matrisen av samhällsstrukturer. Vår föreslagna metod tar hänsyn till både topologin och funktionerna (bakgrundsinformation) i komplexa nätverk, vilket ökar tolkningen av resultaten. De jämförelser som gjorts på både de syntetiska referensvärdena och de verkliga nätverken visar att det föreslagna ramverket avsevärt kan förbättra detektionsprestandan i samhället med få begränsningar, vilket gör det till en attraktiv metod i analysen av komplexa nätverk.
Zhang REF föreslog en halvövervakad ram för detektering av samhället.
15,331,163
Community Structure Detection in Complex Networks with Partial Background Information
{'venue': 'Zhong-Yuan Zhang 2013 EPL 101 48005', 'journal': None, 'mag_field_of_study': ['Physics', 'Computer Science']}
12,999
Abstract-Vi studerar användningen av lågdensitetsgenerator matris (LDGM) koder för förlustkompression av Bernoulli symmetrisk källa. För det första fastställer vi stränga övre gränser för den genomsnittliga förvrängning som uppnås genom kontroll-regelbunden ensemble av LDGM-koder under optimal minsta avståndskodning. Dessa gränser visar att den genomsnittliga snedvridningen med hjälp av sådana begränsade grad familjer snabbt närmar sig Shannon gränsen som graderna ökas. För det andra föreslår vi en familj av algoritmer som går över budskap, allt från den vanliga trosutbredningsalgoritmen på den ena ytterligheten till en variant av undersökningsutbredningsalgoritm på den andra. När vi kombineras med en decimeringssubrutin och appliceras på LDGM-koder med lämpligt oregelbundna gradfördelningar, visar vi att en sådan algoritm för meddelandepassering/decimering ger distorsion mycket nära Shannon-hastighetsförvrängning som är bundet till den binära symmetriska källan.
Som nämnts ovan användes den andra momentmetoden i REF för att analysera hastighetsförvrängningfunktionen hos LDGM-koder för binära symmetriska källor med hamming distorsion.
1,609,100
Lossy Source Compression Using Low-Density Generator Matrix Codes: Analysis and Algorithms
{'venue': 'IEEE Transactions on Information Theory', 'journal': 'IEEE Transactions on Information Theory', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
13,000
Abstrakt. I detta dokument utvecklar vi metoder för att "provta" en liten realistisk graf från ett stort verkligt nätverk. Trots den senaste tidens verksamhet är modellering och generering av realistiska grafer fortfarande inte en lösning på problemet. Allt tidigare arbete har försökt att odla en graf från grunden. Vi tar upp det kompletterande problemet med att krympa en graf. Mer i detalj har detta arbete tre delar. För det första föreslår vi ett antal reduktionsmetoder som kan kategoriseras i tre klasser: a) raderingsmetoder, b) sammandragningsmetoder och c) undersökningsmetoder. Vi bevisar att några av dem har viktiga egenskaper i den ursprungliga grafen. Vi implementerar våra metoder och visar att vi effektivt kan minska noderna i en graf med så mycket som 70% samtidigt som vi behåller dess viktiga egenskaper. Dessutom visar vi att våra reducerade grafer jämför positivt med konstruktionsbaserade generatorer. Förutom användningen i simuleringar är problemet med grafprovtagning av oberoende intresse.
Antalet noder kan minskas med så mycket som 70% samtidigt som viktiga grafegenskaper REF bevaras.
2,284,748
Reducing Large Internet Topologies for Faster Simulations
{'venue': 'NETWORKING', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,001
En säkerhetspolicy på flera nivåer beaktas i scenariot med mobila system, och modelleras inom "ren" Mobile Ambients kalkyl, där inga kommunikationskanaler finns och de enda möjliga åtgärderna representeras av de rörelser som utförs av mobila processer. Informationsflödets egenskap definieras i termer av möjligheten för en konfidentiell omgivning/data att förflytta sig utanför en säkerhetsgräns. I ett tidigare dokument gav vi en mycket enkel syntaktisk egenskap som är tillräcklig för att antyda frånvaron av oönskade informationsflöden. I detta dokument definieras en kontrollflödesanalys, som en förfining av Hansen-Jensen-Nielsons CFA, som gör det möjligt att fånga gränskorsningar med bättre noggrannhet.
Särskilt Braghin et al. REF-studiens "explicit" informationsflödessäkerhet i scenariot med rena mobila omgivningar genom att definiera en kontrollflödesanalys för att upptäcka säkerhetsöverträdelser som uppstår som konfidentiella uppgifter som rör sig utanför något Ö på ett sätt som kan påverka skyddet.
15,027,282
Control Flow Analysis of Mobile Ambients with Security Boundaries
{'venue': 'FMOODS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,002
Abstract-Assult LoRaWAN-nätverk är aktivt utplacerade inom området, det är viktigt att förstå begränsningarna i denna nätteknik med låg effekt. Tidigare arbete har väckt frågor om skalbarheten och kapaciteten hos LoRaWAN-nätverk när antalet slutenheter ökar till hundratals eller tusentals per gateway. Vissa verk har modellerat LoRaWAN-nätverk som rena ALOHA-nätverk, som inte fångar upp viktiga egenskaper såsom fångande effekt och effekter av interferens. Andra verk ger en mer omfattande modell genom att förlita sig på empiriska och stokastiska tekniker. Detta papper använder ett annat tillvägagångssätt där en LoRa felmodell är konstruerad från omfattande komplexa basband bit felhastighetssimuleringar och används som en interferensmodell. Felmodellen kombineras med LoRaWAN MAC-protokollet i en ns-3 modul som gör det möjligt att studera flerkanaliga, multispridningsfaktor, multigateway, dubbelriktade LoRaWAN-nätverk med tusentals slutenheter. Med hjälp av LoRaWAN ns-3-modulen visar en skalbarhetsanalys av LoRaWAN den skadliga inverkan nedströmstrafiken har på leveransförhållandet för bekräftad uppströmstrafik. Analysen visar att den ökande gatewaytätheten kan lindra men inte eliminera denna effekt, eftersom stränga krav på tullcykel för gateways fortsätter att begränsa möjligheterna i efterföljande led.
En LoRa-felmodell är konstruerad av omfattande komplexa simuleringar av bithastighetsfel i basband och används som en interferensmodell i REF för att modellera effekterna av banförlust och intra-LoRa-interferens.
16,344
Scalability Analysis of Large-Scale LoRaWAN Networks in ns-3
{'venue': 'IEEE Internet of Things Journal', 'journal': 'IEEE Internet of Things Journal', 'mag_field_of_study': ['Computer Science']}
13,003
Smartphones har exploderat i popularitet under de senaste åren, blir allt mer sofistikerade och kapabla. Som ett resultat av detta bygger utvecklare över hela världen allt mer komplexa applikationer som kräver ständigt ökande mängder av beräkningskraft och energi. I detta papper föreslår vi ThinkAir, ett ramverk som gör det enkelt för utvecklare att migrera sina smartphone-program till molnet. ThinkAir utnyttjar konceptet smartphone-virtualisering i molnet och tillhandahåller beräkning på metodnivå. Avancera på tidigare arbete, fokuserar på elasticitet och skalbarhet i molnet och ökar kraften i mobila molndata genom att parallellisera metod exekvering med hjälp av flera virtuella maskiner (VM) bilder. Vi implementerar ThinkAir och utvärderar det med en rad riktmärken från enkla mikrobenchmarks till mer komplexa applikationer. För det första visar vi att exekveringstiden och energiförbrukningen minskar två storleksordningar för en N -queens-pusselapplikation och en storleksordning för en ansiktsdetektering och en virusskanning. Vi visar sedan att en parallellizable ansökan kan åberopa flera virtuella maskiner för att köra i molnet på ett sömlöst och on-demand sätt så att uppnå en större minskning av genomförandetid och energiförbrukning. Vi använder slutligen ett minneshungrig bildkombinatorsverktyg för att visa att applikationer dynamiskt kan begära virtuella maskiner med mer beräkningskraft för att uppfylla sina beräkningskrav.
Ett program offloading ram för molnet föreslås och genomförs i REF där körningstid och energiförbrukning av enheter minskas.
206,924,850
ThinkAir: Dynamic resource allocation and parallel execution in the cloud for mobile code offloading
{'venue': '2012 Proceedings IEEE INFOCOM', 'journal': '2012 Proceedings IEEE INFOCOM', 'mag_field_of_study': ['Computer Science']}
13,004
Abstract-Den ökade nätverksanslutningen har också resulterat i flera uppmärksammade attacker mot cyberfysiska system. En angripare som lyckas komma åt ett lokalt nätverk kan på distans påverka kontrollprestandan genom att manipulera sensormätningar som levereras till regulatorn. Nya resultat har visat att med nätverksbaserade attacker, såsom man-in-the-middle attacker, angriparen kan införa en obegränsad tillståndsuppskattning fel om mätningar från en lämplig delmängd av sensorer innehåller falska data när de levereras till styrenheten. Även om dessa attacker kan åtgärdas med standard kryptografiska verktyg som garanterar dataintegritet, skulle deras kontinuerliga användning införa betydande kommunikation och beräkning overhead. Följaktligen studerar vi effekterna av intermittenta dataintegritetsgarantier på systemets prestanda under smygattacker. Vi anser att linjära estimatorer är utrustade med en allmän typ av resterande-baserade intrångsdetektorer (inklusive t.ex. allmänt använda χ 2-detektorer) och visar att även när sensormätningarnas integritet endast upprätthålls intermittent är attackpåverkan avsevärt begränsad; specifikt är statuppskattningsfelet begränsat eller angriparen inte kan förbli smygande. Dessutom presenterar vi metoder för att: 1) utvärdera effekterna av en viss integritetspolicy i form av nåbara skattningsfel för alla typer av smygande attacker, och 2) utforma en tillämpningspolicy som ger de önskade skattningsfel garantier under attack. Slutligen, i tre fallstudier för bilar, visar vi att även med mindre än 10 procent av de autentiserade meddelandena kan vi säkerställa tillfredsställande kontrollprestanda i närvaro av attacker. Index Terms-Attack detektion, attack-resilient state estimation, cyber-fysiska system (CPS) säkerhet, Kalman filtrering, linjära system.
Jovanov och Pajic REF fokuserar på CPSs kommunikationsaspekter och studerar effekterna av intermittenta dataintegritetsgarantier på systemets prestanda under smygattacker.
9,951,320
Relaxing Integrity Requirements for Attack-Resilient Cyber-Physical Systems
{'venue': 'IEEE Transactions on Automatic Control', 'journal': 'IEEE Transactions on Automatic Control', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
13,005
I detta arbete studeras den gemensamma utformningen av förkodning och backhaul-komprimeringsstrategier för nedlänk av molnradionät. I dessa system är en central kodare ansluten till flera multiantenna basstationer (BS) via backhaul-länkar med begränsad kapacitet. Vid den centrala kodaren följs förkodning av komprimering för att producera de hastighetsbegränsade bitströmmar som levereras till varje BS över motsvarande backhaul länk. I nuvarande toppmoderna inflygningar komprimeras de signaler som är avsedda för olika BS oberoende av varandra. Däremot föreslås i detta arbete att man ska utnyttja gemensam kompression, även kallad multivariatkompression, av signaler från olika BS för att bättre kunna kontrollera effekten av additiv kvantiseringsljud vid mobila stationer (MS). Problemet med att maximera den viktade summeringen med avseende på både förkodningsmatrisen och den gemensamma korrelationsmatrisen för kvantiseringsbuller är formulerad under förutsättning att kraft och backhaul kapacitet begränsningar. En iterativ algoritm föreslås som uppnår en stationär punkt av problemet. För att möjliggöra det praktiska genomförandet av multivariatkompression mellan BS föreslås dessutom en ny arkitektur baserad på successiva steg av minsta genomsnittliga feluppskattning (MMSE) och per-BS-komprimering. Robust design med avseende på ofullständig kanalstatsinformation diskuteras också. Från numeriska resultat, det bekräftas att den föreslagna gemensamma förkodning och komprimeringsstrategi överträffar konventionella metoder baserat på separat design av förkodning och komprimering eller oberoende komprimering över BS.
Till exempel har en gemensam förkodning och komprimeringsalgoritm föreslagits i REF.
12,579,970
Joint Precoding and Multivariate Backhaul Compression for the Downlink of Cloud Radio Access Networks
{'venue': 'IEEE Transactions on Signal Processing', 'journal': 'IEEE Transactions on Signal Processing', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
13,006
Trådlösa sensornätverk (WSN) har ett brett spektrum av tillämpningar scenarier i datorseende, från fotgängardetektering till robotisk visuell navigering. Som svar på de växande visuella datatjänsterna i WSNs föreslår vi en proaktiv cachestrategi baserad på Stacked Sparse Autoencoder (SSAE) för att förutsäga innehålls popularitet (PCDS2AW). För det första, baserat på Software Defined Network (SDN) och Network Function Virtualization (NFV) teknik, är ett distribuerat djupt lärande nätverk SSAE konstrueras i diskbänk noder och kontroll noder i WSN-nätverket. Därefter optimeras SSAE nätverksstrukturparametrar och nätverksmodellparametrar genom utbildning. Det proaktiva förfarandet för genomförande av cachestrategin är indelat i fyra steg. (1) SDN-styrenheten ansvarar för dynamisk insamling av information om användarförfrågan i WSN:s nätverk. (2) SSAEs förutspår paket populariteten baserat på den SDN-controller som får användarens begäran data. (3) Den SDN controller genererar en motsvarande proaktiv cache strategi enligt popularitetsprognoser resultat. (4) Genomföra den proaktiva caching-strategin vid WSN:s cachenode. I simuleringen jämför vi inverkan av spatiotemporal data på SSAE nätverksstruktur. Jämfört med den klassiska caching strategin Hash + LRU, Betw + LRU, och klassiska förutsägelsealgoritmer SVM och BPN, kan den föreslagna PCDS2AW proaktiva caching strategi avsevärt förbättra WSN prestanda.
I REF föreslås ett nätverk för djupinlärning för att förutsäga datapaketets popularitet baserat på användarförfrågans paket.
155,141,757
Deep Learning Based Proactive Caching for Effective WSN-Enabled Vision Applications
{'venue': 'Complexity', 'journal': 'Complexity', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
13,007
Abstract-The buffrad crossbar arkitektur blir mycket attraktiv för utformningen av högpresterande routrar på grund av de unika funktioner den erbjuder. Nyligen har många distribuerade schemaläggningsalgoritmer föreslagits för denna arkitektur. Trots sin distribuerade karaktär kräver de befintliga systemen en hel del hårdvara och timing komplexitet. I detta brev föreslår vi ett nytt schema som heter den mest kritiska bufferten först (MCBF). Detta system bygger endast på den interna buffertinformationen och kräver mycket mindre hårdvara än de befintliga systemen. Ändå uppvisar den goda resultat och överträffar alla sina konkurrenter. Mer intressant, MCBF visar optimal stabilitet prestanda samtidigt som den är nästan en statslös algoritm.
Ett system för cellschemaläggning för buffrade crossbar switchar som kallas Most Critical Buffer First (MCBF) föreslogs i REF.
15,802,617
MCBF: a high-performance scheduling algorithm for buffered crossbar switches
{'venue': 'IEEE Communications Letters', 'journal': 'IEEE Communications Letters', 'mag_field_of_study': ['Computer Science']}
13,008
Nyligen semantiska segmenteringsmetoder utnyttja encoderdecoder arkitekturer för att producera den önskade pixel-wise segmentering förutsägelse. Det sista lagret av dekodrar är typiskt en bilinjär uppsampling förfarande för att återställa den slutliga pixel-wise förutsägelse. Vi visar empiriskt att denna överenklade och dataoberoende bilinjära uppsampling kan leda till suboptimala resultat. I detta arbete, föreslår vi en databeroende uppsampling (DUpsampling) att ersätta bilinear, som tar fördelar av redundans i etiketten utrymme semantiska segmentering och kan återställa pixel-wise förutsägelse från låg upplösning utgångar av CNNs. Den största fördelen med det nya uppsamplingslagret är att vi med en relativt lägre upplösningskarta som 1 16 eller 1 32 av ingångsstorleken kan uppnå ännu bättre segmenteringsnoggrannhet, vilket avsevärt minskar beräknings komplexiteten. Detta möjliggörs genom 1) det nya uppsamplingslagrets mycket förbättrade återuppbyggnadsförmåga; och ännu viktigare 2) den DUPSampling-baserade dekoderns flexibilitet när det gäller att utnyttja nästan godtyckliga kombinationer av CNN-kodarnas funktioner. Experiment på PASCAL VOC visar att med mycket mindre beräknings komplexitet, vår dekoder överträffar state-of-the-art dekoder. Slutligen, utan någon efterbehandling, den ram utrustad med vår föreslagna dekoder uppnår nya state-of-the-art prestanda på två datauppsättningar: 88,1 % mIOU på PASCAL VOC med 30% beräkning av den tidigare bästa modellen; och 52,5 mIOU på PASCAL Context.
I REF föreslås databeroende uppsampling som står för redundansen i etikettutrymmet i stället för enkel bilinjär uppsampling.
70,349,981
Decoders Matter for Semantic Segmentation: Data-Dependent Decoding Enables Flexible Feature Aggregation
{'venue': '2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
13,009
Litteraturen om algoritmisk mekanism design handlar främst om spel-teoretiska versioner av optimeringsproblem som standard ekonomiska pengar-baserade mekanismer inte kan tillämpas effektivt. Under de senaste åren har olika sanningsenliga approximeringsmekanismer utformats som är beroende av att betalningar verkställs. I detta dokument förespråkar vi en omprövning av högstrukturerade optimeringsproblem inom ramen för mekanismens utformning. Vi hävdar att approximationen inom sådana områden kan utnyttjas för att uppnå sannfärdighet utan att använda sig av betalningar. Detta står i kontrast till tidigare arbete där betalningar är allmänt förekommande, och (oftare än inte) approximation är en nödvändig ondska som krävs för att kringgå computational komplexitet. Vi presenterar en fallstudie i approximativ mekanism design utan pengar. I vår grundläggande miljö agenter finns på den verkliga linjen och mekanismen måste välja platsen för en offentlig anläggning; kostnaden för en agent är dess avstånd till anläggningen. Vi fastställer snäva övre och nedre gränser för det approximationsförhållande som ges av strategisäkra mekanismer utan betalningar, med avseende på både deterministiska och randomiserade mekanismer, under två objektiva funktioner: den sociala kostnaden och den maximala kostnaden. Vi utökar sedan våra resultat i två naturliga riktningar: en domän där två anläggningar måste finnas, och en domän där varje agent styr flera platser.
Ur ett Mechanism Design-perspektiv initierade Procaccias och Tennenholtz REFs ovannämnda papper området för approximativ mekanismdesign utan pengar.
2,926,428
Approximate mechanism design without money
{'venue': "EC '09", 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,010
Abstract-Motion sensorer, särskilt accelerometrar, på smartphones har upptäckts vara en kraftfull sidokanal för spioneri på användarnas integritet. I detta papper avslöjar vi en ny accelerometer-baserade sidokanal attack som är särskilt allvarligt: malware på smartphones kan enkelt utnyttja accelerometrarna för att spåra metro ryttare smygande. Först tar vi itu med utmaningen att automatiskt filtrera bort metrorelaterade data från en massa olika accelerometer avläsningar, och sedan föreslå en grundläggande attack som utnyttjar en ensemble intervall clasfier byggd från övervakad inlärning för att dra slutsatsen ridbanan för användaren. Eftersom det övervakade lärandet kräver att angriparen samlar in märkta träningsdata för varje stationsintervall, ställs denna attack inför skalbarhetsproblem i stora städer med ett stort tunnelbanenätverk. Vi presenterar därmed ytterligare en förbättrad attack med semi-övervakad inlärning, vilket bara kräver att angriparen samlar in märkta data för ett mycket litet antal distinkta stationsintervall. Vi utför verkliga experiment på en stor självbyggd datauppsättning, som innehåller mer än 120 timmar data som samlats in från sex tunnelbanelinjer i tre större städer. Resultaten visar att den infererande noggrannheten kan nå 89% och 94% om användaren tar tunnelbanan för fyra respektive sex stationer, respektive. Vi diskuterar slutligen möjliga motåtgärder mot den föreslagna attacken.
Accelerometer används vid REF för att dra slutsatsen om användaren tar en tunnelbana.
857,071
We Can Track You if You Take the Metro: Tracking Metro Riders Using Accelerometers on Smartphones
{'venue': 'IEEE Transactions on Information Forensics and Security', 'journal': 'IEEE Transactions on Information Forensics and Security', 'mag_field_of_study': ['Computer Science']}
13,011
De flesta konventionella mening likhetsmetoder fokuserar bara på liknande delar av två inmatning meningar, och helt enkelt ignorera de olikartade delar, som vanligtvis ger oss några ledtrådar och semantiska betydelser om meningarna. I detta arbete föreslår vi en modell som tar hänsyn till både likheter och olikheter genom att bryta ner och komponera lexisk semantik över meningar. Modellen representerar varje ord som en vektor, och beräknar en semantisk matchande vektor för varje ord baserat på alla ord i den andra meningen. Därefter sönderdelas varje ordvektor i en liknande komponent och en olik komponent baserad på den semantiska matchande vektorn. Efter detta, en tvåkanals CNN modell används för att fånga funktioner genom att komponera liknande och olikartade komponenter. Slutligen, en likhet poäng uppskattas över de sammansatta funktion vektorer. Experimentella resultat visar att vår modell får den senaste prestandan på svar mening val uppgift, och uppnår ett jämförbart resultat på parafras identifiering uppgift.
Medan i REF, inte bara liknande delar av två inmatning meningar men också olika delar beaktas genom sönderdelning och komponera lexical semantics över meningar.
1,662,415
Sentence Similarity Learning by Lexical Decomposition and Composition
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
13,012
Abstract-Diferential Privacy (DP) har fått ökad uppmärksamhet som en strikt integritetsram. Många befintliga studier använder traditionella DP-mekanismer (t.ex. Laplace-mekanismen) som primitiva, som förutsätter att uppgifterna är oberoende, eller att motståndare inte har kunskap om data korrelationer. Men kontinuerligt genererade data i den verkliga världen tenderar att tidsmässigt korreleras, och sådana korrelationer kan förvärvas av motståndare. I detta dokument undersöker vi den potentiella integritetsförlusten av en traditionell DP-mekanism under tidsmässiga korrelationer i samband med kontinuerlig datautgivning. Först modellerar vi tidsmässiga korrelationer med hjälp av Markov-modellen och analyserar integritetsläckage av en DP-mekanism när motståndare har kunskap om sådana tidsmässiga korrelationer. Vår analys visar att integritetsförlusten av en DP-mekanism kan ackumuleras och öka med tiden. Vi kallar det temporal sekretessläckage. För det andra, för att mäta sådan integritet förlust, vi utforma en effektiv algoritm för att beräkna det i polynom tid. Även om temporal integritet läckage kan öka med tiden, visar vi också att dess supremum kan existera i vissa fall. För det tredje, för att begränsa integritetsförlusten, föreslår vi mekanismer som omvandlar alla befintliga DP-mekanismer till en mot temporal integritetsläckage. Experiment med syntetisk data bekräftar att vårt tillvägagångssätt är effektivt och effektivt.
Cao m.fl. REF modellerade tidsmässiga korrelationer med hjälp av Markov-modellen och undersökte integritetsläckage för en traditionell DP-mekanism under tidsmässiga korrelationer i samband med kontinuerlig datautgivning.
10,873,776
Quantifying Differential Privacy under Temporal Correlations
{'venue': 'ICDE 2017', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Medicine']}
13,013
I bildkategoriseringen är målet att avgöra om en bild tillhör en viss kategori eller inte. En binär classifier kan läras från manuellt märkta bilder; medan använda mer märkta exempel förbättrar prestanda, att få bildetiketter är en tidskrävande process. Vi är intresserade av hur andra informationskällor kan hjälpa inlärningsprocessen med en fast mängd märkta bilder. I synnerhet överväger vi ett scenario där nyckelord förknippas med utbildningsbilder, t.ex. som finns på fotodelningswebbplatser. Målet är att lära sig en klassificerare enbart för bilder, men vi kommer att använda nyckelorden i samband med märkta och omärkta bilder för att förbättra klassifikationen med hjälp av halvövervakat lärande. Vi lär oss först en stark Multipel Kernel Learning (MKL) klassificerare med både bildinnehåll och nyckelord, och använda det för att göra poäng omärkta bilder. Vi lär oss sedan klassificerare endast på visuella funktioner, antingen stödja vektormaskiner (SVM) eller minimumsquare regression (LSR), från MKL utgångsvärden på både märkta och omärkta bilder. I våra experiment på 20 klasser från PASCAL VOC'07-setet och 38 från MIR Flickr-setet visar vi fördelarna med vårt halvövervakade tillvägagångssätt över att bara använda de märkta bilderna. Vi presenterar också resultat för ett scenario där vi inte använder någon manuell märkning utan direkt lär oss klassificeringar från bildtaggarna. Den halvövervakade metoden förbättrar också klassificeringsnoggrannheten i detta fall.
I REF användes bildtaggar i samband med märkta och omärkta bilder för att förbättra klassificeringen.
2,754,209
Multimodal semi-supervised learning for image classification
{'venue': '2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition', 'journal': '2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
13,014
I detta dokument presenteras en algoritm genom vilken en process i ett distribuerat system bestämmer ett globalt tillstånd av systemet under en beräkning. Många problem i distribuerade system kan lösas när det gäller problemet med att upptäcka globala stater. Till exempel hjälper den globala tillståndsdetekteringsalgoritmen till att lösa en viktig klass av problem: stabil egenskapsdetektering. En stabil egendom är en som består: när en stabil egendom blir sann förblir den sann därefter. Exempel på stabila egenskaper är "beräkning har upphört", "systemet är låst" och "alla polletter i en symbolisk ring har försvunnit." Det stabila detekteringsproblemet är att ta fram algoritmer för att upptäcka en given stabil egenskap. Global tillståndsdetektering kan också användas för kontroll.
Baserat på detta förhållande utvecklade Chandy REF en algoritm genom vilken en enhet kan beräkna ett globalt tillstånd i systemet.
207,193,167
Distributed snapshots: determining global states of distributed systems
{'venue': 'TOCS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,015
Detta papper introducerar en djup arkitektur för segmentering 3D objekt i sina märkta semantiska delar. Vår arkitektur kombinerar bildbaserade Fully Convolutional Networks (FCN) och ytbaserade villkorade Random Fields (CRF) för att ge sammanhängande segmenteringar av 3D-former. De bildbaserade FCN:erna används för ett effektivt vybaserat resonemang om 3D-objektdelar. Genom en särskild projektion lager, FCN utgångar är effektivt aggregerade över flera vyer och skalor, sedan projiceras på 3D-objektytor. Slutligen kombinerar en ytbaserad CRF de projicerade utgångarna med geometriska konsistenssignaler för att ge sammanhängande segmenteringar. Hela arkitekturen (multi-view FCNs och CRF) är utbildad end-to-end. Vårt tillvägagångssätt överträffar avsevärt de befintliga toppmoderna metoderna i det för närvarande största segmenteringsriktmärket (ShapeNet). Slutligen visar vi lovande segmenteringsresultat på bullriga 3D-former som förvärvats från djupkameror av konsumentkvalitet.
I REF föreslogs bildbaserade helkonvolutionsnätverk (FCN) och ytbaserade CRF för att göra märkningen av 3D-maskor genom att använda RGB-D-data som indata.
5,217,417
3D Shape Segmentation with Projective Convolutional Networks
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
13,016
Ett gemensamt mått på en virtuell miljös kvalitet eller effektivitet är den mängd närvaro som den väcker hos användarna. Närvaro definieras ofta som känslan av att vara där i en VE. Det har varit mycket debatt om det bästa sättet att mäta närvaro, och närvaro forskare behöver, och har sökt, en åtgärd som är tillförlitlig, giltig, känslig och objektiv. Vi antog att i den utsträckning som en VE verkar verklig, skulle det framkalla fysiologiska svar liknande dem som framkallas av motsvarande verkliga miljö, och att större närvaro skulle framkalla ett större svar. För att undersöka detta utförde vi tre experiment, vars resultat stöder användningen av fysiologisk reaktion som en tillförlitlig, giltig, känslig och objektiv närvaromått. Experimenten jämförde deltagarnas fysiologiska reaktioner på ett icke-hotande virtuellt rum och deras reaktioner på en stressig virtuell höjdsituation. Vi fann att förändring i hjärtfrekvensen uppfyllde våra krav på ett mått av närvaro, förändring i hudöverledning gjorde i mindre utsträckning, och att förändringen i hudtemperaturen inte gjorde det. Dessutom visade resultaten att införandet av ett passivt haptiskt element i VE avsevärt ökade närvaron och att för närvaro framkallade: 30FPS > 20FPS > 15FPS.
Fysiologiska reaktioner (hjärtfrekvens, hudledning och hudtemperatur) testades i virtuella miljöer för att hitta en korrelation med rapporterad närvaro REF.
2,935,281
Physiological measures of presence in stressful virtual environments
{'venue': "SIGGRAPH '02", 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,017
Vi beskriver en transformationsbaserad inlärningsmetod för att lära sig en sekvens av enspråkiga trädomvandlingar som förbättrar överenskommelsen mellan konstituerande träd och ordanpassningar i tvåspråkiga korpora. Med hjälp av den manuellt kommenterade engelska kinesiska översättningen Treebank, visar vi hur vår metod automatiskt upptäcker transformationer som tillgodoser skillnader i engelska och kinesiska syntax. Dessutom, när omvandlingar lärs om automatiskt genererade träd och anpassningar från samma domän som utbildningsdata för ett syntaktiskt MT-system, uppnår de omvandlade träden en 0,9 BLEU-förbättring jämfört med baslinjeträd.
REF antog en transformationsbaserad metod för att lära sig en sekvens av enspråkiga trädomvandlingar för översättning.
12,545,394
Transforming Trees to Improve Syntactic Convergence
{'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,018
OATAO är ett open access-arkiv som samlar in Toulouse-forskares arbete och gör det fritt tillgängligt via webben där det är möjligt. Detta är en skriven version publicerad på: http://oatao.univ-toulouse.fr/ Eprints ID: 12434 Energiförbrukningen har varit i fokus i många studier om trådlösa sensornätverk (WSN). Det är väl erkänt att energi är en strikt begränsad resurs i WSNs. Denna begränsning begränsar driften av sensornoder och på något sätt äventyrar den långsiktiga nätverksprestanda samt nätverksaktiviteter. Faktum är att syftet med alla tillämpningsscenarier är att få sensornoder utplacerade, obevakade, under flera månader eller år. I detta dokument presenteras problemet med livstidsmaximering i "många till en" och "mest off" trådlösa sensornätverk. I ett sådant nätverksmönster genererar och skickar alla sensornoder paket till en enda diskho via multi-hop-transmissioner. Vi märkte i våra tidigare experimentella studier att eftersom hela sensordata måste vidarebefordras till en basstation via multi-hop routing, trafikmönstret är mycket icke-uniform, lägger en stor börda på sensorn noderna nära basstationen. I detta dokument föreslår vi några strategier som balanserar energiförbrukningen i dessa noder och säkerställer maximal nätlivslängd genom att balansera trafikbelastningen så lika som möjligt. Först formaliserar vi nätverkets livstidsmaximeringsproblem och sedan får vi en optimal lastbalanseringslösning. Därefter föreslår vi en heurism för att approximera den optimala lösningen och vi jämför både optimala och heuristiska lösningar med de vanligaste strategierna såsom kortaste vägen och equiproportional routing. Vi drar slutsatsen att genom resultaten av detta arbete, kombinerar lastbalansering med överföringseffektkontroll överträffar de traditionella routingsystemen i termer av nätlivslängd maximering.
Detta beslut träder i kraft dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. REF kombinerad lastbalansering med kraftstyrning för att hitta de goda trafikförhållandena mellan noderna för att säkerställa en bästa balans mellan deras energiförbrukning.
7,916,646
Load balancing techniques for lifetime maximizing in wireless sensor networks
{'venue': 'Ad Hoc Networks', 'journal': 'Ad Hoc Networks', 'mag_field_of_study': ['Computer Science']}
13,019
I samband med ökande utsläpp av växthusgaser och globala demografiska förändringar med den samtidiga trenden mot urbanisering är det en stor utmaning för städer runt om i världen att genomföra förändringar i energiförsörjningskedjan och byggnadsegenskaper vilket resulterar i minskad energiförbrukning och minskade koldioxidutsläpp. God kunskap om efterfrågan och tillgång på energiresurser, inklusive dess rumsliga fördelning inom stadsområden, är av stor betydelse för planeringen av strategier för ökad energieffektivitet. Förståelsen av staden som ett komplext energisystem påverkar flera områden i stadslivet, t.ex. Energiförsörjning, stadsstruktur, mänsklig livsstil och klimatskydd. Med den ökande tillgängligheten av 3D-stadsmodeller runt om i världen baserat på standardspråket och formatet CityGML kan energisystemmodellering, analys och simulering integreras i dessa modeller. Båda domänerna kommer att dra nytta av denna interaktion genom att sammanföra officiella och exakta byggmodeller, inklusive bygggeometrier, semantik och platser som bildar en realistisk bild av stadsstrukturen med systembaserade energisimuleringsmodeller. En helhetssyn på effekterna av energiplaneringsscenarier kan modelleras och analyseras, inklusive biverkningar på urban struktur och mänsklig livsstil. Detta dokument fokuserar på identifiering, klassificering och integrering av energirelaterade nyckelindikatorer för byggnader och bostadsområden inom 3D-byggnadsmodeller. Följdriktig tillämpning av 3D-stadsmodeller som överensstämmer med CityGML tjänar syftet att härleda indikatorer för detta ämne. Dessa kommer att sättas in i samband med stadsplanering inom Energy Atlas Berlin. Produktion av indikatorobjekt som täcker indikatorvärdena och tillhörande bearbetningsinformation kommer att presenteras i urvalsscenariot för uppskattning av uppvärmningsenergiförbrukningen i byggnader och bostadsområden. I sin helhet kommer nyckelindikatorerna att utgöra en lämplig bild av den lokala energisituationen för beslutsfattandet. En metod för att utvidga CityGML-standarden för explicit lagring av dessa indikatorer i förhållande till det enligt staden objekt kommer att ges genom att använda begreppet CityGML Application Domain Extension (ADE). Syftet med detta tillvägagångssätt är att inleda en diskussionsprocess för specifikationen av en standardiserad datamodell utvidgning avseende energibedömning i 3D CityGML modeller, som underlättar tillämpningen av Energy Atlas beslut stödkoncept inom andra stadsmodeller som överensstämmer med denna standard.
För att exakt uppskatta energiförbrukning, Krüger och Kolbe REF härledde nyckelindikatorer för analys av byggnaders värmeenergibehov från 3D-modeller i Berlin och integrerade dem med CityGML byggmodeller för att förverkliga CityGML Energy ADE (Application Domain Extensions).
16,115,720
BUILDING ANALYSIS FOR URBAN ENERGY PLANNING USING KEY INDICATORS ON VIRTUAL 3D CITY MODELS – THE ENERGY ATLAS OF BERLIN
{'venue': None, 'journal': 'ISPRS - International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences', 'mag_field_of_study': ['Geography']}
13,020
Clustering är centralt för många datadrivna applikationsdomäner och har studerats i stor utsträckning när det gäller avståndsfunktioner och grupperingsalgoritmer. Relativt lite arbete har fokuserat på lärande representationer för kluster. I detta dokument föreslår vi Deep Embedded Clustering (DEC), en metod som samtidigt lär sig funktion representationer och klusteruppdrag med hjälp av djupa neurala nätverk. Dec lär sig en kartläggning från datarymden till ett mindre dimensionellt funktionsutrymme där det iterativt optimerar ett klustermål. Våra experimentella utvärderingar av bild och text corpora visar betydande förbättringar jämfört med toppmoderna metoder.
Deep Embedded Clustering (DEC) REF: DEC använder en flerskikts perceptron (MLP) med en klustermodul baserad på mjuka tilldelningar till en uppsättning centroider.
6,779,105
Unsupervised Deep Embedding for Clustering Analysis
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
13,021
Abstract-This tutorial paper överblickar den senaste utvecklingen av optimeringsbaserade metoder för resursfördelningsproblem i trådlösa system. Vi börjar med att överblicka viktiga resultat inom området opportunistisk (kanal-medveten) schemaläggning för cellulära (single-hop) nätverk, där lätt genomförbar myopic policys visas för att optimera systemprestanda. Därefter beskriver vi de viktigaste lärdomarna och de viktigaste hindren för att utvidga arbetet till att omfatta allmänna resursfördelningsproblem för trådlösa multihopnät. I detta syfte visar vi att en ren-slat optimeringsbaserad strategi för multihop resursallokering naturligt resulterar i en "lösligt sammankopplad" cross-layer lösning. Det vill säga de algoritmer som erhållits karta till olika lager [transport, nätverk, och medium åtkomst kontroll / fysisk (MAC / PHY)] av protokollet stacken, och kopplas genom en begränsad mängd information som överförs fram och tillbaka. Det visar sig att den optimala schemaläggningskomponenten vid MAC-lagret är mycket komplex och därför behöver enklare (potentiellt ofullständiga) distribuerade lösningar. Vi visar hur man använder ofullständig schemaläggning i cross-layer-ramverket och beskriver nyligen utvecklade distribuerade algoritmer längs dessa linjer. Vi avslutar med att beskriva en uppsättning öppna forskningsproblem.
Resurstilldelningsproblem har varit välstuderade i samband med cross-layer optimering i nätverk REF.
11,687,089
A tutorial on cross-layer optimization in wireless networks
{'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science']}
13,022
Ansiktet landmärke upptäckt syftar till att lokalisera anatomiskt definierade punkter av mänskliga ansikten. I den här artikeln studerar vi ansiktsfyndighet från delvis märkta ansiktsbilder. Ett typiskt tillvägagångssätt är att (1) utbilda en detektor på de märkta bilderna; (2) generera nya träningsprover med hjälp av denna detektors förutsägelse som pseudoetiketter för omärkta bilder; (3) omskola detektorn på de märkta proven och partiella pseudomärkta prov. På så sätt kan detektorn lära sig av både märkta och omärkta data för att bli robust. I detta dokument föreslår vi en interaktionsmekanism mellan en lärare och två studenter för att generera mer tillförlitliga pseudoetiketter för omärkta data, som är till nytta för halvövervakade ansiktsfyndigheter. Specifikt är de två eleverna ögonblickliga som dubbla detektorer. Läraren lär sig att bedöma kvaliteten på de pseudoetiketter som genereras av studenterna och filtrera bort okvalificerade prov före omskolningsfasen. På så sätt får studentdetektorerna feedback från sin lärare och omskolas av premiumdata som genereras av sig själv. Eftersom de två studenterna utbildas av olika prover, kommer en kombination av deras förutsägelser att vara mer robust som den slutliga förutsägelsen jämfört med endera förutsägelsen. Omfattande experiment på 300-W och AFLW-riktmärken visar att interaktionen mellan lärare och studenter bidrar till bättre utnyttjande av omärkta data och uppnår toppmodern prestanda.
Dong och Yang REF tillämpade en interaktionsmekanism mellan en lärare och studenter på en självutbildningsram, där läraren lär sig att uppskatta kvaliteten på de pseudo-märkningar som genereras av studenter.
199,453,129
Teacher Supervises Students How to Learn From Partially Labeled Images for Facial Landmark Detection
{'venue': '2019 IEEE/CVF International Conference on Computer Vision (ICCV)', 'journal': '2019 IEEE/CVF International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
13,023
Framsteg inom genomträngande teknik har gjort det möjligt att överväga storskaliga tillämpningstyper som potentiellt spänner över heterogena organisationer, tekniker och utrustningstyper. Denna typ av tillämpning kommer att ha en flerskiktsarkitektur, där varje skikt sannolikt kommer att använda språk och teknik som är lämplig för dess egna intressen. Ett exempel är ett geografiskt storskaligt krishanteringssystem. Vanligtvis, sådana applikationer är skyldiga att dynamiskt anpassa sitt beteende baserat på nuvarande omständigheter, med anpassningar som potentiellt påverkar alla skikt av programmet. De komplexiteter som är förknippade med dynamisk anpassning av flerskiktstillämpningar kommer i hög grad att gynnas av formella metoder för specifikationen. I denna artikel presenteras en ny metod för flexibel, multilayer applikationsanpassning, med lagerspecifika anpassningslösningar mallar bundna till program missmatchningar som är organiserade i hierarkiska taxonomier. Mallar kan länkas antingen genom direkta anrop eller genom anpassningsevenemang som stöder flexibel anpassning över lager. Metoden illustrerar användningen av olika formalismer för olika delar av specifikationen. I synnerhet kombinerar vi semiformell metamodeling teknik för systemmodell specifikation med formella Petri nät, som används för att fånga mall matchmaking med hjälp av nåbarhetsanalys. Detta arbete visar hur befintliga formalismer kan användas för specifikationen av en generisk anpassningsmodell för genomträngande tillämpningar. Allmänna villkor: Algoritmer Ytterligare nyckelord och fraser: Cross-layer anpassning, multilayer applikationer, taxonomier av program missmatchningar, anpassningsmallar, matchmaking, context-aware system, Petri nät ACM Referensformat: Popescu, R., Staikopoulos, A., Brogi, A., Liu, P., och Clarke, S. 2012. En formaliserad, taxonomidriven metod för anpassning mellan skikt.
En metod för dynamisk och flexibel anpassning av flerskiktstillämpningar föreslås i REF.
579,841
A formalized, taxonomy-driven approach to cross-layer application adaptation
{'venue': 'TAAS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,024
Balansera en ständigt växande strategisk spel av hög komplexitet, såsom Hearthstone är en komplex uppgift. Målet att göra strategier olika och anpassningsbara resultat i ett känsligt invecklat system. Tuning över 2000 kort för att generera önskat resultat utan att störa den befintliga miljön blir en mödosam utmaning. I det här dokumentet diskuterar vi vilka effekter ändringar av befintliga kort kan ha på strategin i Hearthstone. Genom att analysera vinsthastigheten på match-ups över olika däck, spelas av olika strategier, föreslår vi att jämföra deras prestanda före och efter ändringar görs för att förbättra eller förvärra olika kort. Sedan, med hjälp av en evolutional algoritm, söker vi efter en kombination av ändringar av kortattribut som får däcken att närma sig lika, 50% vinstsatser. Vi utökar sedan vår evolutionära algoritm till en multi-objektiv lösning för att söka efter detta resultat, samtidigt som den minsta mängden ändringar, och som en följd av detta avbrott, till de befintliga korten. Slutligen föreslår och utvärderar vi mätvärden för att fungera som heuristik för att bestämma vilka kort som ska användas för att rikta in sig på balansförändringar.
I REF används utvecklingen för att föreslå ändringar av korten som kommer att resultera i bättre balans.
195,791,483
Evolving the Hearthstone Meta
{'venue': '2019 IEEE Conference on Games (CoG)', 'journal': '2019 IEEE Conference on Games (CoG)', 'mag_field_of_study': ['Computer Science']}
13,025
Vi studerar i vilken process sökmotorer med segmenterade index tjänar frågor. I synnerhet undersöker vi antalet resultatsidor som sökmotorer ska förbereda under frågebehandlingsfasen. Sökmotor användare har observerats att bläddra igenom mycket få sidor av resultat för frågor som de skickar in. Detta beteende av användare tyder på att prefetching många resultat vid behandling av en inledande fråga är inte effektivt, eftersom de flesta av de prefetchade resultaten inte kommer att begäras av den användare som initierade sökningen. Men en politik som överger resultat prefetching till förmån för att hämta bara första sidan av sökresultat kanske inte heller göra optimal användning av systemresurser. Vi hävdar att för en viss beteende användare, motorer bör prefetch ett konstant antal resultat sidor per fråga. Vi definierar en konkret frågebehandlingsmodell för sökmotorer med segmenterade index, och analyserar kostnaden för sådana prefetching policys. Baserat på dessa kostnader visar vi hur man bestämmer den konstant som optimerar förhämtningspolitiken. Våra resultat är oftast tillämpliga på lokala indexpartitioner av de inverterade filerna, men är också tillämpliga på behandling av korta frågor i globala indexarkitekturer.
Arbetet i REF fokuserar på förhämtning sidor av frågeresultat av sökmotorer.
3,849,010
Optimizing result prefetching in web search engines with segmented indices
{'venue': 'TOIT', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,026
Hur man skapar multi-vy bilder med realistiska utseende från endast en vy input är ett utmanande problem. I detta dokument angriper vi detta problem genom att föreslå en ny bildgenereringsmodell som kallas VariGANs, som kombinerar fördelarna med den variationsbaserade inferensen och Generative Adversarial Networks (GANs). Det genererar målbilden på ett grovt till fint sätt i stället för ett enda pass som lider av allvarliga artefakter. Den utför först variabla slutsatser för att modellera det globala utseendet på objektet (t.ex. form och färg) och producerar grova bilder av olika vyer. Konditionerad på de genererade grova bilder, utför den sedan motsatt inlärning för att fylla i detaljer som överensstämmer med inmatningen och generera de fina bilderna. Omfattande experiment utförda på två kläddataset, MVC och DeepFashion, har visat att de genererade bilderna med de föreslagna Varigans är mer rimliga än de som genereras av befintliga metoder, vilket ger mer konsekvent globalt utseende samt rikare och skarpare detaljer.
REF lär sig att generera flera vyer av en klädd människa från endast en vy indata genom att kombinera variationsinferens och GAN.
3,570,089
Multi-View Image Generation from a Single-View
{'venue': "MM '18", 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,027
Peer-to-peer (P2P) lokalitet har nyligen väckt en hel del intresse i samhället. Även om P2P-innehållsdistribution möjliggör ekonomiska besparingar för innehållsleverantörerna ökar den dramatiskt trafiken på inter-ISP-länkar. För att lösa detta problem infördes idén att hålla en bråkdel av P2P-trafiken lokal för varje ISP för några år sedan. Sedan dess har P2P-lösningar som utnyttjar orten införts. Flera grundläggande frågor om orten behöver dock fortfarande undersökas. I synnerhet, hur långt kan vi driva på lokaliteten, och vad är, på Internets omfattning, den minskning av trafiken som kan uppnås med lokaliteten? I denna uppsats utför vi omfattande experiment på en kontrollerad miljö med upp till 10 000 BitTorrent klienter för att utvärdera effekterna av hög lokalitet på inter-ISP länkar trafik och kamrater ladda ner slutförande tid. Vi introducerar två enkla mekanismer som gör hög lokalitet möjlig i utmanande scenarier och vi visar att vi sparar upp till flera storleksordningar inter-ISP trafik jämfört med traditionell lokalitet utan att negativt påverka kamrater ladda ner slutförande tid. Dessutom kröp vi 214 443 strömmar som representerar 6 113 224 unika kamrater spridda bland 9 605 AS. Vi visar att även om de torrents vi kröp fram genererade 11,6 petabyte av inter-ISP trafik, vår lokalitet politik som genomförts för alla torrents kunde ha minskat den globala inter-ISP trafiken med upp till 40%.
Le Blond m.fl. Ref har nyligen utvärderat P2P-lokalitetens inverkan på inter-ISP trafikvolym och peer download-tid, med hjälp av omfattande experiment på en kontrollerad miljö med 10 000 BitTorrent-kollegor.
6,306,617
Pushing BitTorrent Locality to the Limit
{'venue': 'Computer Networks (2010)', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,028
E d it o r : M u n i n a r P. S i ng h • s i ng h@ nc su.e du S h e ng r u Tu • s han ngr u@c s.uno.e du n a peer-to-peer (P2P) nätverk, förväntas kamrater bidra till systemet genom att dela sina resurser i utbyte mot att använda nätverket och andra kamraters resurser. I många P2P-nätverk är dock en stor del av kamraterna ovilliga att dela resurser. P2P-nätverkens primära förväntningar -peers implicita eller explicita funktionella samarbete och resursbidrag - kan misslyckas, vilket leder till en situation som kallas free riding. I ett P2P-sammanhang är en friåkare en kamrat som använder P2P-nätverkstjänster men inte bidrar till nätverket eller andra kamrater på en acceptabel nivå. Eytan Adar och Bernardo A. Huberman genomförde den första studien specifikt för att ta itu med free-riding problemet. 1 Författarna rapporterade att 70 procent av kamraterna inte delade några filer alls, och 25 procent gav 99 procent av alla frågeträffar i nätverket. Sedan dess har många studier verifierat att det finns höga nivåer av friåkning i P2P-nätverk. Som dessa verk visar, för vissa typer av P2P-nätverk (såsom fildelning), några altruistiska kamrater kan tillhandahålla de begärda tjänsterna och kan hjälpa systemet att överleva. Alla P2P-nätverk (t.ex. streaming- och lagringsdelningsnät för multimedia) kommer dock inte att ha tillräckligt med frivilliga eller altruistiska kamrater för att uppnå önskad servicenivå. Så, eliminera eller minska gratis ridning effekt har blivit ett ämne för betydande forskning. Här undersöker vi problemet med friåkning i P2P-nätverk och utvecklar olika föreslagna lösningar. Free riding effekt och effektiviteten av en lösning på det beror på P2P nätet i fråga, så vi bör först undersöka olika typer av nätverk som finns. Vi kan klassificera sådana nätverk enligt många kriterier. En möjlig klassificering är baserad på två nätverksfunktioner: graden av centralisering och graden av struktur. Det förstnämnda avgör i vilken utsträckning ett P2P-nätverk förlitar sig på servrar för att underlätta interaktioner mellan deltagare, medan det senare avser det sätt på vilket innehållet indexeras och placeras i nätverket. Med hjälp av dessa två kriterier kan vi klassificera P2P-nätverk i tre typer: centraliserad, decentraliserad men strukturerad (hybrid) och decentraliserad och ostrukturerad (ren). Centraliserade P2P-nätverk upprätthåller en central katalog som ständigt uppdateras; kamrater använder den här katalogen för att lokalisera resurser (som med Napster). Hybrid P2P-nätverk har inte en central katalog men är strukturerade - det vill säga hybrid P2P-nätverk kontrollerar stadigt P2P-topologin och placerar systematiskt filindex i jämlikar, efter en viss algoritm (som med Chord, ContentAdressable Network, eller Pastry). På så sätt kan nätverket effektivt lösa frågor. Ren P2P-nätverk har ingen centraliserad katalog, och dessa nätverk har liten kontroll över nätverket topologi (som med Gnutella eller KaZaa). En annan möjlig klassificering gäller vilken typ av tjänster som ett P2P-nät tillhandahåller. Fildelning är den mest utbredda P2P-tjänsten och låter kamrater söka och ladda ner filer från oth- Free ridning i peer-to-peer-nätverk (P2P) utgör ett allvarligt hot mot deras korrekta drift. Här presenterar författarna en mängd olika metoder som utvecklats för att övervinna detta problem. De introducerar flera unika aspekter av P2P-nätverk och diskuterar gratis ridning effekter på P2P-tjänster. De kategoriserar föreslagna lösningar och beskriver varje kategoris viktiga egenskaper och genomförandefrågor tillsammans med några urvalslösningar. De diskuterar också öppna frågor, inklusive gemensamma attacker och säkerhetshänsyn. Gratis Ridning i Peer-to-Peer Networks er kamrater anslutna till nätverket (som med Napster, Gnutella, Publius, Free Haven, eller BitTorrent). Distribuerad dator, å andra sidan, låter kamrater aggregera sin datorkraft för att lösa ett stort och beräkningsintensivt problem. SETI@ home, Avaki och Entropia är välkända exempel i denna kategori. P2P-lagringstjänster tillhandahåller virtuellt stabil lagring via redundans och syftar till att tillåta deltagare att kontinuerligt komma åt filer samtidigt som upphovsmannens anonymitet bevaras; OceanStore, PAST (ett globalt, ihållande lagringsverktyg) och FreeNet är exempel på sådana system. Samarbetande P2P-tillämpningar möjliggör samarbete på applikationsnivå mellan jämlikar. Dessa program (som NetMeeting, Magi, Groove, Jabber och DOOM) inkluderar snabbmeddelanden, chattar och onlinespel. P2P-plattformar (till exempel JXTA) stöder gemensamma P2P-tjänster, såsom namngivning, upptäckt, kommunikation, säkerhet och resursaggregation. Slutligen, P2P multimedia streaming tjänster (till exempel PPLive, UUSee, Peercast, och Freecast) låta kamrater strömma och multicast eller sända ljud och video till varandra. Free ridning kan negativt påverka ett P2P-nätverks drift. I en friåkningsmiljö tjänar ett litet antal kamrater en stor befolkning, vilket kan leda till skalbarhet och problem med enstaka fel. Fria ryttare och deras frågor genererar betydande nätverkstrafik, vilket kan leda till servicenedbrytning. Dessutom har friåkare en betydande underliggande tillgänglig nätkapacitet och tillgängliga resurser, vilket leder till förseningar och trafikstockningar för icke-P2P-trafik. Hur allvarliga effekter free ridning är på ett P2P-nätverk beror på många faktorer, inklusive nätverkstypen och dess krav. I ett fildelningsnätverk, till exempel, om de flesta kolleger föredrar att inte dela, kan förnyelse eller presentation av intressant innehåll minska med tiden, vilket innebär att antalet delade filer kan bli begränsat eller bara öka långsamt. Sökprocessens kvalitet kan försämras på grund av ett ökande antal fria ryttare i sökhorisonten. Med tiden kan ärliga kamrater som har bidragit med många filer till nätverket börja hitta färre och färre värdefulla filer själva och lämna systemet helt och hållet, ta sina filer med sig. I en P2P CPU-delning rutnät (ett distribuerat datorsystem), kan free ridning enkelt minska systemets nytta eller till och med göra systemet kollaps på grund av otillräckliga CPU-resurser. På samma sätt, i media-streaming system, får kamrater nytta inte bara från filtillgänglighet utan också från högkvalitativa filströmmar. 2 Även om ett konventionellt fildelningssystem kan fortsätta även med samarbete på låg nivå, kan ett P2P-streamingsystem inte erbjuda hög streamingkvalitet till sina användare om bara ett relativt fåtal användare samarbetar. Även om nätverket inte är hårt överbelastat, om samarbetet är lågt, streaming kvalitet kommer att vara dålig. 2 På samma sätt, program som utvecklats för att köra över P2P-plattformar eller tjänster som samarbetsnätverk erbjuder misslyckas att utföra korrekt om nätverket inte uppnår den nödvändiga samarbetsnivån. Strukturerade P2P-nätverk kan vara mer sårbara för vissa typer av friåkning än ostrukturerade. I ett strukturerat P2P-nätverk som använder CAN-protokollet, till exempel, måste kamrater lagra nyckelvärden par för nycklar som faller in i deras zon. Inom ramen för CAN kan kamrater fritt rida genom att inte lagra nyckelvärden par i sina zoner och genom att ignorera inkommande frågor. Om de flesta kamrater gör detta, KAN inte lösa de flesta frågor, och nätverket kan lätt falla sönder. I slutändan, free ridning effekter kan variera från helt enkelt irriterande användare att krascha hela systemet. Så, P2P systemutvecklare bör forma lösningar för att hantera gratis ridning enligt den förväntade effekten det kommer att ha. Även om samarbete är nyckeln till många P2P-nätverks existens och framgång, är det svårt att inse att det är svårt utan effektiva mekanismer. För att uppfylla detta krav har forskare föreslagit flera metoder för att göra P2P-nätverk "bidrags-aware" och därmed bekämpa friridning. Vi kan kategorisera dessa tillvägagångssätt i tre huvudgrupper: monetära, ömsesidighets- och ryktesbaserade tillvägagångssätt. Penningbaserade metoder tar ut avgifter för de tjänster de får. Eftersom dessa tjänster fortfarande är mycket billiga kallas sådana metoder också mikrobetalningsbaserade lösningar. Alla monetära system kräver två nyckelmekanismer: en redovisningsmodul för att säkert lagra varje deltagares virtuella valuta och en avvecklingsmodul för att rättvist växla virtuell valuta för tjänster. De flesta monetära system implementerar dessa komponenter genom att centralisera sina funktioner inom en enda myndighet, som hanterar varje deltagares saldo och transaktioner genom att spåra konton och distribuera och inkassera virtuell valuta. De flesta av de föreslagna lösningarna är beroende av en offentlig infrastruktur (PKI) för att ge säkerhet mot bedrägerier och fel. Vi diskuterar säkerhetsfrågor mer i ett senare avsnitt. När monetära lösningar endast handlar om små betalningar behöver alla inbyggda säkerhetsmekanismer bara vara lätta. 3 De flesta monetära lösningar garanterar dock inte ett helt rättvist utbyte av varor och betalning, 3 eftersom snäva säkerhetstjänster kan göra transaktioner dyrare (i form av komplexitet, beräkning och kommunikation) än de utbytta varornas värde. Således har effektiva monetära strategier flera genomförandebegränsningar när de tillämpas på P2P-nätverk. Centralisering och kommunikation över huvudet. Alla föreslagna lösningar kräver någon centraliserad myndighet för att övervaka varje deltagares balans och transaktioner. Detta kan, som nämnts, orsaka skalbarhet och problem med en enda felpunkt. Dessutom, sprida virtuella valutor, hantera transaktioner, och tillämpa revisionsmekanismer öka kommunikation overhead i nätverket. För att lagra motpartsbalanser och hantera transaktioner kräver monetära metoder bestående användaridentifieringar. Att tillhandahålla sådana identifierare kompliceras dock av peers anonymitet, bred spridning och lätthet till identitetsmodifiering i de flesta ostrukturerade och decentraliserade P2P-nätverk. Vi diskuterar denna fråga mer i ett senare avsnitt. Användare ogillar mikrobetalningar främst eftersom de måste besluta innan varje tjänst begär om tjänsten är värd några cent, vilket leder till förvirring och mentala beslutskostnader. Monetära lösningar innebär alltså att användarna anstränger sig mentalt i utbyte mot billiga resurser. I ömsesidighetsbaserade tillvägagångssätt övervakar en kamrat andra kamraters beteenden och utvärderar deras bidragsnivåer. Vi kan definiera en deltagares bidragsnivå som en numerisk bedömning av den deltagarens bidrag till P2P-nätverket eller till den utvärderande deltagaren. Dessa tillvägagångssätt inbegriper vanligtvis ömsesidiga åtgärder: den tjänstekvalitet som en kamrat erhåller bestäms av den andra partens bidragsnivå. Reciprocity-baserade metoder mäter vanligtvis andra kamraters bidrag endast för den aktuella sessionen. Dessa tillvägagångssätt upprätthåller ingen långsiktig historia om kamrater, som låter en kamrat som bedöms som en fri ryttare i en session bedömas som en bidragsgivare i nästa, förutsatt att kamraten har ändrat sitt beteende. Dessa tillvägagångssätt låter också systemet bevara peer anonymity eftersom användning av ihållande identifierare är inte obligatoriskt. Ömsesidighetsbaserade tillvägagångssätt kan baseras på ömsesidig ömsesidighet eller indirekt ömsesidighet. Med ömsesidig ömsesidighet bestämmer en kamrat hur man skall tjäna en annan kamrat enbart på grundval av det direkta tjänsteutbyte som den hade med denne kamrat. Med indirekt ömsesidighet beror detta beslut däremot på nivån på de tjänster som en kollega tillhandahåller hela nätet. Vissa befintliga P2P-program, såsom BitTorrent, implementerar det ömsesidiga ömsesidighetsbaserade tillvägagångssättet genom att justera en kamrats nedladdningshastighet enligt dess uppladdningshastighet (kräver nedladdning och uppladdning av jämlikar för att byta filfragment). Andra exempel på ömsesidiga ömsesidighetsbaserade tillvägagångssätt är FairNET, 5 P2P Connection Management Protocol, 6 och eMule (www. emule-project.net), som använder ett korskreditsystem. När peer A laddar upp en fil till peer B får peer A en kredit från peer B, som sedan kommer att privilegie peer A ifall den vill ladda ner en fil från peer B i framtiden. Indirekta ömsesidighetsbaserade strategier tar hänsyn till deltagarnas totala bidrag till nätverket när de differentierar tillhandahållandet av tjänster. Till exempel föreslår vi en distribuerad övervakning och straffsystem någon annanstans 7 där varje kamrat övervakar sina grannars bidrag till nätverket. Beroende på bidragsnivån tillämpar kamraten en åtgärd på varje granne. GNUnet hör också till denna kategori: i GNUnet (http:// gnunet.org) övervakar kamrater varandras beteende när det gäller resursanvändning. Personer som bidrar till nätverket får bättre service. Ömsesidighetsbaserade strategier står inför flera genomförandefrågor. Falska tjänster. För att få högre bidragsnivåer kan kamrater publicera falska tjänster. Trovärdighet på bidragsnivå. Vissa föreslagna ömsesidighetsbaserade metoder är beroende av korrekt information om kamrater, men kamraterna själva tillhandahåller denna information. En skadlig användare kan fuska ett P2P-nätverk som beror på ett sådant tillvägagångssätt genom att hacka klientprogrammet. Personuppgiftshantering. Peers Free Riding i Peer-to-Peer Networks är kopplade till deras värderingar genom deras identiteter. Men om nykomlingar tilldelas ett högre standardnyttovärde än friåkare, kan en friåkare försöka bli av med sitt nedbrutna värde genom att ständigt få en ny identitet. Reputation-baserade metoder konstruera och upprätthålla rykte information om kamrater, och kamrater med gott rykte erbjuds bättre tjänster. Dessa metoder kan bygga rykte information om en kamrat på grundval av feedback från kamrater som har interagerat med denna kamrat. Sådan feedback kan vara positiv, negativ eller både och. Systemet använder feedback för att bygga upp ett gott rykte för bidragande kamrater och ett dåligt rykte för friåkare. En kamrats rykte information motsvarar dess långsiktiga beteende, så ryktesbaserade närmar sig lagra och hantera långsiktiga kamrater historia. Detta innebär att det inte är lätt att konvertera ett dåligt rykte till en bra eller vice versa. Vi kan kategorisera ryktesbaserade metoder i två huvudgrupper: autonoma ryktesstrategier och globala ryktesstrategier. I ett autonomt rykte, håller kamrater rykte information om andra kamrater som de har interagerat med. Dessa lokala ryktesvärden sprids inte eller slås samman för att skapa en global ryktesdatabas. Följaktligen är sådana metoder relativt enkla att genomföra eftersom de inte kräver en säkerhetsinfrastruktur eller centraliserad lagring för att skydda det lokala ryktets integritet. XRep är ett exempel på ett autonomt ryktessystem.
I Ref fokuserade författarna främst på att lokalisera friryttare och vidta åtgärder mot dem.
6,499,373
Free Riding in Peer-to-Peer Networks
{'venue': 'IEEE Internet Computing', 'journal': 'IEEE Internet Computing', 'mag_field_of_study': ['Computer Science']}
13,029
Motivering: Många problem i dataintegrationen i bioinformatik kan ställas som en vanlig fråga: Skapas två uppsättningar observationer av samma distribution? Vi föreslår ett kärnbaserat statistiskt test för detta problem, baserat på det faktum att två distributioner är olika om och endast om det finns minst en funktion som har olika förväntningar på de två distributionerna. Följaktligen använder vi den maximala avvikelsen mellan funktionsmedel som grund för en teststatistik. Maximum Mean Discrepancy (MMD) kan dra nytta av kärnan trick, vilket gör att vi kan tillämpa det inte bara på vektorer, men strängar, sekvenser, grafer och andra vanliga strukturerade datatyper som uppstår i molekylärbiologi. Resultat: Vi studerar den praktiska genomförbarheten av ett MMD-baserat test på tre centrala dataintegrationsuppgifter: Test av plattformsoberoende jämförbarhet av mikroarraydata, cancerdiagnos och datainnehållsbaserad schemamatchning för två olika proteinfunktionsklassificeringsscheman. I alla dessa experiment, inklusive högdimensionella sådana, är MMD mycket korrekt i att hitta prover som genererades från samma distribution, och överträffar sina bästa konkurrenter. Slutsatser: Vi har definierat ett nytt statistiskt test av om två prover kommer från samma distribution, kompatibel med både multivariata och strukturerade data, som är snabb, lätt att implementera och fungerar bra, vilket bekräftas av våra experiment.
Det föreslagna HCMD-kriteriet är relaterat till den maximala genomsnittliga avvikelsen (MMD) REF-metoden.
13,341,746
Integrating structured biological data by kernel maximum mean discrepancy
{'venue': 'IN ISMB', 'journal': None, 'mag_field_of_study': ['Medicine', 'Computer Science']}
13,030
Innehållsbaserad åtkomstkontroll av videodatabaser blir mycket viktig, men det beror på framstegen i följande relaterade forskningsfrågor: a) effektiv videoanalys för att stödja semantisk visuell konceptrepresentation, b) effektiv indexeringsstruktur för videodatabaser, c) utveckling av lämpliga videodatabasmodeller och d) utveckling av åtkomstkontrollmodeller som är anpassade till videodatas egenskaper. I detta dokument föreslår vi ett nytt tillvägagångssätt för att stödja tillträdeskontroll på flera nivåer i videodatabaser. Vår åtkomstkontrollteknik kombinerar en videodatabas indexeringsmekanism med en hierarkisk organisation av visuella koncept (dvs. videodatabas indexeringsenheter), så att olika klasser av användare kan få tillgång till olika videoelement eller till och med samma videoelement med olika kvalitetsnivåer enligt deras behörigheter. Dessa videoelement, som i vår åtkomstkontrollmekanism används för att ange behörighetsobjekten, kan vara ett semantiskt kluster, en subkluster, en videoscen, en videobild, en videoram eller till och med ett framträdande objekt (dvs. ett intresseområde). I tidningen introducerar vi först våra tekniker för att erhålla dessa flernivåbehörighet att göra digital / hård kopia av en del av eller alla detta verk för personligt eller klassrum användning beviljas utan avgift, förutsatt att kopiorna inte görs eller distribueras för vinst eller kommersiell fördel, upphovsrättsmeddelandet, titeln på publikationen, och dess datum visas, och meddelande ges att kopiering är med tillstånd av ACM, Inc. Att kopiera annars, att publicera, att posta på servrar, eller att omfördela till listor kräver tidigare specifik behörighet och / eller en avgift. • Bertino m.fl. Videoåtkomstenheter. Vi föreslår också en hierarkisk videodatabas indexeringsteknik för att stödja vår flernivå video access control mekanism. Sedan presenterar vi en innovativ passerkontrollmodell som kan stödja flexibel åtkomstkontroll på flera nivåer till videoelement. Dessutom diskuteras tillämpningen av vår flernivå video databas modellering, representation och indexering för MPEG-7.
Bertino et al Ref föreslår en modell för åtkomstkontroll för videodatabassystem.
147,992
A hierarchical access control model for video database systems
{'venue': 'TOIS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,031
ABSTRACT Att automatiskt identifiera proteinnamn från den vetenskapliga litteraturen är en förutsättning för den ökande efterfrågan på data-mining denna rikedom av information. Befintliga metoder bygger på ordböcker, regler och maskininlärning. Här introducerade vi ett nytt system som kombinerar ett förbearbetnings-lexikon- och regelbaserat filtreringssteg med flera separat utbildade vektormaskiner (SVM) för att identifiera proteinnamn i MEDLINE abstracts. Resultat: Vårt nya taggningssystem NLProt kan extrahera proteinnamn med en precision (noggrannhet) på 75% vid en recall (täckning) på 76% efter träning på en corpus, som användes tidigare av andra grupper och innehåller 200 kommenterade abstracts. För vår uppskattning av ihållande prestanda betraktade vi delvis identifierade namn som falska positiva. En viktig fråga som ofta ignoreras i litteraturen är redundansen i utvärderingsset. Vi föreslog vissa riktlinjer för att undanröja alltför bristfälliga överlappningar mellan utbildnings- och testuppsättningar. Tillämpningen av dessa nya riktlinjer, vårt program verkade betydligt överträffa andra metoder taggning protein namn. NLProt var så framgångsrik på grund av SVM-byggstenarna som lyckades utnyttja den lokala kontexten av proteinnamn i den vetenskapliga litteraturen. Vi utmanar att vårt system kan utgöra den mest allmänna och exakta metoden för att märka proteinnamn.
NLProt REF, ett system som kombinerar ett förbearbetningslexikon och regelbaserat filtreringssteg med flera separat utbildade vektormaskiner för att identifiera proteinnamn i MEDLINE abstracts, uppnådde F = 75% på YAPEX dataset.
9,070,417
Protein names precisely peeled off free text
{'venue': 'Bioinformatics', 'journal': 'Bioinformatics', 'mag_field_of_study': ['Computer Science', 'Medicine']}
13,032
Abstrakt. Vi föreslår en ny metod för praktisk tvåpartiberäkning som är säker mot en aktiv motståndare. Alla tidigare praktiska protokoll baserades på Yaos förvrängda kretsar. Vi använder en OT-baserad metod och får effektivitet via OT-tillägg i den slumpmässiga orakelmodellen. För att få ett praktiskt protokoll introducerar vi ett antal nya tekniker för att relatera outputs och ingångar av GTs i en större konstruktion. Vi rapporterar också om ett genomförande av denna strategi, som visar att vårt protokoll är effektivare än någon tidigare: För tillräckligt stora kretsar kan vi utvärdera mer än 20000 booleska grindar per sekund. Som ett exempel, att utvärdera en oöverträffad AES-kryptering (-34000 grindar) tar 64 sekunder, men när du upprepar uppgiften 27 gånger tar det bara mindre än 3 sekunder per instans.
Nielsen m.fl. I REF föreslogs ett alternativt tillvägagångssätt för att uppnå en aktivt säker OT-förlängning i den slumpmässiga orakelmodellen.
1,366,308
A New Approach to Practical Active-Secure Two-Party Computation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
13,033
För att styra och bygga ett effektivt, säkert mobilt ekosystem måste vi först förstå användarnas attityder till säkerhet och integritet för smartphones och hur de kan skilja sig från attityder till mer traditionella datorsystem. Vilka är användarnas komfortnivåer i att utföra olika uppgifter? Hur väljer användare program? Vilka är deras övergripande uppfattningar om plattformen? Denna förståelse kommer att bidra till att informera utformningen av säkrare smartphones som gör det möjligt för användare att säkert och säkert dra nytta av den potential och bekvämlighet som erbjuds av mobila plattformar. För att få insikt i användaruppfattningar om smartphones säkerhet och installationsvanor genomför vi en användarstudie med 60 smartphone-användare. Först intervjuar vi användare om deras vilja att utföra vissa uppgifter på sina smartphones för att testa hypotesen att människor för närvarande undviker att använda sina telefoner på grund av integritet och säkerhet. För det andra analyserar vi varför och hur de väljer program, vilket ger information om hur användarna väljer att lita på program. Baserat på våra resultat presenterar vi rekommendationer och möjligheter för tjänster som hjälper användare att tryggt och säkert använda mobila applikationer och plattformar.
Chin m.fl. REF studerade användarnas förtroende för smartphones säkerhet och integritet.
11,383,293
Measuring user confidence in smartphone security and privacy
{'venue': 'In Proceedings of the 8th Symposium On Usable Privacy and Security (SOUPS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,034