src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
Exakt lungknuta segmentering från datortomografi (CT) bilder är av stor betydelse för bilddriven lungcancer analys. Emellertid heterogeniteten hos lungknutor och närvaron av liknande visuella egenskaper mellan knutor och deras omgivning gör det svårt för robust knutor segmentering. I denna studie föreslår vi en datadriven modell, kallad Central Focused Convolutional Neural Networks (CF-CNN), för att segmentera lungknutor från heterogena CT-bilder. Vår strategi kombinerar två nyckelinsikter: 1) den föreslagna modellen fångar en mängd olika uppsättning nodulekänsliga funktioner från både 3-D och 2-D CT bilder samtidigt; 2) när klassificera en bild voxel, effekterna av sin granne voxels kan variera beroende på deras rumsliga platser. Vi beskriver detta fenomen genom att föreslå en ny central pooling lager behålla mycket information om voxel patch center, följt av en flerskalig patch lärande strategi. Dessutom utformar vi en viktad provtagning för att underlätta modellträningen, där träningsprover väljs ut beroende på graden av segmenteringssvårigheter. Den föreslagna metoden har i stor utsträckning utvärderats på det offentliga LIDC-datasetet med 893 knutor och ett oberoende dataset med 74 knutor från Guangdong General Hospital (GDGH). Vi visade att CF-CNN uppnådde överlägsen segmenteringsprestanda med genomsnittliga tärningspoäng på 82,15 % respektive 82,02 % för de två datauppsättningarna. Dessutom jämförde vi våra resultat med den interradiologiska konsekvensen på LIDC-datauppsättningen, vilket visar en skillnad i genomsnittlig tärningspoäng på endast 1,98 %.
Wang m.fl. föreslås en halvautomatisk central fokuserad konvolutional neurala nätverk REF för voxels klassificering, dock är modellen inte idealisk för små knutor.
24,646,474
Central focused convolutional neural networks: Developing a data‐driven model for lung nodule segmentation
{'venue': None, 'journal': 'Medical Image Analysis', 'mag_field_of_study': ['Mathematics', 'Medicine', 'Computer Science']}
3,163
Abstract-Multimedia streaming applikationer har stränga Quality-of-Service (QoS) krav. Vanligtvis är varje paket förknippat med en paketleverans deadline. Detta arbete modellerar och överväger strömmande sändning av lagrade video över nedlänken av en enda cell. Vi generaliserar först den befintliga klassen av system för nätkodning (IDNC) för att ta hänsyn till tidsgränserna. Prestandaanalysen av IDNC-system kompliceras avsevärt av pakettidsbegränsningarna (från applikationsskiktet) och kravet på omedelbar nedtrappning (från nätskiktet). Trots denna svårighet, visar vi att för oberoende kanaler, IDNC system är asymptotiskt genomput-optimal med deadline begränsningar när det inte finns mer än tre användare och när videofilens storlek är tillräckligt stor. Den deadline-conscrived throughput-vinsten för IDNC-system i förhållande till icke-kodningssystem kvantifieras också explicit. Numeriska resultat visar att IDNC-system strikt överträffar det icke-kodande systemet inte bara i den asymmetriska regimen av stora filer utan också för små filer. Våra resultat visar att IDNC-systemen inte lider av den betydande fördröjning av avkodningen som är inbyggd i befintliga generationsbaserade nätkodningsprotokoll. Index Terms-network kodning, sända cellulära nätverk, video streaming, delay/deadline-constomed system, nätverkskapacitet analys, stochastic processing nätverk
Kapaciteten hos kodningssystem med omedelbar decodable för tillämpningar med hårda tidsgränser analyseras i REF.
6,172,122
On The Capacity of Immediately-Decodable Coding Schemes for Wireless Stored-Video Broadcast with Hard Deadline Constraints
{'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science']}
3,164
Spridningen av tjänsteorienterade arkitekturer inför behovet av nya testmetoder. Å ena sidan måste provning kunna identifiera fel i den funktionalitet som tillhandahålls av tjänsten. Å andra sidan måste man identifiera fall där det servicenivåavtal som förhandlats fram mellan tjänsteleverantören och tjänstekonsumenten inte uppfylls. Detta skulle göra det möjligt för utvecklaren att vid behov förbättra tjänsteprestationerna och tillhandahållaren att undvika lovande tjänstekvalitetsnivåer som inte kan garanteras. I detta dokument föreslås användning av genetiska algoritmer för att generera ingångar och konfigurationer för serviceorienterade system som orsakar SLA-kränkningar. Metoden har implementerats i ett verktyg och tillämpats på ett arbetsflöde för ljudbehandling och på en tjänst för diagramgenerering. I båda fallen kunde metoden producera testdata som kunde bryta mot vissa QoS-begränsningar.
Testning före utplacering av SLA har studerats av Di Penta et al. REF, där de använder sig av genetiska algoritmer för att generera testdata som orsakar brott mot SLA.
2,381,382
Search-based testing of service level agreements
{'venue': "GECCO '07", 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,165
Text normalisering tekniker som använder regelbaserad normalisering eller sträng likhet baserad på statiska ordböcker är vanligtvis oförmögna att fånga domänspecifika förkortningar (custy, cx → kund) och shorthands (5ever, 7ever → forever) används i informella texter. I detta arbete utnyttjar vi egendomen som bullriga och kanoniska former av ett visst ord delar liknande sammanhang i en stor bullriga textsamling (miljoner eller miljarder av sociala medier matar från Twitter, Facebook, etc.). Vi lär oss distribuerade framställningar av ord för att fånga begreppet kontextuell likhet och lär oss därefter normaliseringslexikon från dessa framställningar på ett helt oövervakat sätt. Vi experimenterar med linjära och icke-linjära distribuerade representationer erhållna från log-linjära modeller respektive neurala nätverk. Vi tillämpar vårt ramverk för att normalisera kundanteckningar och Twitter. Vi utökar också vårt tillvägagångssätt för att lära sig fras normalisering lexikon (g2g → fick gå) genom utbildning fördelade representationer över sammansatta ord. Vår strategi överträffar Microsoft Word, Aspell och en manuellt kompilerad urban ordbok från webben och uppnår state-of-the-art resultat på en allmänt tillgänglig Twitter dataset.
REF föreslog en metod för att lära sig fras normalisering lexikon genom utbildning fördelade representationer över sammansatta ord.
10,533,974
Unsupervised Text Normalization Using Distributed Representations of Words and Phrases
{'venue': 'VS@HLT-NAACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,166
Vi får en 1,5-approximation algoritm för den metriska okapacitet anläggning plats problem (UFL), som förbättrar på den tidigare mest kända 1.52- approximation algoritm av Mahdian, Ye och Zhang. Observera, att den approximabilitet lägre bundet av Guha och Khuller är 1.463.. En algoritm är en (λ f,λ c ) - approximation algoritm om lösningen den producerar har total kostnad som mest λ f · F * + λ c · C *, där F * och C * är anläggningen och anslutningskostnaden för en optimal lösning. Vår nya algoritm, som är en modifiering av (1 + 2/e)-tillnärmningsalgoritmen för Chudak och Shmoys, är en (1.6774,1.3738)-tillnärmningsalgoritm för UFL-problemet och är den första som berör den ungefärliga gränskurvan (γ f, 1 + 2e −γ f ) upprättad av Jain, Mahdian och Saberi. Som en följd av detta får vi den första optimala approximationsalgoritmen för fall som domineras av anslutningskostnader. I kombination med en (1.11.1.7764)-tillnärmningsalgoritm som föreslås av Jain et al., och senare analyseras av Mahdian et al., får vi den övergripande approximeringsgarantin på 1,5 för det metriska UFL-problemet. Vi beskriver också hur vi använder vår algoritm för att förbättra approximationsförhållandet för 3-nivåversionen av UFL.
Byrka och Aardal REF förbättrade sedan approximationsförhållandet för k = 3 till 2.492.
2,833
An optimal bifactor approximation algorithm for the metric uncapacitated facility location problem
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
3,167
I detta dokument introduceras AntNet, en ny metod för adaptiv inlärning av routingtabeller i kommunikationsnät. AntNet är ett distribuerat, mobila agenter baserat Monte Carlo-system som inspirerades av det senaste arbetet med myrkolonimetaforen för att lösa optimeringsproblem. AntNets agenter utforskar samtidigt nätverket och utbyter insamlad information. Kommunikationen mellan agenterna är indirekt och asynkron, förmedlad av nätverket självt. Denna form av kommunikation är typisk för sociala insekter och kallasstigmergi. Vi jämför vår algoritm med sex toppmoderna routingalgoritmer som kommer från telekommunikation och maskininlärning. Algoritmernas prestanda utvärderas över en uppsättning realistiska testbäddar. Vi kör många experiment över verkliga och arti ciella IP datagram nätverk med ökande antal noder och under flera paradigmatiska rumsliga och temporal tra c distributioner. Resultaten är mycket uppmuntrande. AntNet visade överlägsen prestanda under alla experimentella förhållanden med avseende på sina konkurrenter. Vi analyserar algoritmens huvudegenskaper och försöker förklara orsakerna till dess överlägsenhet.
AntNet REF är en ny metod för adaptiv inlärning av routingtabeller i kommunikationsnät.
11,564,347
AntNet: Distributed Stigmergetic Control for Communications Networks
{'venue': 'Journal Of Artificial Intelligence Research, Volume 9, pages 317-365, 1998', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,168
I detta dokument är vi intresserade av att människan utgör ett estimeringsproblem med fokus på att lära sig tillförlitliga högupplösta representationer. De flesta befintliga metoder återvinner högupplösta representationer från lågupplösta representationer som produceras av ett nätverk med hög till låg upplösning. Istället upprätthåller vårt föreslagna nätverk högupplösta representationer genom hela processen. Vi börjar från ett högupplöst undernätverk som det första steget, gradvis lägga till hög-till-låg upplösning undernätverk en efter en för att bilda fler steg, och ansluta mutalresolution subnätverk parallellt. Vi genomför upprepade flerskaliga fusioner så att var och en av de hög-till-låg upplösning representationer får information från andra parallella representationer om och om igen, vilket leder till rika högupplösning representationer. Som ett resultat, den förutsagda keypoint värmekartan är potentiellt mer exakt och rumsligt mer exakt. Vi demonstrerar empiriskt effektiviteten i vårt nätverk genom den överlägsna pose estimeringsresultat över två referensdatauppsättningar: COCO keypoint detection dataset och MPII Human Pose dataset. Dessutom visar vi överlägsenheten av vårt nätverk i pose tracking på PoseTrack dataset. Koden och modellerna har varit tillgängliga för allmänheten på https: // github.com/ leoxiaobin/ deep- high- resolution- net.pytorch.
HRNet REF upprätthåller också högupplösta representationer genom hela stommen feedforward-processen.
67,856,425
Deep High-Resolution Representation Learning for Human Pose Estimation
{'venue': '2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
3,169
ABSTRACT Att äga till uppsvinget av sociala medier, göra kommentarer eller uttrycka åsikter om varor på nätet blir lättare än tidigare. Uppgifter från sociala medier kan vara en av de viktigaste faktorerna för prognostiserad försäljning av fordon. Dessutom har vissa andra effekter, t.ex. börsvärderingar, inflytande på fordonens köpkraft. I detta dokument används både multivariata regressionsmodeller med data från sociala medier och aktiemarknadsvärden och tidsseriemodeller för att förutsäga den månatliga totala fordonsförsäljningen. De minst kvadrater stöder vektor regression (LSSVR) modeller används för att hantera multivariata regressionsdata. Tre typer av data, nämligen känsla poäng av tweets, börsvärden, och hybriddata, används i detta dokument för att prognostisera den månatliga totala försäljningen av fordon i USA. Hybriddatan innehåller både känslopoäng av tweets och aktiemarknadsvärden. Säsongsfaktorerna för den månatliga totala fordonsförsäljningen används dessutom för att säsongsutjämna både den månatliga totala fordonsförsäljningen och tre typer av indata. Tidsseriemodellerna inkluderar den naiva modellen, den exponentiella utjämningsmodellen, den autoregressiva integrerade glidande genomsnittsmodellen, den säsongsbetonade autoregressiva integrerade glidande genomsnittsmodellen, och bakåtpropagation neurala nätverk och LSSVR med tidsseriemodeller. De numeriska resultaten visar att med hjälp av hybriddata med säsongsutjämning av LSSVR-modellerna kan man få mer exakta resultat än andra modeller med olika data. Således, både sociala medier data och lagervärden är nödvändiga för att prognostisera den månatliga totala fordonsförsäljningen; och deseasonalizing förfaranden kan förbättra prognos noggrannheten i att förutsäga månatliga totala fordonsförsäljningen. INDEX TERMS Förutsäg, bilförsäljning, Twitter, känsloanalys, aktiemarknader.
Pai och Liu REF lade fram en modell för förutsägelse av fordonsförsäljning genom känsloanalys av twitterdata och aktiemarknadsvärden med hjälp av minst kvadrater stöder vektor regression.
53,095,806
Predicting Vehicle Sales by Sentiment Analysis of Twitter Data and Stock Market Values
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
3,170
Abstract-I detta dokument undersöker vi resurstilldelningsproblem för D2D-kommunikation underliggande trådlösa kommunikationsnät, där flera D2D-par skördar energi från ett kraftverk utrustat med flera antenner och sedan sänder informationssignaler samtidigt över samma spektrumresurs. Syftet är att maximera summan genomströmning via gemensam tid schemaläggning och effektstyrning, samtidigt som energi kausalitet begränsningar. Det formulerade icke-konvexa problemet omvandlas först till ett icke-linjärt delprogrammeringsproblem med en taktfull omformulering. Sedan, genom att utnyttja D.C. (skillnaden mellan två konvexa funktioner) programmering, en suboptimal lösning på det icke-konvexa problemet erhålls genom iterativt lösa en sekvens av konvexa problem. Simuleringsresultat visar att det föreslagna systemet fungerar bra i olika scenarier och kan avsevärt förbättra systemets genomströmning jämfört med de moderna systemen.
Maximering av summan genomströmning med tidsplanering och effektstyrning tillhandahölls i REF.
46,979,305
D2D Communications Underlaying Wireless Powered Communication Networks
{'venue': 'IEEE Transactions on Vehicular Technology, 2018', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Engineering', 'Mathematics']}
3,171
Abstract-This paper studerar problemet med överbelastning kontroll och schemaläggning i ad hoc trådlösa nätverk som måste stödja en blandning av bästa-ansträngning och realtidstrafik. Optimering och stokastisk nätverksteori har varit framgångsrik i att utforma arkitekturer för rättvis resursallokering för att möta långsiktiga genomströmningskrav. Såvitt vi vet har dock strikta tidsfrister för paketförseningar inte beaktats i detta sammanhang tidigare. I detta dokument föreslår vi en modell för att integrera kvalitetskrav för tjänster (QoS) för paket med tidsfrister i optimeringsramen. Lösningen på problemet resulterar i en gemensam överbelastningskontroll och schemaläggningsalgoritm som rättvist fördelar resurser för att uppfylla rättvisa mål för både elastiska och oelastiska flöden, och per-packets fördröjningskrav för inelastiska flöden.
I REF studerade Jaramillo och Srikant ett resursfördelningsproblem i ad hoc-nätverk med elastisk och oelastisk trafik med tidsfrister för paketmottagning och fick gemensam överbelastningskontroll och schemaläggningsalgoritm som maximerar ett nätverksverktyg.
52,806,352
Optimal Scheduling for Fair Resource Allocation in Ad Hoc Networks with Elastic and Inelastic Traffic
{'venue': '2010 Proceedings IEEE INFOCOM', 'journal': '2010 Proceedings IEEE INFOCOM', 'mag_field_of_study': ['Computer Science']}
3,172
Trägolv förvärv flera tillgång (FAMA) disciplin analyseras i nätverk med dolda terminaler. Enligt FAMA, är kontrollen av kanalen (golvet) tilldelas på högst en station i nehvork vid varje given tidpunkt, och denna station garanteras att kunna överföra ett eller flera datapaket till olika destinationer utan kollisioner. De FAMA-protokoll som beskrivs består av icke-beständig bärar- eller paketavkänning, plus en kollisionsavsiktsdialog mellan en källa och den avsedda mottagaren av ett paket. Tillräckliga villkor under vilka dessa protokoll ger korrekt golv anskaffning presenteras och verifieras för nätverk med dolda terminaler; det visas att FAMA-protokoll måste använda carder sensing för att stödja korrekt golv förvärv. Genomströmningen av FAMA-protokoll analyseras för enkanals nehvorks med dolda terminaler; det visas att operatörskännande FAMA-protokoll fungerar bättre än ALOHA- och CSMA-protokoll i närvaro av dolda terminaler.
Chane m.fl. REF analyserade Floor Acquisition Multiple Access (FAMA) protokoll för enkanaliga paket-radio nätverk med dolda terminaler.
12,423,145
Solutions to hidden terminal problems in wireless networks
{'venue': "SIGCOMM '97", 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,173
Abstrakt. Rekonstruering av magnetisk resonanstomografi (MRI) från underprovtagen k-rymd möjliggör accelererat förvärv av MRT men är ett utmanande problem. Men i många diagnostiska scenarier, är perfekta rekonstruktioner inte nödvändiga så länge bilderna gör det möjligt för kliniska utövare att extrahera kliniskt relevanta parametrar. I detta arbete presenterar vi en ny ram för djupinlärning för att rekonstruera sådana kliniska parametrar direkt från underprovade data, vilket utökar idén om applikationsdriven MRT. Vi föreslår två djupa arkitekturer, en end-toend syntes nätverk och en latent funktion interpolation nätverk, för att förutsäga hjärt segmentering kartor från extremt underprovade dynamiska MRT-data, förbi den vanliga bild rekonstruktion skede helt och hållet. Vi utför en storskalig simuleringsstudie med hjälp av data från brittiska Biobank som innehåller nästan 1000 försökspersoner och visar att med de föreslagna tillvägagångssätten kan en exakt uppskattning av kliniska parametrar som ejektionsfraktion erhållas från färre än 10 k-rymdslinjer per tidsram.
Schlemper m.fl. REF utvidgade idén om applikationsdriven MRI och presenterade ett end-to-end-syntesnätverk och ett latent interpoleringsnätverk för att förutsäga segmenteringskartor från extremt underurval av dynamiska MR-data.
52,277,466
Cardiac MR Segmentation from Undersampled k -space Using Deep Latent Representation Learning
{'venue': 'MICCAI', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,174
För en mönstergraf H på k noder, anser vi problemen med att hitta och räkna antalet (inte nödvändigtvis inducerade) kopior av H i en given stor graf G på n noder, samt att hitta minsta vikt kopior i både nod viktade och kantviktade grafer. Våra resultat inkluderar: • Antalet kopior av ett H med en oberoende uppsättning storlek s kan beräknas exakt i O * (2 s n k‐s+3 ) tid. En minsta viktkopia av ett sådant H (med godtyckliga reella vikter på noder och kanter) finns i O(4 s+o(s) n k‐s+3 ) tid. (O * notation utelämnar poly(k) faktorer.) Dessa algoritmer är beroende av snabba algoritmer för beräkning av permanent för en k × n-matris, över ringar och halvringar. • Antalet kopior av alla H som har minsta (eller högsta) nodvikt (med godtyckliga verkliga vikter på noder) kan hittas i O(n -k/3 + n 2k/3+o(1) ) tid, där - < 2.4 är matrisen multiplikation exponenten och k är delbart med 3. Liknande resultat håller för andra värden av k. Dessutom, antalet kopior som har exakt en föreskriven vikt kan hittas inom denna tid. Dessa algoritmer utökar tekniken för Czumaj och Lingas (SODA 2007) och ger en ny (algoritmisk) tillämpning av multipartskommunikation komplexitet. • Att hitta en kantviktad vikttriangel exakt 0 i allmänna grafer kräver tid för alla ε > 0, om inte 3SUM problem på N nummer kan lösas i O(N 2−ε ) tid. Detta tyder på att det kantviktade problemet är mycket svårare än dess nodviktade version.
Vassilevska och Williams REF studerade problemet med att hitta och räkna enskilda icke-inducerade subgrafer.
224,579
Finding, minimizing, and counting weighted subgraphs
{'venue': "STOC '09", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
3,175
Abstract-Ett hett ämne i datacenter design är att föreställa sig geo-distribuerade arkitekturer som spänner över några platser över breda område nätverk, vilket ger mer närhet till slutanvändarna och högre överlevnadsförmåga, definieras som kapaciteten hos ett system för att fungera efter misslyckanden. Som en brist är detta tillvägagångssätt föremål för en ökning av latensen mellan servrar, som orsakas av deras geografiska avstånd. I detta dokument tar vi itu med avvägningen mellan latens och överlevnad i geo-distribuerade datacenter, genom utformningen av ett optimeringsproblem. Simuleringar med beaktande av realistiska scenarier visar att latensökningen endast är betydande när det gäller mycket starka överlevnadskrav, medan den är försumbar för måttliga överlevnadskrav. Till exempel är den värsta latensen mindre än 4 ms när det gäller att garantera att 80 % av servrarna är tillgängliga efter ett fel, i ett nätverk där latensen kan vara upp till 33 ms.
I vårt tidigare arbete REF analyserar vi avvägningarna mellan latens och motståndskraft när vi utformar en geodistribuerad DC.
6,010,519
Latency Versus Survivability in Geo-Distributed Data Center Design
{'venue': '2014 IEEE Global Communications Conference (GLOBECOM)', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,176
Genom att dela information mellan flera uppgifter kan al gorithms uppnå goda generaliseringsresultat även från små mängder träningsdata. Men i ett realistiskt scenario med lärande med flera uppgifter är inte alla uppgifter lika försenade till varandra, och därför kan det vara fördelaktigt att överföra information endast mellan de mest relaterade uppgifterna. I detta arbete föreslår vi ett tillvägagångssätt som behandlar mul tiple uppgifter i en sekvens med delning mellan efterföljande uppgifter i stället för att lösa alla uppgifter gemensamt. Därefter tar vi upp frågan om läroplansinlärning av uppgifter, dvs. Att hitta den bästa ordningen av uppgifter att lära sig. Vårt tillvägagångssätt är baserat på ett generaliseringsbundet kriterium för att välja den uppgiftsordning som optimerar den genomsnittliga förväntade klassi ficeringsprestandan över alla uppgifter. Våra experimentella resultat visar att lärande av flera relaterade uppgifter i följd kan vara mer effektivt än att lära dem gemensamt, den ordning i vilken uppgifterna löses påverkar den totala perfor mance, och att vår modell automatiskt kan upptäcka en gynnsam ordning av uppgifter.
Vissa uppgifter är dock lättare än andra och inte heller alla uppgifter är lika relaterade till varandra REF.
8,502,955
Curriculum learning of multiple tasks
{'venue': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
3,177
Abstrakt. Icke-aducerbara koder är en naturlig avslappning av felkorrigerande/detekterande koder som har användbara tillämpningar i samband med manipuleringstålig kryptografi. Informellt är en kod inte möjlig om en motståndare som försöker manipulera en kodning av ett givet meddelande bara kan lämna den oförändrad eller ändra den till kodning av ett helt orelaterat värde. Genom detta dokument införs en utvidgning av begreppet icke-aducerbar standardsäkerhet, så kallad kontinuerlig icke-aducerbarhet, där vi tillåter motståndaren att ständigt manipulera med en kodning. Detta står i kontrast till standardbegreppet icke-överträffbara koder där motståndaren endast tillåts manipulera en enda gång med en kodning. Vi visar hur man konstruerar oöverträffade koder i den gemensamma split-state-modellen där en kodning består av två delar och manipuleringen kan vara godtycklig men måste vara oberoende av båda delarna. Våra viktigaste bidrag beskrivs nedan: 1. Vi föreslår en ny unikhet krav på split-state koder som säger att det är beräknings svårt att nda två kodord X = (X0, X1) och X = (X0, X 1 ) sådan att båda kodorden är giltiga, men X0 är samma i både X och X. En enkel attack visar att unikhet är nödvändigt för att uppnå kontinuerlig icke-aducerbarhet i split-state-modellen. Dessutom illustrerar vi att ingen av de befintliga konstruktionerna tillfredsställer vår unika egenskap och därmed inte är säker i den kontinuerliga miljön. 2. Utgångspunkten är följande: Vi konstruerar en split-state-kod som tillfredsställer kontinuerlig icke-aducerbarhet. Vårt system är baserat på den inre produktfunktionen, kollisionssäker hash och icke-interaktiv noll-kunskap bevis på kunskap och kräver en omätbar gemensam referenssträng. 3. Vad är det som händer? Vi använder kontinuerliga icke-aducerbara koder för att skydda godtyckliga kryptografiska primitiva mot manipulering attacker. Tidigare tillämpningar av icke-aducerbara koder i denna inställning som krävs för att perfekt radera hela minnet efter varje utförande och krävde motståndaren att begränsas i minnet. Vi visar att kontinuerliga icke-aducerbara koder undviker dessa begränsningar.
När det gäller teknik använder de en starkare version av icke-aducerbara koder i split-state-inställningen (s.k. kontinuerliga icke-aducerbara koder REF ) för sin konstruktion.
565,041
Continuous Non-malleable Codes
{'venue': 'IACR Cryptology ePrint Archive', 'journal': 'IACR Cryptology ePrint Archive', 'mag_field_of_study': ['Computer Science']}
3,178
När smartphones blir mer genomträngande, är de allt mer riktade mot skadlig kod. Samtidigt, varje ny generation av smartphone har allt kraftfullare ombord sensor sviter. En ny stam av "sensor malware" har utvecklats som utnyttjar dessa sensorer för att stjäla information från den fysiska miljön - t.ex., forskare har nyligen visat hur malware kan "lyssna" för talade kreditkortsnummer genom mikrofonen, eller "känner" tangenttryck vibrationer med accelerometern. Ändå har möjligheterna för vad malware kan "se" genom en kamera understuderats. Detta dokument introducerar en ny "visuell malware" som kallas PlaceRaider, som tillåter fjärrangripare att engagera sig i fjärrspaning och vad vi kallar "virtuell stöld". Genom helt opportunistisk användning av telefonens kamera och andra sensorer konstruerar PlaceRaider rika, tredimensionella modeller av inomhusmiljöer. Fjärrinbrottare kan därför "ladda ner" det fysiska utrymmet, studera miljön noggrant, och stjäla virtuella objekt från miljön (såsom finansiella dokument, information på datormonitorer, och personligt identifierbar information). Genom två mänskliga ämnesstudier visar vi effektiviteten av att använda mobila enheter som kraftfull övervakning och virtuella stöldplattformar, och vi föreslår flera möjliga försvar mot visuell malware.
I ett annat forskningsprojekt, genom helt opportunistisk användning av telefonens kamera och andra sensorer, kan PlaceRaider REF konstruera tredimensionella modeller av inomhusmiljöer och stjäla virtuella objekt.
9,187,707
PlaceRaider: Virtual Theft in Physical Spaces with Smartphones
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
3,179
Abstract-This paper presenterar en hybrid Hopfield nätverk-genetisk algoritm (GA) strategi för att ta itu med terminal uppdrag (TA) problem. Tekniskt stöd innebär att man fastställer minimikostnadslänkar för att bilda ett kommunikationsnät genom att koppla en viss uppsättning terminaler till en viss samling koncentratorer. Vissa tidigare metoder ger mycket goda resultat om man känner till kostnaden för att tilldela en enda terminal till en viss koncentrator. Det finns dock situationer där kostnaden för ett enda uppdrag inte är känd i förväg, och endast kostnaden i samband med genomförbara lösningar kan beräknas. I dessa situationer är tidigare algoritmer för TA baserade på giriga heuristik inte längre giltiga, eller misslyckas med att få genomförbara lösningar. Vår strategi innebär en Hopfield neurala nätverk (HNN) som hanterar problemets begränsningar, medan en GA söker efter högkvalitativa lösningar med minsta möjliga kostnad. Vi visar att vår algoritm kan uppnå genomförbara lösningar till TA i fall där kostnaden för ett enda uppdrag inte är känd i förväg, vilket förbättrar de resultat som uppnåtts genom tidigare tillvägagångssätt. Vi visar också att vår strategi är tillämplig på andra problem som rör den tekniska tjänsten. Index Terms-Genetiska algoritmer (GA), heuristik, Hopfield neurala nätverk, terminal uppdrag (TA) problem.
Salcedo-Sanz och Yao REF blandade Hopfield neurala nätverk och GA algoritm för att ta itu med terminal uppdrag (TA) problem.
8,347,385
A hybrid Hopfield network-genetic algorithm approach for the terminal assignment problem
{'venue': 'IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics)', 'journal': 'IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics)', 'mag_field_of_study': ['Computer Science', 'Medicine']}
3,180
Abstract-I denna uppsats studeras problemet med proaktiv caching för cloud radio access nätverk (CRANs). I den studerade modellen kan basbandsenheterna (BBU) förutsäga varje användares distributions- och mobilitetsmönster och bestämma vilket innehåll som ska caches vid fjärrradiohuvuden och BBU. Detta problem är formulerat som ett optimeringsproblem, som tillsammans innehåller backhaul och fronthaul laster och innehåll caching. För att lösa detta problem föreslås en algoritm som kombinerar ramverket för maskininlärning av echo state-nätverk (ESN) med sublinjära algoritmer. Med hjälp av ESN kan BBU förutsäga varje användares innehållsförfrågan distribution och rörlighet mönster samtidigt som endast begränsad information om nätverkets och användarens tillstånd. För att förutsäga varje användares periodiska rörlighetsmönster med minimal komplexitet, härleds minneskapaciteten för motsvarande ESN för en periodisk inmatning. Denna minneskapacitet visar sig fånga upp den maximala mängd användarinformation som krävs för den föreslagna ESN-modellen. Därefter föreslås en sublinjär algoritm för att bestämma vilket innehåll som ska cache samtidigt som man använder begränsade innehållsförfrågan-distributionsprover. Simuleringsresultat med hjälp av verkliga data från Youku och Beijing University of Posts and Telecommunications visar att det föreslagna tillvägagångssättet ger betydande vinster, i termer av total effektiv kapacitet, som når upp till 27,8 % respektive 30,7 %, jämfört med två basalgoritmer: slumpmässig cachelagring med kluster och slumpmässig cachelagring utan klusterbildning.
En annan proaktiv caching metod studeras i REF för molnradioaccess nätverk (CRANs) där författarna tillämpade ekostat nätverk (ESNs) för att förutsäga varje användares innehåll begäran distribution och rörlighet mönster för att stödja cache beslutsprocesser.
7,622,872
Echo State Networks for Proactive Caching in Cloud-Based Radio Access Networks With Mobile Users
{'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
3,181
Detta dokument skyddas av upphovsrättslagen. För att kunna utnyttja Érudits tjänster (inklusive reproduktion) gäller dess villkor, som kan ses på nätet. https://apropos.erudit.org/en/users/policy-on-use/Denna artikel sprids och bevaras av Érudit. Érudit är ett icke-vinstdrivande konsortiet mellan universiteten i Université de Montréal, Université Laval och Université du Québec à Montréal. Dess uppgift är att främja och sprida forskning. Europaparlamentets och rådets förordning (EU, Euratom) nr 966/2012 av den 25 oktober 2012 om finansiella regler för unionens allmänna budget och om upphävande av rådets förordning (EG, Euratom) nr 1605/2002 (EUT L 298, 26.10.2012, s. 1). Artikel abstract Distributed Massive Open Online Courses (MOOCs) bygger på antagandet att online-inlärning sker genom ett nätverk av sammanlänkade elever. Lärarnas roll i distribuerade kurser sträcker sig till att skapa ett sådant nätverk genom att underlätta kommunikation som kopplar samman elever och deras separata personliga inlärningsmiljöer utspridda över Internet. Studien rapporterade i denna uppsats undersökt som uppfyllt en sådan inflytelserik roll i en särskild distribuerad MOOC -a connektivist kurs (cMOOC) erbjuds under 2011. Social nätverksanalys genomfördes över ett socio-tekniskt nätverk av Twitter-baserade kursinteraktioner, bestående av både mänskliga kursdeltagare och hashtaggar; där de senare representerade tekniska råd för skalning av kurskommunikation. Resultaten av veckovis analys av nätverket av interaktioner tyder på att undervisningsfunktionen fördelas mellan inflytelserika aktörer i nätverket. I takt med att kursen fortskred tog både mänskliga och teknologiska aktörer, som bestod av nätverket, del av undervisningsfunktionerna och utövade inflytande över nätverksbildningen. Oavsett, de officiella kursledare bevarat en hög nivå av inflytande över flödet av information i den undersökta cMOOC. I takt med att kursen fortskred tog både mänskliga och teknologiska aktörer, som bestod av nätverket, del av undervisningsfunktionerna och utövade inflytande över nätverksbildningen. Oavsett, de officiella kursledare bevarat en hög nivå av inflytande över flödet av information i den undersökta cMOOC. Internationell granskning av forskning i öppen och
Skrypnyk m.fl. genomfört social nätverksanalys på Twitter-baserade interaktioner och bekräftat att lärarna bevarat en hög nivå av inflytande över flödet av information REF.
55,230,702
Roles of Course Facilitators, Learners, and Technology in the Flow of Information of a cMOOC.
{'venue': None, 'journal': 'The International Review of Research in Open and Distributed Learning', 'mag_field_of_study': ['Computer Science']}
3,182
Nyligen finns det ett ökat intresse för att använda punktprocesser för att modellera kontinuerliga användaraktiviteter. Detta ramverk har resulterat i nya modeller och förbättrad prestanda i olika tillämpningar. De flesta tidigare verk fokuserar dock på "open loop"-inställningen där lärda modeller används för prediktiva uppgifter. Vanligtvis är vi intresserade av den "slutna slingan" där en policy måste läras in för att införliva användarnas återkopplingar och styra användaraktiviteter till önskvärda stater. Även om punktprocesser har god prediktiv prestanda, är det inte klart hur man använder dem för den utmanande slutna slinga aktivitet vägledande uppgift. I detta dokument föreslår vi en ram för att omformulera punktprocesser till stokastiska differentialekvationer, vilket gör att vi kan utöka metoderna från stokastisk optimal kontroll för att ta itu med det aktivitetsledande problemet. Vi utformar också en effektiv algoritm och visar att vår metod vägleder användaraktiviteter till önskade tillstånd mer effektivt än toppmoderna.
Wang m.fl. REF använder stokastisk kontroll och förstärkt inlärning för att ta itu med användaraktivitetens vägledande problem och återkoppling i sociala system.
1,553,726
A Stochastic Differential Equation Framework for Guiding Online User Activities in Closed Loop
{'venue': 'AISTATS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,183
Abstract-Data-parallell programmeringsspråk är en viktig komponent i dagens parallella datorlandskap. Bland dessa finns domänspecifika språk som skuggspråk i grafik (HLSL, GLSL, RenderMan, etc.) och allmänna språk som CUDA eller OpenCL. Nuvarande implementationer av dessa språk på processorer förlitar sig enbart på multi-threading för att genomföra parallellism och ignorera den ytterligare intra-core parallellism som tillhandahålls av SIMD instruktion uppsättning av dessa processorer (som Intel s SSE och den kommande AVX eller Larrabee instruktionsset). I detta dokument diskuterar vi flera aspekter av att implementera dataparallellspråk på maskiner med SIMD instruktionsset. Vårt huvudsakliga bidrag är en språk- och plattformsoberoende kodomvandling som utför hela funktionen vektorisering på låg nivå mellanliggande kod som ges av en kontrollflödeskurva i SSA-form. Vi utvärderar vår teknik i två scenarier: Först införlivas i en kompilator för ett domänspecifikt språk som används i realtid ray spårning. För det andra, i en fristående OpenCL-förare. Vi observerar genomsnittliga upphastighetsfaktorer på 3,9 för strålspåraren och faktorer mellan 0,6 och 5.2 för olika OpenCL-kärnor.
Tekniker för att utföra hela funktionen vektorisering diskuteras i REF.
2,195,164
Whole-function vectorization
{'venue': 'International Symposium on Code Generation and Optimization (CGO 2011)', 'journal': 'International Symposium on Code Generation and Optimization (CGO 2011)', 'mag_field_of_study': ['Computer Science']}
3,184
Abstrakt. Denna rapport beskriver vårt bidrag till den andra beräkningslingvistiken Scientific Document Summarization Shared Task (CLSciSumm 2016), som bad att identifiera den relevanta textomfånget i ett referensdokument som motsvarar en hänvisning i ett annat dokument som citerar detta dokument. Vi utvecklade tre olika tillvägagångssätt baserade på sammanläggnings- och klassificeringsmetoder. För det första tillämpade vi en modifierad version av en oövervakad summeringsteknik, TextSentenceRank, på referensdokumentet, som innehåller likheten mellan meningar och citering på textnivå. För det andra använde vi klassificering för att välja från kandidater som tidigare extraherats genom den ursprungliga TextSentenceRank algoritmen. För det tredje använde vi oövervakad sammanfattning av den relevanta delen av dokumentet som tidigare valdes ut på ett övervakat sätt.
REF tillämpade en modifierad version av en oövervakad sammanfattningsteknik (TextSentenceRank) på referensdokumentet.
17,302,596
Identifying Referenced Text in Scientific Publications by Summarisation and Classification Techniques
{'venue': 'BIRNDL@JCDL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,185
Abstract This paper task the problematory of miniming the staleness of query results for streaming applications with update semantics with overload conditions. Stabilitet är ett mått på hur out-of-date resultaten jämförs med de senaste data som anländer på inmatningen. Real-time streaming applikationer är föremål för överbelastning på grund av oförutsägbart ökande datahastigheter, medan i många av dem, Vi observerar att dataströmmar och frågor i själva verket uppvisar "uppdatera semantik" (dvs, de senaste indata är allt som verkligen spelar roll när man producerar en fråga resultat). Under sådana semantik, överbelastning kommer att orsaka dödläge att bygga upp. Nyckeln för att undvika detta är att utnyttja uppdateringen semantik av applikationer så tidigt som möjligt i bearbetningsledningen. I detta dokument föreslår vi UpStream, en lagringscentrerad ram för lasthantering över strömmande program med uppdatering semantik. Vi beskriver först hur vi modellerar strömmar och frågor som har uppdateringssemantiken, vilket ger definitioner för korrekthet och dödhet för frågeresultaten. Sedan visar vi hur gammalhet kan minimeras baserat på intelligent uppdatering nyckel schemaläggning tekniker tillämpas på könivå, samtidigt som riktigheten av resultaten, även för komplexa frågor som innebär skjutbara fönster. UpStream bygger på den enkla idén att tillämpa uppdateringarna på plats, men med stor avkastning när det gäller att sänka stillhet och minnesförbrukning, som vi också experimentellt verifierar på Borealis-systemet.
För att minimera dödheten av frågeresultat över strömmar med revision tuples, Alexandru Moga et al. I Ref föreslogs en effektiv lagringscentrerad ram för belastningshantering över strömmarna.
5,394,425
UpStream: storage-centric load management for streaming applications with update semantics
{'venue': 'The VLDB Journal', 'journal': 'The VLDB Journal', 'mag_field_of_study': ['Computer Science']}
3,186
Sessionstyper tillåter att kommunikationsprotokoll specificeras typteoretiskt så att protokollimplementeringar kan verifieras genom statisk typkontroll. Vi utökar tidigare arbete med sessionstyper för distribuerade objektorienterade språk på tre sätt. (1) Vi bifogar en sessionstyp till en klassdefinition, för att specificera möjliga sekvenser av metodanrop. (2) Vi tillåter att en sessionstyp (protokoll) implementeras modulärt, d.v.s. delas upp i separat kalla metoder. (3) Vi behandlar sessions-typade kommunikationskanaler som objekt och integrerar deras sessionstyper med sessionstyperna av klasser. Resultatet är en elegant förening av kommunikationskanaler och deras sessionstyper, distribuerad objektorienterad programmering, och en form av typtillstånd som stöder icke-uniforma objekt, dvs.. objekt som dynamiskt ändrar uppsättningen tillgängliga metoder. Vi definierar syntax, operationell semantik, ett ljudsystem och en korrekt och komplett typkontrollalgoritm för ett litet distribuerat klassbaserat objektorienterat språk. Statisk typning garanterar att både sekvenser av meddelanden på kanaler, och sekvenser av metod anropar objekt, överensstämmer med typ-teoretiska specifikationer, vilket garanterar typ-säkerhet. Språket innehåller förväntade inslag av sessionstyper, t.ex. delegering, och förväntade inslag i objektorienterad programmering, t.ex. inkapsling av den lokala staten. Vi beskriver även en prototypimplementation som en förlängning av Java.
Gay m.fl. REF-studie en integrering av typtillstånd och sessionstyper som riktar sig till distribuerade objekt.
14,145,662
Modular session types for distributed object-oriented programming
{'venue': "POPL '10", 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,187
Abstract-Human Activity Recognition ger värdefull kontextuell information för välbefinnande, hälso- och sjukvård och sportapplikationer. Under de senaste årtiondena har många metoder för maskininlärning föreslagits för att identifiera aktiviteter från tröghetssensordata för specifika tillämpningar. De flesta metoder, dock, är utformade för offline bearbetning snarare än bearbetning på sensorn noden. I detta dokument är en teknik för erkännande av mänsklig aktivitet baserad på en djupinlärningsmetod utformad för att möjliggöra korrekt och realtidsklassificering för bärbara enheter med låg effekt. För att erhålla varians mot förändringar i sensororientering, sensorplacering, och i sensorinhämtningshastigheter, utformar vi en funktionsgenereringsprocess som tillämpas på spektraldomänen för tröghetsdata. I den föreslagna metoden används i synnerhet summor av tidskonvolutioner av den omvandlade insatsvaran. Den föreslagna metodens noggrannhet utvärderas mot de nuvarande toppmoderna metoderna med hjälp av både laboratorie- och verkliga aktivitetsdata. En systematisk analys av funktionsgenereringsparametrarna och en jämförelse av aktivitetsigenkänningstiderna på mobila enheter och sensornoder presenteras också.
Den arkitektur som föreslogs i REF var en kompakt modell av ytliga konvolutionslager som applicerades på tröghetssignalernas spektraldomän.
17,900,523
Deep learning for human activity recognition: A resource efficient implementation on low-power devices
{'venue': '2016 IEEE 13th International Conference on Wearable and Implantable Body Sensor Networks (BSN)', 'journal': '2016 IEEE 13th International Conference on Wearable and Implantable Body Sensor Networks (BSN)', 'mag_field_of_study': ['Computer Science']}
3,188
Visuell uppmärksamhet, som tilldelar bildregioner vikt beroende på deras relevans för en fråga, anses vara en oumbärlig del av de flesta Visuella frågemodeller. Även om frågorna kan omfatta komplicerade förbindelser mellan flera regioner, är det få modeller som effektivt kan koda sådana gränsöverskridande förbindelser. I detta dokument visar vi vikten av att koda sådana relationer genom att visa det begränsade effektiva mottagliga fältet av ResNet på två datauppsättningar, och föreslå att modellera den visuella uppmärksamheten som en multivariat distribution över ett rutnätsstrukturerat villkorligt Random Field på bildregioner. Vi visar hur man konverterar de iterativa inferensalgoritmerna, Mean Field och Loopy Belief Propagation, som återkommande lager av ett end-to-end neuralt nätverk. Vi utvärderade empiriskt vår modell på 3 dataset, där den överträffar den bästa baslinjemodellen för det nyutgivna CLEVR-datasetetet [13] med 9,5 %, och den bäst publicerade modellen på VQA-datasetet [3] med 1,25%. Källkod finns på https: // github.com/ zhuchen03/ vqa-sva.
REF föreslog att den visuella uppmärksamheten skulle modelleras som en multivariatfördelning över ett rutnätsstrukturerat villkorat slumpmässigt fält på bildregioner, vilket innebär att flera regioner kan väljas samtidigt.
11,117,517
Structured Attentions for Visual Question Answering
{'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
3,189
Merparten av det semantiska innehåll som finns tillgängligt har genererats automatiskt genom att använda annoteringstjänster för befintligt innehåll. Automatisk anteckning är inte av tillräcklig kvalitet för att möjliggöra fokuserad sökning och hämtning: antingen för många eller för få termer är semantiskt kommenterade. Användardefinierad semantisk berikning möjliggör en mer målinriktad strategi. Vi utvecklade ett verktyg för semantisk notering av digitala dokument och genomförde en slutanvändarstudie för att utvärdera dess acceptans av och användbarhet för icke-expertanvändare. I detta dokument presenteras resultaten av denna användarstudie och diskuteras lärdomarna från både den semantiska anrikningsprocessen och vår metod att exponera icke-experter för semantisk berikning. Resten av denna uppsats är strukturerad enligt följande: I Avsnitt 2 utforskar vi relaterade arbete med att utvärdera användbarheten av semantiska webbverktyg. Avsnitt 3 introducerar newinep och One Click Annotator. Metodiken och upplägget av vår studie förklaras i avsnitt 4. I avsnitt 5 redovisas resultaten av studien, och i avsnitt 6 diskuteras konsekvenserna av studieresultaten. Avsnitt 7 sammanfattar bidragen från vår studie och drar slutsatser för semantisk webbverktygsdesign. Här diskuterar vi forskning relaterad till vävstolen OCA och dess utvärdering. Redogörelseverktyg. Annotering kan göras antingen automatiskt eller manuellt (eller i kombination). Automatiska annoteringsverktyg utvärderas vanligtvis endast för precision och återkallande av de resulterande annoteringar [2, 3, 4]. De flesta manuella anteckningsverktyg har aldrig utvärderats för sin användbarhet; många är inte längre under aktiv utveckling [5, 6, 7]. Vi klassificerar nuvarande manuella system i kommenteringsverktyg [8, 9,10], webbannoteringsverktyg [11, 12], wiki-baserade system [13, 14, 15], och innehållssammansättningssystem [1, 16], digitala biblioteksverktyg [17, 18,19] och språklig textanalys [20]. På grund av deras olika användningsområden möter verktygen naturligtvis olika utmaningar inom interaktionsdesign och användbarhet (t.ex. wiki-verktyg kräver att användarna behärskar en kommentarsspecifik syntax och klarar av många tekniska termer). Vi anser dock att den viktigaste utmaningen för användarinteraktionsdesign definieras av den begreppsmässiga nivån av semantisk annotation. Det vill säga, anteckningsprocessen är begreppsmässigt annorlunda om verktygen stöder enkla fritextanmärkningar (t.ex. [8, 9,10], erbjuder en delad vokabulär av begrepp (t.ex. [6, 7, 11] ), använder en lokal semantisk identitet (av tesaurus eller ontologi, t.ex. [5, 13, 15] ), eller använder delad semantisk identitet (t.ex. genom länkade ontologier som refererar till en länkad dataserver såsom DBpedia, t.ex. [2, 3, 18]). Utvecklingen av de flesta anteckningsverktyg har ett starkt fokus på att tillhandahålla ny funktionalitet. För de manuella noteringsverktygen var användbarhet typiskt en faktor i gränssnittsutvecklingen. Slutanvändarutvärderingar av gränssnitt och användarinteraktioner är dock mycket sällsynta. Slutanvändarerfarenhet av kommentarer. Få systemutvärderingar har övervägt slutanvändarnas erfarenheter. Handschuh utförde en verktygsutvärdering med användarens medverkan; dock användes deltagarna endast för att tillhandahålla noteringsdata som sedan analyserades för inter-annotator korrelation [7, 21]. Dessutom uttryckte forskarna besvikelse över den låga kvaliteten på kommentarer. Man sökte inte feedback på deltagarnas erfarenheter och deras mentala modell för processen. Bayerl m.fl. [22] betonar vikten av att skapa scheman och system som är hanterbara för mänskliga annoterare. De utvecklade en metod för systematisk schemautveckling och utvärdering av manuella annoteringar som innebär upprepad annotering av data av en grupp kodare. Erdmann m.fl. [23] har genomfört studier av manuell och halvautomatisk annotering som involverar användare. De beskriver sina deltagare som "mer eller mindre" kunna kommentera webbsidor. De flesta av de identifierade frågorna var dock av syntaktisk natur som lätt kunde åtgärdas med hjälp av verktygsstöd. Arbetet med retorisk språkanalys av vetenskapliga texter är nära relaterat till semantisk annotering [20]. Teufel genomförde användarstudier där hon letade efter stabilitet (samma klassificering över tiden med samma annotator) och reproducerbarhet (samma klassificering av olika annotatorer; liknande till Handschuhs interannotator korrelation). I likhet med [22] fann hon att komplexa scheman kan leda till
En översikt över manuella anteckningsverktyg ges i REF.
7,902,425
Semantic enrichment by non-experts: usability of manual annotation tools
{'venue': 'International Semantic Web Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,190
Många online-samarbetsnätverk kämpar för att få användaraktivitet och bli självförsörjande på grund av ramp-up problem eller minskande aktivitet inom systemet. Framträdande exempel är uppslagsverk som (Semantiska) MediaWikis, fråge- och svarsportaler som StackOverflow och många andra. Endast en liten del av dessa system lyckas nå självförsörjande aktivitet, en aktivitetsnivå som hindrar systemet från att återgå till ett icke-aktivt tillstånd. I den här artikeln modellerar och analyserar vi aktivitetsdynamiken i syntetiska och empiriska samarbetsnätverk. Vår strategi bygger på två motsatta och välstuderade principer: i) utan incitament, brukar användarna förlora intresset för att bidra och därmed system blir inaktiva, och ii) människor är mottagliga för åtgärder som vidtas av sina kamrater (socialt eller kamratinflytande). Med den aktivitetsdynamiksmodell som vi introducerar i denna artikel kan vi representera typiska situationer i sådana samarbetsnätverk. Till exempel, aktivitet i ett samarbetsnätverk, utan externa impulser eller investeringar, kommer att försvinna med tiden, så småningom gör systemet inaktivt. Genom att på lämpligt sätt manipulera aktivitetsdynamiken och/eller de underliggande samarbetsnätverken kan vi dock starta ett tidigare inaktivt system och föra det vidare mot ett aktivt tillstånd. För att kunna göra det beskriver vi först vår modell och dess underliggande mekanismer. Vi ger sedan illustrativa exempel på empiriska datauppsättningar och karakteriserar den barriär som måste brytas igenom av ett system innan det kan bli självförsörjande i termer av kritisk massa och aktivitetsdynamik. Dessutom expanderar vi på denna empiriska illustration och introducerar ett nytt metriska p-aktivitetsmoment för att bedöma verksamhetens robusthet i samarbetsnätverk.
Activity Dynamics-modellen REF som vi använder för att simulera aktivitet bygger på formalismen hos dynamiska system på nätverk.
13,613,404
Activity Dynamics in Collaboration Networks
{'venue': 'TWEB', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics']}
3,191
Abstract-Malicious skript, såsom JavaScript, är ett av de främsta hoten mot nätverkssäkerhet. JavaScript är inte bara en webbläsare skriptspråk som gör det möjligt för utvecklare att skapa sofistikerade klientsidan gränssnitt för webbprogram, men också används för att utföra attacker taht används för att stjäla användares referenser och lura användare att ge känslig information till obehöriga parter. Vi föreslår en statisk skadlig JavaScript detektionsteknik baserad på SVM(Support Vector Machine). Vår strategi kombinerar statisk detektion med maskininlärning teknik, för att analysera och extrahera skadliga skriptfunktioner, och använda maskininlärning teknik,SVM, för att klassificera skripten.Denna teknik har egenskaperna hos hög detektionshastighet, låg falsk positiv frekvens och upptäckt av okända attacker. Tillämpad på experiment på den förberedda datauppsättningen, uppnådde vi utmärkt detektionsprestanda.
WANG et al REF analyserar och extraherar skadliga skriptfunktioner, med hjälp av maskininlärningsteknik, SVM.
58,913,316
A Static Malicious Javascript Detection Using SVM
{'venue': 'Proceedings of the 2nd International Conference on Computer Science and Electronics Engineering (ICCSEE 2013)', 'journal': 'Proceedings of the 2nd International Conference on Computer Science and Electronics Engineering (ICCSEE 2013)', 'mag_field_of_study': ['Computer Science']}
3,192
Upptäcka mönster som är suddiga i naturen från temporal dataset är en intressant data mining problem. Ett av dessa mönster är månatliga suddiga mönster där mönstren finns i ett visst suddigt tidsintervall varje månad. Det innebär att hitta frekventa uppsättningar och sedan föreningsregler som håller i vissa suddiga tidsintervall, viz. början av varje månad eller mitten av varje månad, etc. I de flesta av de tidigare verken var fuzzin användaren specificerad. Men i vissa tillämpningar, användare kanske inte har tillräckligt med förkunskaper om de dataset som är under övervägande och kan missa vissa fuzziness i samband med problemet. Det kan vara så att användaren inte kan ange samma på grund av begränsning av naturligt språk. I denna artikel föreslår vi en metod för att hitta mönster som håller i vissa suddiga tidsintervall av varje månad där fuzziness genereras av metoden själv. Metodens effektivitet visas med experimentella resultat.
I REF diskuteras metoder för gruvdrift månatliga suddiga mönster.
54,494,842
Discovering Monthly Fuzzy Patterns
{'venue': None, 'journal': 'International Journal of Intelligent Systems', 'mag_field_of_study': ['Mathematics']}
3,193
Abstract-current komprimeringssystem för flyttal-punkt data tar ofta fasta precisionsvärden och komprimera dem till en variabel-längd bit ström, komplicera minneshantering och slumpmässig åtkomst. Vi presenterar ett fast-rate, nästan-lossless komprimeringsschema som kartlägger små block av 4 d-värden i d-mått till ett fast, användarspecifikt antal bitar per block, vilket gör det möjligt att läsa och skriva slumpmässig åtkomst till komprimerade flyttal-data i blockgranularitet. Vår strategi är inspirerad av fasta texturkompressionsmetoder som allmänt används i grafik hårdvara, men har skräddarsytts för de höga dynamiska spännvidd och precisionskrav vetenskapliga applikationer. Vår kompressor är baserad på en ny, lyft, ortogonal blocktransform och inbäddad kodning, vilket gör att varje per block bitström trunkeras när som helst om så önskas, vilket underlättar valet av bithastighet med hjälp av ett enda komprimeringsschema. För att undvika kompression eller dekompression vid varje dataåtkomst, använder vi en programvara write-back cache av okomprimerade block. Vår kompressor har utformats med beräknings enkelhet och hastighet i åtanke för att möjliggöra möjligheten av en hårdvara implementation, och använder bara ett litet antal fasta punkter aritmetiska operationer per komprimerat värde. Vi demonstrerar lönsamheten och fördelarna med förlustkompression i flera applikationer, inklusive visualisering, kvantitativ dataanalys och numerisk simulering.
En annan enastående flyttal förlust kompressor, ZFP REF, ger tre typer av felkontroller: fast absolut fel bunden, fast hastighet och fast precision (antalet okomprimerade bitar per värde).
15,277,033
Fixed-Rate Compressed Floating-Point Arrays
{'venue': 'IEEE Transactions on Visualization and Computer Graphics', 'journal': 'IEEE Transactions on Visualization and Computer Graphics', 'mag_field_of_study': ['Medicine', 'Computer Science']}
3,194
Problemet med att hitta det maximala antalet vertex-skiljbara enfärgade banor i en kantfärgad graf (kallad MaxCDP) har nyligen introducerats i litteraturen, motiverat av tillämpningar i sociala nätverksanalys. I detta papper undersöker vi hur komplexiteten i problemet beror på grafparametrar (nämligen antalet hörn att ta bort för att göra grafen en samling av delade stigar och storleken på vertex omslaget av grafen), vilket är vettigt eftersom grafer i sociala nätverk inte är slumpmässiga och har struktur. Problemet var känt för att vara svårt att approxima i polynom tid och inte fast-parameter dragbar (FPT) för den naturliga parametern. Här visar vi att det fortfarande är svårt att uppskatta, även i FPT-tid. Slutligen introducerar vi en ny variant av problemet, som kallas MaxCDDP, vars mål är att hitta det maximala antalet vertex-avvikande och färg-avvikande enfärgade vägar. Vi utökar några av resultaten av MaxCDP till denna nya variant, och vi bevisar att till skillnad från MaxCDP, MaxCDDP är redan hårt på grafer på avstånd två från isärväg.
En ännu svårare variant av problemet, för att hitta det maximala antalet vertex-avskiljning och färg-avvikande enfärgade vägar, introducerades av Dondi et al. Hoppa över det.
52,915,681
Finding disjoint paths on edge-colored graphs: more tractability results
{'venue': None, 'journal': 'Journal of Combinatorial Optimization', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
3,195
Sekretess är en viktig aspekt av genomträngande och allmänt förekommande datorsystem, och i synnerhet genomträngande hälso- och sjukvård. Med hänvisning till tidigare strategier för att utveckla integritetskänsliga genomträngande vårdapplikationer, beskriver vi en ram för utformningen av sådana system som syftar till att minimera integritetens inverkan på sådana system. Vid genomgången av tidigare tillvägagångssätt tar vi fram och kombinerar gemensamma element för att förena tillvägagångssätten och skapa en mer formell metod för att utforma integritetsmekanismer i genomträngande vårdapplikationer. I samband med detta överväger vi också hur allestädes närvarande teknik påverkar integriteten och metoderna för att minska denna påverkan. Vi visar hur ramverket kan tillämpas genom att använda exempel från tidigare tillvägagångssätt. När det gäller integritetsfrågor syftar ramen till att undanröja ett stort hinder för införande av genomträngande hälso- och sjukvårdssystem, acceptans av tekniken.
Simon Moncrieff föreslog ett ramverk för designen integritet bevara genomträngande hälso-och sjukvård REF.
2,962,884
A Framework for the design of privacy preserving pervasive healthcare
{'venue': '2009 IEEE International Conference on Multimedia and Expo', 'journal': '2009 IEEE International Conference on Multimedia and Expo', 'mag_field_of_study': ['Computer Science']}
3,197
Abstrakt. Arealen under ROC-kurvan, eller motsvarande Gini-index, är ett allmänt använt mått på prestanda för övervakade klassificeringsregler. Den har den attraktiva egenskapen att den kringgår behovet av att specificera kostnaderna för de olika typerna av felklassificering. Den enkla blanketten gäller dock endast för två klasser. Vi utvidgar definitionen till fler än två klasser genom genomsnittliga parvisa jämförelser. Denna åtgärd minskar till standardformuläret i det tvåklassiga fallet. Vi jämför dess egenskaper med standardmåttet för proportion korrekt och en alternativ definition av proportion korrekt baserat på parvis jämförelse av klasser för ett enkelt konstgjort fall och illustrerar dess tillämpning på åtta datamängder. När det gäller de datamängder som vi undersökte gav åtgärderna liknande, men inte identiska resultat, som återspeglade de olika aspekter av prestanda som de mätte. Precis som arealen under ROC-kurvan är den åtgärd vi föreslår användbar i de många situationer där det är omöjligt att ge kostnader för de olika typerna av felklassificering.
I REF utvidgades definitionen av AUC i två klasser med genomsnittliga parvisa jämförelser.
43,144,161
A Simple Generalisation of the Area Under the ROC Curve for Multiple Class Classification Problems
{'venue': 'Machine Learning', 'journal': 'Machine Learning', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
3,198
Överväg att lära sig en policy från exempel expert beteende, utan interaktion med experten eller tillgång till förstärkning signal. Ett tillvägagångssätt är att återställa expertens kostnadsfunktion med omvänd förstärkningsinlärning och sedan ta ut en politik från den kostnadsfunktionen med förstärkningsinlärning. Detta tillvägagångssätt är indirekt och kan vara långsamt. Vi föreslår en ny allmän ram för att direkt extrahera en politik från data, som om den erhölls genom att stärka lärandet efter omvänt förstärkande lärande. Vi visar att en viss omedelbarion av vårt ramverk drar en analogi mellan imitation lärande och generativa kontrariska nätverk, från vilka vi härleder en modellfri imitation lärande algoritm som får betydande prestandavinster över befintliga modellfria metoder i att imitera komplexa beteenden i stora, högdimensionella miljöer.
Generative Adversarial Imitation Learning (GAIL) REF och dess modellbaserade version [1] extraherar en policy direkt från data som om den erhölls genom att förstärka lärande efter omvänd förstärkning lärande.
16,153,365
Generative Adversarial Imitation Learning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
3,199
Det har på ett bra sätt visats att kontradiktoriska exempel, dvs. naturliga bilder med visuellt omärkliga perturbationer läggs till, orsakar djupa nätverk att misslyckas med bildklassificeringen. I detta dokument utvidgar vi kontradiktoriska exempel till semantisk segmentering och objektdetektering som är mycket svårare. Vår observation är att både segmentering och detektion baseras på att klassificera flera mål på en bild (t.ex. målet är en pixel eller ett mottagligt fält i segmentering, och ett objektförslag i detektion). Detta inspirerar oss att optimera en förlustfunktion över en uppsättning mål för att generera motstående störningar. Baserat på detta föreslår vi en ny algoritm som heter Dense Adversary Generation (DAG), som gäller de toppmoderna nätverken för segmentering och detektion. Vi finner att de kontradiktoriska perturbationer kan överföras över nätverk med olika utbildningsdata, baserat på olika arkitekturer, och även för olika igenkänningsuppgifter. Särskilt överföringsförmågan mellan nätverk med samma arkitektur är viktigare än i andra fall. Dessutom visar vi att summering av heterogena störningar ofta leder till bättre överföringsprestanda, vilket ger en effektiv metod för svart-box kontraversarial attack.
Den täta motståndaregenerationen i REF iterativt försämrar både objektdetektering och semantisk segmentering.
3,350,285
Adversarial Examples for Semantic Segmentation and Object Detection
{'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
3,200
Exakt upptäckt av objekt i 3D-punktmoln är ett centralt problem i många tillämpningar, såsom autonom navigering, hushållningsrobotar och förstärkt/virtuell verklighet. För att koppla samman ett mycket sparsamt LiDAR-punktmoln med ett regionförslagsnätverk (RPN) har de flesta befintliga insatser fokuserat på handgjorda funktionsrepresentationer, till exempel en fågelperspektivsprojicering. I detta arbete tar vi bort behovet av manuell funktionsteknik för 3D-punktmoln och föreslår VoxelNet, ett generiskt 3D-detektionsnätverk som förenar funktionsextraktion och avgränsande box förutsägelse i ett enda steg, end-to-end trainingable djup nätverk. Specifikt delar VoxelNet upp ett punktmoln i lika stora 3D-voxlar och omvandlar en grupp punkter inom varje voxel till en enhetlig funktionsrepresentation genom det nyligen införda Voxel-funktionskodningsskiktet (VFE). På så sätt kodas punktmolnet som en beskrivande volymetrisk representation, som sedan ansluts till en RPN för att generera detektioner. Experiment på KITTI bildetektionsriktmärket visar att VoxelNet överträffar de senaste LiDAR-baserade 3D-detektionsmetoderna med stor marginal. Dessutom lär sig vårt nätverk en effektiv diskriminerande representation av objekt med olika geometrier, vilket leder till uppmuntrande resultat i 3D-detektering av fotgängare och cyklister, baserat på endast LiDAR. Nyligen, Qi et al. [31] föreslagna PointNet, en end-toend djupa neurala nätverk som lär sig punktvisa funktioner direkt från punktmoln. Detta tillvägagångssätt visade imponerande resultat på 3D-objektigenkänning, 3D-objektdelsegmentering och punktvis semantiska segmenteringsuppgifter. I [32] infördes en förbättrad version av PointNet som gjorde det möjligt för nätverket att lära sig lokala strukturer på olika nivåer. För att uppnå tillfredsställande resultat, dessa två metoder tränas funktion transformatornätverk på alla inmatningspunkter (-1k poäng). Eftersom typiska punktmoln som erhållits med hjälp av LiDARs innehåller 100k poäng, utbildning architec-4490
Zhou m.fl. REF delar upp en fullständig LiDAR-punktmolnscen i lika stora 3D-voxlar och föreslår ett Voxel-funktionskodningsskikt för att lära sig funktioner för varje voxel.
42,427,078
VoxelNet: End-to-End Learning for Point Cloud Based 3D Object Detection
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
3,201
Begränsningar som införts av den traditionella praxisen i finansinstitut att köra riskanalys på skrivbordet innebär att många förlitar sig på modeller som antar en "normal" Gaussisk fördelning av händelser som allvarligt kan underskatta den verkliga risken. I detta dokument föreslår vi en alternativ tjänst som använder den elastiska kapaciteten i Cloud Computing för att undkomma begränsningarna i skrivbordet och producera exakta resultat snabbare. Business Intelligence as a Service (BIaaS) i molnet har en strategi med dubbla tjänster för att beräkna risk och prissättning för finansiell analys. I den första typen av BIaS-tjänst använder tre API:er för att simulera Heston-modellen för att beräkna risker och tillgångspriser, och beräknar volatiliteten (osystematiska risker) och den implicita volatiliteten (systematiska risker) som kan spåras när som helst. Den andra typen av BIaS-tjänst använder två API:er för att tillhandahålla affärsanalys för aktiemarknadsanalys och beräkna resultat i visualiseringsformat, så att aktieägare utan förkunskaper kan förstå. En fullständig fallstudie med två uppsättningar experiment presenteras för att stödja giltigheten och originaliteten av BIaaS. Ytterligare tre exempel används för att stödja noggrannheten i den förutsagda aktieindexrörelsen till följd av användningen av Heston Model och dess tillhörande API:er. Vi beskriver uppbyggnadens arkitektur, tillsammans med exempel och resultat som visar hur vår strategi förbättrar risk- och investeringsanalys och bibehåller noggrannhet och effektivitet samtidigt som prestandan förbättras över stationära datorer. Heston Model Simulations; Heston Model; Business Intelligence as a Service (BIaaS); Kalibration; API:er för aktieindex; Visualisering i molnet; SaaS i det privata molnet. 1. Vad är det för fel på dig?
Han valde Heston Model och dess tillhörande API för att beräkna förutsagd aktieindexrörelse och erbjuda en god grad av noggrannhet REF.
10,332,285
The Business Intelligence as a Service in the Cloud
{'venue': 'Future Gener. Comput. Syst.', 'journal': 'Future Gener. Comput. Syst.', 'mag_field_of_study': ['Computer Science']}
3,202
Abstract Preferens frågor är relationell algebra eller SQL frågor som innehåller förekomster av winnow operatör (hitta de mest föredragna tuples i en given relation). Vi presenterar här ett antal semantiska optimeringstekniker som är tillämpliga på preferensfrågor. Teknikerna gör det möjligt att ta bort överflödiga förekomster av winnow operatör och att tillämpa en mer effektiv algoritm för beräkning av winnow. Vi studerar också utbredningen av integritet begränsningar i resultatet av winnow. Vi har identifierat nödvändiga och tillräckliga villkor för tillämpligheten av våra tekniker, och formulerat dessa villkor som tvingande tillfredsställande problem.
I REF undersökte författaren semantisk optimering av preferensfrågor för att ta bort överflödiga förekomster av föredragna värden i relationsdatabaser.
14,047,586
Semantic Optimization of Preference Queries
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
3,203
Ett Bloom filter är en rymdeffektiv datastruktur som besvarar frågor om medlemskap med en viss chans till ett falskt positivt. Vi introducerar problemet med att utforma generaliseringar av Bloom filter utformade för att svara på frågor i formuläret, "Är x nära ett element av S?" där närhet mäts under ett lämpligt mått. En sådan datastruktur skulle ha flera naturliga tillämpningar i nätverks- och databastillämpningar. Vi visar hur lämpliga datastrukturer kan utformas med hjälp av lokalkänsliga hashfunktioner som byggsten, och vi analyserar specifikt prestandan hos ett naturligt system under hammingmåttet.
Kirscsh och Mitzenmacher REF föreslår en generalisering av Bloom filtret för att svara på frågor i formuläret "Är x nära ett element i filtret?" där närhet eller likhet definieras enligt hammningsmetoden.
12,622,481
Distance-Sensitive Bloom Filters
{'venue': 'In Proceedings of the Eighth Workshop on Algorithm Engineering and Experiments (ALENEX', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,204
Det är känt att det är ett NP-komplett problem att vik en proteinkedja i kubikfatteriet. Vi anser att ett till synes lättare problem, med tanke på en 3D-veck av en proteinkedja (koordinater av dess « atomer), vi vill hitta närmaste lattice approximation av denna veck. Detta problem har undersökts under namn som "lattice approximation av en proteinkedja", "proteinkedjemonteringsproblem" och "building protein lattice modeller". Vi visar att detta problem är NP-komplett för cubic lattice med sidan 3.8Å och koordinatrotens medel-kvadratavvikelse.
PCLF problem har visat sig vara NP-fullständig REF.
6,320,849
Fitting Protein Chains to Cubic Lattice is NP-Complete
{'venue': 'APBC', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science', 'Medicine']}
3,205
Ansiktsigenkänning med stora pose- och belysningsvariationer är ett utmanande problem i datorseendet. Detta dokument tar upp denna utmaning genom att föreslå en ny inlärningsbaserad ansiktsrepresentation: ansiktsidentitetsbevarande (FIP). Till skillnad från konventionella ansiktsdeskriptorer, FIP-funktioner kan avsevärt minska intra-identitet varianser, samtidigt som diskriminering mellan identiteter upprätthålls. Dessutom kan FIP-funktioner som extraheras från en bild under någon pose och belysning användas för att rekonstruera dess ansikte bild i kanonisk vy. Denna egenskap gör det möjligt att förbättra prestandan hos traditionella deskriptorer, såsom LBP [2] och Gabor [31], som kan extraheras från våra rekonstruerade bilder i kanonisk vy för att eliminera variationer. För att lära oss FIP-funktionerna designar vi noggrant ett djupt nätverk som kombinerar funktionens extraktionslager och återuppbyggnadslagret. Den förra kodar in en ansiktsbild i FIP-funktionerna, medan den senare omvandlar dem till en bild i den kanoniska vyn. Omfattande experiment i den stora ansiktsdatabasen MultiPIE [7] visar att den avsevärt överträffar de senaste metoderna för ansiktsigenkänning.
Zhu m.fl. REF föreslog ett djupt nätverk för att omvandla en ansiktsbild under godtycklig ställning och belysning till en kanonisk vy.
11,136,971
Deep Learning Identity-Preserving Face Space
{'venue': '2013 IEEE International Conference on Computer Vision', 'journal': '2013 IEEE International Conference on Computer Vision', 'mag_field_of_study': ['Computer Science']}
3,206
Abstract-A multi-access trådlöst nätverk med N-överföring noder, var och en utrustad med en energi skörd (EH) enhet och ett uppladdningsbart batteri av begränsad kapacitet, studeras. Vid varje tidpunkt slot (TS) en nod fungerar med en viss sannolikhet, vilket kan bero på tillgängligheten av data, eller tillståndet på dess kanal. Energiankomstprocessen vid varje nod är modellerad som en oberoende tvåstats Markovprocess, så att en nod vid varje TS antingen skördar en energienhet eller ingen. Vid varje TS schemaläggs en delmängd av noderna av åtkomstpunkten (AP). Den schemaläggningspolicy som maximerar det totala genomströmningen studeras under förutsättning att AP inte känner till tillstånden i vare sig EH-processerna eller batterierna. Problemet identifieras som ett restless multi-armad bandit (RMAB) problem, och en övre gräns för den optimala schemaläggningspolitiken hittas. Enligt vissa antaganden om EH-processerna och batteristorlekarna har den myopiska policyn (MP) visat sig vara optimal. I det allmänna fallet jämförs MP:s prestanda numeriskt med den övre gränsen. Index Terms-Energy skörd, myopic policy, multi-access, online schemaläggning, delvis observerbar Markov beslutsprocess, rastlös multi-armad bandit problem.
Blasco och Gündüz REF studerade ett trådlöst system med flera åtkomster med EH-sändare, och åtkomstproblemen modellerades som en delvis observerbar Markov-beslutsprocess (MDP).
11,341,596
Multi-Access Communications With Energy Harvesting: A Multi-Armed Bandit Model and the Optimality of the Myopic Policy
{'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
3,207
Sammanfattning av denna webbsida: Human Activity Recognition (HAR) syftar till att identifiera de åtgärder som utförs av människor med hjälp av signaler som samlats in från olika sensorer inbäddade i mobila enheter. Under de senaste åren har djupinlärningstekniken ytterligare förbättrat HAR-prestandan på flera referensdatauppsättningar. I detta dokument föreslår vi endimensionella Convolutional Neural Network (1D CNN) för HAR som använder sig av en splitter- och erövra-baserad klassificeringsutbildning i kombination med testdatavässning. Vår strategi utnyttjar en två-stegs lärande av flera 1D CNN-modeller; vi bygger först en binär klassificerare för att känna igen abstrakta aktiviteter, och sedan bygga två flerklassiga 1D CNN-modeller för att känna igen enskilda aktiviteter. Vi inför sedan testdata skärpning under förutsägelsefasen för att ytterligare förbättra aktivitetsigenkänningsnoggrannheten. Även om det har gjorts många undersökningar för att undersöka fördelarna med denoisering av aktivitetssignaler för HAR, har få undersökningar undersökt effekten av testdatas skärpning för HAR. Vi utvärderar effektiviteten av vår strategi på två populära HAR-riktmärke dataset, och visar att vår strategi överträffar både två steg 1D CNN-enbart metoden och andra toppmoderna metoder.
Cho och Yoon föreslog en aktivitetsigenkänningsmetod som använder en tvåstegsprocess för aktivitetsigenkänning och testdatavässning REF.
4,613,379
Divide and Conquer-Based 1D CNN Human Activity Recognition Using Test Data Sharpening †
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Medicine', 'Engineering', 'Computer Science']}
3,208
Under de senaste åren har stokastisk lutning nedstigning (SGD)-baserade tekniker blivit standardverktyg för att träna neurala nätverk. Men formell teoretisk förståelse av varför SGD kan träna neurala nätverk i praktiken saknas till stor del. I detta dokument gör vi framsteg med att förstå detta mysterium genom att tillhandahålla en konvergensanalys för SGD på en rik delmängd av två lager feedforward-nätverk med ReLU-aktiveringar. Denna delmängd kännetecknas av en speciell struktur som kallas "identitetskartläggning". Vi bevisar att, om input följer av Gaussian distribution, med standard O(1/ ε d) initiering av vikterna, SGD konvergerar till det globala minimum i polynom antal steg. Till skillnad från vanliga vaniljnätverk gör "identitetskartläggningen" vårt nätverk asymmetriskt och därmed är det globala minimumet unikt. Som komplement till vår teori kan vi också experimentellt visa att flerlagersnätverk med denna kartläggning har bättre prestanda jämfört med normala vaniljnätverk. Vår konvergensteori skiljer sig från traditionella icke-konvexa optimeringstekniker. Vi visar att SGD konvergerar till optimal i "två faser": I fas I pekar lutningen åt fel håll, men en potentiell funktion g minskar gradvis. Sedan i fas II, SGD går in i en trevlig en punkt konvex region och konvergerar. Vi visar också att identitetskartläggningen är nödvändig för konvergens, eftersom den flyttar utgångspunkten till en bättre plats för optimering. Experimentet verifierar våra påståenden. ArXiv:1705.09886v1 [cs.LG] 28 maj 2017 Expressivitet. Även tvålagers nätverk har stor uttryckskraft. Till exempel, två lager nätverk med sigmoid aktiveringar kunde ungefärlig någon kontinuerlig funktion [19, 6, 3]. ReLU är den senaste aktiveringsfunktionen, och utför mycket bättre än sigmoid [26, 12], men färre och svagare resultat på expressivitet av feedforward ReLU nätverk är kända [25, 28, 27]. Lära sig. De flesta tidigare resultat på lärande neurala nätverk är negativa [35, 24, 34], eller positiva men med särskilda algoritmer andra än SGD [20, 39, 33, 13], eller med starka antaganden på modellen [1, 2]. [31] visade att det med hög sannolikhet finns en ständigt minskande väg från slumpmässig startpunkt till det globala minimum, men SGD kanske inte följer denna väg. Linjärt nätverk och oberoende aktivering. Vissa tidigare verk förenklade modellen genom att ignorera aktiveringsfunktionerna och överväga djupa linjära nätverk [32, 21] eller djupa linjära kvarvarande nät [16], som bara kan lära linjära funktioner. Vissa tidigare resultat bygger på oberoende aktivering antagande att aktiveringarna av ReLU och input är oberoende, vilket är orealistiskt [4, 21]. Saddlepoäng. Det observeras att sadelpunkt är inte ett stort problem för neurala nätverk [8, 15]. I allmänhet skulle SGD, om målet är strikt sadlat [10], kunna undkomma alla sadelpunkter.
REF visade SGD kan återvinna de verkliga vikterna av en ettlager ResNet-modell med ReLU aktivering under antagandet att den spektral normen för de verkliga vikterna begränsas av en liten konstant.
8,592,143
Convergence Analysis of Two-layer Neural Networks with ReLU Activation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
3,209
Abstract-This paper presenterar den nya insikten att SLAM-informationsmatrisen är exakt sparsam i ett försenat statligt ramverk. En sådan ram används i vybaserade representationer av miljön som förlitar sig på scanmatching rå sensor data. Skanning rå data resulterar i virtuella observationer av robot rörelse med avseende på en plats dess tidigare varit. Den exakta sparsamheten i den försenade-tillståndsinformationsmatrisen är i motsats till andra nya funktionsbaserade SLAM-informationsalgoritmer som Sparse Extended Information Filters eller Thin Junction Tree Filters. Dessa metoder måste göra approximationer för att tvinga den funktionsbaserade SLAM-informationsmatrisen att vara sparsam. Fördelen med den exakta sparsamheten i det fördröjda systemet är att det gör det möjligt för en att dra nytta av parameteriseringen av informationsutrymmet utan att behöva göra några approximationer. Därför kan det ge likvärdiga resultat till "full kovarians"-lösningen.
Eustice m.fl. REF presenterade en teknik för att använda exakt glesa informationsmatriser i ett försenat ramverk.
1,158,664
Exactly Sparse Delayed-State Filters
{'venue': 'Proceedings of the 2005 IEEE International Conference on Robotics and Automation', 'journal': 'Proceedings of the 2005 IEEE International Conference on Robotics and Automation', 'mag_field_of_study': ['Computer Science']}
3,210
Abstract-Den autonoma landningen av ett obemannade luftfartyg (UAV) är fortfarande ett öppet problem. Tidigare arbete fokuserade på användningen av handgjorda geometriska funktioner och sensor-data fusion för att identifiera en fiducial markör och vägleda UAV mot det. I den här artikeln föreslår vi en metod baserad på djup förstärkning inlärning som bara kräver lågupplösta bilder som kommer från en nedåttittande kamera för att köra fordonet. Det föreslagna tillvägagångssättet bygger på en hierarki av Deep Q-Networks (DQN) som används som avancerade styrpolicy för navigeringen i olika faser. Vi implementerade olika tekniska lösningar, såsom kombinationen av vanilj och dubbla DQNs tränas med hjälp av en form av prioriterad buffert replay som separerar erfarenheter i flera behållare. Den optimala kontrollpolicyn är inlärd utan någon mänsklig övervakning, vilket ger agenten en gles belöningsfeedback som indikerar framgång eller misslyckande av landningen. Resultaten visar att fyrhjulingen självständigt kan landa på en stor mängd simulerade miljöer och med relevant buller, vilket visar att understrykningen DQNs kan generalisera effektivt på osedda scenarier. Dessutom visade det sig att nätverket under vissa förhållanden överträffade mänskliga piloter.
Polvara m.fl. Ref har föreslagit ett tillvägagångssätt som bygger på en hierarki av djupa Q-nätverk (DQN) som kan användas som en avancerad styrpolicy för navigeringen i olika faser.
52,162,679
Toward End-to-End Control for UAV Autonomous Landing via Deep Reinforcement Learning
{'venue': '2018 International Conference on Unmanned Aircraft Systems (ICUAS)', 'journal': '2018 International Conference on Unmanned Aircraft Systems (ICUAS)', 'mag_field_of_study': ['Computer Science']}
3,211
Abstrakt. Få djupare insikter i online surfa beteende webbanvändare har varit ett stort forskningsämne sedan tillkomsten av WWW. Det ger användbar information för att optimera webbdesign, webb webbläsare design, sökmotorer erbjudanden och online-annons. Vi hävdar att ny teknik och nya tjänster fortsätter att ha betydande effekter på hur människor surfar på webben. Till exempel att lyssna på musikklipp på YOUTUBE eller på en radiostation på LAST.FM kräver inte att användarna sitter framför sin dator. Sociala medier och nätverkssajter som FACEBOOK eller mikrobloggande webbplatser som TWITTER har lockat nya typer av användare som tidigare var mindre benägna att gå online. Dessa förändringar i hur människor surfar på webben har nya egenskaper som inte är väl förstådda hittills. I denna uppsats ger vi nya och unika insikter genom att presentera de första resultaten av DOBBS, vårt långsiktiga arbete för att skapa en omfattande och representativ datauppsättning som fångar onlineanvändares beteende. Vi undersöker först begreppen parallell surfning och passiv surfning, visar att surfa på webben är inte längre en dedikerad uppgift för många användare. Baserat på dessa resultat analyserar vi sedan deras inverkan på beräkningen av en användares uppehållstid - d.v.s. den tid användaren tillbringar på en webbsida -som har blivit ett viktigt mått för att kvantifiera webbplatsens popularitet.
Författare i REF har i sin studie analyserat effekten av parallell och passiv surfning på beräkningen av användarens tid som spenderas på webbsidan och introducerade nya mätvärden, fokuserat förhållande och aktivitetsförhållande, för att kvantifiera populariteten av webbplatser som hur engagerande och intressant en webbplats är.
14,748,998
Analysing Parallel and Passive Web Browsing Behavior and its Effects on Website Metrics
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
3,212
Abstrakt. Vi presenterar en metod för att upptäcka objekt i bilder med hjälp av ett enda djupt neuralt nätverk. Vårt tillvägagångssätt, som heter SSD, diskretiserar utdatautrymmet för att avgränsa rutor till en uppsättning standardrutor över olika proportioner och skalor per funktion kartplats. Vid förutsägelsetid genererar nätverket poäng för närvaron av varje objektkategori i varje standardruta och skapar justeringar i rutan för att bättre matcha objektets form. Dessutom kombinerar nätverket förutsägelser från flera funktionskartor med olika upplösningar för att naturligt hantera objekt i olika storlekar. SSD är enkel i förhållande till metoder som kräver objektförslag eftersom det helt eliminerar förslagsgenerering och efterföljande pixel eller funktion omampling stadier och inkapslar all beräkning i ett enda nätverk. Detta gör SSD lätt att träna och enkelt att integrera i system som kräver en detektionskomponent. Experimentella resultat på PASCAL VOC, COCO och ILSVRC datauppsättningar bekräftar att SSD har konkurrenskraftig noggrannhet till metoder som utnyttjar ytterligare ett objektförslag steg och är mycket snabbare, samtidigt som det ger en enhetlig ram för både utbildning och slutsatser. För 300 × 300 indata uppnår SSD 74,3 % mAP 1 på VOC2007-test vid 59 FPS på en Nvidia Titan X och för 512 × 512 indata uppnår SSD 76,9 % mAP, vilket resulterar i en jämförbar toppmodern snabbare R-CNN-modell. Jämfört med andra enstaka steg metoder, SSD har mycket bättre noggrannhet även med en mindre indata bildstorlek. Koden finns på https://github.com/weiliu89/caffe/tree/ssd.
Den enskotts multi-box detektor (SSD) av REF ger en förbättring av nätverksarkitekturen genom att lägga till ett gränssnitt extra funktionsskikt ovanpå VGGNet-16 i kombination med idén att använda förutsägelser från flera funktionskartor med olika upplösningar som hanterar objekt med olika storlekar.
2,141,740
SSD: Single Shot MultiBox Detector
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
3,213
Den senaste utvecklingen inom smartphones och trådlös kommunikationsteknik som beacons, Wi-Fi och ultrabredband har gjort det möjligt att förverkliga inomhuspositioneringssystem (IPS) med några meters noggrannhet. I detta dokument, en förbättring jämfört med traditionell fingeravtryck lokalisering föreslås genom att kombinera den med viktad centroid lokalisering (WCL). Den föreslagna lokaliseringsmetoden minskar det totala antalet referenspunkter för fingeravtryck över lokaliseringsutrymmet, vilket minimerar både den tid som krävs för att läsa radiofrekvenssignaler och det antal referenspunkter som behövs under inlärningsprocessen för fingeravtryck, vilket så småningom gör processen mindre tidskrävande. Den föreslagna positioneringen har två viktiga verksamhetssteg. I det första steget har vi insett fingeravtryck som använder lättbefolkade referenspunkter (RP) och WCL individuellt. Med hjälp av den plats som uppskattas i det första steget körs WCL igen för den slutliga lokaliseringsberäkningen. Den föreslagna lokaliseringstekniken minskar antalet nödvändiga fingeravtrycks-RP med mer än 40% jämfört med normal lokaliseringsmetod för fingeravtryck med ett liknande skattningsfel.
Santosh m.fl. identifierade den viktiga faktorn för att minska antalet referenspunkter med hjälp av fingeravtryck och viktad centroid lokalisering REF.
207,650,719
Practical Fingerprinting Localization for Indoor Positioning System by Using Beacons
{'venue': 'J. Sensors', 'journal': 'J. Sensors', 'mag_field_of_study': ['Engineering', 'Computer Science']}
3,214
Abstrakt. Vi föreslår användning av formella språk av oändliga ord över alfabetet av uppgift identifierare som ett gränssnitt mellan kontroll design och programimplementeringar. Vi hävdar att detta tillvägagångssätt är mer flexibelt än det klassiska schemaläggningsramverket i realtid baserat på periodiska uppgifter, och tillåter sammansättning av gränssnitt genom språkteoretiska operationer. Vi visar att ändlig automat över oändliga ord erbjuder analyzable representation och kan fånga många intressanta gränssnitt specifikationer såsom exponentiellt stabilitet switchade linjära system.
I REF föreslogs användning av formella språk med finita ord mellan kontrolldesign och programimplementeringar.
8,515,673
Automata Based Interfaces for Control and Scheduling
{'venue': 'HSCC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,215
Abstract-Linked öppna data (LOD), som tillhandahålls av ett snabbt växande antal källor utgör en mängd lättillgänglig information. Dessa uppgifter är dock inte lätta att förstå. Det ges vanligtvis som en uppsättning (RDF) tripletter, ofta tillräckligt i form av enorma filer som täcker många domäner. Dessutom har data vanligtvis en lös struktur när den härleds från slutanvändargenererade källor, såsom Wikipedia. Slutligen, kvaliteten på de faktiska uppgifterna är också oroande, eftersom det kan vara ofullständig, dåligt formaterad, inkonsekvent, etc. För att förstå och profilera sådana länkade öppna data räcker det inte med traditionella dataprofileringsmetoder. Med ProLOD föreslår vi en serie metoder som sträcker sig från domännivå (kluster, märkning), via schemanivå (matchning, disambiguation), till datanivå (datatypdetektering, mönsterdetektering, värdefördelning). Paketeras i ett interaktivt, webbaserat verktyg, de tillåter iterativ prospektering och upptäckt av nya LOD-källor. Därför kan användarna snabbt bedöma hur relevant källan är för det aktuella problemet (t.ex. någon integrationsuppgift), fokusera på och utforska den relevanta undergruppen. Dataprofilering omfattar en väletablerad uppsättning grundläggande operationer, som analyserar en (relationell) datauppsättning och skapar metadata som är användbara för att förstå data och upptäcka oegentligheter. Profilering utförs oftast på ett kolumn-för-kolumn sätt, till exempel för att upptäcka frekventa värdemönster eller unikheten av kolumnvärden. Gemensamma profileringsmetoder och verktyg har det underliggande antagandet av en väldefinierad semantik i kolumnen och mestadels regelbundna data. Dessa antaganden gäller inte länkade öppna data (LOD) som publiceras på webben. Sådana uppgifter kommer från olika källor, t.ex. öppen källkodsgemenskaper (t.ex. Wikipedia) eller projekt som är inriktade på ett specifikt ämne (t.ex. DrugBank [1]). Dessa olika ursprung ger upphov till en mångfald av hur information uttrycks som datavärden och hur dessa värden är strukturerade. Dessa datauppsättningar kopplar dock samman varandra. Den övergripande LOD visionen är att möjliggöra generering av ny kunskap baserad på en mängd allmänt tillgängliga sammankopplade data. För att utnyttja mångfalden av sådana öppna data krävs dock i) en första förståelse av varje enskild datauppsättning och ii) en översikt över tillgängliga data som helhet. Först då kan dataanalytiker fokusera på den delmängd av LOD som krävs för det aktuella problemet. Klassiska profileringstekniker är, såvitt vi vet, inte lämpliga för att hantera dessa nya massiva uppsättningar av öppna (och därmed heterogena) data. Vi föreslår en ny iterativ och interaktiv metod för profilering av LOD. Vi föreställer oss en process som gör det möjligt för en användare att dela in data i grupper, granska enkel statistik eller sofistikerade gruvresultat på gruppnivå, och sedan ompröva grupperingsbeslut för att revidera dem för att förfina profileringsresultatet. I detta dokument rapporterar vi om ProLOD, en första prototyp som vi utvecklat för att ta steget mot denna vision. Som en proof-of-concept, fokuserar vi på infoboxen (utan ontologi kartläggningar) och korta abstrakta data delmängd av DBpedia 3.2 [2]. DBpedia genereras från Wikipedia och omfattar 34,2 miljoner tripletter.
ProLOD i REF är en iterativ och interaktiv metod för profilering av länkade öppna data.
10,784,352
Profiling linked open data with ProLOD
{'venue': '2010 IEEE 26th International Conference on Data Engineering Workshops (ICDEW 2010)', 'journal': '2010 IEEE 26th International Conference on Data Engineering Workshops (ICDEW 2010)', 'mag_field_of_study': ['Computer Science']}
3,216
Sammanfattning — Exceptioner har traditionellt använts för att hantera sällan förekommande och oförutsägbara händelser under normalt programgenomförande. Nuvarande trender inom mikroprocessor- och operativsystemsdesign fortsätter att öka kostnaden för händelsehantering. På grund av de djupa rörledningarna och de omfattande superskalararkitekturerna hos dagens mikroprocessorer kan en händelse behöva upphäva ett stort antal instruktioner under flygningen. Stora registerfiler kräver befintliga programvarusystem för att spara och återställa en betydande mängd processtillstånd innan du utför en undantagshanterare. Samtidigt utför processorer i miljöer som levererar högre händelsefrekvenser och kräver högre prestanda. Vi har utvecklat en alternativ arkitektur, Concurrent Event Handling, som inkluderar multithreading i händelsehanteringsarkitekturer. I stället för att hantera händelsen i den förslitande trådens arkitektoniska register och rörledningsregister, förs felhanteraren in i sitt eget gängspår och körs samtidigt med den förslitande tråden. Microbenchmark program visar en faktor av 3 speedup för samtidig händelsehantering över en traditionell arkitektur på kod som tar frekventa undantag. Vi visar också betydande hastigheter på två event-baserade applikationer. Konkurrent händelsehantering genomförs i MIT Multi-ALU Processor (MAP) chip.
Keckler m.fl. REF presenterar en alternativ arkitektur för SMT-processorer, samtidig händelsehantering, som innehåller multitrådning i händelsehanteringsarkitekturer.
10,122,895
Concurrent Event Handling through Multithreading
{'venue': 'IEEE Transactions on Computers', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,217
Att studera naturligt språk, och särskilt hur människor beskriver världen runt omkring dem, kan hjälpa oss att bättre förstå den visuella världen. Den kan i sin tur också hjälpa oss att skapa ett naturligt språk som beskriver den här världen på ett mänskligt sätt. Vi presenterar en enkel men effektiv metod för att automatiskt komponera bildbeskrivningar givet datorseende baserade ingångar och med hjälp av web-scale n-grams. Till skillnad från de flesta tidigare verk som sammanfattar eller hämtar befintlig text som är relevant för en bild, komponerar vår metod meningar helt från grunden. Experimentella resultat visar att det är genomförbart att generera enkla textbeskrivningar som är relevanta för det specifika innehållet i en bild, samtidigt som kreativitet i beskrivningen - göra för mer mänskliga-liknande kommentarer än tidigare metoder.
Löjtnant m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m för m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. REF presenterar en blygsam men aktiv teknik för att automatiskt komponera bildbeskrivningar förväntade datorseende baserade ingångar och med hjälp av web-scale n-gram.
10,702,193
Composing Simple Image Descriptions using Web-scale N-grams
{'venue': 'Proceedings of the Fifteenth Conference on Computational Natural Language Learning', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,218
Abstract-Web Services är den mest kända implementeringen av serviceorienterade arkitekturer som har fört med sig några utmanande forskningsfrågor. En av dessa är sammansättningen, d.v.s. förmågan att rekursivt konstruera en sammansatt webbtjänst som ett arbetsflöde för andra befintliga webbtjänster, som utvecklas av olika organisationer och erbjuder olika funktioner (t.ex. biljettköp, betalning), transaktionsegenskaper (t.ex. kompenserbara eller inte), och Quality of Service (QoS) värden (t.ex., utförande pris, framgångsgrad). Valet av en webbtjänst, för varje aktivitet i arbetsflödet, som uppfyller användarens krav, är fortfarande en viktig utmaning. I själva verket är valet av en webbtjänst bland en uppsättning av dem som uppfyller vissa funktioner en kritisk uppgift, i allmänhet beroende på en kombinerad utvärdering av QoS. De konventionella modellerna för QoS-medveten sammansättning tar dock inte hänsyn till de transaktionsmässiga begränsningarna under sammansättningsprocessen. I detta dokument behandlas frågan om att välja och komponera webbtjänster, inte bara efter deras funktionskrav utan också efter deras transaktionsegenskaper och QoS-egenskaper. Vi föreslår en urvalsalgoritm som uppfyller användarens önskemål, uttryckt som vikter över QoS-kriterier och som risknivåer som sermantiskt definierar transaktionskraven. Bevis och experimentella resultat presenteras.
TQosdriven metod består av ett urval av webbtjänster som stöder transaktions- och kvalitetsdriven WS-sammansättning REF.
9,256,019
TQoS: Transactional and QoS-Aware Selection Algorithm for Automatic Web Service Composition
{'venue': 'IEEE Transactions on Services Computing', 'journal': 'IEEE Transactions on Services Computing', 'mag_field_of_study': ['Computer Science']}
3,219
Abstract-This paper visar att kollisionsdetekteringsintensiva applikationer som robotisk rörelseplanering kan påskyndas genom att utföra kollisionskontroller med en maskininlärningsmodell. Vi föreslår Fastron, en inlärningsbaserad algoritm för att modellera en robots konfigurationsutrymme för att användas som en proxykollisionsdetektor i stället för standard geometriska kollisionskontrollatorer. Vi visar att utnyttjandet av proxykollisionsdetektorn resulterar i upp till en storleksordning snabbare prestanda i robotsimulering och robotplanering än toppmoderna kollisionsdetekteringsbibliotek. Våra resultat visar att Fastron lär sig en modell mer än 100 gånger snabbare än en konkurrerande C-rymdmodelleringsmetod, samtidigt som det ger teoretiska garantier för inlärningskonvergens. Med hjälp av OMPLs rörelseplaneringsbibliotek kunde vi skapa initiala rörelseplaner för alla experiment med varierande robot- och miljökomplex. Med Fastron kan vi upprepade gånger utföra planering från grunden med 56 Hz hastighet, visar dess tillämpning mot autonom kirurgisk assistans uppgift i delade miljöer med mänskliga kontrollerade manipulatorer. Alla prestandavinster uppnåddes trots att endast CPU-baserade beräkningar användes, vilket tyder på ytterligare beräkningsvinster med en GPU-strategi som kan parallellisera tensor algebra. Koden är tillgänglig online 1.
Det visade sig att kollisionskontroller kan vara en storleksordning snabbare än toppmoderna kollisionsdetektorer REF.
67,787,709
Learning-Based Proxy Collision Detection for Robot Motion Planning Applications
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Engineering', 'Computer Science', 'Mathematics']}
3,220
Abstract-This paper tar upp problemet med variabel-längd kodning över en diskret minneslös kanal (DMC) med ljudlös återkoppling. Papperet ger en stokastisk kontroll bild av problemet vars lösning analyseras via en nyligen föreslagna symmetriized divergens, som kallas extrinsic Jensen-Shannon (EJS) divergens. Det visas att strikt positiva nedre gränser på EjS divergens ger icke-asymptotiska övre gränser på den förväntade kodlängden. Papperet presenterar strikt positiva nedre gränser för EjS divergens, och därmed icke-asymptotiska övre gränser på den förväntade kodlängden, för följande två kodningsprogram: variabel-längd bakre matchning och MaxEJS kodningsschema som bygger på en girig maximering av SJS divergens. Som en asymptotisk följd av de viktigaste resultaten, ger detta papper också en hastighet-tillförlitlighet test. Variabel-längd kodning system som uppfyller villkor för testet för parametrarna R och E, garanteras att uppnå hastighet R och fel exponent E. Resultaten är specialiserade för bakre matchning och MaxEJS för att erhålla deterministiska enfas kodningsscheman uppnå kapacitet och optimal fel exponent. För specialfallet av symmetriska binära ingångar föreslås och analyseras enklare deterministiska system för optimal prestanda. Index Terms-Discrete minneslös kanal, variabel-längd kodning, sekventiell analys, feedback vinst, Burnahev tillförlitlighet funktion, optimal fel exponent.
Naghsvar och Tavidi anses variabel-längd kodning med feedback och utnyttjade principer från stokastisk kontroll och bakre matchning för att demonstrera icke-asymptotiska övre gränser på förväntad kodlängd och deterministiska enfas kodning system som uppnår kapacitet och uppnå optimal fel exponenter REF.
6,697,402
Extrinsic Jensen-Shannon Divergence: Applications to Variable-Length Coding
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
3,221
Abstract-Target spårningsalgoritmer antar vanligtvis att de mottagna mätningarna härrör från en punktkälla. I många scenarier är dock detta antagande inte möjligt, så att mätningar kan härröra från olika platser, namngivna mätkällor, på målytan. Därefter är det nödvändigt att införliva målgraden i skattningsförfarandet för att få robusta och exakta skattningsresultat. I detta dokument introduceras det nya konceptet Random Hypersurface Models för utökade mål. En slumpmässig hyperytan modell antar att varje mätkälla är ett element i en slumpmässigt genererad hyperytan. Tillämpligheten av detta tillvägagångssätt visas med hjälp av en elliptisk målform. I detta fall anger en slumpmässig hypersurfingmodell det slumpmässiga (relativa) Mahalanobisavståndet för en mätkälla till mitten av målobjektet. Som en följd av detta kan man få goda skattningsresultat även om den verkliga målformen skiljer sig avsevärt från den modellerade formen. Dessutom är Random Hypersurface Modeller beräkningsbart med vanliga icke-linjära stokastiska stat estimatorer.
En elliptisk RHM REF är en specifik mätkällamodell (se bild). 2 ) för utökade mål.
17,752,279
Random Hypersurface Models for extended object tracking
{'venue': '2009 IEEE International Symposium on Signal Processing and Information Technology (ISSPIT)', 'journal': '2009 IEEE International Symposium on Signal Processing and Information Technology (ISSPIT)', 'mag_field_of_study': ['Computer Science']}
3,222
Nätstockningar uppstår när den erbjudna trafikbelastningen överstiger den tillgängliga kapaciteten när som helst i ett nät. I trådlösa sensornätverk leder trängsel till att den totala kanalkvaliteten försämras och förlustfrekvensen ökar, leder till buffertfall och ökade förseningar (som i trådbundna nät), och tenderar att vara grovt orättvis mot noder vars data måste passera ett större antal radiohopar. Trafikstockningskontroll i trådbundna nätverk görs vanligen med hjälp av mekanismer från end-to-end och nätverkslager som fungerar i samförstånd. Detta tillvägagångssätt löser dock inte problemet i trådlösa nätverk eftersom samtidiga radiosändningar på olika "länkar" interagerar med och påverkar varandra, och eftersom radiokanalkvaliteten visar stor variation över flera tidsskalor. Vi undersöker tre tekniker som spänner över olika lager av den traditionella protokoll stacken: humle-by-hop flödeskontroll, hastighetsbegränsning källtrafik när transittrafiken är närvarande, och en prioriterad medium passerkontroll (MAC) protokoll. Vi implementerar dessa tekniker och presenterar experimentella resultat från ett 55-node in-building trådlöst sensornätverk. Vi visar att kombinationen av dessa tekniker, Fusion, kan förbättra näteffektiviteten med en faktor på tre under realistiska arbetsbelastningar.
Hull, Jamieson och Balakrishnan REF har studerat tre metoder för kontroll av överbelastning: trafikstyrning i hopp-by-hop, begränsning av källhastigheten och en prioriterad medelåtkomstkontroll (MAC).
11,124,009
Mitigating congestion in wireless sensor networks
{'venue': "SenSys '04", 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,223
Det är en utmanande uppgift att identifiera känslor polaritet kinesiska recensioner eftersom resurserna för kinesiska känslor analys är begränsade. I stället för att utnyttja endast enspråkig kinesisk kunskap, föreslår denna studie ett nytt tillvägagångssätt för att utnyttja tillförlitliga engelska resurser för att förbättra kinesisk känsloanalys. I stället för att helt enkelt projicera engelska resurser på kinesiska resurser, översätter vår strategi först kinesiska recensioner till engelska recensioner av maskinöversättningstjänster, och sedan identifierar känslan polaritet av engelska recensioner genom att direkt utnyttja engelska resurser. Dessutom utför vår strategi känsloanalys för både kinesiska recensioner och engelska recensioner, och använder sedan ensemblemetoder för att kombinera de enskilda analysresultaten. Experimentella resultat på en datauppsättning på 886 kinesiska produktrecensioner visar den föreslagna metodens effektivitet. Den individuella analysen av översatta engelska recensioner överträffar den individuella analysen av de ursprungliga kinesiska omdömena, och kombinationen av de enskilda analysresultaten ytterligare förbättrar prestandan.
REF översätter kinesiska känslomeningar till engelska och ensembler känsloklassificeringen är resultatet av både engelska och kinesiska känsloklassare.
16,102,917
Using Bilingual Knowledge and Ensemble Techniques for Unsupervised Chinese Sentiment Analysis
{'venue': 'Conference On Empirical Methods In Natural Language Processing', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,224
Abstract-Feature val är en av de viktigaste förbehandling steg för en data mining, mönsterigenkänning eller maskininlärning problem. Att hitta en optimal delmängd av funktioner, bland alla kombinationer är ett NP-Complete problem. Mycket forskning har gjorts i urval av funktioner. Eftersom datamängdernas storlek ökar och optimaliteten är ett subjektivt begrepp behövs dock ytterligare forskning för att hitta bättre tekniker. I detta dokument har en genetisk algoritm baserad funktion delmängd urvalsmetod föreslagits med en ny funktion utvärdering åtgärd som fitness funktion. Utvärderingsåtgärden skiljer sig åt på tre huvudsakliga sätt a) Den anser att informationsinnehållet i funktionerna bortsett från relevans med avseende på målet b) redundansen beaktas endast när det är över ett tröskelvärde c) Det finns mindre straff för kardinalitet i undergruppen. Eftersom åtgärden accepterar värdet av få parametrar, är detta tillgängligt för inställning enligt behovet av den särskilda problemdomänen. Experiment som genomförts över 21 välkända allmänt tillgängliga datauppsättningar avslöjar överlägsen prestanda. Hypotestester för förbättringen av noggrannheten har visat sig vara statistiskt signifikanta.
Huang och Sun REF föreslog en genetisk algoritmbaserad metod för att hitta den polygonala approximationen.
61,132,590
A New Evaluation Measure for Feature Subset Selection with Genetic Algorithm
{'venue': None, 'journal': 'International Journal of Intelligent Systems and Applications', 'mag_field_of_study': ['Computer Science']}
3,225
Vi modellerar ekonomin för att stimulera högkvalitativt användargenererat innehåll (UGC), motiverat av inställningar som online översyn forum, frågesvar webbplatser, och kommentarer på nyheter och bloggar. Vi tillhandahåller en spel-teoretisk modell inom vilken man kan studera problemet med att stimulera högkvalitativa PGC, där bidragsgivarna är strategiska och motiverade av exponering. Vår modell har det särdraget att både kvaliteten på bidrag och graden av deltagande bestäms endogent i en fri-entry Nash jämvikt. Modellen förutspår, som i praktiken observerats, att om exponeringen är oberoende av kvaliteten, kommer det att bli en flod av låg kvalitet bidrag i jämvikt. En idealisk mekanism i detta sammanhang skulle leda till både hög kvalitet och ett högt deltagande i jämvikt, med nära optimal kvalitet som den tillgängliga uppmärksamheten skiljer sig åt, och bör vara lätt att genomföra i praktiken. Vi anser att det är en mycket enkel elimineringsmekanism, som innebär att varje bidrag till betygsättningen görs av ett antal A-tittare, och eliminerar alla bidrag som inte bedöms på ett enhetligt sätt på ett positivt sätt. Vi konstruerar och analyserar free-entry Nash equilibria för denna mekanism, och visar att A kan väljas för att uppnå kvalitet som tenderar att optimera, tillsammans med olika deltagande, som antalet tittare skiljer sig.
I en generisk modell studerar Ref ekonomin hos högkvalitativa användare som genererat innehåll från strategiska och exponeringsmotiverade bidragsgivare.
11,576,410
Incentivizing high-quality user-generated content
{'venue': 'In International World Wide Web Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,226
Abstract -Multipel fjärrtornsverksamhet är ett koncept för mer kostnadseffektiv flygtrafikledning vid mindre flygplatser. En flygledare (ATCO) bör samtidigt kontrollera trafiken vid två eller flera flygplatser. Flera fjärrtorn för två små flygplatser har redan validerats av LFV, den svenska leverantören av flygtrafiktjänster. Eftersom övervakning och visuell observation är en viktig uppgift för flygledarna väcker detta koncept frågor om hur man bäst kan stödja människans prestanda när det ska tillämpas i högtrafikmiljöer. En studie av hög trohet med 16 ATCOs undersökte påverkan av flera fjärroperationer på visuell uppmärksamhet och övervakningsprestanda. Studien genomfördes med höga trafikvolymer som satte en maximal arbetsbelastning på ATCO för en hel simuleringskörning. Empiriska resultat av ögonrörelseåtgärder presenteras. I allmänhet påverkades inte spridningen av visuell uppmärksamhet, men mindre relevanta händelser övervakades, eftersom den visuella uppmärksamheten spreds över de två flygplatserna. För att mildra dessa effekter presenteras två strategier för arbetsplatsdesign – integration av information och vägledning för uppmärksamhet. Fördelar och utmaningar med de två strategierna diskuteras, med fokus på hur designkoncepten påverkar flygledarnas arbetsmetoder. Nyckelord -flera fjärrtorn, visuell uppmärksamhet, arbetsplatsdesign, interaktionsdesign, mänskliga faktorer, eyetracking Det finns många flygplatser i världen med ganska lite flygtrafik, jämfört med de stora naven som Frankfurt, London eller Chicago. Enligt lag måste dock leverantörer av flygtrafiktjänster tillhandahålla dyra tjänster till dessa flygplatser. Begreppet fjärrtorn utvecklades som en lösning för mindre flygplatser med lite trafik. Det traditionella tornet ersätts av videokameror, videodata strömmas till en arbetsplats och rekonstrueras som en video-panorama [1]. Vanligtvis har dessa flygplatser en enkel layout och nästan inga ytterligare markbaserade sensorer. Konceptet med flera fjärrtorn är nästa steg. Flera fjärrstyrda torn har som mål att göra det möjligt för en flygledare (ATCO) att kontrollera samtidig trafik vid två eller flera flygplatser samtidigt. Fördelen med konceptet är att ATCOs personal används på ett mer flexibelt sätt. Även om konceptet redan har visat sig vara genomförbart för två små flygplatser väcker konceptet frågor om hur man bäst kan stödja mänskliga prestationer när konceptet ska tillämpas i högtrafikmiljöer. En stor flaskhals ses i tilldelningen av visuell uppmärksamhet från ATCO för övervakning av trafiken vid flera flygplatser. År 2010 tog en första studie redan upp möjligheten att kontrollera två flygplatser parallellt, med särskilt fokus på den visuella uppmärksamheten hos ATCO:s, arbetsplatsens utformning och dess inflytande på kontrolluppgiften [2]. De första resultaten visar att det inte finns någon allmän begränsning i människans kognition som eliminerar begreppet. Trots detta skulle ett enkelt tankeexperiment leda till att sannolikheten för att upptäcka information halveras om antalet displayer fördubblas som ett ATCO måste övervaka. Det är troligt att övervakningen påverkas av flera koncept, men det är oklart i vilken utsträckning och hur påverkan kan minskas. Motivet till detta arbete är att förstå, på vilket sätt nya designkoncept kan bidra till att möjliggöra ett nytt koncept som flera fjärrtorn. Det finns flera parametrar som kan justeras för att göra flera fjärrtorn möjliga. Till exempel skulle mekanismer för trafikflödeshantering kunna användas för att säkerställa att det förekommer begränsad parallelltrafik vid de flygplatser som kontrolleras av ett enda luftfartyg. Förfaranden vid dessa flygplatser skulle kunna antas för att undvika oförutsedda trafiktoppar och därmed minimera topparna i ATCO:s aktivitetsbelastning. Vi ser betydande potential i parametern arbetsplatsdesign. Detta dokument är därför inriktat på den miljö där flygkontrolltjänsten utför flygkontrolluppgifter. Andra stycket ska ersättas med följande: BAKGRUND & TEMA Controllers Air Traffic Controllers ansvarar för säkerheten och effektiviteten i flygtrafiken. Enligt de olika faserna av en flygning finns det olika arbetsprofiler för flygledare. På en flygplats sköter flygledarna ankomster och avgångar för att säkerställa säkra landningar, starter och taxning på marken. Deras huvudsakliga uppgift är att skapa ett säkert och effektivt trafikflöde. Övervakningen av trafiken, särskilt på banan och inom kontrollområdet, är därför en viktig säkerhetsmekanism. Således, observation och visuell uppmärksamhet resurser av regulatorn är avgörande parametrar för ATCOs arbetsposition. Hittills är ATCOs starkt beroende av visuell observation som utförs genom flygplatstornets fönster (ut ur tornets utsikt, OTW). De empiriska uppgifter som rapporteras i detta dokument togs fram inom ramen för Sesar 06.08.04. Om Sesar och Sesar: Sesar syftar till att modernisera och harmonisera flygledningstjänsten i Europa som den tekniska pelaren i initiativet för det gemensamma europeiska luftrummet. Det gemensamma företaget Sesar inrättades 2007 som ett offentlig-privat partnerskap för att stödja denna strävan. Det gör det genom att samla hela ATM-gemenskapens kunskap och resurser för att definiera, forska, utveckla och validera innovativa tekniska och operativa lösningar. Det gemensamma företaget Sesar ansvarar också för genomförandet av den europeiska huvudplanen för flygledningstjänsten. Det gemensamma företaget Sesar grundades av Europeiska unionen och Eurocontrol och har 19 medlemmar, som tillsammans med sina partner och affiliateorganisationer kommer att representera över 100 företag som arbetar i och utanför Europa. Det gemensamma företaget Sesar har också ett nära samarbete med personalsammanslutningar, tillsynsmyndigheter, flygplatsoperatörer och forskarvärlden. Läs mer: www.sesarju.eu 978-1-5090-2523-7/16/$31.00 ©2016 IEEE 1 Flygledning är en komplex och främst kognitiv uppgift, så uppfattning om information, behandling av information och beslutsfattande är viktiga deluppgifter. I sin arbets- och arbetsanalys av den olika flygledarens arbetsposition definierade Dittmann och kollegor en uppsättning grundläggande kognitiva processer som beskriver ATCO-uppgiften. Dessa är: hantera rutintrafik, utfärda instruktioner, hantera förfrågningar, lösa konflikter, ta över position, övervaka, uppdatera den mentala bilden, söka konflikter, allmän information bearbetning och byta uppmärksamhet [3]. De kognitiva processerna övervakar, uppdaterar den mentala bilden och byter uppmärksamhet är av särskilt intresse i detta dokument och kommer att beskrivas i detalj i följande kapitel. Vi börjar med att beskriva en ATCO arbetsplats. Förutom OTW, arbetsplatsen för en ATCO består av flera informationskällor, presenteras via displayer som behöver övervakas, kontrolleras och integreras i den mentala bilden. Enligt resultaten av en kontrollundersökning är de sex viktigaste informationskällorna (i fallande ordning) radiokommunikation, OTW, inflygningsradar, direktkommunikation med kollegor (armbågssamordning), flygremsor och markradio [4]. I det här dokumentet fokuserar vi på OTW, inflygningsradar och flygremsor, eftersom deras information presenteras visuellt på arbetsplatsen. Inflygningsradarn visar flygplanets position, höjd och hastighet samt sekundära data. Flightremsorna används för att hålla reda på de instruktioner som ges till piloter, för att förhandsplanera trafiken och för att stödja den mentala trafikbilden. Informationskällorna radiokommunikation, inflygningsradar och OTW används som tre oberoende informationskällor, t.ex. kontrollera ett luftfartygs position. OTW används vidare för att kontrollera landningsbanans status och är den primära visuella informationskällan. Följande avsnitt fokuserar således i detalj på övervakningsuppgiftens och OTW:s roll och betydelse. Resultaten av en analys av kritiska situationer med flygledare visar att OTW i de flesta fall tillhandahöll relevant information som användes för beslutsfattandet. Speciellt upptäcktes abnormiteter och förväntades av information från OTW, och informationen från OTW användes för att komponera och verifiera den mentala trafikbilden [4]. ATCOs är tänkta att bygga en "mental trafikbild" av trafiken för att förutse trafikutvecklingen och vidta åtgärder för att garantera ett säkert och effektivt trafikflöde [5]. Kontrollanterna karakteriserar sin arbetsstil, när de "har den mentala bilden" som att de arbetar före trafiken. Däremot, när de förlorar bilden, kännetecknas arbetsstilen som börjar "swim" och att "arbeta bakom" trafiken. En konceptuell idé och visualisering av den mentala trafikbilden i torndomänen ges av Möhlenbrink et al. [6], som betonar den höga takten av händelser och utlöser på flygplatsen miljö som tvingar ATCOs att omorganisera sin plan och strategier för att hantera trafiken. Som en följd av detta kan det sägas att ATCOs alltid bör kunna upptäcka eventuella avvikelser från sin förplanerade mentala bild så snabbt som möjligt för att omorganisera sin plan för hantering av trafiken. OTW kan tillhandahålla avgörande utlösare och ATCOs bör övervaka OTW så ofta som möjligt. Detta gäller särskilt för de mindre flygplatserna, utan sensorutrustning som A-SMGCS eller markradar och en högre trafikhastighet enligt visuellflygreglerna (VFR). Forskningen bekräftar OTW:s betydelse för ATCO:s övervakningsuppdrag. Forskningen om visuella aspekter av tornets verksamhet analyserade den uppfattade betydelsen av visuell observation för olika flygfaser under ansvar av tornets ATCO [7]. Även om resultaten visar att inte alla beslut enbart är baserade på visuell observation, ger OTW signaler som ATCOs indirekt använder för sitt beslutsfattande. Dessa resultat bekräftades av resultaten från en simuleringsstudie med hög trohetsgrad. Deltagarnas ögongazeprofiler visade att de vanligaste informationskällorna (för visuell information) var "ut ur tornets vy", följt av inflygningsradarn och flygremsorna. [8] Tower controllers övervakar flera visuella informationskällor. OTW är en rik informationskälla för upptäckt av oväntade händelser som påverkar det på förhand planerade trafikflödet. Beslutet, var man ska lokalisera uppmärksamheten till, även beskrivs som byte av uppmärksamhet, är därför en viktig kognitiv process. Särskilt de teorier och begrepp som är relevanta för kontroll av visuell uppmärksamhet i en mångfacetterad tornmiljö påpekas i följande avsnitt. I den kognitiva teorin är visuell uppmärksamhet en del av den mänskliga informationsbearbetningen. Till exempel definierar Wickens visuell uppmärksamhet som en kognitiv resurs som är begränsad och som medvetet kan tilldelas vissa processer, där det behövs [9]. Egenskaperna hos visuell uppmärksamhet relaterar starkt till de fysiologiska parametrarna i det mänskliga ögat. Visuell uppmärksamhet är sannolikt korrelerad med sakkadiska ögonrörelser. I visuella sökuppgifter, den punkt operatören fixerar på en display relaterar till fokus för visuell uppmärksamhet. Dessutom finns det ett område runt centrum av en fixering, som används för information utvinning [9]. Därefter tolkas ögonblickens fokus som fokus för uppmärksamheten. Informationen i fokus är medvetet behandlad. Dessutom kan information i det perifera perspektivet också uppfattas, behandlas och användas för beslut om den är tillräckligt framträdande. Det kombinerade området av foveal och periferi beskrivs också som det primära visuella området på en arbetsplats, där information kan nås utan ytterligare huvudrörelser. Som riktlinjer för utformningen bör den mest relevanta informationen finnas i detta primära visuella område. Redan nu, layouten av den konventionella tornet styrenhet arbetsposition, och storleken på alla de displayer som krävs, tillåter inte att placera all relevant information i det primära visuella området. Baserat på detta, ATCO kan inte övervaka alla informationskällor samtidigt, men måste sekventiellt allokera visuell uppmärksamhet till de mest relevanta informationskällorna. Informationens relevans är beroende av uppgiften och situationen, vilket gör ett beslut om en viss design mer komplicerat. Ett potentiellt problem med allokering av visuell uppmärksamhet och dess operativa effekter kan sammanfattas som problemet med "försprång" och "försprång". Avgångstiderna för ATCO på en flygplats hänför sig till dessa tider, ATCO tittar inte utanför fönstret utan på någon annan display [10]. Övervakningen av OTW vid fjärrtornets arbetsposition beskrivs sålunda som fungerande "head-up". Ur operativ synvinkel bör nedåtriktade tider minimeras, eftersom tornets ATCO förväntas reagera så snabbt som möjligt på varje oförutsedd händelse. Dessa oförutsedda händelser är mest sannolikt att upptäckas genom visuell övervakning, tittar antingen utanför tornet fönster eller på en panorama video presentation. Tider för huvudnedladdning uppstår när ATCO använder förbehandlad, högkvalitativ, fokuserad information om hjälpmedel, t.ex. flygremsor, inflygningsradar eller kartan. I moderna torn på mer frekventerade flygplatser kan head-down-tider uppstå genom användning av förvaltningsverktyg, t.ex. En avgångsansvarig eller andra informationssystem som representerar flygplatsens status. Som förklarats är en övergång till de olika informationskällorna en mekanism för att inte övervaka en viktig händelse. Inom den kognitiva teorin skiljer sig två mekanismer för vägledning av visuell uppmärksamhet -bottom-up och top-down processer. Termerna botten och topp hänvisar till hierarkiska modeller av mänsklig informationsbearbetning i hjärnan, från en stimulans till hjärnområden och centra som är involverade i vissa kognitiva uppgifter. Termen bottom-up hänvisar till lägre nivåer av stimulans, till exempel på grundval av signaler på ögonnerven. Top-Down hänvisar till idén att högre centra och funktioner är involverade, som "förstå" och "sensemaking" [9]. Top-Down kan beskrivas som visuell uppmärksamhet styrs av förväntningar. Uppifrån-och-ned-vägledning av uppmärksamhet sker genom tolkning av stimulans, kunskap som förvärvas genom erfarenhet och därmed förväntningar, vad som kommer att hända där. Till exempel, på grund av vetskapen om att ett flygplan har rapporterat att det är på finalen, förväntar sig ATCO att se landningsljusen i enlighet med området för OTW. Den visuella uppmärksamheten vägleddes således av uppifrån-och-ned-processer. Dessutom leder vetskapen om att flygplan verkligen slår på sina landningsljus till förväntan om att ATCO vakar över ett starkt ljus. Bottom-Up vägledning uppstår genom lägre nivå stimulans som kontrast, skärpa och storlek på ett mål. Brandkårens blinkande ljus fångar till exempel uppmärksamheten på grund av stora skillnader i kontrast, vilket ses som ett blinkande ljus. Ett snabbt rörligt objekt orsakar en bottom-up stimulans och är också sannolikt att få visuell uppmärksamhet. I sökuppgifter är den visuella uppmärksamheten vanligtvis driven av uppifrån-och-ned-processer, och ibland av framträdande nedifrån-och-upp-processer [9]. För flygkontrolldomänen Kallus m.fl. skapade kognitiva profiler för de olika positionerna för flygledare. De fick reda på att typiskt torn styrenhet subtask är både bottom-up och top-down driven. Men för underprocessen söka och lösa konflikter, är tornet kontroll mer bottom-up driven jämfört med tillvägagångssätt och rutt domän [3]. Genom att införa ett flertal fjärrtorn kan ATCO:s personal användas på ett mer flexibelt sätt. Konceptet väcker frågor om hur man bäst kan stödja mänskliga prestationer när konceptet ska tillämpas i högtrafikmiljöer. En stor flaskhals är ATCO:s visuella uppmärksamhet för att övervaka trafiken på de två flygplatserna. Som exempel kan nämnas att det är ett normativt beteende att flygledaren ska övervaka ett flygplan under start- och landningsfasen för att upptäcka alla farliga händelser så tidigt som möjligt. Det är av intresse att förstå, i vilken utsträckning övervakningen prestanda för ATCO påverkas av införandet av flera fjärrtorn konceptet. Mer exakt är det av intresse om ATCO kan övervaka lika många starter och landningar som när man arbetar på ett konventionellt torn. Eftersom ett starkt inflytande av konceptet på visuell uppmärksamhet förväntas, är den andra forskningsfrågan, genom vilken ny design närmar sig inverkan av flera avlägsna torn begreppet kan mildras, baserat på resultaten av de empiriska resultaten.
En första studie offentliggjordes 2010 för att visa genomförbarheten av flera RT, åtminstone för att kontrollera två små flygplatser samtidigt (Moehlenbrink och Pa-penfuss, 2011; REF.
17,719,898
Head up only — A design concept to enable multiple remote tower operations
{'venue': '2016 IEEE/AIAA 35th Digital Avionics Systems Conference (DASC)', 'journal': '2016 IEEE/AIAA 35th Digital Avionics Systems Conference (DASC)', 'mag_field_of_study': ['Engineering']}
3,227
Abstrakt. Idén om evidensackumulering för kombinationen av flera kluster föreslogs nyligen [7]. Tar K-means som den grundläggande algoritmen för nedbrytning av data i ett stort antal, k, av kompakta kluster, bevis på mönster association ackumuleras, genom en röstningsmekanism, över flera kluster som erhållits genom slumpmässiga initieringar av K-means algoritm. Detta ger en kartläggning av klusterbildningarna till en ny likhetsmått mellan mönster. Den slutliga datapartitionen erhålls genom att använda enlänksmetoden över denna likhetsmatris. I detta dokument utforskar och utvidgar vi ytterligare denna idé genom att föreslå: a) kombinationen av flera K-means kluster med hjälp av variabel k; b) använda klusterlivslängd som kriterium för att extrahera de slutliga klusteren; och c) anpassningen av detta tillvägagångssätt till strängmönster. Detta leder till en mer robust klusterteknik, med färre konstruktionsparametrar än den tidigare metoden och potentiella tillämpningar i ett bredare spektrum av problem.
Dessutom presenteras en fördjupad diskussion om EAC med variabel K i K - innebär klusterbildning och inkludering av klusterlivslängd parametrar för slutlig klusterbildning i REF.
17,044,163
Evidence Accumulation Clustering Based on the K-Means Algorithm
{'venue': 'SSPR/SPR', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,228
I detta dokument presenteras en robust regressionsstrategi för bildbinarisering under betydande bakgrundsvariationer och observationsbuller. Arbetet motiveras av behovet av att identifiera förgrundsregioner i bullriga mikroskopiska bilder eller skadade dokumentbilder, där betydande bakgrundsvariationer och kraftigt buller gör en bildbinarisering utmanande. Den föreslagna metoden uppskattar först bakgrunden till en indatabild, subtraherar den uppskattade bakgrunden från indatabilden och tillämpar en global tröskel för det subtraherade resultatet för att uppnå en binär bild av förgrundsinformation. En robust regressionsmetod föreslogs för att uppskatta bakgrundsintensitetsytan med minimala effekter av förgrundsintensitet och buller, och en global tröskelväljare föreslogs på grundval av ett urvalskriterium för modellen i en gles regression. Det föreslagna tillvägagångssättet validerades med 26 testbilder och motsvarande grundsanningar, och resultaten av det föreslagna arbetet jämfördes med resultaten från nio befintliga bildbinariseringsmetoder. Metoden kombinerades också med tre moderna morfologiska segmenteringsmetoder för att visa hur det föreslagna tillvägagångssättet kan förbättra deras bildsegmenteringsresultat.
På samma sätt, i REF, bakgrundsytan uppskattas av en robust regressionsmetod och dokumentet är binarized av en global tröskeloperation.
45,442,872
Robust Regression For Image Binarization Under Heavy Noises and Nonuniform Background
{'venue': 'Pattern Recognition Volume 81, September 2018, Pages 224-239', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
3,229
Med den ständigt växande mobila Internet och explosionen av dess tillämpningar, användarna upplever rikliga tjänster från olika innehållsleverantörer via olika leverantörer av nätverkstjänster i det heterogena nätet (HetNet). Informationscentriska nätverk förespråkar att man gör sig av med det nuvarande värdcentriska nätverksprotokollet eftersom informationsspridningen snarare än endto-end-kommunikationen bidrar till majoriteten av dagens nätverkstrafik. Dessutom är det bättre för nätverksenheter att konvergera som helhet för att dra nytta av den öppna, skalbara och smarta trafiköverföringen. Cloud Radio Access Network (C-RAN) är en av de framväxande arkitekturutvecklingarna på den trådlösa sidan för enklare utbyggnad av infrastruktur och nätverkshantering. När ICN möter C-RAN i HetNet är det därför värdefullt och följdriktigt att integrera ICN-protokollet med C-RAN-arkitekturen för att uppnå en effektivare kommunikations- och informationshantering. Dessutom har programvarudefinierade nätverk (SDN) erkänts som en annan lovande arkitekturutveckling för att uppnå flexibilitet och omkonfigurerbarhet av täta HetNets, vars inneboende fördel ännu ligger i den globala enhetliga kontrollen av det trådbundna nätverket. Således något av ICN, C-RAN och SDN är komplement till de andra. I detta dokument bidrar vi till att nyligen föreslå och utveckla integrationen av ICN, C-RAN och SDN för HetNet för att uppnå win-win-situation. Visionen för det föreslagna systemet demonstreras, följt av fördelar och utmaningar. Vi presenterar även hybridsystemet med ett storskaligt trådlöst heterogent campusnätverk. Detta arbete har godkänts av IEEE Communications Magazine. C. Yang, Z. Chen, och B. Xia (motsvarande författare) är med Institutionen för elektronisk teknik, Shanghai Jiao Tong University, Shanghai, P. R. Kina. J. Wang är med School of Engineering och Digital Arts, University of Kent, Storbritannien. För att möta den tusenfaldiga tillväxten av mobil datatrafik, är ett lovande sätt att inbädda massa av små celler i det cellulära nätverket, dvs.. det heterogena nätet (HetNet) [1]. Heterogenitet kommer att vara ett viktigt inslag i det framtida radioaccessnätet (RAN) som består av olika typer av anordningar. För de mycket flexibla gränssnitten mellan olika enheter har programvarudefinierade nätverk (SDN) erkänts som en grundläggande möjliggörare för att uppnå flexibilitet och omkonfigurerbarhet av täta HetNets [2]. Under trycket av samordning mellan/intra-cell och enorma kostnader för utbyggnad i det storskaliga HetNet, Cloud RAN (C-RAN) uppstår [3]. C-RAN betraktas allmänt som en grön radioarkitektur för att klara av den ökande nätverksdatatrafiken utan att ådra sig betydande extra kapital- och driftskostnader. Förutom utvecklingen av nätverksarkitekturen, det mänskliga beteendet och servicefastigheten har varit mycket berörda för att frigöra den ultimata potentialen i nätverk, t.ex. det cache-aktiverade informationscentriska nätverket (ICN) [4]. Den senaste tekniken kommer att utvecklas i följande perspektiv när det gäller nätverksarkitektur respektive nätverksprotokoll. HetNet är utbyggnaden av det befintliga nätet i fråga om storlek och typ: Jämfört med fjärde generationens/långsiktig utveckling (4G/LTE) nätverk, femte generationens (5G) nätverk förväntas uppnå en 1000-faldig kapacitetsökning mätt i bit/s/Hz/m 2, 5 gånger minskad latens och 10 gånger längre batteritid [5]. Drivs av det ständigt ökande trycket för att öka nätverkskapaciteten, är cellulära nätverk överlagrade av ett brett utbud av proliferativa infrastrukturlager inklusive utomhus pico / inomhus femto basstationer (BS), reläer, distribuerade antenner [6], WiFi och enhet till enheter (D2D) noder [7]. Heterogenitet kommer att vara ett nyckelattribut för de framtida nätverken. HetNets för cellsajten närmare användarna och förkorta radioöverföringsavståndet, vilket ger betydande kostnadsminskningar och kapacitetsökning. Dessutom används de små cellerna som komplement till de makrocellulära nätverken för sömlös täckning och avlastar avsiktligt trafiken i makrocellen. Dessutom kommer avancerade tekniker som högorder rumslig multiplexing multiple-input multiple-output (MIMO) tillsammans med högre spektral effektivitet (SE) i HetNet. Det finns dock fortfarande problem: 3 • Resurshantering och belastningsbalansering är två viktiga frågor för en framgångsrik utbyggnad av HetNets. Samordningen mellan och inom celler och konvergensen är icke-trivial verksamhet i denna distribuerade och storskaliga miljö. • HetNets möjliggör mer flexibla och ekonomiska utbyggnader av ny infrastruktur i stället för tornmonterade makrosystem, men det är inte tillräckligt för att uppnå flexibilitet och omkonfigurerbarhet av nätverken på grund av de icke-uniforma och härdbara enhetsgränssnitten. • De ökande kraven på backhaul-nätet måste utvärderas vid utbyggnad av fler små cellplatser. Den triviala expansionen av storleken och typen av utgångsnätet kan tillfälligt minska trycket, men störande utveckling av nätverksarkitekturen är brådskande för ytterligare kapacitetsutökning. SDN är dock ursprungligen utformat för trådbundna nätverk. Det finns inneboende svagheter för att uppnå SDN-idéerna i de trådlösa nätverken på grund av varierande utmaningar. Programvara definierade trådlösa nätverk (SDWN) måste definiera skivor som kräver att isolera trådlösa kanaler för att ge icke-interfererande nätverk till olika samordnare. Handoff-situationer bör övervägas för den trådlösa HetNet med mindre celler och rikare åtkomstteknik. Statusen och lokaliseringen för hela nätverksenheter bör rapporteras till SDN i realtid endast på grundval av vilka kontrollanter fattar beslut på ett effektivt sätt. Dessa utmaningar är ingen trivial verksamhet för det trådlösa mediet. Det finns en lång väg för de trådbundna och trådlösa sidorna att sömlöst integreras som helhet i SDN-systemet. C-RAN är ICN ger den nya grunden för hur information kan märkas och distribueras över nätverk: Trots den enorma mängden datatrafik i nätverket, är det bara ett fåtal innehåll som ofta nås av användaren [9]. En liten del av det populära innehållet bidrar till större delen av trafiken under en tidsperiod [10]. Dessutom är dagens nätverk alltmer upptaget av informationsspridning snarare än av end-to-end-kommunikation. Således caching de mest populära innehållet i RAN eller den utvecklade paketkärnan (EPC) kan minska 5 redundant tillgång och duplicerad överföring [11]. Den avgörande roll som cachetekniken kan spela för det trådlösa 5G-nätet utvecklas under [11] och [12]. ICN framträder som en lovande kandidat för full användning av caching- och multicastmekanismer i nätverk [13]. Olika i de utgående värdcentriska nätverken där användarna måste överföra/ta emot information till/från en viss datorenhet (värddator eller server) är de allt mer intresserade av att överföra/ta emot information var de än befinner sig. ICN kopplar bort information från sin plats och källor genom att definiera de namngivna dataobjekten (NDO). Bred spridning av caching och sändningar gör det möjligt för användare att få informationen från den optimala noden baserad på namnet och/eller platsen för informationen. Leverantörer och framställare är inte längre anslutna i det traditionella parvisa och tidssynkroniserade läget, de är frikopplade i fråga om tid och rum. Det finns ingen anledning för dem att veta varandras plats eller att vara online på samma gång. Som nämnts ovan ger den utbredda nätverkscachelagringen av ICN stora möjligheter till samverkan mellan enheter i det trådlösa HetNet med hög densitet, medan C-RAN håller på att utvecklas för att underlätta utbyggnaden av infrastruktur och systemhantering. Sedan integrera ICN-protokollet i C-RAN arkitekturen kan uppnå bättre kommunikation med effektiv spridning av information via allmänt förekommande cache-aktiverade enheter. Samtidigt kommer belastningen på det övre skiktet (t.ex. KN) att minskas avsevärt när användarförfrågningar kan besvaras omedelbart av den enhet (t.ex. BBU) som har lagrat kopian av den begärda informationen. C-RAN fokuserar dock enbart på radioluftgränssnittet oberoende av tillstånden i de övre skikten. Samtidigt föds SDN med det ursprungliga syftet att hantera trådbundna nätverk, men det kommer att möta större svårigheter att införa SDN-koncept för trådlösa nätverk. Dessutom är ICN-protokollet tillgängligt även för SDN. En lämplig kombination av ICN, CRAN och SDN är därför ett lovande sätt att uppnå ömsesidiga fördelar och komplettera varandra. Vi organiserar påminnelsen om detta dokument enligt följande: I Avsnitt II beskriver vi vår vision av det samexisterande systemet för SDN, ICN och H-CRAN. Fördelarna och de viktigaste utmaningarna utvecklas. I avsnitt III presenteras ett storskaligt föredömligt campusnätverk. IV ger en kort sammanfattning av den här artikeln. Det informationscentriska konceptet är bättre lämpat för dagens användning, som huvudsakligen består av informationsspridning snarare än host-centrisk kommunikation. För den långa svans stil användaren begär statistisk egenskap, i-nätverk caching och flerpartskommunikation kan utnyttjas fullt ut via replikation och samarbetsmodeller. Vi föreslår att man uppnår en informationscentrerad strategi för SDN-arkitekturen för att frigöra nätverkets ultimata potential, och C-RAN åtar sig SDN:s roll och uppgift på den trådlösa sidan. Få befintliga studier har övervägt det samexisterande nätverket och vi kommer att ge en integrerad syn på dem. En högnivåvy av informationscentrerad SDN-arkitektur visas i bild. 1 Den roll som varje plan spelar i nätverket är: 7 Innehållsinformation, SLA, förhandlingsprotokoll,...
I REF föreslås en kombination av ICN, C-RAN och SDN i heterogena nätverk.
1,402,127
When ICN Meets C-RAN for HetNets: An SDN Approach
{'venue': 'IEEE Communications Magazine', 'journal': 'IEEE Communications Magazine', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
3,230
Integreringen av röntgenbilder i rummet och optisk ytspårning har fått allt större betydelse inom området bildstyrd strålbehandling (IGRT). Ett viktigt steg för denna integration är att tidssynkronisera förvärvet av röntgenprojektioner och ytdata. Vi presenterar en bildbaserad metod för synkronisering av kone-beam datortomografi (CBCT) och optiska ytsystem, som inte kräver användning av ytterligare hårdvara. Metoden baseras på optisk spårning av rörelsen hos en komponent i CBCT/gantry-enheten, som roterar under förvärvet av CBCT-scanningen. Ett kalibreringsförfarande genomfördes för att relatera positionen för den roterande komponent som identifierats av det optiska systemet med den tid som förflutit sedan början av CBCT-skanningen, vilket ger en tidsmässig överensstämmelse mellan förvärv av röntgenprojektioner och ytdata. Noggrannheten i den föreslagna synkroniseringsmetoden utvärderades på en motoriserad rörlig fantom, som utförde åtta samtidiga förvärv med en Elekta Synergy CBCT maskin och AlignRT optisk enhet. Mediantidskillnaden mellan de sinusoida topparna av fantomrörelsesignaler som extraherats från de synkroniserade CBCT- och AlignRT-systemen varierade mellan -3.1 och 12,9 msek, med ett maximalt interkvartilt område på 14,4 msek. Metoden tillämpades också på kliniska data som erhållits från sju lungcancerpatienter, vilket visar den föreslagna metodens potential för att uppskatta individuella och dagliga variationer i andningsparametrar och rörelsekorrelation mellan inre och yttre strukturer. Den presenterade synkroniseringsmetoden kan vara särskilt användbar för tumörspårning applikationer i extrakraniella strålbehandlingar, särskilt inom området patientspecifika andningsmodeller, baserat på korrelationen mellan inre tumörrörelse och yttre ytsurrogat. PACS-nummer: 87
Den möjliga synkroniseringen av ett klassiskt CBCT-system med AlignRT har visats av REF.
4,561,049
An image‐based method to synchronize cone‐beam CT and optical surface tracking
{'venue': 'Journal of applied clinical medical physics', 'journal': 'Journal of applied clinical medical physics', 'mag_field_of_study': ['Physics', 'Medicine']}
3,231
Detta dokument presenterar en algoritm för att upptäcka det mänskliga ansiktet från en videofil med hjälp av den kunskapsbaserade metoden och spåra individens rörelse genom att upptäcka ansiktet i varje ram. Algoritmen detekterar mänskligt ansikte genom geometriska korrelationer mellan plats av ansikte och hår i varje ram av en videofil. Range av hudfärg används för att räkna ut möjliga ansikte regioner så att initialt lokalisera ansiktet, dessutom de troliga hårblock i en bild ram bestäms med hjälp av hårfärg spektrum. Kombinerad hud och hår block bestämma kandidat ansikte områden i ljuset av den geometriska relationen. Fas korrelation rörelse uppskattning algoritm används för att analysera på varandra följande ramar i en videosekvens för att identifiera ansikten som är i rörelse och spåra de mänskliga ansikten från videofilen. Noggrannheten av ettansiktsspårning är högre än 90% med bildhastigheten på 10fps. Flera algoritmer har redan föreslagits och utvecklats för olika tillämpningar och använts framgångsrikt. Men, dessa algoritmer är ganska komplicerade och svåra att uppfylla realtidskraven för specifika frame-rate. Därför är den föreslagna kan förväntas transplanteras till ett inbäddat system, som den utvecklande husdjur robot för att utföra dynamisk ansiktsdetektering och spårning. Algoritmen kan användas för övervakning. Algoritmen kan användas för att utveckla säker PC-kamera och webbkamera. Algoritmen används för att tillhandahålla laptop-säkerhet. Bildbehandling, algoritmer.
Shruti Asmita, 2013 REF, detta dokument presenterar en algoritm för att upptäcka det mänskliga ansiktet från videofil med hjälp av den kunskapsbaserade metoden och spåra rörelse av individen genom detektion ansikte i varje ram.
11,565,838
Real Time Simple Face-Tracking Algorithm based on Minimum Facial Features
{'venue': None, 'journal': 'International Journal of Computer Applications', 'mag_field_of_study': ['Computer Science']}
3,232
Abstrakt. Detta dokument presenterar en minskning från problemet med att lösa paritetsspel till tillfredsställande problem för formler av propositionslogik i konjunktiv normal form. Den använder Jurdzińskis karakterisering av vinnande strategier genom framstegsåtgärder. Minskningen motiveras av den uppenbara framgång som användningen av SAT-lösare har haft i symbolisk verifiering. I dokumentet redogörs för en prototyp för genomförandet av minskningen och en del resultat presenteras.
Slutligen, en annan väg för att ta itu med μ-calculus modell kontroll är minskningen från paritetsspel till tillfredsställande problem, som presenteras av Lange Ref.
2,136,009
Solving parity games by a reduction to SAT
{'venue': 'In Proc. of the Workshop on Games in Design and Verification, GDV’05', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
3,233
Abstract-I detta papper undersöker vi prestandan hos typiska inomhusanvändare i urbana två-tier heterogena mobila nätverk med inomhus-utplacerade små cell basstationer (BS) och utomhus BS. Den urbana topologin är modellerad av ett booleskt system av blockeringar, som är bundet tillsammans med införandet av utomhus och inomhus BS samt signalförökning egenskaper. Varje byggnad antas betjänas av en inomhus liten cell BS med en viss sannolikhet, vilket betecknas som ockupationsannolikhet. Inom- och utomhusmiljöer delas upp av väggar med en viss penetrationsförlust. Vi står separat för utomhus BS i linje med sikt (LOS) och non-line of see (NLOS), samt små cell BS i angränsande och icke-nära byggnader. Vi härleder uttryck för signal-interferensförhållandet (SIR)-täckning sannolikhet och den genomsnittliga spektraleffektiviteten hos en typisk inomhusanvändare. Numeriska utvärderingar utförs med 3GPP-kompatibla makro- och Pico-BS-scenarier. Våra resultat visar att inomhusområdets täckning, som är en funktion av byggnadens densitet och storlek, avsevärt påverkar effekten av målbyggnadens väggpenetrationsförlust. Analysen förenklas genom olika antaganden, som verifieras av omfattande Monte Carlo-simuleringar.
I denna inomhus och utomhus miljöer är partitionerade av väggar med en viss penetration förlust REF.
32,264,618
Analysis of Urban Two-Tier Heterogeneous Mobile Networks With Small Cell Partitioning
{'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
3,234
I detta dokument studerar vi problemet med att besvara kloze-liknande frågor över korta dokument. Vi introducerar en ny uppmärksamhet mekanism som använder multiplikativa interaktioner mellan frågan inbäddning och mellanliggande tillstånd av en återkommande neural nätverksläsare. Detta gör det möjligt för läsaren att bygga frågespecifika representationer av polletter i dokumentet som ytterligare används för svarsval. Vår modell, Gated-Attention Reader, överträffar alla toppmoderna modeller på flera storskaliga referensdatauppsättningar för denna uppgiftCNN & Daily Mail nyheter och Children's Book Test. Vi ger också en detaljerad analys av prestandan hos vår modell och flera baslinjer över en delmängd av frågor manuellt kommenterade med vissa språkliga egenskaper. Analysen belyser flera befintliga modellers styrkor och svagheter.
The Geated Attention Reader REF ) använder gating enheter för att kombinera uppmärksamhet över frågan in i passagen.
6,529,193
Gated-Attention Readers for Text Comprehension
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
3,235
Mänskliga handlingar kan representeras av skelettledernas banor. Traditionella metoder modellerar i allmänhet den rumsliga strukturen och temporal dynamiken hos det mänskliga skelettet med handgjorda egenskaper och känner igen mänskliga handlingar genom väl utformade klassificeringar. I detta dokument, med tanke på att återkommande neurala nätverk (RNN) kan modellera den långsiktiga kontextuell information av temporal sekvenser väl, föreslår vi en end-to-end hierarkisk RNN för skelettbaserade åtgärder erkännande. Istället för att ta hela skelettet som ingång, delar vi upp det mänskliga skelettet i fem delar enligt människans fysiska struktur, och matar sedan dem separat till fem subnät. Allteftersom antalet lager ökar, är de representationer som extraheras av subnäten hierarkiskt sammansmälta för att vara ingångar av högre skikt. De slutliga representationerna av skelettsekvenserna matas in i ett enda lager perceptron, och den tidsmässigt ackumulerade produktionen av perceptronet är det slutliga beslutet. Vi jämför med fem andra djupa RNN-arkitekturer som härletts från vår modell för att verifiera effektiviteten i det föreslagna nätverket, och även jämföra med flera andra metoder på tre allmänt tillgängliga dataset. Experimentella resultat visar att vår modell uppnår den toppmoderna prestandan med hög beräkningseffektivitet.
För att lösa detta problem använde studien i REF skelettinformation som ingång till ett återkommande neuralt nätverk (RNN) för åtgärdsigenkänning.
8,040,013
Hierarchical recurrent neural network for skeleton based action recognition
{'venue': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
3,236
Mobile-edge computing (MEC) är ett framväxande paradigm för att möta de ständigt ökande kraven på beräkning från mobila applikationer. Genom att avlasta den beräkningsintensiva arbetsbelastningen till MEC-servern kan kvaliteten på beräkningsupplevelsen, t.ex. exekveringslatensen, förbättras avsevärt. Eftersom batterikapaciteten på enheten är begränsad, skulle dock beräkningen avbrytas när batteriets energi tar slut. För att ge tillfredsställande beräkningsprestanda och uppnå grön databehandling är det av stor betydelse att söka förnybara energikällor för att driva mobila enheter via energiskördsteknik. I detta dokument kommer vi att undersöka ett grönt MEC-system med EH-enheter och utveckla en effektiv avlastningsstrategi. Exekveringskostnaden, som tar upp både genomförande latency och uppgiftsfel, antas som prestandamått. En låg-komplexitet online-algoritm, nämligen Lyapunov optimering-baserad dynamisk beräkning offloading (LODCO) algoritm föreslås, som gemensamt beslutar avlastning beslut, CPU-cykel frekvenser för mobilt utförande, och sändningseffekt för beräkning offloading. En unik fördel med denna algoritm är att besluten endast beror på den ögonblickliga sidan information utan att kräva distribution information om begäran om beräkning uppgift, den trådlösa kanalen, och EH processer. Genomförandet av algoritmen kräver bara att lösa ett deterministiskt problem i varje tidsrymd, för vilken den optimala lösningen kan erhållas antingen i sluten form eller genom bisektionssökning. Dessutom visas att den föreslagna algoritmen är asymptotiskt optimal genom noggrann analys. Resultaten av provsimuleringen ska presenteras för att verifiera den teoretiska analysen och validera den föreslagna algoritmens effektivitet. Mobil-edge computing, energi skörd, dynamisk spänning och frekvensskalning, effektstyrning, QoE, Lyapunov optimering. Författarna är med
Mao m.fl. REF utvecklade en effektiv avlastningsstrategi för MEC-system med hjälp av mobila enheter för energiupptagning (EH).
14,777,050
Dynamic Computation Offloading for Mobile-Edge Computing with Energy Harvesting Devices
{'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
3,237
Randomized Aggregatable Privacy-Preserving Ordinal Response, eller RAPPOR, är en teknik för crowdsourcing statistik från slutanvändarklient programvara, anonymt, med starka integritetsgarantier. Kort sagt, RAPPORs tillåter skogen av klientdata att studeras, utan att tillåta möjligheten att titta på enskilda träd. Genom att använda randomiserat svar på ett nytt sätt tillhandahåller RAPPOR mekanismerna för sådan insamling och för effektiv analys av de insamlade uppgifterna med hög användningsgrad. I synnerhet tillåter RAPPOR statistik att samlas in om befolkningen av kund-side strängar med starka integritetsgarantier för varje kund, och utan koppling mellan deras rapporter. Detta dokument beskriver och motiverar RAPPOR, detaljer dess differential-privacy och nyttogarantier, diskuterar dess praktiska installation och egenskaper inför olika attackmodeller, och slutligen, ger resultat av dess tillämpning på både syntetiska och verkliga data.
Erlingsson REF studerade hur man använder DP för crowdsourcing statistik från slutanvändarklient programvara.
6,855,746
RAPPOR: Randomized Aggregatable Privacy-Preserving Ordinal Response
{'venue': "CCS '14", 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,238
ABSTRACT Att tillhandahålla servicekontinuitet till slutanvändare med bästa kvalitet är en mycket viktig fråga i nästa För att uppnå denna fråga, föreslår detta dokument en intelligent strategi för val av nätverk som kombinerar två multiattribut beslutsfattande (MADM) metoder såsom analytic network process (ANP) och tekniken för order preferens genom likhet med en idealisk lösning (TOPSIS) metod. ANP-metoden används för att hitta differentierade vikter för tillgängliga nätverk genom att beakta varje kriterium och TOPSIS-metoden används för att rangordna alternativen. Vår nya strategi för nätverksval kan hantera begränsningarna i MADM metoder som är ranking abnormitet och ping-ponf effekt.
I detta sammanhang föreslog arbetet i REF en strategi för intelligent val av nätverk som kombinerar två MADM-algoritmer ANP-metoden med TOPSIS-tekniken.
14,382,241
An Intelligent Network Selection Strategy Based on MADM Methods in Heterogeneous Networks
{'venue': 'International Journal of Wireless&Mobile Networks (IJWMN) Vol. 4, No. 1, February 2012, 83-96', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,239
Nuförtiden krävs det ofta att man delar data mellan organisationer under affärssamarbetet. Datautvinningstekniken har möjliggjort effektiv kunskapsutvinning från stora databaser. Detta ökar dock risken för att den känsliga kunskapen avslöjas när databasen lämnas ut till andra parter. För att ta itu med denna integritetsfråga kan man rensa den ursprungliga databasen så att den känsliga kunskapen döljs. Utmaningen är att minimera sidoeffekten på kvaliteten på den renade databasen så att icke-känslig kunskap fortfarande kan brytas. I detta dokument studerar vi ett sådant problem i samband med att man döljer känsliga ofta förekommande artiklar genom att på ett klokt sätt ändra transaktionerna i databasen. Till skillnad från tidigare arbete, anser vi kvaliteten på den renade databasen särskilt för att bevara icke-känsliga frekventa objekt. För att bevara de okänsliga ofta förekommande objekten föreslår vi ett gränsbaserat tillvägagångssätt för att effektivt utvärdera effekterna av eventuella ändringar av databasen under döljandet. Kvaliteten på databasen kan upprätthållas väl genom att girigt välja ändringar med minimal bieffekt. Experimentresultat rapporteras också för att visa hur effektivt det föreslagna tillvägagångssättet är.
Det gränsbaserade tillvägagångssättet fokuserar på vikten av de icke-känsliga objekten för att minska stödet för de känsliga objekten samtidigt som stödet för icke-känsliga artiklar REF skyddas.
10,803,993
A Border-Based Approach for Hiding Sensitive Frequent Itemsets
{'venue': 'ICDM', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,240
: Vi beskriver en detektor som kan hitta runt 800 ansikten av den rapporterade 1000 närvarande, genom att använda sig av nya karakteriseringar av skala, upplösning och sammanhang för att hitta små objekt. Detektorkonfidens ges av färgraden till höger: kan du säkert identifiera fel? Även om man har gjort enorma framsteg när det gäller att identifiera föremål, är en av de återstående öppna utmaningarna att upptäcka små föremål. Vi undersöker tre aspekter av problemet i samband med att vi hittar små ansikten: betydelsen av stor variation, bildupplösning och kontextuellt resonemang. Medan de flesta erkännande metoder syftar till att vara skala-invariant, är signalerna för att erkänna en 3px lång ansikte i grunden annorlunda än de för att erkänna en 300px lång ansikte. Vi tar en annan infallsvinkel och tränar separata detektorer för olika skalor. För att upprätthålla effektiviteten tränas detektorer på ett multi-task-sätt: de använder sig av funktioner som utvunnits från flera lager av enstaka (djupa) funktionshierarki. Även om träningsdetektorer för stora föremål är enkla, förblir den avgörande utmaningen träningsdetektorer för små föremål. Vi visar att sammanhanget är avgörande, och definiera mallar som använder sig av massivt stora mottagliga fält (där 99% av mallen sträcker sig utanför objektet av intresse). Slutligen utforskar vi skalans roll i förtränade djupa nätverk, vilket ger sätt att extrapolera nätverk som är anpassade för begränsade skalor till ganska extrema intervall. Vi demonstrerar state-of-the-art resultat på massivt-benchmarked ansikte dataset (FDDB och WIDER FACE). I synnerhet, jämfört med tidigare konst på WIDER FACE, våra resultat minskar fel med en faktor på 2 (våra modeller producerar en AP på 81% medan tidigare konst varierar från 29-64%).
Det är helt annorlunda än att upptäcka normala ansikten, eftersom signalerna för att upptäcka en 3-pixel lång ansikte är i grunden skiljer sig från dem för att upptäcka en 300-pixel lång ansikte REF.
7,552,471
Finding Tiny Faces
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
3,241
Abstract-Wireless kanaler ändras på grund av rörligheten för användare, som i kombination med systemförseningar, orsakar föråldrade kanal state information (CSI) att användas för sändare optimering tekniker såsom adaptiv modulering. Kanalprognoser gör det möjligt för systemet att anpassa moduleringsmetoderna till en uppskattad framtida CSI. Det primära bidraget av detta papper är en låg komplexitet kanal förutsägelse metod med polynom approximation. Metoden är lokal i Sense att endast ett fåtal tidigare kanalprover krävs för att uppskatta nästa CSI. Den föreslagna metodens beräkningsmässiga komplexitet visas för honom försumbar jämfört med tidigare metoder. Simuleringsresultat visar att den föreslagna metoden noggrant spårar långsamt till måttligt bleknande kanaler. Den föreslagna metodens användbarhet visas genom att den tillämpas på ett system med flera användare av AVDM. Som ett exempel, en multianvändare av AVDM med en systemfördröjning på 5 ms och en Doppler spridning på 40 Hz förlorar cirka 17% av sin kapacitet på grund av ofullständig CSI. Med hjälp av den föreslagna algoritmen för att förutsäga CSI, kapacitetsförlusten är mindre än 1%.
Främst riktar sig mobila trådlösa nätverk, Shen, et al REF beskriva en låg komplexitet kanal förutsägelse metod med polynom approximation.
14,231,545
Short range wireless channel prediction using local information
{'venue': 'The Thrity-Seventh Asilomar Conference on Signals, Systems & Computers, 2003', 'journal': 'The Thrity-Seventh Asilomar Conference on Signals, Systems & Computers, 2003', 'mag_field_of_study': ['Computer Science']}
3,242
De befintliga systemen för e-fakturering uppfyllde krav som stödberättigande, fullständighet, "inga röstdumpling", integritet men har inte kunnat lösa problemen med allmän verifiability, tvång, mutor och rättvisa i den övergripande valprocessen. I detta arbete föreslås ett mottagningsfritt e-faktureringssystem för flera myndigheter för att lösa nackdelarna med de befintliga e-faktureringssystemen. Det föreslagna systemet använder ElGamal-kryptering för att garantera röstsäkerheten på grund av sin probabilistiska karaktär. ElGamal som är homomorphic med multiplikation modifieras till additiv homomorphic för att säkerställa väljarnas integritet och övergripande valeffektivitet. Ett betroddt centrum är involverat i systemet för att fördela den delade hemliga nyckeln mellan myndigheterna och Shamir (t, n) tröskelsystemet används för nyckeldistribution. Myndigheterna kommer sedan att använda denna share hemlighet för att dekryptera den krypterade röstsedeln. 1-out-of-L-återkryptering används för att garantera mottagningsfrihet. Det föreslagna systemet är uppdelat i registrerings-, validerings-, omröstnings- och sammanräkningsfaser. Säkerhetsanalysen av systemet genomfördes sedan för att visa dess effektivitet. Elektronisk röstsäkerhet
I dokumentet REF antogs att det fanns en betrodd tredje part som var inblandad i systemet för att fördela den gemensamma hemliga nyckeln mellan myndigheterna.
15,010,816
A Receipt-free Multi-Authority E-Voting System
{'venue': None, 'journal': 'International Journal of Computer Applications', 'mag_field_of_study': ['Computer Science']}
3,243
I detta dokument föreslår vi en multikriteriebaserad strategi för aktivt lärande och tillämpar den effektivt på namngivna enhetserkännanden. Aktivt lärande mål för att minimera den mänskliga notation insatser genom att välja exempel för märkning. För att maximera bidraget från de utvalda e xamples, anser vi att flera kriterier: informativhet, representativitet och mångfald och föreslå åtgärder för att kvantifiera dem. På ett mer heltäckande sätt införlivar vi alla kriterier med hjälp av två urvalsstrategier, som båda leder till lägre märkningskostnader än en enda-kriteriumbaserad metod. Resultaten av det namngivna enhetsredogörelsen i både MUC-6 och GENIA visar att märkningskostnaden kan minskas med minst 80 % utan att prestandan försämras.
I REF föreslogs en multikriteriebaserad strategi för aktivt lärande och tillämpade den på namngivna enhetserkännanden.
526,503
Multi-Criteria-Based Active Learning For Named Entity Recognition
{'venue': 'Annual Meeting Of The Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,244
Abstract-Den fortsatta tillväxten av cloud computing marknaden har lett till en aldrig tidigare skådad mångfald av molntjänster. För att stödja tjänsteval, mikro-benchmarks används ofta för att identifiera den bäst presterande molntjänst. Det är dock fortfarande oklart hur relevanta dessa syntetiska mikrobenchmarks är för att få insikter i hur verkliga tillämpningar fungerar. Därför utvecklar detta dokument en moln benchmarking metod som använder micro-benchmarks för att profilera applikationer och därefter förutsäga hur en ansökan utför på ett brett spektrum av molntjänster. En studie med en verklig molnleverantör (Amazon EC2) har genomförts för att kvantitativt utvärdera skattningsmodellen med 38 mätvärden från 23 mikrobenchmarks och 2 applikationer från olika domäner. Resultaten visar anmärkningsvärt låg variation i molntjänsters prestanda och visar att utvalda mikrobenchmarks kan uppskatta varaktigheten för en vetenskaplig datorapplikation med ett relativt fel på mindre än 10% och svarstiden för en webbservering ansökan med ett relativt fel mellan 10% och 20%. Sammanfattningsvis betonar detta dokument vikten av molnbenchmarking genom att styrka mikrobenchmarks lämplighet för att uppskatta applikationens prestanda i jämförelse med vanliga baslinjer, men betonar också att endast utvalda mikrobenchmarks är relevanta för att uppskatta prestandan hos en viss applikation.
Scheuner och Leitner använde micro-benchmarks för att testa och förutsäga prestandan hos olika typer av VM instanser över offentliga molntjänster REF.
52,196,200
Estimating Cloud Application Performance Based on Micro-Benchmark Profiling
{'venue': '2018 IEEE 11th International Conference on Cloud Computing (CLOUD)', 'journal': '2018 IEEE 11th International Conference on Cloud Computing (CLOUD)', 'mag_field_of_study': ['Computer Science']}
3,245
Abstrakt. Det visas hur man konstruerar en klique graf där egenskaper av kliquer av en fast ordning i en given graf representeras av hörn i en viktad graf. Olika definitioner och motiv för dessa vikter ges. Upptäckten av samhällen eller kluster används för att illustrera hur ett klickdiagram kan utnyttjas. I synnerhet ett referensnätverk visas där klick diagram hitta överlappande samhällen korrekt medan vertex partition metoder misslyckas.
Den clique grafen, vari kliques av en given ordning representeras som noder i en viktad graf, är ett konceptuellt verktyg för att förstå k-clique percolation beskrivs av Evans REF.
2,783,670
Clique Graphs and Overlapping Communities
{'venue': 'J. Stat. Mech. (2010) P12037', 'journal': None, 'mag_field_of_study': ['Physics', 'Computer Science', 'Mathematics']}
3,246
Med tanke på en utbildning datauppsättning som består av bilder och motsvarande kategori etiketter, djupa konvolutionella neurala nätverk visar en stark förmåga att bryta diskriminerande delar för bildklassificering. Djupa konvolutionella neurala nätverk tränas med bildnivå etiketter bara tenderar att fokusera på de mest diskriminerande delar samtidigt som saknar andra objektdelar, som kan ge kompletterande information. I detta dokument tar vi itu med detta problem ur ett annat perspektiv. Vi bygger kompletterande delar modeller på ett svagt övervakat sätt för att hämta information undertryckt av dominerande objektdelar upptäckta av konvolutionella neurala nätverk. Med endast bildnivåetiketter extraherar vi först grova fall av objekt genom att utföra svagt övervakad objektdetektering och instanssegmentering med hjälp av Mask R-CNN och CRF-baserad segmentering. Sedan uppskattar vi och söker efter de bästa delarna modellen för varje objekt instans enligt principen om att bevara så mycket mångfald som möjligt. I det sista steget bygger vi ett tvåvägslångt korttidsminne (LSTM)-nätverk för att skymma och koda den partiella informationen om dessa kompletterande delar till en omfattande funktion för bildklassificering. Experimentella resultat indikerar att den föreslagna metoden inte bara uppnår betydande förbättringar jämfört med våra baslinjemodeller, utan också överträffar toppmoderna algoritmer med stor marginal (6,7 %, 2,8 % respektive 5,2 %) på Stanford Dogs 120, Caltech-UCSD Birds 2011-200 och Caltech 256.
I REF föreslås att kompletterande delar ska byggas upp med hjälp av metoder för att upptäcka föremål och till exempel segmentering.
71,145,872
Weakly Supervised Complementary Parts Models for Fine-Grained Image Classification From the Bottom Up
{'venue': '2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
3,247
Vi undersöker arkitekturer av discriminativt utbildade djupa Convolutional Networks (ConvNets) för åtgärdsigenkänning i video. Utmaningen är att fånga den kompletterande informationen om utseende från stillbildsramar och rörelse mellan ramar. Vi strävar också efter att i nätverksdesignen integrera aspekter av de bäst presterande handgjorda funktionerna. Vårt bidrag är trefaldigt. För det första föreslår vi en tvåströms ConvNet-arkitektur som innehåller rumsliga och tidsmässiga nätverk. För det andra visar vi att ett ConvNet utbildat på multi-frame tät optiskt flöde kan uppnå mycket bra prestanda trots begränsade träningsdata. Slutligen visar vi att multitask-inlärning, som tillämpas på två olika åtgärdsklassificeringsdatauppsättningar, kan användas för att öka mängden utbildningsdata och förbättra prestandan på båda. Vår arkitektur är utbildad och utvärderas på standard video åtgärder riktmärken för UCF-101 och HMDB-51, där det matchar den senaste tekniken. Det överstiger också med stor marginal tidigare försök att använda djupa nät för videoklassificering.
En av de vanligaste djuplärande lösningarna för erkännande av åtgärder är två-ströms konvolutionsnätverk REF.
11,797,475
Two-Stream Convolutional Networks for Action Recognition in Videos
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
3,248
Modern malware kan ta sig olika former och har nått en mycket hög nivå av sofistikering när det gäller dess penetration, uthållighet, kommunikation och dölja kapacitet. Användningen av kryptografi, och av hemliga kommunikationskanaler över offentliga och allmänt använda protokoll och tjänster, håller på att bli en norm. I detta arbete börjar vi med att introducera Resursidentifierare Generation Algoritmer. Dessa är en förlängning av en välkänd mekanism som kallas domängenerering algoritmer, som ofta används av cyberbrottslingar för bot management och kommunikation. Vårt tillägg tillåter, utöver DNS, användning av andra protokoll. Mer konkret visar vi upp utnyttjandet av Interplanetary File System (IPFS). Detta är en lösning för den "permanenta webben", som har ett ständigt växande samhällsintresse och antagande. IPFS är dessutom en av de mest framträdande lösningarna för blockkedjelagring. Vi går bortom det enkla fallet med att använda IPFS för att vara värd för skadligt innehåll och utforska hur en botmaster kunde använda det, för att hantera sina bots, validera våra fynd experimentellt. Slutligen diskuterar vi fördelarna med vår strategi för malware författare, dess effektivitet och belysa dess extensibilitet för andra distribuerade lagringstjänster.
I ett nyligen publicerat dokument REF utvidgar författarna begreppet DGAs till ett mer generiskt begrepp, nämligen resursidentifierare Generation Algoritmer (RIGA), som gör det möjligt att använda andra protokoll än DNS.
167,217,444
Hydras and IPFS: a decentralised playground for malware
{'venue': 'International Journal of Information Security', 'journal': 'International Journal of Information Security', 'mag_field_of_study': ['Computer Science']}
3,249
Cloud Federation är ett framväxande molnkomputerande paradigm som gör det möjligt att aggregera tjänster från olika molnsystem i en enda pool. För att stödja säker datadelning i en molnfederation har anonymiseringstjänster som fördunklar känsliga datauppsättningar under differentialintegritet nyligen föreslagits. Men genom att outsourca dataskyddet till molnet, dataägare förlorar kontroll över sina data, vilket ökar integriteten oro. Detta är ännu mer övertygande i multi-query scenarier där upprätthållandet av integritet innebär att kontrollera fördelningen av den så kallade integritetsbudgeten. I detta dokument föreslår vi ett blockchain-baserat tillvägagångssätt som gör det möjligt för dataägare att kontrollera anonymiseringsprocessen och som ökar säkerheten för tjänsterna. Vår strategi bygger på blockchain för att validera användningen av integritetsbudgeten och anpassa dess tilldelning genom smarta kontrakt, beroende på de sekretesskrav som tillhandahålls av dataägare. Prototype implementation med Hyperledger tillåten blockchain validerar vår strategi med avseende på integritetsgaranti och praktiskhet. Cloud federation bygger upp sammankoppling och samarbete mellan redan utplacerade moln, vilket gör det möjligt för organisationer att uppnå olika affärsmål, såsom kontrollerad delning av data och tjänster och optimering av datorresursanvändning. För att stödja säker delning av feedererade data, anonymisering tjänster har föreslagits som en byggkomponent i federation-as-a-service (FaaS), 3, 4 en nyligen moln federation lösning. Denna komponent implementerar differential integritet för att fördunkla resultatet av statistiska frågor mot känsliga datauppsättningar, 5 möjliggör dess integritetsbevarande delning. Att erbjuda denna tjänst inom ramen för en molnfederation har nytta-tillgång till flera datakällor och olika tjänsteleverantörer-men medför betydande utmaningar för integritetshantering, såsom känsliga datauppsättningar från
Yang m.fl. REF presenterar ett blockchain-baserat tillvägagångssätt som gör det möjligt för O att kontrollera anonymiseringsprocessen, och ökar säkerheten för tjänsterna, genom att validera användningen av integritetsbudgeten och anpassa sin tilldelning via smarta kontrakt i enlighet med integritetskraven i O. I tabell 8 sammanfattas skillnaderna mellan vår förslagsmodell och det befintliga arbetet.
54,435,311
Differentially Private Data Sharing in a Cloud Federation with Blockchain
{'venue': 'IEEE Cloud Computing', 'journal': 'IEEE Cloud Computing', 'mag_field_of_study': ['Computer Science']}
3,250
Abstract-Hardware teknik för betrodda datorer, eller betrodda utförande miljöer (TEEs), har snabbt mognat under det senaste årtiondet. I själva verket är TEE:er på gränsen till utbredd komoditisering med den senaste introduktionen av Intel Software Guard Extensions (Intel SGX). Trots en sådan snabb utveckling av TEE ligger programvaruteknik för TEE betydligt efter sin hårdvarumotsvarighet, och för närvarande har endast en utvald grupp forskare förmånen att få tillgång till denna teknik. För att ta itu med detta problem utvecklar vi en öppen källkodsplattform, kallad OpenSGX, som emulerar Intel SGX hårdvarukomponenter på instruktionsnivå och tillhandahåller nya system programvarukomponenter som nödvändigtvis krävs för fullständig TEE-prospektering. Vi förväntar oss att OpenSGX ramverket kan fungera som en öppen plattform för SGX forskning, med följande bidrag. Först utvecklar vi en fullt fungerande, instruktionskompatibel emulator av Intel SGX för att möjliggöra prospektering av programvara/hårdvara design utrymme, och utveckling av enklavprogram. OpenSGX tillhandahåller en plattform för SGX-utveckling, vilket innebär att den tillhandahåller inte bara emulering utan även operativsystemkomponenter, en enklavprogramlastare/paketerare, ett OpenSGX-användarbibliotek, felsökning och prestandaövervakning. För det andra, för att visa OpenSGX användningsfall, tillämpade vi OpenSGX för att skydda känslig information (t.ex. katalog) av Tor noder och utvärdera deras potentiella prestanda effekter. Därför tror vi att OpenSGX har stor potential för bredare samhällen att starta ny forskning på snart-för-vara Intel SGX.
OpenSGX REF tillhandahåller en öppen källkodsplattform med fullt fungerande och instruktionskompatibel emulator för att påskynda utvecklingen av TEE-baserade applikationer.
1,099,081
OpenSGX: An Open Platform for SGX Research
{'venue': 'NDSS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,251
Abstract-Vi anser problemet med neural association, som behandlar hämtning av ett tidigare memorerat mönster från sin bullriga version. Prestanda av olika neurala nätverk som utvecklats för denna uppgift kan bedömas i termer av deras mönster hämtning kapacitet (antalet mönster som kan lagras), och deras felkorrigering (buller tolerans) kapacitet. Även om betydande framsteg har gjorts, uppvisar de flesta tidigare arbeten på detta område dåliga resultat när det gäller kapacitet för hämtning av mönster och/eller felkorrigering. I detta dokument föreslår vi två nya metoder för att avsevärt öka kapaciteten för hämtning av Hopfield och Bidirective Associative Memories (BAM). Huvudidén är att lagra mönster från en familj av låga korrelationssekvenser, liknande dem som används i Code Division Multiple Access (CDMA) kommunikation, istället för att lagra rent slumpmässiga mönster som i tidigare verk. Dessa låga korrelationsmönster kan erhållas från slumpmässiga sekvenser genom att förkoda de ursprungliga sekvenserna via enkla operationer som både verkliga och artificiella neuroner kan åstadkomma.
I REF använde författarna låga korrelationssekvenser liknande dem som används i CDMA-kommunikation för att öka lagringskapaciteten för Hopfield-nätverk till n utan att kräva någon separat avkodningssteg.
2,019,441
Neural pre-coding increases the pattern retrieval capacity of Hopfield and Bidirectional Associative Memories
{'venue': '2011 IEEE International Symposium on Information Theory Proceedings', 'journal': '2011 IEEE International Symposium on Information Theory Proceedings', 'mag_field_of_study': ['Computer Science']}
3,252
Det viktigaste bidraget i detta dokument är en enkel halvövervakad pipeline som endast använder den ursprungliga utbildningen uppsättning utan att samla in extra data. Det är utmanande i 1) hur man får mer träningsdata endast från träningssetet och 2) hur man använder de nygenererade data. I detta arbete används det generativa kontrariska nätverket (GAN) för att generera omärkta prover. Vi föreslår att märkningen utjämnar regularisering för utliers (LSRO). Denna metod tilldelar en enhetlig etikettdistribution till de omärkta bilderna, som legaliserar den övervakade modellen och förbättrar baslinjen. Vi kontrollerar den föreslagna metoden på ett praktiskt problem: person omidentifiering (re-ID). Denna uppgift syftar till att hämta en fråga person från andra kameror. Vi antar den djupa convolutional generative adversarial network (DCGAN) för provgenerering, och en baslinje convolutional neural network (CNN) för representationsinlärning. Experiment visar att tillägg av GAN-genererade data effektivt förbättrar den diskriminativa förmågan hos inbäddade CNN-inbäddningar. På tre storskaliga dataset, Market-1501, CUHK03 och DukeMTMC-reID, får vi +4.37%, +1.6% och +2.46% förbättring i rank-1 precision jämfört med baseline CNN, respektive. Vi tillämpar dessutom den föreslagna metoden för finkornig fågeligenkänning och uppnår en förbättring på +0,6 % jämfört med en stark baslinje. Koden finns på https://github.com/layumi/Person-reID_GAN.
REF visade att användningen av GAN-genererade bilder utbildade på person Re-ID-datauppsättningar kan förbättra baslinjemodeller.
2,683,207
Unlabeled Samples Generated by GAN Improve the Person Re-identification Baseline in Vitro
{'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
3,253
ABSTRACT Kognitiv radio (CR) gör det möjligt för olicensierade användare att utforska och utnyttja underutnyttjade licensierade kanaler (eller vita utrymmen). Även om CR-nätverket i flerahopar har visat stort forskningsintresse under de senaste åren, har merparten av arbetet validerats genom simulering. En viktig utmaning i multi-hop CR-nätverk är att välja en rutt med hög servicekvalitet (QoS) och mindre antal vägbrott. I detta dokument föreslår vi tre vägvalssystem för att förbättra nätverksprestandan för CR-nätverk, och undersöka dem med hjälp av en verklig testbäddsmiljö, som består av universella radioperifert programvara och GNU-radioenheter. Två system bygger på ökad inlärning (RL), medan ett system bygger på spektrumleasing (SL). RL är en artificiell intelligensteknik, medan SL är ett nytt paradigm som möjliggör kommunikation mellan licensierade och olicensierade användare i CR-nätverk. Vi jämför rutturval med ett befintligt rutturvalssystem i litteraturen, som kallas högsta kanal (HC), i ett multi-hop CR-nätverk. När det gäller QoS-parametrarna (t.ex. genomströmning, paketleveransförhållande och antalet vägbrott) visar de experimentella resultaten att RL-metoderna uppnår en bättre prestanda jämfört med HC-metoden, och att de också uppnår den prestanda som uppnås genom SL-metoden. INDEX TERMS Kognitiv radio, multi-hop nätverk, ruttval, förstärkning lärande, spektrum leasing.
Syed m.fl. REF presenterade en plattform för att testa noggrannheten hos de lösningar som består av tre routingalternativ, kringutrustning för programvaruradio och GNU-radio.
25,328,848
Route Selection for Multi-Hop Cognitive Radio Networks Using Reinforcement Learning: An Experimental Study
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
3,254
Vi presenterar en ny end-to-end neural modell för att extrahera enheter och relationer mellan dem. Vår återkommande neurala nätverk baserad modell fångar både ordsekvens och beroende träd substruktur information genom att stapla dubbelriktade trädstrukturerade LSTM-RNNs på dubbelriktade sekventiella LSTM-RNNs. Detta gör det möjligt för vår modell att gemensamt representera både enheter och relationer med delade parametrar i en enda modell. Vi uppmuntrar vidare upptäckt av enheter under utbildning och användning av enhetsinformation i samband med utvinning via förutbildning och planerad provtagning. Vår modell förbättrar över den senaste funktionen-baserade modellen på end-toend relation extraktion, uppnå 12,1% och 5,7% relativ felminskning i F1-score på ACE2005 respektive ACE2004. Vi visar också att vår LSTM-RNN-baserade modell med fördel kan jämföras med den toppmoderna CNN-baserade modellen (i F1-poäng) för nominell relationsklassificering (SemEval-2010 Task 8). Slutligen presenterar vi en omfattande ablationsanalys av flera modellkomponenter.
Senare, REF har genomfört en end-to-end neural nätverk för att konstruera en kontext representation för gemensam enhet och relation extraktion.
2,476,229
End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
3,256
Denna uppsats presenterar en oövervakad inlärningsalgoritm för sense disambiguation som, när den tränas på oannoterad engelsk text, tävlar med utförandet av övervakade tekniker som kräver tidskrävande hand annoteringar. Algoritmen är baserad på två kraftfulla begränsningar - att ord tenderar att ha en känsla per diskurs och en känsla per collocation - utnyttjas i en iterativ bootstrapping förfarande. Testad noggrannhet överstiger 96 %.
REF föreslår en metod för disambigering av ordsinne, som bygger på enspråkig uppstart.
1,487,550
Unsupervised Word Sense Disambiguation Rivaling Supervised Methods
{'venue': 'Annual Meeting Of The Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,258
Sammanfattning av denna webbsida: I den allmänna kontexten av Knowledge Discovery är särskilda tekniker, så kallade Text Mining-tekniker, nödvändiga för att extrahera information från ostrukturerade textdata. Den extraherade informationen kan sedan användas för klassificering av innehållet i stora textbaser. I detta dokument presenterar vi två exempel på information som automatiskt kan extraheras ur textsamlingar: probabilistiska sammanslutningar av nyckelord och prototypiska dokumentexempel. Verktygen Natural Language Processing (NLP) som behövs för sådana utdrag presenteras också.
KE-teknik (även kallad kunskapsupptäckt) används för att extrahera information från ostrukturerade data, som sedan kan användas för att tillämpa övervakade eller oövervakade inlärningsmetoder, såsom klusterbildning och klassificering av innehållet REF.
14,122,025
Text Mining - Knowledge extraction from unstructured textual data
{'venue': '6th Conference of International Federation of Classification Societies (IFCS-98', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,259
Vägtrafik anomali betecknar ett vägsegment som är onormal i fråga om trafikflödet av fordon. Att upptäcka trafikavvikelser från GPS (Global Position System) sippets data håller på att bli avgörande i urban computing eftersom de ofta föreslår underliggande händelser. Den bullriga och glesa karaktären hos GPS-snippets data har dock lett till flera problem, vilket har fått upptäckten av trafikavvikelser att bli mycket utmanande. För att ta itu med dessa frågor föreslår vi en tvåstegslösning som består av två komponenter: en Collaborative Path Inference (CPI) modell och en Road Anomaly Test (RAT) modell. CPI-modellen utför en vägslutsats som omfattar både statiska och dynamiska funktioner i ett villkorligt slumpmässigt fält (CRF). Dynamiska kontextfunktioner lärs in i samarbete från stora GPS-slippar via en tensor sönderdelningsteknik. Sedan RAT beräknar den anomaliska graden för varje vägsegment från den inferred finkorniga banor i givna tidsintervall. Vi utvärderade vår metod med hjälp av en storskalig real world dataset, som innehåller en månad GPS lokaliseringsdata från mer än åtta tusen taxicabs i Peking. Utvärderingsresultaten visar fördelarna med vår metod utöver andra baslinjetekniker.
Wang m.fl. I REF föreslogs en tvåstegslösning för att upptäcka avvikelser i vägtrafiken: (1) en modell för samverkansvägsinferens (CPI) som utför en väginferens med statiska och dynamiska egenskaper i ett villkorat slumpmässigt fält (CRF), (2) en modell för väganalys (RAT) beräknar den avvikande graden för varje vägsegment.
3,062,450
Road Traffic Anomaly Detection via Collaborative Path Inference from GPS Snippets
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Computer Science', 'Medicine']}
3,260
Gland segmentering är ett viktigt steg för att automatisera analysen av biopsier som innehåller körtelstrukturer. Men detta är fortfarande ett utmanande problem som variationen i färgning, fixering, och avsnittning förfaranden leder till en avsevärd mängd artefakter och avvikelser i vävnadssektioner, vilket kan resultera i enorma variationer i körtlar utseende. I detta arbete rapporterar vi ett nytt tillvägagångssätt för körtelsegmentering. Detta tillvägagångssätt sönderdelar vävnadsbilden till en uppsättning primitiva objekt och segmentkörtlar som utnyttjar de organisatoriska egenskaperna hos dessa objekt, vilka kvantifieras med definitionen av objekt-grafer. I motsats till den tidigare litteraturen använder den föreslagna metoden objektbaserad information för problem med körtelsegmentering, i stället för att enbart använda pixelbaserad information. Genom att arbeta med bilder av tjocktarmsvävnader visar våra experiment att den föreslagna objektgrafmetoden ger höga segmenteringsnoggrannheter för träning och testuppsättningar och avsevärt förbättrar segmenteringsprestandan hos dess pixelbaserade motsvarigheter. Experimenten visar också att den objektbaserade strukturen i den föreslagna metoden ger mer tolerans mot artefakter och varianser i vävnader.
Till exempel Demir et al. sönderdela de körtelstrukturer i sina primitiva objekt och utnyttjade de organisatoriska egenskaperna hos dessa objekt i stället för traditionella pixel-baserade egenskaper REF.
16,492,718
Automatic segmentation of colon glands using object-graphs
{'venue': 'Medical image analysis', 'journal': 'Medical image analysis', 'mag_field_of_study': ['Computer Science', 'Medicine']}
3,261
Abstract-För att stödja storskaliga biomedicinska forskningsprojekt, behöver organisationer dela personspecifika genomiska sekvenser utan att kränka integriteten hos sina registrerade. Tidigare skyddade organisationer individers identiteter genom att ta bort identifierare, såsom namn och personnummer, men nyligen genomförda undersökningar visar att avidentifierade genomiska data kan "återidentifieras" till namngivna individer med hjälp av enkla automatiserade metoder. I detta dokument presenterar vi ett nytt kryptografiskt ramverk som gör det möjligt för organisationer att stödja genomisk datautvinning utan att avslöja de råa genomiska sekvenserna. Organisationer bidrar med krypterade genomiska sekvensposter till ett centraliserat arkiv, där administratören kan utföra frågor, såsom frekvensräkningar, utan att dekryptera data. Vi utvärderar effektiviteten i vårt ramverk med befintliga databaser av enstaka nucleotide polymorphism (SNP) sekvenser och visar att den tid som behövs för att slutföra räkna frågor är möjlig för verkliga tillämpningar. Till exempel, våra experiment visar att en räkning fråga över 40 SNPs i en databas med 5000 poster kan slutföras i cirka 30 minuter med off-the-shälf-teknik. Vi visar vidare att approximationsstrategier kan tillämpas för att avsevärt påskynda frågeutförandetider med minimal förlust i noggrannhet. Ramen kan genomföras utöver befintlig information och nätverksteknik i biomedicinska miljöer.
Kantarcioglu et al. REF föreslår användning av homomorphic kryptering för att lagra krypterade genomic sekvensposter i ett centraliserat arkiv, så att frågor kan utföras utan dekryptering och därmed utan att bryta deltagarnas integritet.
18,213,198
A Cryptographic Approach to Securely Share and Query Genomic Sequences
{'venue': 'IEEE Transactions on Information Technology in Biomedicine', 'journal': 'IEEE Transactions on Information Technology in Biomedicine', 'mag_field_of_study': ['Computer Science', 'Medicine']}
3,262
I detta dokument föreslås ett svagt och självövervakat djupt konvolutionellt neuralt nätverk (WSSDCNN) för contentaware image retargeting. Vårt nätverk tar en källbild och ett mål proportion, och sedan direkt ger en omriktad bild. Retargeting utförs genom en skiftkarta, som är en pixel-wise kartläggning från källan till mål rutnätet. Vår metod lär sig implicit en uppmärksamhet karta, vilket leder till en innehållsmedveten skiftkarta för bild retargeting. Som ett resultat av detta bevaras diskriminerande delar i en bild, medan bakgrundsregionerna justeras sömlöst. I träningsfasen används par av en bild och dess bild-nivå annotering för att beräkna innehåll och strukturförluster. Vi demonstrerar effektiviteten i vår föreslagna metod för en omriktande tillämpning med insiktsfulla analyser.
Cho m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. Ref har föreslagit ett svagt och självövervakat lärande för omriktning av bilden.
19,581,619
Weakly- and Self-Supervised Learning for Content-Aware Deep Image Retargeting
{'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
3,263
Abstract-A cloud radio access network (Cloud-RAN) är en nätverksarkitektur som håller löftet om att möta den explosiva tillväxten av mobil datatrafik. I denna arkitektur, all basband signalbehandling flyttas till en enda basbandsenhet (BBU) pool, vilket möjliggör effektiv resursfördelning och interferenshantering. Under tiden, konventionella kraftfulla basstationer kan ersättas med låg kostnad låg effekt fjärrradiohuvuden (RRHs), som producerar en grön och låg kostnad infrastruktur. Eftersom alla RRH:er måste anslutas till BBU-poolen genom optiska transportlänkar blir strömförbrukningen i transportnäten betydande. I detta dokument föreslår vi en ny ram för att utforma en grön Cloud-RAN, som är formulerad som ett gemensamt RRH-val och energiminimering strålformning problem. För att effektivt lösa detta problem föreslår vi först en girig urvalsalgoritm, som visas ge nära optimal prestanda. För att ytterligare minska komplexiteten, föreslås en ny grupp sparse strålformning metod genom att inducera grupp-parsitet av strålformare med hjälp av den vägda 1/ 2-norm minimering, där gruppen sparity mönster anger de RRHs som kan stängas av. Simuleringsresultaten kommer att visa att de föreslagna algoritmerna avsevärt minskar nätkraftförbrukningen och visar hur viktigt det är att beakta energiförbrukningen vid transportlänken.
Minimera näteffektförbrukningen för CRAN undersöks i REF, där strömförbrukningen i transportnätet och RRHs beaktas.
15,793,521
Group Sparse Beamforming for Green Cloud-RAN
{'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
3,264
Begreppet ersättning används i stor utsträckning i avancerade transaktionsmodeller som ett sätt att återvinna ersättning från ett misslyckande. Liknande koncept används för att tillhandahålla "transaktionsliknande" beteende för långa affärsprocesser som stöds av arbetsflöden teknik. I allmänhet är det inte trivialt att utforma kompenserande uppgifter för uppgifter i samband med ett arbetsflöde. I själva verket behöver en uppgift i en arbetsflödesprocess inte vara kompenserbar i den meningen att uppgiftens "omvända" verksamhet inte alltid garanteras av applikationssemantiken. Dessutom kan isoleringskravet på dataresurser göra det svårt att kompensera för en uppgift. I detta dokument undersöker vi först de krav som en kompenserande uppgift måste uppfylla. Sedan introducerar vi ett nytt koncept som kallas konfirmation. Med hjälp av bekräftelsen kan vi ändra de flesta icke-kompenserbara uppgifter så att de blir kompenserbara. Detta kan avsevärt öka tillgången till delade resurser och avsevärt förbättra återhämtningen bakåt för arbetsflöden vid fel. För att effektivt införliva bekräftelse och ersättning i en arbetsflödeshanteringsmiljö införs en tre nivåers nedifrån-och-upp-arbetsflödesdesignmetod. Frågorna kring genomförandet av denna utformning diskuteras också.
Liu Ref föreslog en metod för konstruktion av arbetsflöden på tre nivåer för att effektivt införliva bekräftelse och ersättning vid fel.
14,506,908
Confirmation : increasing resource availability for transactional workflows
{'venue': 'Inf. Sci.', 'journal': 'Inf. Sci.', 'mag_field_of_study': ['Computer Science']}
3,265