src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
Abstract-För två nivåer nätverk som består av makroceller och femtoceller, kan kanalåtkomstmekanismen konfigureras för att vara öppen tillgång, stängd åtkomst, eller hybridåtkomst. Hybridaccess uppstår som en kompromiss mellan öppna och slutna tillträdesmekanismer, där en bråkdel av de tillgängliga spektrumresurserna delas till icke-abonnenter medan de återstående reserveras för abonnenter. Detta dokument fokuserar på en hybridaccessmekanism för flerkanaliga femtoceller som använder system för tillgång till ortogonalt spektrum. Med tanke på en randomiserad kanaltilldelningsstrategi analyserar vi resultatet i nedlänken. Med hjälp av stokastisk geometri som tekniska verktyg modellerar vi distributionen av femtoceller som Poisson punktprocess eller Neyman-Scott klusterprocess och härleder fördelningen av signal-till-interference-plus-buller förhållande, och genomsnittliga uppnåeliga hastigheter, för både icke-tecknare och abonnenter. De etablerade uttrycken är godtagbara för numerisk utvärdering, och kastar viktiga insikter i prestanda kompromissen mellan abonnenter och icke-prenumeranter. Analysresultaten bekräftas av numeriska simuleringar.
I REF användes Neyman-Scott-processen för att modellera distributionen av femto-celler, och distributionen av SINR och genomsnittliga uppnåeliga satser för både icke-prenumeranter och abonnenter härleddes.
2,481,895
Multi-channel Hybrid Access Femtocells: A Stochastic Geometric Analysis
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
13,751
Gasledningen kräver regelbunden kontroll eftersom läckaget skadar den stabila gasförsörjningen. Jämfört med nuvarande detektionsmetoder såsom destruktiv inspektion, med hjälp av rörledning robotar har fördelar inklusive låga kostnader och hög effektivitet. De har dock ett begränsat inspektionsområde i det komplexa röret på grund av begränsningar av kabelfriktionen eller den trådlösa signaldämpningen. I vår tidigare studie, för att utöka inspektionsområdet, föreslog vi ett robotkedjesystem baserat på trådlös reläkommunikation (WRC). Vissa nackdelar kvarstår dock fortfarande, t.ex. bristande utvärdering baserad på mottagen signalstyrkasindikation (RSSI), stor datafelkvot och förlust av signaler. I den här artikeln föreslår vi därför ett nytt tillvägagångssätt baserat på synlig ljusreläkommunikation (VLRC) och belysningsbedömning. Denna metod gör det möjligt för robotar att kommunicera med "ljussignalreläet", som har fördelar i god kommunikationskvalitet, mindre dämpning och hög precision i röret. För att säkerställa stabiliteten hos VLRC används den belysningsbaserade utvärderingsmetoden på grund av högre stabilitet än den trådlösa metoden. Som en preliminär utvärdering genomfördes flera tester om signalvågsform, kommunikationskvalitet och koordinerad rörelse. Resultaten visar att det föreslagna systemet kan utöka inspektionsområdet med mindre datafelkvot och stabilare kommunikation.
Robotsystemet kan inte bara uppnå hög kvalitet och låg-förlust kommunikation med den externa styrenheten genom "ljussignalrelä", men kan också upptäcka intilliggande avstånd genom belysningsbaserad utvärdering approach REF.
169,036,631
A Coordinated Wheeled Gas Pipeline Robot Chain System Based on Visible Light Relay Communication and Illuminance Assessment
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']}
13,752
Abstract-Motion banor ger rik spatiotemporal information om ett objekts aktivitet. I detta dokument presenteras nya klassificeringsalgoritmer för att känna igen objektaktivitet med objektets rörelsebana. I det föreslagna klassificeringssystemet är banorna segmenterade vid krökningspunkter, och subbanorna representeras av deras viktigaste komponentanalyskoefficienter (PCA). Vi presenterar först ett ramverk för att på ett robust sätt uppskatta multivariat sannolikhet densitet funktion baserad på PCA koefficienter för de subtrajectories med Gaussian blandning modeller (GMMs). Vi visar att endast GMM-baserad modellering inte kan fånga de tidsbundna relationerna och beställningen mellan underliggande enheter. För att ta itu med detta, använder vi dolda Markov modeller (HMMs) med en datadriven design i form av antal tillstånd och topologi (t.ex., vänster-höger kontra ergodic). Experiment med hjälp av en databas med över 5700 komplexa banor (finns från UCI-KDD dataarkiv och Columbia University Multimedia Group) indelade i 85 olika klasser visar överlägsenheten i vårt föreslagna HMM-baserade system med PCA koefficienter för subtrajectories i jämförelse med andra tekniker i litteraturen.
Bashir m.fl. REF har presenterat en ram för klassificering av mänskliga rörelsebanor, som använder HMM med en blandning av Gaussians.
11,386,264
Object Trajectory-Based Activity Classification and Recognition Using Hidden Markov Models
{'venue': 'IEEE Transactions on Image Processing', 'journal': 'IEEE Transactions on Image Processing', 'mag_field_of_study': ['Mathematics', 'Medicine', 'Computer Science']}
13,753
Abstrakt. Affärsprocessmodellering har blivit ett viktigt verktyg för att hantera organisationsförändringar och för att fånga krav på programvara. Ett centralt problem på detta område är att förvärv av as-is-modeller förbrukar upp till 60 % av den tid som läggs på projekt för processledning. Detta är paradoxalt eftersom det ofta finns omfattande dokumentation tillgänglig i företag, men inte i bruksfärdigt format. I detta dokument tar vi itu med detta problem på grundval av ett automatiskt tillvägagångssätt för att generera BPMN-modeller från text i naturligt språk. Vi kombinerar befintliga verktyg från naturligt språk bearbetning på ett innovativt sätt och förstärkt dem med en lämplig Anaphora upplösningsmekanism. Utvärderingen av vår teknik visar att för en uppsättning av 47 text-modeller par från industrin och läroböcker, kan vi generera i genomsnitt 77% av modellerna korrekt.
Anaphora resolution hanteras i ett nyligen tillvägagångssätt för att generera BPMN modeller REF.
1,631,332
Process Model Generation from Natural Language Text
{'venue': 'in: CAiSE 2011, Vol. 6741 of LNCS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,754
Sensornätverk är utplacerade för att övervaka det intresserade området. Maximera sensortäckningen beror på att effektivt bestämma var sensorerna befinner sig. I detta dokument föreslås en metod för självdistribution som kallas Ion-6. Sensorer är modellerade som joner, och kopplingarna mellan dem behandlas som joniska bindningar. När antalet joniska band till en sensor är fullt, kommer sensorn att driva ut andra ur sitt fält. Sensorerna organiserar sig som det hexagonala formatet för att maximera nätverkets täckningsområde, behålla nätverksanslutningen och förhindra att täckningshålen introduceras. Sensorerna i den föreslagna metoden kan beräkna sina rörliga riktningar och avstånd självständigt utan föregående positionsinformation. Simuleringsresultat visar att Ion-6 kan organisera sensorer som det hexagonala formatet för att maximera täckningsområdet. Utplaceringstiden för jon-6 är mindre än molekylmodellen och eliminerar effektivt de onödiga rörelserna hos den virtuella kraftmetoden (V-kraft).
Huang REF föreslog en metod för självdeployment med namnet Ion-6.
43,399,745
Ion-6: A Positionless Self-Deploying Method for Wireless Sensor Networks
{'venue': None, 'journal': 'International Journal of Distributed Sensor Networks', 'mag_field_of_study': ['Computer Science']}
13,755
Storskalig distribuerad utbildning kräver betydande kommunikationsbandbredd för gradientutbyte som begränsar skalbarheten av multi-node utbildning, och kräver dyra högbandsbredd nätverk infrastruktur. Situationen blir ännu värre med distribuerad utbildning på mobila enheter (federerad inlärning), som lider av högre latens, lägre genomströmning och intermittenta dåliga anslutningar. I detta dokument finner vi 99,9% av gradientutbytet i distribuerad SGD är överflödiga, och föreslår Deep Gradient Compression (DGC) för att kraftigt minska kommunikationsbandbredden. För att bevara noggrannheten under denna kompression använder DGC fyra metoder: momentumkorrigering, lokal gradientklippning, momentumfaktormaskering och uppvärmningsträning. Vi har tillämpat Deep Gradient Compression på bildklassificering, taligenkänning och språkmodellering med flera datauppsättningar inklusive Cifar10, ImageNet, Penn Treebank och Librispeech Corpus. På dessa scenarier, Deep Gradient Compression uppnår en lutning kompressionsförhållande från 270× till 600× utan att förlora noggrannhet, skära lutningen storlek ResNet-50 från 97MB till 0,35MB, och för DeepSpeech från 488MB till 0.74MB. Djup gradientkompression möjliggör storskalig distribuerad utbildning på billig råvara 1Gbps Ethernet och underlättar distribuerad utbildning på mobil.
DGC REF minskar kommunikationsbandbredden genom momentumkorrigering, lokal gradientklippning, momentumfaktormaskering och uppvärmningsträning.
38,796,293
Deep Gradient Compression: Reducing the Communication Bandwidth for Distributed Training
{'venue': 'ICLR 2018', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
13,756
Vi beskriver ett nytt tillvägagångssätt för att bygga en säker och feltolerant datalagringstjänst i samverkande arbetsmiljöer, som använder perfekta hemliga delningssystem för att lagra data. Perfekta system för hemlig delning har inte haft någon större användning för att hantera generiska data på grund av de höga omkostnader för beräkning som sådana system medför. Vårt föreslagna tillvägagångssätt använder en ny kombination av XOR hemliga delnings- och replikeringsmekanismer, som drastiskt minskar beräknings omkostnader och uppnå hastigheter jämförbara med standard krypteringssystem. Kombinationen av hemlig delning och replikering manifesterar sig som ett arkitektoniskt ramverk, som har den attraktiva egenskapen att dess dimension kan varieras för att utnyttja kompromisser mellan olika prestandamått. Vi utvärderar egenskaperna och prestandan hos det föreslagna ramverket och visar att kombinationen av perfekt hemlig delning och replikering kan användas för att bygga effektiva feltoleranta och säkra distribuerade datalagringssystem.
I REF introduceras kombinationen av XOR-hemlig delning och replikering för att bygga ett säkert och feltolerant datalagringssystem i samverkande arbetsmiljöer.
15,230,351
An approach for fault tolerant and secure data storage in collaborative work environments
{'venue': "StorageSS '05", 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,757
Många uppgifter i AI kräver samarbete med flera agenter. Vanligtvis är kommunikationsprotokollet mellan agenter manuellt specificerat och inte ändrat under utbildningen. I detta papper utforskar vi en enkel neural modell, kallad CommNN, som använder kontinuerlig kommunikation för fullt samarbete uppgifter. Modellen består av flera agenter och kommunikationen mellan dem är inlärd vid sidan av deras policy. Vi tillämpar denna modell på en mängd olika uppgifter, som visar agenternas förmåga att lära sig kommunicera sinsemellan, vilket ger bättre prestanda jämfört med icke-kommunikativa medel och baslinjer. I vissa fall är det möjligt att tolka det språk som uppfunnits av agenterna och avslöja enkla men effektiva strategier för att lösa den aktuella uppgiften. Vi överväger den miljö där vi har J agenter, alla samarbetar för att maximera belöning R i någon miljö. Vi gör det förenklade antagandet om fullständigt samarbete som varje agent tar emot R, oberoende av deras bidrag. I denna inställning finns det ingen skillnad mellan att varje agent har sin egen controller, eller att se dem som bitar av en större modell som styr alla agenter. Med det senare perspektivet, vår controller är ett stort feed-forward neural nätverk som kartlägger ingångar för alla agenter till deras handlingar, varje agent som ockuperar en delmängd av enheter. En specifik konnektivitetsstruktur mellan skikten arXiv:1605.07736v1 [cs.LG] 25 maj 2016 (a) direktierar radiokommunikationskanalen mellan agenter och (b) propagerar för agentstaten. Eftersom agenterna kommer att få belöning, men inte nödvändigtvis tillsyn för varje åtgärd, förstärks lärande används för att maximera förväntad framtida belöning. Vi utforskar två former av kommunikation inom styrenheten: (i) diskret och (ii) kontinuerlig. I det förra fallet är kommunikation en åtgärd, och kan naturligtvis hanteras genom att stärka lärandet. I det kontinuerliga fallet, signalerna som passerar mellan agenter är inte annorlunda än dolda tillstånd i ett neuralt nätverk; således kredittilldelning för kommunikationen kan utföras med hjälp av standard backpropagation (inom den yttre RL-slingan). Vi använder policygradient [36] med en tillståndsspecifik baslinje för att leverera en gradient till modellen. Betrakta tillstånden i en episod av s(1),..., s(T ), och de åtgärder som vidtas vid var och en av dessa tillstånd som a.1,..., a(T ), där T är längden av episoden. Baslinje är en skalär funktion av staterna b (s, på), som beräknas via ett extra huvud på den modell som producerar åtgärden sannolikheter. Förutom att maximera den förväntade belöningen med policygradient tränas modellerna också för att minimera avståndet mellan utgångsvärdet och den faktiska belöningen. Efter att ha avslutat ett avsnitt uppdaterar vi alltså modellparametrarna och 1) Här är r(t) belöningen given vid tidpunkten t, och hyperparametern α är för att balansera belöningen och baslinjemålen, som satt till 0. Abstract abstract troduction arbete gör vi två bidrag. För det första förenklar och utvidgar vi grafens neurala nätverk av??. För det andra visar vi hur denna arkitektur kan användas för att kontrollera grupper av samarbetande odel plest form av modellen består av flerskikts neurala nätverk f i som tar som ingång vektorer c i och utdata en vektor h i+1. Modellen tar som ingång en uppsättning vektorer {h 0 1, h 0 2,..., h 0 Abstrakt ct ction e göra två bidrag. Först, vi förenklar och utvidga grafen neurala nätverket??. För det andra visar vi hur denna arkitektur kan användas för att kontrollera grupper av samarbetande 42 lärande används för att maximera förväntad framtida belöning. Vi utforskar två former av kommunikation inom 43 regulatorn: (i) diskret och (ii) kontinuerlig. I det förra fallet är kommunikation en åtgärd, och 44 kommer att behandlas som sådana genom det förstärkande lärandet. I det kontinuerliga fallet, signalerna passerade 45 mellan agenter är inte annorlunda än dolda tillstånd i ett neuralt nätverk; således kredittilldelning för 46 kommunikation kan utföras med hjälp av standard backpropagation (inom den yttre RL-slingan). Vi använder policygradient [33] med en tillståndsspecifik baslinje för att leverera en gradient till modellen. Betrakta tillstånden i en episod av s(1),..., s(T ), och de åtgärder som vidtas vid var och en av dessa tillstånd 49 som a.1,..., a(T ), där T är längden av episoden. Baslinje är en skalarfunktion hos de 50 tillstånden b(s, till), som beräknas via ett extra huvud på den modell som producerar åtgärdsannolikheterna. Förutom 51 maximering av den förväntade belöningen med policygradient tränas modellerna också för att minimera 52 avståndet mellan utgångsvärdet och den faktiska belöningen. Således, efter att ha avslutat en episod, uppdaterar vi 53 modellparametrarna med Här r(t) är belöning ges vid tidpunkten t, och hyperparametern är för att balansera belöningen och 55 baslinjemål, satt till 0,03 i alla experiment. 3 Modell Vi beskriver nu den modell som används för att beräkna p(a(t) på en given tid t (som anger tiden 58 index för korthet). Låt j vara jth agentens syn på miljöns tillstånd. Inmatningen till den 59 styrenheten är konkatering av alla tillståndsvyer s = {s 1,..., s J }, och styrenheten är en kartläggning 60 a = (s), där utdata a är en konkatering av diskreta åtgärder a = {a 1,..., en J } för varje agent. Observera att denna enda regulator omfattar de enskilda regulatorerna för varje agent, samt 62 kommunikationen mellan agenter. Ett självklart val för är en fullt ansluten flerlagers neurala nätverk, som kan extrahera 64 funktioner h från s och använda dem för att förutsäga bra åtgärder med vårt RL-ramverk. Denna modell skulle vara 65
Sukhbaatar m.fl. REF utformade ett kommunikationsneuralt nätverk som gör det möjligt för agenter att lära sig kontinuerlig kommunikation dynamiskt tillsammans med sin politik för fullt samarbete uppgifter.
6,925,519
Learning Multiagent Communication with Backpropagation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
13,758
Figur 1: Vårt system tillåter nybörjare att skapa en mängd olika anpassade smycken. Efter estetiska och fabricering principer, vår algoritm sönderdela en ingångslinje ritning (a) i släta, väl anslutna vägar som täcker varje linje i ritningen exakt en gång (b). Vi utbryter stödväggar innanför de skarpa svängarna på stigarna för att skapa en fysisk jigg som styr trådomslag (c). Att sätta ihop de tre trådarna i denna design ger ett fjärilshänge (d). Wire omslag är en traditionell form av handgjorda smycken som innebär böjning metalltråd för att skapa intrikata former. Tekniken tilltalar nybörjare och tillfälliga hantverkare på grund av dess låga kostnad, tillgänglighet och unika estetiska. Vi presenterar en beräkningsdesign verktyg som tar itu med de två största utmaningarna med att skapa 2D wirewraped smycken: sönderdela en ingång ritning i en uppsättning trådar, och böja ledningarna för att ge dem form. Vårt huvudsakliga bidrag är en automatisk wire sönderdelningsalgoritm som segmenterar en ritning till ett litet antal trådar baserat på estetiska och tillverkningsprinciper. Vi formulerar uppgiften som ett begränsat grafmärkningsproblem och presenterar en stokastisk optimeringsmetod som ger bra resultat för en mängd olika ingångar. Med tanke på en nedbrytning genererar vårt system en 3D-tryckt anpassad stödstruktur, eller jigg, som hjälper användare att böja tråden i lämplig form. Vi validerade vår wire decomposition algoritm mot befintliga wire-lindade mönster, och använde vårt end-toend-system för att skapa nya smycken från clipart ritningar. Vi utvärderade också vår strategi med nybörjare användare, som kunde skapa olika smycken på mindre än en halvtimme.
Närmare vårt mål är arbetet med REF, som bryter en linje teckning av ett smycke stycke i ett litet antal vägar som lämpar sig för tillverkning med metalltrådar.
15,118,979
WrapIt: computer-assisted crafting of wire wrapped jewelry
{'venue': 'TOGS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,759
Abstract-De flesta av de befintliga forskningsarbetet i mobila ad hoc-nätverk bygger på antagandet att det finns en väg mellan avsändaren och mottagaren. Å andra sidan kännetecknas tillämpningar av decentraliserade mobila system ofta av nätverkspartitioner. Som en följd av detta har man under de senaste åren ägnat stor uppmärksamhet åt den senare typen av nätverksforskning som ett sätt att undanröja klyftan mellan ad hoc-nätforskning och verkliga tillämpningar. I detta dokument presenterar vi utformningen, genomförandet och utvärderingen av protokollet Context-aware Adaptive Routing (CAR) för delay-tolerant unicast kommunikation i intermittent anslutna mobila ad hoc-nät. Protokollet bygger på idén att utnyttja noder som bärare av meddelanden bland nätverkspartitioner för att uppnå leverans. Valet av den bästa bäraren görs med Kalman-filter-baserade prediktionstekniker och bruksteori. CAR-protokollets storskaliga prestanda utvärderas med hjälp av simuleringar baserade på en social nätverksgrundad rörlighetsmodell, en helt slumpmässig modell och verkliga spår från Dartmouth College.
I REF, författare presentera en idé om CAR (Context-Aware Routing) protokoll för routing av meddelandet i DTN.
16,329,037
CAR: Context-Aware Adaptive Routing for Delay-Tolerant Mobile Networks
{'venue': 'IEEE Transactions on Mobile Computing', 'journal': 'IEEE Transactions on Mobile Computing', 'mag_field_of_study': ['Computer Science']}
13,760
Nuförtiden bevittnar vi en bred användning av modeller för maskininlärning (ML) i många säkerhetskritiska system, tack vare de senaste genombrotten i djupinlärning och förstärkande inlärning. Många människor interagerar nu med system baserade på ML varje dag, t.ex. röstigenkänningssystem som används av virtuella personliga assistenter som Amazon Alexa eller Google Home. I takt med att ML-området fortsätter att växa kommer vi sannolikt att bevittna omvälvande framsteg inom ett brett spektrum av områden, från finansiering, energi till hälsa och transporter. Med tanke på den ökande betydelsen av ML-baserade system i vårt dagliga liv blir det ytterst viktigt att garantera deras tillförlitlighet. På senare tid har programvaruforskare börjat anpassa koncept från programvarutestningsdomänen (t.ex. kodtäckning, mutationstestning eller fastighetsbaserad testning) för att hjälpa ML-ingenjörer att upptäcka och korrigera fel i ML-program. I detta dokument granskas aktuella befintliga testmetoder för ML-program. För det första identifierar och förklarar vi utmaningar som bör hanteras när vi testar ML-program. Därefter rapporterar vi befintliga lösningar som finns i litteraturen för att testa ML-program. Slutligen identifierar vi luckor i litteraturen i samband med testning av ML-program och ger rekommendationer om framtida forskningsinriktningar för forskarsamhället. Vi hoppas att denna omfattande översyn av testningsmetoder för programvara kommer att hjälpa ML-ingenjörer att identifiera rätt tillvägagångssätt för att förbättra tillförlitligheten hos sina ML-baserade system. Vi hoppas också att forskarsamhället kommer att agera enligt våra föreslagna forskningsriktlinjer för att främja toppmoderna tester för ML-program.
Nyligen genomförde Braiek och Khomh REF en omfattande översyn av teststrategier i ML-programvara och föreslog flera forskningsriktningar och rekommendationer i hur man bäst tillämpar SE-testmetoder i ML-program.
54,447,945
On Testing Machine Learning Programs
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
13,761
Ouppmärksammad bild-till-bild översättning tekniker kan kartlägga lokal struktur mellan två domäner, men de är vanligtvis misslyckade när domänerna kräver större formförändring. Inspirerad av semantisk segmentering introducerar vi en discriminator med dilaterade konvolutioner som kan använda information från hela bilden för att träna en mer kontextmedveten generator. Detta kombineras med en multi-scale perceptual förlust som bättre kan representera fel i den underliggande formen av objekt. Vi visar att denna design är mer kapabel att representera formdeformation i en utmanande leksak dataset, plus i komplexa kartläggningar med betydande dataset variation mellan människor, dockor och anime ansikten, och mellan katter och hundar.
GANimorph REF introducerar en discriminator med dilaterade konvolutioner för att få en mer kontext-medveten generator.
51,983,235
Improving Shape Deformation in Unsupervised Image-to-Image Translation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
13,762
I detta dokument föreslår vi en mängd modeller baserade på Long Short-Term Memory (LSTM) för sekvensmärkning. Dessa modeller inkluderar LSTM-nätverk, dubbelriktade LSTM-nätverk (BI-LSTM), LSTM med ett villkorligt slumpmässigt fältskikt (CRF) (LSTM-CRF) och dubbelriktat LSTM med ett CRF-skikt (BI-LSTM-CRF). Vårt arbete är det första att tillämpa en dubbelriktad LSTM CRF (benämns som BI-LSTM-CRF) modell för NLP-riktmärke sekvens taggning dataset. Vi visar att BI-LSTM-CRF-modellen effektivt kan använda både tidigare och framtida inmatningsfunktioner tack vare en dubbelriktad LSTM-komponent. Det kan också använda mening nivå tagg information tack vare en CRF lager. BI-LSTM-CRF-modellen kan producera toppmodern (eller nära) noggrannhet på POS-, bitnings- och NER-datamängder. Dessutom är det robust och har mindre beroende av ordet inbäddning jämfört med tidigare observationer.
REF föreslog en dubbelriktad LSTM-modell, men den använde traditionell funktionsteknik, och klassificeringen utfördes med hjälp av ett CRF-skikt i nätverket.
12,740,621
Bidirectional LSTM-CRF Models for Sequence Tagging
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
13,763
XML-dokument används ofta i tillämpningar som affärstransaktioner och journaler med känslig information. Vanligtvis bör delar av dokumenten vara synliga för användarna beroende på deras roller. Till exempel, en försäkringsagent kan se faktureringsinformation del av ett medicinskt dokument men inte uppgifter om patientens medicinska historia. Åtkomstkontroll på grundval av dataplats eller värde i ett XML-dokument är därför av avgörande betydelse. I praktiken är antalet regler för tillträdeskontroll i storleksordningen miljoner, vilket är en produkt av antalet dokumenttyper (i 1000-tal) och antalet användarroller (i 100-tal). Därför kräver lösningen hög skalbarhet och prestanda. Nuvarande metoder för åtkomstkontroll över XML-dokument har drabbats av skalbarhetsproblem eftersom de tenderar att arbeta med enskilda dokument. I detta dokument föreslår vi en ny metod för XML-åtkomstkontroll genom regelfunktioner som hanteras separat från dokumenten. En regelfunktion är ett körbart kodfragment som inkapslar åtkomstreglerna (sökvägar och predikat), och delas med alla dokument av samma dokumenttyp. Vid körning utförs de regelfunktioner som motsvarar begäran om åtkomst för att avgöra tillgängligheten av dokumentfragment. Med hjälp av syntetiska och verkliga data visar vi systemets skalbarhet genom att jämföra kostnaden för utvärdering av tillgänglighet för två regelfunktionsmodeller. Vi visar att regelfunktionerna som genereras på användarbasis är effektivare för XML-databaser.
qi m.fl. I REF föreslås en metod för XML-åtkomstkontroll genom regelfunktioner som hanteras separat från dokument.
7,262,933
A function-based access control model for XML databases
{'venue': "CIKM '05", 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,764
Abstract-Vi föreslår en vy-baserad metod för att märka objekt i 3D-scener rekonstrueras från RGB-D (färg + djup) videor. Vi använder skjutfönsterdetektorer tränade från objektvyer för att tilldela klassannolikheter till pixlar i varje RGB-D-ram. Dessa sannolikheter projiceras in i den rekonstruerade 3D scenen och integreras med hjälp av en voxel representation. Vi utför effektiv slutledning på ett Markov Random Field över voxels, kombinera signaler från vy-baserad detektion och 3D-form, för att märka scenen. Vår detektionsbaserade metod producerar noggrann scenmärkning på RGB-D Scenes Dataset och förbättrar robustheten i objektdetekteringen.
Lai m.fl. REF föreslog att segmentera objekt i den rekonstruerade 3D-scenen från på varandra följande RGB-D-avbildningar med hjälp av MRF-ramverket.
2,522,960
Detection-based object labeling in 3D scenes
{'venue': '2012 IEEE International Conference on Robotics and Automation', 'journal': '2012 IEEE International Conference on Robotics and Automation', 'mag_field_of_study': ['Computer Science']}
13,765
Abstract-I detta dokument anser vi en smart energiinfrastruktur, där flera abonnenter delar en gemensam energikälla. Varje abonnent är utrustad med en energiförbrukningsregulator (ECC) som en del av sin smarta mätare. Varje smart mätare är ansluten till inte bara elnätet utan också en kommunikationsinfrastruktur såsom ett lokalt nätverk. Detta möjliggör dubbelriktad kommunikation mellan smarta mätare. Med tanke på vikten av energiprissättning som ett viktigt verktyg för att utveckla effektiva strategier för efterfrågestyrning föreslår vi en ny realtidsprisalgoritm för det framtida smarta nätet. Vi fokuserar på samspelet mellan smarta mätare och energileverantören genom utbyte av kontrollmeddelanden som innehåller abonnenternas energiförbrukning och prisinformationen i realtid. För det första modellerar vi analytiskt abonnenternas preferenser och deras energiförbrukningsmönster i form av noggrant utvalda nyttofunktioner baserade på koncept från mikroekonomi. För det andra föreslår vi en distribuerad algoritm som automatiskt hanterar samspelet mellan ECC-enheterna vid smarta mätare och energileverantören. Algoritmen finner den optimala energiförbrukningen för varje abonnent för att maximera den samlade nyttan av alla abonnenter i systemet på ett rättvist och effektivt sätt. Slutligen visar vi att energileverantören kan uppmuntra vissa önskvärda konsumtionsmönster bland abonnenterna genom de föreslagna prisinteraktionerna i realtid. Simuleringsresultat bekräftar att den föreslagna distribuerade algoritmen potentiellt kan gynna både abonnenter och energileverantören.
En prisalgoritm i realtid baserad på nyttomaximering för ett smart nät bestående av en energileverantör och flera abonnenter presenteras i REF.
15,887,167
Optimal Real-Time Pricing Algorithm Based on Utility Maximization for Smart Grid
{'venue': '2010 First IEEE International Conference on Smart Grid Communications', 'journal': '2010 First IEEE International Conference on Smart Grid Communications', 'mag_field_of_study': ['Engineering']}
13,766
Med tanke på n bullriga prover med p dimensioner, där n på p, visar vi att flerstegs tröskelförfarande baserat på Lasso - vi kallar det Tröskel Lasso, kan korrekt uppskatta en gles vektor β och R p i en linjär modell Y = Xβ + till, där X n×p är en designmatris normaliserad för att ha kolumn l 2 norm ș n, och till N (0, σ 2 I n ). Vi visar att under det begränsade eigenvärde (RE) tillståndet (Bickel-Ritov-Tsybakov 09) är det möjligt att uppnå l 2 förlust inom en logaritmisk faktor av det ideala genomsnittliga kvadratfel som man skulle uppnå med en orakle samtidigt välja en tillräckligt sparsam modell - därav uppnå gles orakle ojämlikhet; oraklet skulle ge perfekt information om vilka koordinater är non-noll och som är över bullernivån. I någon mening, den Thresholded Lasso återhämtar de val som skulle ha gjorts av l 0 bestraffade minst kvadratskattningar, i att den väljer en tillräckligt sparsam modell utan att offra noggrannheten i att uppskatta β och i att förutsäga Xβ. Vi visar också för Gauss-Dantzig-väljaren (Candès-Tao 07), om X följer en enhetlig osäkerhet princip och om den sanna parametern är tillräckligt sparsam, kommer man att uppnå de glesa orakle ojämlikheter som ovan, medan tillåter som mest s 0 irrelevanta variabler i modellen i värsta fall, där s 0 ≤ s är det minsta heltal sådan att för λ = 2 log p / n, Våra simuleringsresultat på Thresholded Lasso matchar vår teoretiska analys utmärkt.
I REF visas det att ett flerstegs tröskelförfarande kan göra en exakt uppskattning av en gles vektor β och R p under det begränsade eigenvärdesförhållandet för Bickel et al. [2009].................................................................
5,341,602
Thresholded Lasso for high dimensional variable selection and statistical estimation
{'venue': None, 'journal': 'arXiv: Statistics Theory', 'mag_field_of_study': ['Mathematics']}
13,767
Millimetervåg (mmWave) teknologier lovar att revolutionera trådlösa nätverk genom att möjliggöra flera gigabit datahastigheter. Men de lider av hög dämpning, och därför måste använda mycket riktade antenner för att fokusera sin kraft på mottagaren. Befintliga radioapparater måste söka igenom utrymmet för att hitta den bästa inriktningen mellan sändarens och mottagarens strålar, en process som tar upp till några sekunder. Denna försening är problematisk i en nätverksinställning, där basstationen snabbt måste byta mellan användare och ta emot mobila kunder. Vi presenterar Agile-Link, det första mmWave-styrsystemet som demonstreras för att hitta rätt stråljustering utan att skanna utrymmet. Istället för scanning, AgileLink hashes strålriktningar med hjälp av några noga utvalda hash funktioner. Den identifierar sedan rätt inställning genom att spåra hur energin förändras mellan olika hashfunktioner. Våra resultat visar att Agile-Link minskar strålstyrningsfördröjningen genom storleksordningar.
I AgileLink REF uppnås snabb strålformning genom att hasha strålriktningarna med några utvalda hashingfunktioner, och sedan identifiera rätt inställning genom att analysera energiförändringen för olika hashingfunktioner.
135,479
Millimeter Wave Communications: From Point-to-Point Links to Agile Network Connections
{'venue': "HotNets '16", 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,768
Konvolutionella neurala nätverk (CNN) har visat anmärkningsvärda resultat under de senaste åren för ett brett spektrum av datorseende uppgifter. En ny arkitektur som nyligen introducerats av Sabour et al. [2017], kallas en kapsel nätverk med dynamisk routing, har visat stora initiala resultat för sifferigenkänning och liten bildklassificering. Framgången för kapselnätverk ligger i deras förmåga att bevara mer information om inmatningen genom att ersätta max-pooling lager med konvolutionella steg och dynamisk routing, vilket gör det möjligt att bevara delar av hela relationer i data. Detta bevarande av inmatningen visas genom att man rekonstruerar inmatningen från utsignalkapselvektorerna. Vårt arbete utökar användningen av kapselnätverk till uppgiften av objekt segmentering för första gången i litteraturen. Vi utökar idén om konvolutionella kapslar med lokalt sammankopplade routing och föreslår begreppet dekonvolutionella kapslar. Vidare utvidgar vi den maskerade rekonstruktionen för att rekonstruera den positiva insatsklassen. Den föreslagna convolutionaldeconvolutional kapsel nätverk, kallas SegCaps, visar starka resultat för uppgiften att objekt segmentering med betydande minskning av parameter utrymme. Som exempel applicerade vi de föreslagna SegCaps för att segmentera patologiska lungor från lågdos CT-skanningar och jämförde dess noggrannhet och effektivitet med andra U-Net-baserade arkitekturer. SegCaps kan hantera stora bildstorlekar (512 × 512) i motsats till utgångskapslar (vanligtvis mindre än 32 × 32). De föreslagna SegCaps minskade antalet parametrar för U-Net arkitektur med 95,4% samtidigt som den ger en bättre segmenteringsnoggrannhet.
LaLonde m.fl. REF använder CapsNet för objektsegmentering.
4,786,989
Capsules for Object Segmentation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
13,769
I detta dokument studeras de minimerande riskproblemen i Markovs beslutsprocesser med räknat tillståndsutrymme och belöningssats. Målet är att hitta en politik som Ž. minimerar sannolikheten för att den totala rabatterade belöningar inte överstiger ett Ž. specificerat värde mål. I denna typ av modell är det beslut som fattas av beslutsfattaren inte bara beroende av systemets tillstånd, utan också av hans målvärden. Genom att introducera beslutsfattarens tillstånd formulerar vi en ram för att minimera riskmodeller. Den politik som diskuteras beror på målvärden och belöningarna kan vara godtyckliga reella tal. För den finita horisonten modellen, de viktigaste resultat som erhållits Ž. Ž. är: i De optimala värdefunktioner är fördelning funktioner målet, ii Ž. Det finns en optimal deterministisk Markov politik, och iii en politik är optimal om och endast om vid varje realizable tillstånd det alltid tar optimal åtgärd. Dessutom får vi ett tillräckligt villkor och ett nödvändigt villkor för existensen av ändlig horisont optimal politik oberoende av mål och vi ger en algoritm beräkning ändlig horisont optimal policy och optimala värdefunktioner. För en oändlig horisontmodell etablerar vi optimalitetsekvationen och vi får strukturegenskaperna i optimal policy. Vi bevisar att den optimala värdefunktionen är en fördelningsfunktion av mål och vi presenterar en ny approximation formel som är generaliseringen av icke-negativa belöningsfall. Ett exempel som illustrerar misstagen i tidigare litteratur visar att det inte har bevisats att det finns en optimal politik. I detta dokument ger vi ett existensvillkor, vilket är ett tillräckligt och nödvändigt villkor för att det ska finnas en obegränsad horisont med optimal politik oberoende av mål, och vi påpekar att huruvida det finns en optimal politik förblir ett öppet problem i det allmänna fallet.
I en finit-horisont MDP, Wu och Lin REF visade att VaR optimal värde funktioner är målfördelning funktioner, och det finns en deterministisk optimal politik.
119,755,155
Minimizing Risk Models in Markov Decision Processes with Policies Depending on Target Values
{'venue': None, 'journal': 'Journal of Mathematical Analysis and Applications', 'mag_field_of_study': ['Mathematics']}
13,770
ABSTRACT Mobile edge computing (MEC) förväntas vara en effektiv lösning för att leverera virtuella verklighetsvideor (VR) via trådlösa nätverk. I motsats till tidigare beräkningsbegränsad MEC, som minskar förbrukningen av beräkningsresurser på den mobila enheten genom att öka förbrukningen av kommunikationsresurser, utvecklar vi ett kommunikationsbegränsat MEC-ramverk för att minska förbrukningen av kommunikationsresurser genom att fullt ut utnyttja beräknings- och cacheresurserna på den mobila VR-enheten i detta dokument. Enligt en aktivitetsmodulalisering levererar MEC-servern endast de komponenter som inte har lagrats i VR-enheten, och sedan använder VR-enheten de mottagna komponenterna och andra cachekomponenterna för att konstruera uppgiften, vilket ger låga kommunikationskostnader men hög fördröjning. MEC-servern beräknar också själv uppgiften att minska fördröjningen, men den förbrukar mer kommunikationsresurser på grund av leverans av hela uppgiften. Därför föreslår vi en strategi för schemaläggning av uppgifter för att bestämma vilken beräkningsmodell som ska användas om MEC-servern fungerar för att minimera förbrukningen av kommunikationsresurser under fördröjningsbegränsningen. Slutligen diskuteras också avvägningarna mellan kommunikation, databehandling och cachelagring, och vi finner analytiskt att överföringshastigheten, med tanke på en målkommunikationsresursförbrukning, är omvänt proportionell mot den mobila VR-enhetens databehandlingsförmåga. Mobila edge computing, virtuell verklighet, kommunikationsberäkning-caching kompromisser. INDEXTERMER
REF utnyttjar caching- och datorkapaciteten på den mobila VR-enheten för att minimera trafikbelastningen via trådlös länk.
4,737,443
Communication-Constrained Mobile Edge Computing Systems for Wireless Virtual Reality: Scheduling and Tradeoff
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
13,771
Inom kommunikation i sociala medier växlar ofta flerspråkiga talare mellan språk, och i en sådan miljö blir automatisk språkidentifiering både en nödvändig och utmanande uppgift. I detta dokument beskriver vi vårt pågående arbete med problemet med automatisk språkidentifiering för språket i sociala medier. Vi beskriver en ny datauppsättning som vi håller på att skapa, som innehåller Facebook-inlägg och kommentarer som visar kodblandning mellan bengali, engelska och hindi. Vi presenterar också några preliminära ord-nivå språk identifiering experiment med hjälp av denna datauppsättning. Olika tekniker används, inklusive en enkel oövervakad ordboksbaserad metod, övervakad ordnivåklassificering med och utan kontextuella ledtrådar, och sekvensmärkning med villkorliga slumpmässiga fält. Vi anser att det ordboksbaserade tillvägagångssättet överträffas av övervakad klassificering och sekvensmärkning, och att det är viktigt att ta hänsyn till kontextuella ledtrådar.
REF undersöker blandad text inklusive tre språk: Bengali, engelska och hindi.
16,295,757
Code Mixing: A Challenge for Language Identification in the Language of Social Media
{'venue': 'CodeSwitch@EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,772
Kryptering är en väl etablerad teknik för att skydda känsliga data. Men en gång krypterade, data kan inte längre vara lätt att fråga bortsett från exakta matchningar. Vi presenterar ett ordningsbevarande krypteringssystem för numeriska data som gör det möjligt att direkt tillämpa alla jämförelseoperationer på krypterade data. Fråga resultat som produceras är ljud (inga falska träffar) och komplett (inga falska droppar). Vårt system hanterar uppdateringar graciöst och nya värden kan läggas till utan att kräva ändringar i krypteringen av andra värden. Det gör det möjligt att bygga standarddatabasindex över krypterade tabeller och kan enkelt integreras med befintliga databassystem. Det föreslagna systemet har utformats för att användas i applikationsmiljöer där inkräktaren kan få tillgång till den krypterade databasen, men inte har tidigare domäninformation såsom distribution av värden och kan inte kryptera eller dekryptera godtyckliga värden efter eget val. Krypteringen är robust mot uppskattning av det verkliga värdet i sådana miljöer.
REF tillhandahåller ett ordningsbevarande system för numeriska data som gör det möjligt att göra jämförelser direkt på de krypterade uppgifterna.
3,336,127
Order preserving encryption for numeric data
{'venue': "SIGMOD '04", 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,773
Detta dokument beskriver en luddig regelbaserad metod som tillämpas för rekonstruktion av saknade nederbördshändelser. Arbetsreglerna är formulerade från en uppsättning tidigare observationer med hjälp av en adaptiv algoritm. En fallstudie görs med hjälp av data från tre nederbördsstationer i norra Italien. Studien utvärderar resultatet av denna metod jämfört med ett artificiellt neuralt nätverk och en traditionell statistisk metod. Resultaten visar att den luddiga regelbaserade modellen, inom parametern subrymd där dess regler är utbildade, tillhandahöll lösningar med lågt kvadratfel mellan observationer och förutsägelser. De problem som ännu inte har lösts är överbefogenhet och tillämplighet utanför utbudet av utbildningsdata. Résumé Cet article décrit l'application d'une approche basée sur la logique flue à la rekonstituation d'événements de précipitation manquants. Le calage des règles d'inference est effectué à partir des observations passées au moyen d'un algoritme adaptif. Une étude de cas a été effectuée sur des données provant de trois stations pluvométrices du Nord de l'Italie. L'étude jämför les performances de cette approche à celles d'un réseau de neurones artificiels et à une approche statistique classique. Les résultats indiquent que, dans le sous-espace de paramètres où le modèle est calé, le résidu aux moindres carrés entre les observations et les prévisions du modèle basé sur la logique flue est très faible. Les problèmes qui restent à examinator sont le surparamétrage et l'applicabilité du modèle au-delà de l'intervalle de variation des données ayant servi au kalage.
Abebe m.fl. REF föreslog en användning av en fuzzy-rule-baserad modell för substitution i saknade nederbördsdata med hjälp av data från närliggande stationer.
14,732,461
Application of adaptive fuzzy rule-based models for reconstruction of missing precipitation events
{'venue': None, 'journal': 'Hydrological Sciences Journal', 'mag_field_of_study': ['Geology']}
13,774
På grund av den ökande energiförbrukningen i moderna datorsystem har energihantering blivit ett viktigt forskningsområde under det senaste årtiondet. På senare tid har multicore visat sig vara en energieffektiv arkitektur som utnyttjar parallellismer i moderna tillämpningar. Eftersom antalet kärnor på ett enda chip fortsätter att öka har det dock varit en stor utmaning att effektivt hantera energieffektiviteten i flerkärniga system. I detta papper, baserat på spänning ö och dynamisk spänning och frekvensskalning (DVFS) tekniker, undersöker vi energieffektiviteten för block-delad multicore processorer, där kärnor grupperas i block med kärnorna på ett block som delar en DVFSenabled strömförsörjning. Beroende på antalet kärnor på varje block studerar vi både symmetriska och asymmetriska blockkonfigurationer. Vi utvecklar en effektmodell på systemnivå (som kan stödja olika energihanteringstekniker) och härleder både block- och systemövergripande energieffektiva frekvenser för system med blockdelade multikärnprocessorer. Baserat på effektmodellen, visar vi att för pinsamt parallella tillämpningar, med alla kärnor på ett enda block kan uppnå samma energibesparingar som den individuella blockkonfigurationen (där varje kärna bildar ett enda block och har sin egen strömförsörjning). Men för applikationer med begränsad grad av parallellism, visar vi överlägsenheten av kompis-asymmetrisk blockkonfiguration, där antalet nödvändiga block (och strömförsörjning) är logaritmiskt relaterad till antalet kärnor på chipet, genom att det kan uppnå samma mängd energibesparingar som den individuella blockkonfigurationen. Energieffektiviteten i olika blockkonfigurationer utvärderas ytterligare genom omfattande simuleringar med både syntetiska såväl som verkliga tillämpningar.
REF har studerat energieffektiviteten hos flerkärniga plattformar som använder flera spänningsöar.
17,591,963
Energy Efficient Block-Partitioned Multicore Processors for Parallel Applications
{'venue': 'Journal of Computer Science and Technology', 'journal': 'Journal of Computer Science and Technology', 'mag_field_of_study': ['Computer Science']}
13,775
Vi introducerar en ny självövervakad inlärningsmetod baserad på kontradiktorisk träning. Vårt mål är att träna ett discriminatornätverk för att skilja verkliga bilder från bilder med syntetiska artefakter, och sedan extrahera funktioner från dess mellanliggande lager som kan överföras till andra datadomäner och uppgifter. För att generera bilder med artefakter, vi pre-traine en hög kapacitet autoencoder och sedan använder vi en skade-och reparationsstrategi: Först fryser vi autoencoder och skadar utgången av kodaren genom att slumpmässigt släppa sina poster. För det andra förstärker vi dekodern med ett reparationsnätverk och utbildar den på ett kontradiktoriskt sätt mot discriminatorn. Reparationsnätverket hjälper till att generera mer realistiska bilder genom att måla de tappade funktionsposter. För att göra discriminatorn fokusera på artefakter, vi gör också det förutsäga vilka poster i funktionen tappades. Vi demonstrerar experimentellt att funktioner som lärts genom att skapa och upptäcka artefakter uppnår toppmodern prestanda i flera riktmärken.
REF lär sig motsträvigt att generera och upptäcka defekter.
49,195,567
Self-Supervised Feature Learning by Learning to Spot Artifacts
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
13,776
Virtualisering och softwarization av moderna datornätverk möjliggör definition och snabb distribution av nya nätverkstjänster som kallas servicekedjor: sekvenser av virtualiserade nätverksfunktioner (t.ex. brandväggar, cache, trafikoptimerare) genom vilka trafiken dirigeras mellan källa och destination. Detta dokument behandlar problemet med att ta emot och inbädda ett maximalt antal servicekedjor, dvs. ett maximalt antal källdestinationspar som leds via en sekvens av nätverksfunktioner som ska tilldelas, kapaciteras. Vi anser att en online variant av denna maximala tjänstekedjiga inbäddningsproblem, kort OSSEP, där förfrågningar kommer över tid, i värsta fall. Vårt huvudsakliga bidrag är en deterministisk O(log )-konkurrenskraftig online-algoritm, under antagandet att kapacitet är åtminstone logaritmiska i. Vi visar att detta är asymptotiskt optimalt inom klassen av deterministiska och randomiserade online-algoritmer. Vi utforskar också lägre gränser för offline approximation algoritmer, och bevisa att offline problemet är APX-hård för enhetskapacitet och liten ≥ 3, och även Poly-APX-hård i allmänhet, när det inte finns någon bunden på. Dessa approximation nedre gränser kan vara av oberoende intresse, eftersom de också omfattar andra problem som Virtual Circuit Routing. Slutligen presenterar vi en exakt algoritm baserad på 0-1 programmering, vilket innebär att den allmänna offline SCEP är i NP och genom ovanstående hårdhet resultat är NP-komplett för konstant.
Ref. REF föreslår en deterministisk onlinealgoritm för VNF-placering med beprövade övre och nedre gränser för beräkningstid.
112,203
Online Admission Control and Embedding of Service Chains
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
13,777
Abstrakt. Kvaliteten på en programvaruarkitektur för komponent 1-baserade distribuerade system definieras inte bara av dess källkod, utan också av andra systemiska artefakter, såsom montering, installation och konfiguration av applikationskomponenterna och deras mellanprogram. I samband med distribuerade, realtids- och inbäddade (DRE) komponentbaserade system har bin packningsalgoritmer och schemaläggningsanalys använts för att fatta beslut om installation och konfiguration. Dessa algoritmer gör dock endast grovkorniga noduppdrag, men anger inte hur komponenter fördelas till olika middleware containrar på noden, som är kända för att påverka körtidssystemets prestanda och resursförbrukning. I detta dokument presenteras en modelltransformeringsbaserad algoritm som kombinerar användarspecificerade tjänstekvalitetskrav (QoS) med noduppdragen för att ge en finare nivå av granularitet och precision i beslut om installation och konfiguration. En fördelaktig sidoeffekt av vårt arbete ligger i hur dessa beslut kan utnyttjas genom ytterligare gränssnittsoptimering av prestanda. Vi utvärderar vårt tillvägagångssätt och jämför det med den nuvarande toppmoderna tekniken inom ramen för ett representativt DRE-system.
I samband med distribuerade system har en regelbaserad ap-proach för konfigurationsoptimering, enligt QoS-mått, föreslagits i REF.
16,318,222
Applying Model Transformations to Optimizing Real-Time QoS Configurations in DRE Systems
{'venue': 'QoSA', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,778
Hardware/Software cosimulation är den viktigaste processen för att förkorta designen tur runt tiden. Vi har föreslagit en ny teknik, kallad virtuell synkronisering, för snabb och tid exakt kosimulering som innebär att interagera komponentsimulatorer. I detta dokument utökar vi ytterligare den virtuella synkroniseringstekniken med OS-modellering för det fall där flera programvaruuppgifter utförs under övervakning av ett operativsystem i realtid. OS modeller modellerar RTOS overheads för sammanhangsbyte och fästing avbryta hantering samt preemption beteende. Samtidigt som tidsnoggrannheten bibehålls till en acceptabel nivå under några procent, skulle vi kunna minska simuleringstiden drastiskt jämfört med befintlig konservativ strategi genom att ta bort behovet av tidssynkronisering mellan simulatorer. Det bekräftas med ett preliminärt experiment med ett multimediaexempel som består av fyra verkliga uppgifter.
I REF föreslås en OS-modell för snabb och tidsexakt kosimulering.
2,961,036
Virtual synchronization technique with OS modeling for fast and time-accurate cosimulation
{'venue': "CODES+ISSS '03", 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,779
Sentimentklassificering är uppgiften att märka ett granskningsdokument enligt polariteten i dess rådande åsikt (god eller ogynnsam). När man närmar sig detta problem har en modellbyggare ofta tre informationskällor: en liten samling märkta dokument, en stor samling omärkta dokument och mänsklig förståelse för språket. Helst kommer en inlärningsmetod att utnyttja alla tre källorna. För att uppnå detta mål generaliserar vi ett befintligt förfarande som använder de två sistnämnda. Vi utvidgar detta förfarande genom att omtolka det som en Naive Bayes-modell för dokumentkänslor. Betraktad som sådan, kan det också ses för att extrahera ett par härledda funktioner som linjärt kombineras för att förutsäga känslor. Detta perspektiv gör att vi kan förbättra tidigare metoder, främst genom två strategier: att införliva ytterligare härledda funktioner i modellen och, om möjligt, använda märkta data för att uppskatta deras relativa inflytande.
REF utökar en känsloklassificeringsmodell som använder omärkta dokument och människotillhandahållen information samt märkta dokument.
15,770,428
The Sentimental Factor: Improving Review Classification Via Human-Provided Information
{'venue': 'Annual Meeting Of The Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,780
Abstract-Smartphone användare har sina egna unika beteendemönster när du knackar på pekskärmar. Dessa personliga mönster reflekteras över den tillämpade kraftens olika rytm, styrka och vinkelpreferenser. Eftersom smartphones är utrustade med olika sensorer som accelerometer, gyroskop, och pekskärmssensorer, fånga en användares knacka beteenden kan göras sömlöst. Utnyttja kombinationen av fyra funktioner (acceleration, tryck, storlek och tid) extraheras från smartphone-sensorer, föreslår vi en icke-inträngande användarverifieringsmekanism för att styrka om en autentiserande användare är den verkliga ägaren av smartphone eller en bedragare som råkar känna till lösenordet. Baserat på de avlyssnade data som samlats in från över 80 användare genomför vi en rad experiment för att validera effektiviteten i vårt föreslagna system. Våra experimentella resultat visar att vårt verifieringssystem uppnår hög noggrannhet med genomsnittliga lika felfrekvenser på ned till 3,65 %. Eftersom vårt verifieringssystem kan integreras sömlöst med de befintliga användarautentiseringsmekanismerna på smartphones, är dess distribution och användning transparenta för användare och kräver ingen extra hårdvarusupport.
Zheng m.fl. REF utformade ett autentiseringssystem genom att känna igen användarens lösenordsbeteende baserat på en lista med funktioner, inklusive acceleration, tryck, storlek och tid som samlats in under autentiseringen.
1,185,250
You Are How You Touch: User Verification on Smartphones via Tapping Behaviors
{'venue': '2014 IEEE 22nd International Conference on Network Protocols', 'journal': '2014 IEEE 22nd International Conference on Network Protocols', 'mag_field_of_study': ['Computer Science']}
13,781
Abstract-Humans naturligt återanvända återkallad kunskap för att lösa problem och detta inkluderar förståelse för sammanhanget d.v.s. Den information som identifierar eller karakteriserar dessa problem. För problem i komplexa och dynamiska miljöer kräver effektiva lösningar från operatörernas sida att de förstår miljösituationen tillsammans med sammanhanget. Sammanhangsmedvetna fallbaserade resonemang (CBR) applikationer använder kontexten av användare för att tillhandahålla lösningar på problem. Kombinationen av en kontextmedveten CBR med allmän domänkunskap har visat sig förbättra likhetsbedömningen, lösa domänspecifika problem och problem med osäker kunskap. Dessa CBR-strategier behandlar problem med ofullständiga data och domänspecifika problem, men framtida problem som är beroende av situationen kan inte förutses på grund av bristen på möjlighet att förutsäga miljöns tillstånd. Detta dokument bygger på tidigare arbete med att presentera ett tillvägagångssätt som kombinerar situationsmedvetenhet, kontextmedvetenhet, fallbaserat resonemang och allmän domänkunskap i ett beslutsstödsystem. Genom att kombinera dessa begrepp ger arkitekturen i detta system möjlighet att hantera osäker kunskap och förutsäga miljöns tillstånd för att lösa specifika domänproblem. Papperet utvärderar koncepten genom en försöksimplementering i flödessäkringskontrolldomänen för att förutsäga bildandet av hydrat i olje- och gasledningar under havsytan. Resultaten visar en tydlig förbättring i både likhetsbedömning och problemlösningsförutsägelse.
Andra tekniker för självanpassning som används av sammanhangsmedvetna system inkluderar att använda fallbaserade resonemang för att ta itu med domänspecifika problem och ofullständiga datamängder REF och försöka ta itu med bristen på domänkunskap genom självadaption.
33,311,806
Situation awareness in context-aware case-based decision support
{'venue': '2011 IEEE International Multi-Disciplinary Conference on Cognitive Methods in Situation Awareness and Decision Support (CogSIMA)', 'journal': '2011 IEEE International Multi-Disciplinary Conference on Cognitive Methods in Situation Awareness and Decision Support (CogSIMA)', 'mag_field_of_study': ['Computer Science']}
13,782
Med molnlagringens popularitet har dess tillförlitlighet och åtkomstlatens blivit allt mer framträdande. För att lösa detta problem presenteras en ny strategi för dynamisk replikering baserad på acceleration för molnlagring genom att dra lärdomar från begreppet acceleration. För att minska tillgången latency, förutser strategin heta filer i sättet att accelerera baserat på att få tillgång till lokalitetsprincipen. Slutligen, resultaten av strategin för acceleration repliker skapande och strategin för bästa klient repliker skapande simuleras och analyseras. Simuleringsresultaten visar att strategin för acceleration replikerar skapandet förutspådde heta filer i nästa tidsperiod mer exakt än strategin för bästa klient repliker skapande, minskat nätverk latency mer än strategin för bästa kunder och effekten var mer uttalad med tillgång trender stiger. Strategin för acceleration repliker skapande är lämplig för moln lagring som är för att hantera massiva filer. Genom denna strategi förbättras inte bara tillförlitligheten hos molnlagringsdata, utan även åtkomstlatensen minskar.
För att öka tillförlitligheten och åtkomst latency, en dynamisk replika teknik för molnlagring som använder acceleration studerades REF.
62,700,256
A Strategy of Dynamic Replica Creation in Cloud Storage
{'venue': 'CloudCom 2013', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,783
Mål När den kliniska textutvinningen fortsätter att mogna blir dess potential som möjliggörande teknik för innovationer inom patientvård och klinisk forskning verklighet. En kritisk del av den processen är stelbent benchmarking-testning av metoder för behandling av naturligt språk på realistiska kliniska berättelser. I detta dokument beskriver författarna design och prestanda av tre toppmoderna text-mining ansökningar från National Research Council of Canada om utvärderingar inom 2010 i2b2 utmaning. Design De tre systemen utför tre viktiga steg i klinisk information utvinning: (1) extraktion av medicinska problem, tester, och behandlingar, från urladdning sammanfattningar och framsteg anteckningar; (2) klassificering av påståenden som gjorts om de medicinska problemen; (3) klassificering av relationer mellan medicinska begrepp. Maskininlärningssystem utförde dessa uppgifter med hjälp av stora-dimensionella påsar med funktioner, som härrör från både själva texten och från externa källor: UMLS, cTAKES och Medline. Mätningar Prestanda mättes per deluppgift med hjälp av mikrogenomsnittliga F-poäng, beräknade genom att jämföra systemanmärkningar med marksanmärkningar på en testuppsättning. Resultat Systemen rankas högt bland alla inskickade system i tävlingen, med följande F-poäng: konceptextraktion 0.8523 (rankad först); påståendedetektion 0.9362 (rankad först); relationsdetektion 0.7313 (rankad andra). Slutsats För alla uppgifter fann vi att införandet av ett brett spektrum av funktioner var avgörande för framgång. Viktigast av allt var att vårt val av algoritmer för maskininlärning gjorde att vi kunde vara mångsidiga i vår funktionsdesign och införa ett stort antal funktioner utan att överanstränga oss och utan att stöta på flaskhalsar i datorresurserna.
En maskininlärningsmetod användes också i toppprestandasystemet i 2010 i2b2/VA Challenge propositionsuppgift REF.
7,325,837
Machine-learned solutions for three stages of clinical information extraction: the state of the art at i2b2 2010
{'venue': 'Journal of the American Medical Informatics Association', 'journal': 'Journal of the American Medical Informatics Association', 'mag_field_of_study': ['Medicine', 'Computer Science']}
13,784
Abstract-Vi studerar problemet med landmärkesval för landmärkesbaserad routing i ett nätverk av fasta trådlösa kommunikationsnoder. Vi presenterar en distribuerad landmärke val algoritm som inte förlitar sig på global klocksynkronisering, och en följeslagare lokala giriga landmärke-baserade routing system. Vi antar att ingen nod plats information, och att varje nod kan kommunicera med några av sina geografiska grannar. Varje nod namnges av dess humle räkna avstånd till ett litet antal närliggande landmärken. Girig routing vid en nod utförs för att utjämna sin vektor av landmärken avstånd till destinationen. Detta görs genom att följa den kortaste vägen till landmärket som maximerar förhållandet mellan dess avstånd till källan och destinationen. Dessutom föreslår vi en metod för att minska svårigheten att flytta till destinationer nära gränserna genom att praktiskt taget utöka nätgränserna. Den giriga routing, i kombination med vårt landmärke urvalsschema, har en påvisbar avgränsad väg stretch i förhållande till den bästa möjliga vägen, och garanterar paketleverans i den kontinuerliga domänen. I den diskreta domänen visar våra simuleringar att selektionssystemet är effektivt, och den tillhörande routingplanen fungerar bra under realistiska inställningar. Både markering och girig routing förutsätter ingen specifik kommunikationsmodell och fungerar med asymmetriska länkar. Även om en del av analysen är icke-trivial, algoritmerna är enkla, flexibla och kostnadseffektiva nog att motivera en verklig utbyggnad.
Problemet med att välja en bra uppsättning landmärken behandlas i REF.
2,060,671
Landmark Selection and Greedy Landmark-Descent Routing for Sensor Networks
{'venue': 'IEEE INFOCOM 2007 - 26th IEEE International Conference on Computer Communications', 'journal': 'IEEE INFOCOM 2007 - 26th IEEE International Conference on Computer Communications', 'mag_field_of_study': ['Computer Science']}
13,785
Short Messaging Service (SMS) texter beter sig helt annorlunda än vanliga skrivna texter och har några mycket speciella fenomen. För att översätta SMS-texter, traditionella metoder modell sådana oegentligheter direkt i Machine Translation (MT). Men sådana metoder lider av anpassningsproblem eftersom enorma ansträngningar krävs för att anpassa språkmodellen i det befintliga översättningssystemet för att hantera SMS-textstil. Vi erbjuder ett alternativt tillvägagångssätt för att lösa sådana oegentligheter genom att normalisera SMS-texter före MT. I detta dokument ser vi uppgiften SMS normalisering som ett översättningsproblem från SMS-språket till det engelska språket 1 och vi föreslår att anpassa en frasbaserad statistisk MT-modell för uppgiften. Utvärdering med 5-faldig korsvalidering på en parallell SMS-normaliserad corpus på 5000 meningar visar att vår metod kan uppnå 0,80702 i BLEU-poäng mot BLEU-poängen 0,6958. Ett annat experiment med att översätta SMS-texter från engelska till kinesiska på en separat SMS-text corpus visar att, med SMS normalisering som MT förbehandling kan till stor del öka SMS översättning prestanda från 0.1926 till 0.3770 i BLEU poäng. SMS översättning är en mobil maskin översättning (MT) program som översätter ett meddelande från ett språk till ett annat. Även om det finns många kommersiella MT-system fungerar inte direkt användning av sådana system bra på grund av de speciella fenomenen i SMS-texter, t.ex. den unika avslappnade och kreativa skrivstilen och den frekventa användningen av okonventionella och ännu inte standardiserade kortformer. Direkt modellering av dessa speciella fenomen i MT kräver enorma ansträngningar. Alternativt kan vi normalisera SMS-texter till 1 Denna uppsats diskuterar endast engelsk SMS-text normalisering. grammatiska texter före MT. På så sätt behandlas det traditionella MT som en "svart låda" med liten eller minimal anpassning. En fördel med denna pre-translation normalisering är att mångfalden i olika användargrupper och domäner kan modelleras separat utan tillgång till och anpassning av MT-systemets språkmodell för varje SMS-applikation. En annan fördel är att normaliseringsmodulen enkelt kan användas av andra program, såsom SMS till röstbrevlåda och SMS-baserad information fråga. I detta dokument presenterar vi en frasbaserad statistisk modell för normalisering av SMS-text. Normaliseringen visualiseras som ett översättningsproblem där meddelanden i SMS-språket ska översättas till normal engelska med hjälp av en liknande frasbaserad statistisk MT-metod (Koehn et al., 2003). Vi använder IBM: s BLEU score (Papineni et al., 2002) för att mäta prestanda SMS text normalisering. BLEU poäng beräknar likheten mellan två meningar med hjälp av n-gram statistik, som används i stor utsträckning i MT utvärdering. En uppsättning parallella SMS-meddelanden, bestående av 5000 obehandlade (onormaliserade) SMS-meddelanden och deras manuellt normaliserade referenser, är konstruerade för utbildning och testning. Utvärdering med femfaldig korsvalidering på denna corpus visar att vår metod kan uppnå noggrannhet på 0,80702 i BLEU-poäng jämfört med baslinjesystemet på 0,6985. Vi studerar också inverkan av vår SMS-text normalisering på uppgiften att SMS översättning. Experimentet med att översätta SMS-texter från engelska till kinesiska på en corpus bestående av 402 SMS-texter visar att SMS normalisering som ett förbearbetningssteg av MT kan öka översättningsprestandan från 0,1926 till 0,3770 i BLEU-poäng. Resten av tidningen är organiserad enligt följande. Avsnitt 2 innehåller en översikt över arbetet i samband med detta. I avsnitt 3 sammanfattas egenskaperna hos engelska SMS-texter. Avsnitt 4 diskuterar vår metod och Avsnitt 5 rapporterar våra experiment. Avsnitt 6 avslutar dokumentet.
REF använde SMT-modeller för att normalisera bullriga SMS-texter genom att översätta SMS-text till Regular English text.
6,574,007
A Phrase-Based Statistical Model For SMS Text Normalization
{'venue': 'International Conference On Computational Linguistics And Annual Meeting Of The Association For Computational Linguistics - Poster Sessions', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,786
Routing av paket i mobila ad-hoc nätverk med ett stort antal noder eller med hög rörlighet är en mycket svår uppgift och nuvarande routing protokoll inte riktigt skala väl med dessa scenarier. Den Beacon-Less Routing Algorithm (BLR) presenteras i detta dokument är en routing protokoll som använder sig av lokaliseringsinformation för att minska routing overhead. Till skillnad från andra positionsbaserade routing protokoll, kräver inte BLR noder att regelbundet sända Hello-meddelanden (kallas beaconing), och därmed undviker nackdelar såsom omfattande användning av knappa batteri-kraft, störningar med regelbunden dataöverföring, och prestandanedbrytning. BLR väljer en vidarebefordrande nod på ett distribuerat sätt bland alla dess angränsande noder med att ha information varken om sina positioner eller ens om deras existens. Datapaket sänds och protokollet tar hand om att bara en av de mottagande noderna vidarebefordrar paketet. Optimerad speditering uppnås genom tillämpning av ett koncept av Dynamic Forwarding Delay (DFD). Följaktligen återger den nod som beräknar den kortaste vidarebefordrande fördröjningen paketet först. Denna vidarebefordran upptäcks av de andra noderna och undertrycker dem för att vidarebefordra samma paket ytterligare. Analysresultat och simuleringsförsök visar att BLR ger effektiv och robust routing i mycket dynamiska mobila ad hoc-nätverk.
Den beaconless routing algoritmen REF (BLR) väljer en vidarebefordrande nod bland grannar som varken har information om sin position eller ens om sin existens.
2,187,720
BLR: beacon-less routing algorithm for mobile ad hoc networks
{'venue': 'Computer Communications', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,787
Ett mobilt ad hoc-nätverk (MANET) är ett självorganiserat system som består av flera mobila trådlösa noder. Noden missuppfostran på grund av själviska skäl kan avsevärt minska prestandan hos MANET. En självisk nod försöker bara använda resurserna för sitt eget ändamål, och den tvekar att dela resurserna med sina grannar. Det är därför mycket viktigt att upptäcka de själviska noderna för att förbättra prestandan hos MANET. Inledningsvis konstrueras en arkitektonisk modell av en MANET och kommunikationen mellan mobilen har sitt ursprung. Paketet droppe kan hända i MANET på grund av självisk nod eller överbelastning av nätet. I detta papper, en Record-och Trust-Based Detection (RTBD) teknik föreslås för att upptäcka de själviska noderna effektivt i MANET. Det främsta skälet till att använda förtroende för denna analys är att påskynda upptäckten av felbeteende noder. Denna studie har genomförts för att analysera upptäckten av själviska noder på viktiga nätverksfunktioner som routing och paketfall. Resultaten visar att den föreslagna själviska noddetektionsmetoden är mycket effektiv, eftersom detektionstiden för själviska noder minskar och den totala overheaden är mycket låg. Simuleringsstudien visar att den föreslagna RTBD-metoden förbättrar det själviska noddetektionsförhållandet, paketleveransförhållandet (PDR) och genomsnittligt paketfallförhållande.
Några av forskarna fokuserade direkt på att upptäcka själviska noder i nätverket och undvika dem för att öka effektiviteten i sändningsprotokoll, det mest anmärkningsvärda arbetet i detta avseende är av S. Subramaniyan et al. REF, där en Record-and-Trust-Based Detection (RTBD) teknik simulerades som effektivt kan upptäcka själviska noder i MANET.
30,491,498
A distributed framework for detecting selfish nodes in MANET using Record- and Trust-Based Detection (RTBD) technique
{'venue': None, 'journal': 'EURASIP Journal on Wireless Communications and Networking', 'mag_field_of_study': ['Computer Science']}
13,788
Abstrakt. Vi anser att problemet med Online Facility Plats, där krav anländer online och måste oåterkalleligen tilldelas en öppen anläggning vid ankomst. Målet är att minimera summan av anläggnings- och tilldelningskostnader. Vi bevisar att konkurrensförhållandet för Online Facility Location är och ( log n log log n ). På den negativa sidan visar vi att ingen randomiserad algoritm kan uppnå ett konkurrensförhållande bättre än en log n log n ) mot en omedveten motståndare även om kraven ligger på en linje segment. På den positiva sidan presenterar vi en deterministisk algoritm som uppnår ett konkurrenskraftigt förhållande av O( log n log log n ). Analysen bygger på en hierarkisk nedbrytning av de optimala anläggningarna så att varje komponent antingen är relativt väl separerad eller har en relativt stor diameter, och ett potentiellt funktionsargument som skiljer mellan de två typerna av komponenter.
Anläggningens lokaliseringsproblem REF ber om optimala anläggningsplatser så att byggnadskostnader och tillträdeskostnader minimeras; anläggningarna kan inte migreras.
361,215
On the competitive ratio for online facility location
{'venue': 'In ICALP', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
13,789
För automatisering av många programvarutekniska uppgifter såsom programanalys, testning och täckningsanalys, är det nödvändigt att konstruera en kontrollflödeskurva. Med utvecklingen av UML förespråkar mjukvaruutövare att bygga kontrollflöde graf från några av UML design artefakter. UML 2.x stöder modellering av kontrollflödesinformation i interaktionsdiagram med hjälp av meddelandesekvenser och olika typer av fragment som alt, opt, break, loop och så vidare. Ledande UML-modelleringsverktyg, nämligen MagicDraw, IBM:s Rational och så vidare exportmodeller i XMI-format. Konstruktion av kontrollflödesdiagram från XMI-representationen av ett interaktionsdiagram är inte enkelt eftersom modellelement i interaktionsdiagram fångas i XMI med hjälp av värden av attribut för flera taggade element och korrelationer mellan dessa taggade element inte uttryckligen anges. I detta dokument föreslås ett tillvägagångssätt för konstruktion av kontrollflödesdiagram från XMI representation av UML 2.x interaktionsdiagram. Ett prototypverktyg baserat på vårt tillvägagångssätt har tagits fram som kan anslutas till alla datorstödda programvaruverktyg.
Styrflödesgrafer är viktiga för automatisering av många programvarutekniska uppgifter, deras sammansättning är inte enkel även från UML sekvensdiagram REF, eftersom denna kunskap uttrycks i olika element och ibland även i nästade fragment med godtyckligt bodjup.
62,233,719
An Approach to Convert XMI Representation of UML 2.x Interaction Diagram into Control Flow Graph
{'venue': None, 'journal': 'International Scholarly Research Notices', 'mag_field_of_study': ['Computer Science']}
13,790
Vårt mål är att utveckla fysiskt baserade belysningsmodeller och perceptuellt baserade renderingsmetoder för datorgrafik som kommer att producera syntetiska bilder som är visuellt och mätbart oskiljbara från verkliga bilder. Den fysiska simuleringens trohet är av största vikt. Vår forskningsram är uppdelad i tre delsektioner: den lokala ljusreflektionsmodellen, energitransportsimuleringen och de visuella displayalgoritmerna. De två första underavsnitten är fysiskt baserade, och de sista är perceptuellt baserade. Vi betonar jämförelserna mellan simuleringar och faktiska mätningar, de svårigheter som uppstått och behovet av att utnyttja den stora mängd psykofysisk forskning som redan genomförts. Framtida forskningsinriktningar räknas upp. Vi hoppas att resultaten av denna forskning kommer att bidra till att etablera ett mer grundläggande vetenskapligt förhållningssätt för framtida renderingsalgoritmer. Denna presentation beskriver en kronologi av tidigare forskning inom global belysning och hur delar av vårt nya system för närvarande utvecklas. Men är dessa bilder korrekta? Skulle de på ett korrekt sätt representera scenen om miljön verkligen existerade? I allmänhet är svaret nej; ändå är resultaten tilltalande eftersom de resulterande bilderna är trovärdiga. CR-kategorier och
Greenberg m.fl. I Ref föreslogs en ram som delade in hela renderingsprocessen i tre underavsnitt: den lokala ljusreflektionsmodellen, energitransportsimuleringen och algoritmerna för visuell visning.
842,149
A framework for realistic image synthesis
{'venue': "SIGGRAPH '97", 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,791
Abstract-WirelessHART, som ett robust och pålitligt trådlöst protokoll, har använts flitigt i industriella trådlösa sensoractuator-nätverk. Dess prestanda i realtid har studerats ingående, men begränsats till det enskilda kritiska fallet. Många avancerade applikationer har blandad kritisk kommunikation, där olika dataflöden kommer med olika nivåer av betydelse eller kritiskhet. I det här dokumentet studerar vi därför blandkritisk kommunikation i realtid med hjälp av WirelessHART-protokollet och föreslår en end-to-end-analys baserad på schemaläggning med fasta prioriteringar. Såvitt vi vet är detta det första arbetet som introducerar begreppet blandad kritik i trådlösa sensor-aktuatornätverk. Utvärderingsresultaten visar hur effektiv och effektiv vår strategi är.
Xi Jin m.fl. I REF föreslogs en strategi för en fullständig analys av förseningar för ett industriellt nätverk med blandad kritik som bygger på en politik med fasta prioriteringar.
9,183,819
End-to-end delay analysis for mixed-criticality WirelessHART networks
{'venue': 'IEEE/CAA Journal of Automatica Sinica', 'journal': 'IEEE/CAA Journal of Automatica Sinica', 'mag_field_of_study': ['Computer Science']}
13,792
Korrelationsfilterbaserad spårning har under de senaste åren väckt många forskares uppmärksamhet för hög effektivitet och robusthet. De flesta befintliga verk [1, 2, 4] fokuserar på att utnyttja olika egenskaper med korrelationsfilter för visuell spårning, t.ex. cirkulär struktur, kärntricket, effektiv funktionsrepresentation och kontextinformation. Trots dess goda prestanda har de flesta av dessa korrelationsmetoder två huvudsakliga begränsningar, den första är hur man justera objektskalan effektivt. För att konsekvent spåra objektet, Danelljan et.al. [2] föreslog ett separat 1-dimensionellt korrelationsfilter för att uppskatta målskalan, men de använder endast det ursprungliga funktionsutrymmet som objektrepresentation. Den andra begränsningen är hur man hanterar modellen drift problem som orsakas av långvarig ocklusion eller out-of-view, vilket är ett mycket viktigt problem för online-spårning [5]. En gemensam mekanism är att införa en detektionsmodul som kan välja några effektiva kandidater för att korrigera bas korrelationsspåraren. Bidrag. I detta papper designar vi ett nytt online CUR-filter för detektion. CUR matris approximation beräknar den låga rang approximationen av en given matris genom att använda de faktiska raderna och kolumnerna i matrisen och har studerats inom området teoretisk datavetenskap för stor matris approximation [3]. I den långsiktiga spårningsprocessen kan alla historiska objekt representationer bilda en stor datamatris för den nuvarande ramen som passar för CUR-teorin. Den stora datamatrisen kan snabbt approximas av online CUR för att representera den inneboende objektstrukturen. I detta arbete utvecklar vi en online CUR för att lära sig ett online detektionsfilter genom slumpmässig provtagning. Det online CUR-filtret kan inte bara utnyttja objektrepresentationens låggradiga egenskap [7] i den rumsliga-temporala domänen för spårning, utan också projicera den historiska objektrepresentationsmatrisen till ett subutrymme med fel övre gräns för att uppnå en robust objektrepresentation. Den låga grad egenskapen objekt representation är allmänt förekommande i långsiktig spårning och kan användas för att lindra modellen drift. Samtidigt föreslår vi ett flerskaligt kärnorat korrelationsfilter som vårt spårningsfilter genom att inbädda skalvariationen i det kärnoriserade korrelationsfiltret och samtidigt bilda en separat pyramid av objektrepresentation. Samarbetet mellan CUR-filter och flerskalekärnigt korrelationsfilter konstruerar den föreslagna tracker-Collaborative Correlation Tracker (CCT) 1.
Zhu m.fl. föreslog en ny samverkande korrelations tracker (CCT) REF med hjälp av flerskalig Kernelized Correlation Tracking (MKC) och
6,196,364
Collaborative Correlation Tracking
{'venue': 'BMVC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,793
Abstract-I detta dokument presenterar vi en algoritm för att beräkna riskaverse policys i Markov Decision Processes (MDP) när det totala kostnadskriteriet används tillsammans med det genomsnittliga värdet vid risk (AVaR) metrisk. Risk motåtgärder behövs när stora avvikelser från det förväntade beteendet kan ha skadliga effekter, och konventionella MDP-algoritmer ignorerar vanligtvis denna aspekt. Vi ger förutsättningar för strukturen hos den underliggande MDP som säkerställer att approximationer för det exakta problemet kan härledas och lösas effektivt. Våra resultat är nya eftersom det genomsnittliga riskvärdet inte tidigare har beaktats i samband med kriteriet för totalkostnad. Vår metod demonstreras i ett snabbt driftsättningsscenario, där en robot får i uppdrag att nå en målplats inom en tidsfrist där ökad hastighet är förknippad med ökad sannolikhet för fel. Vi visar att den föreslagna algoritmen inte bara ger upphov till en riskavvisande politik som minskar sannolikheten för att överskrida den förväntade tidsgränsen, utan också ger en statistisk kostnadsfördelning och därmed erbjuder ett värdefullt analysverktyg.
Dessa lösningar behandlar fall där stora avvikelser från det förväntade beteendet kan ha skadliga effekter REF.
15,462,867
Risk aversion in finite Markov Decision Processes using total cost criteria and average value at risk
{'venue': '2016 IEEE International Conference on Robotics and Automation (ICRA)', 'journal': '2016 IEEE International Conference on Robotics and Automation (ICRA)', 'mag_field_of_study': ['Engineering', 'Mathematics', 'Computer Science']}
13,794
Helspråkig dokumentsammanfattning är en uppgift att producera en sammanfattning på ett språk för ett dokument som anges på ett annat språk. Befintliga metoder använder helt enkelt maskinöversättning för dokumentöversättning eller sammanfattning översättning. Dagens maskinöversättningstjänster är dock långt ifrån tillfredsställande, vilket resulterar i att kvaliteten på den flerspråkiga sammanfattningen vanligtvis är mycket dålig, både i läsbarhet och innehåll. I detta dokument föreslår vi att man tar hänsyn till översättningskvaliteten på varje mening i den engelsk-till-kinesiska sammanfattningsprocessen. För det första förutsägs översättningskvaliteten för varje engelsk mening i dokumentets uppsättning med SVM:s regressionsmetod, och sedan inkorporeras kvalitetspoängen för varje mening i sammanfattningsprocessen. Slutligen, de engelska meningarna med hög översättningskvalitet och hög informativhet väljs ut och översätts till den kinesiska sammanfattningen. Experimentella resultat visar att det föreslagna tillvägagångssättet är effektivt och användbart.
I REF, varje mening i källdokumentet rankas enligt både poäng, sammanfattningen extraheras och sedan de valda meningar översatta till målspråket.
11,116,896
Cross-Language Document Summarization Based on Machine Translation Quality Prediction
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,795
Vektor-rymd ord representationer har varit mycket framgångsrik under de senaste åren på att förbättra prestanda för en mängd olika NLP uppgifter. Men, gemensamt för de flesta befintliga verk, ord betraktas som oberoende enheter utan något uttryckligt samband mellan morfologiskt relaterade ord som modelleras. Som ett resultat är sällsynta och komplexa ord ofta dåligt uppskattade, och alla okända ord representeras på ett ganska grovt sätt med bara en eller några vektorer. Detta dokument tar upp denna brist genom att föreslå en ny modell som kan skapa representationer för morfologiskt komplexa ord från deras morfem. Vi kombinerar rekursiva neurala nätverk (RNNs), där varje morpheme är en grundläggande enhet, med neurala språkmodeller (NLMs) att överväga kontextuell information i lärande morfologiskt medvetna ord representationer. Våra lärda modeller överträffar befintliga ordrepresentationer med god marginal på ordliknande uppgifter i många datauppsättningar, bland annat en ny datauppsättning som vi introducerar med fokus på sällsynta ord för att komplettera befintliga ord på ett intressant sätt.
Tidigare, REF hanterade problemet med att uppskatta sällsynta ord representationer genom att bygga dem från sina beståndsdelar morphemes.
14,276,764
Better Word Representations with Recursive Neural Networks for Morphology
{'venue': 'CoNLL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,796
Vi föreslår en ny uppmärksamhetsbaserad djupinlärningsarkitektur för visuell frågesvarsuppgift (VQA). Med tanke på en bild och en bild-relaterad fråga, VQA returnerar ett naturligt språk svar. Eftersom olika frågor frågar om attributen för olika bildregioner, kräver att man skapar korrekta svar modellen för att få frågestyrd uppmärksamhet, dvs. uppmärksamheten på de regioner som motsvarar inmatningsfrågans intention. Vi introducerar ett uppmärksamhetsbaserat konfigurerbart konvolutionellt neuralt nätverk (ABC-CNN) för att lokalisera den frågestyrda uppmärksamheten baserat på inmatningsfrågor. ABC-CNN bestämmer uppmärksamhetsregionerna genom att hitta motsvarande visuella egenskaper i de visuella funktionskartorna med en "konfigurerbar konvolution" operation. Med hjälp av den frågestyrda uppmärksamheten kan ABC-CNN uppnå både högre VQA-noggrannhet och bättre förståelse för den visuella frågesvarsprocessen. Vi utvärderar ABC-CNN arkitekturen på tre riktmärken VQA dataset: Toronto COCO-QA, DAQUAR och VQA dataset. ABC-CNN-modellen uppnår betydande förbättringar jämfört med de senaste metoderna. Den frågestyrda uppmärksamhet som ABC-CNN ger upphov till visas också vara de regioner som är mycket relevanta för frågornas avsikter.
REF, å andra sidan, använde uppmärksamhet för att vägleda ett CNN att fokusera på relevanta objekt för den visuella frågan svar uppgift.
16,566,944
ABC-CNN: An Attention Based Convolutional Neural Network for Visual Question Answering
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
13,797
Abstract-Vi studerar den följdförsening som orsakas av multipatrouting. Vi använder en kömodell som består av parallella köer för att modellera nätverkets routingbeteende. Vi definierar en ny metriska, betecknad av γ, för att studera effekterna av omsekvensering på kunden end-to-end fördröjning. Våra resultat kännetecknar vissa egenskaper hos γ med avseende på olika tidsfördelningar. I synnerhet kan förseningen i följd vara försumbar när förseningen längs varje väg är lättstängd, men kan vara av stor betydelse när den är tungstjärtad.
I REF studerade författarna den sekvenseringsfördröjning som utlöstes på grund av multipatrouting.
15,347,673
Resequencing Delays Under Multipath Routing - Asymptotics in a Simple Queueing Model
{'venue': 'Proceedings IEEE INFOCOM 2006. 25TH IEEE International Conference on Computer Communications', 'journal': 'Proceedings IEEE INFOCOM 2006. 25TH IEEE International Conference on Computer Communications', 'mag_field_of_study': ['Computer Science']}
13,798
I detta dokument föreslår vi deformerbara djupa konvolutionella neurala nätverk för allmän objektdetektering. Denna nya ram för att upptäcka djupt lärande har innovationer i flera aspekter. I den föreslagna nya djupa arkitekturen, en ny deformation begränsad pooling (def-pooling) skikt modellerar deformation av objektdelar med geometriska begränsningar och straff. En ny förutbildningsstrategi föreslås för att lära sig funktionsrepresentationer som lämpar sig bättre för objektdetekteringsuppgiften och med god generaliseringsförmåga. Genom att ändra nätstrukturerna, utbildningsstrategierna, lägga till och ta bort vissa viktiga komponenter i detektionsledningen, erhålls en uppsättning modeller med stor mångfald, vilket avsevärt förbättrar effektiviteten hos modellens genomsnitt. Det föreslagna tillvägagångssättet förbättrar den genomsnittliga precisionen för RCNN [14], som var den senaste tekniken, från 31 % till 50,3 % för detektionstestet ILSVRC2014. Det överträffar också vinnaren av ILSVRC2014, GoogLeNet, med 6,1%. Detaljerad komponent-wise analys tillhandahålls också genom omfattande experimentell utvärdering, som ger en global vy för människor att förstå djupt lärande objekt detektion pipeline. 978-1-4673-6964-0/15/$31.00 ©2015 IEEE − a2d
DeepID-Net REF Det introducerar en deformationsbegränsning pooling skikt som också överväger del deformation för objektdetektion.
11,102,127
DeepID-Net: Deformable deep convolutional neural networks for object detection
{'venue': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science', 'Medicine']}
13,799
Motivering: Förbättra användbarheten av bioinformatiska resurser gör det möjligt för forskare att hitta, interagera med, dela, jämföra och manipulera viktig information mer effektivt och effektivt. Det gör det möjligt för forskare att få bättre insikter i biologiska processer med potential, i slutändan, att ge nya vetenskapliga resultat. Användbarhet barriärer kan utgöra betydande hinder för en tillfredsställande användarupplevelse och tvinga forskare att använda onödig tid och ansträngning för att slutföra sina uppgifter. Antalet tillgängliga biologiska databaser på nätet ökar och det finns en växande gemenskap av olika användare. I detta sammanhang finns det ett ökande behov av att säkerställa högsta möjliga användbarhet. Resultat: Med hjälp av moderna metoder för utvärdering av användbarhet har vi identifierat och karakteriserat ett urval av användbarhetsfrågor som kan vara relevanta för webbbioinformatiska resurser i allmänhet. Dessa gäller särskilt utformningen av de navigations- och sökmekanismer som användaren har tillgång till. De användbarhetsproblem vi har upptäckt i våra omfattande fallstudier undergräver användarnas förmåga att hitta den information de behöver i sin dagliga forskningsverksamhet. Utöver karakteriseringen av dessa frågor föreslås särskilda rekommendationer för förbättringar som utnyttjar beprövade metoder från webb- och användbarhetsteknik. De metoder och förhållningssätt som vi exemplifierar kan lätt antas av utvecklarna av bioinformatiska resurser.
En studie om användbarhet av bioinformatiska resurser av Bolchini et al. REF, har visat att användbarhetsfrågor underminerade användarnas förmåga att hitta den information de behövde i sin dagliga forskningsverksamhet; frågor inkluderade att inte förstå resultatet av en viss sökning, och inte förstå rangordningskriterierna och innehållet i dokumenten.
19,841,230
Better bioinformatics through usability analysis
{'venue': 'Bioinformatics', 'journal': 'Bioinformatics', 'mag_field_of_study': ['Computer Science', 'Medicine']}
13,800
I detta dokument studeras ett system med flera användare med ett enda inflöde (MISO) för nedlänk för samtidig trådlös information och kraftöverföring (SWIPT), där en uppsättning mobila enantennastationer (MS) samtidigt får information och energi via kraftdelning (PS) från den signal som sänds av en basstation med flera antenner (BS). Vi strävar efter att minimera den totala transmissionseffekten vid BS genom att gemensamt utforma transmitterande strålformande vektorer och ta emot PS-förhållanden för alla medlemsstater under deras givna signal-till-interferens-plus-brusförhållande (SINR) begränsningar för informationsavkodning och avverkade effektbegränsningar för energiupptagning. För det första har vi det tillräckliga och nödvändiga villkoret för genomförbarheten av vårt formulerade problem. Därefter löser vi detta icke-konvexa problem genom att tillämpa tekniken för semidefinit avslappning (SDR). Vi bevisar att SDR verkligen är tajt för vårt problem och därmed uppnår sitt globala optimala. Slutligen föreslår vi två suboptimala lösningar med lägre komplexitet än den optimala lösningen baserad på principen om att separera optimeringen av transmitterande strålformning och ta emot PS, där zero-forcing (ZF) respektive SINR-optimala system för transmitterande strålformning tillämpas. Samtidig trådlös information och kraftöverföring (SWIPT), sändningskanal, energiskörd, strålformning, strömdelning, halvdefinit avkoppling.
Författarna i REF presenterade ett ramverk för att gemensamt optimera sändningsstråleformningen och förhållandet mellan effektdelning (PS) för SWIPT i MISO-system.
1,767,525
Joint Transmit Beamforming and Receive Power Splitting for MISO SWIPT Systems
{'venue': None, 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
13,801
Abstract-I detta dokument, föreslår vi ett innehåll-medveten försök begränsa anpassningsschema för video streaming över IEEE 802.11 trådlösa LANs (WLANs). Videopaket av olika betydelse är ojämlikt skyddade med olika försöksgränser vid MAC-lagret. Förlusteffekten av varje paket uppskattas vara vägledande för valet av dess försöksgräns. Fler försöksnummer tilldelas paket med högre förlusteffekt för att uppnå ojämlikt felskydd. Vår plan analyserar också backoff-tiden för varje försök och tar sedan hänsyn till den beräknade backoff-tiden för schemaläggning av vidaresändning. Experimentella resultat visar att vårt anpassningssystem effektivt kan minska felutbredningen på grund av paketförlust och säkerställa ankomsten i tid av paket för presentation, vilket avsevärt förbättrar videokvaliteten.
Baserat på samma princip om paketvikt föreslår REF ett system för innehållsmedveten begränsningsanpassning för videoströmning över 802.11 WLAN.
6,799,063
Packet Scheduling for Video Streaming over Wireless with Content-Aware Packet Retry Limit
{'venue': '2006 IEEE Workshop on Multimedia Signal Processing', 'journal': '2006 IEEE Workshop on Multimedia Signal Processing', 'mag_field_of_study': ['Computer Science']}
13,802
Hjärnan nätverk inbäddning är processen att omvandla hjärnnätverk data till diskriminerande representationer av försökspersoner, så att patienter med hjärnsjukdomar och normala kontroller kan lätt separeras. Datorstödd diagnos baserad på sådana representationer är potentiellt transformativ för att undersöka sjukdomsmekanismer och för att informera terapeutiska interventioner. Men befintliga metoder begränsar sig antingen till att extrahera graf-teoretiska åtgärder och subgrafmönster, eller misslyckas med att införliva hjärnnätverksegenskaper och domänkunskap inom medicinsk vetenskap. I detta dokument föreslår vi t-BNE, en ny Brain Network Embedding modell baserad på begränsad tensor factorization. t-BNE innehåller 1) symmetrisk egenskap hos hjärnnätverk, 2) vägledning om sidoinformation för att erhålla representationer som överensstämmer med hjälpåtgärder, 3) ortogonal begränsning för att göra de latenta faktorerna distinkta med varandra, och 4) klassificeringsutbildningsförfarande för att införa övervakning från märkta data. Ramverket Alternating Direction Method of Multipliers (ADMM) används för att lösa optimeringsmålet. Vi utvärderar t-BNE på tre EEG-nätverksdata. Experimentella resultat illustrerar den föreslagna modellens överlägsna prestanda när det gäller grafklassificeringsuppgifter med signifikant förbättring 20.51 %, 6,38 % respektive 12,85 %. Dessutom är härledda faktorer visualiserade som kan vara informativa för att undersöka sjukdomsmekanismer under olika känslor reglering uppgifter.
Vid. REF föreslår en begränsad tensor factorization algoritm; t-BNE, att lära sig hjärnnätverk representationer.
28,518,635
t-BNE: Tensor-based Brain Network Embedding
{'venue': 'SDM', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,803
En ny programvarubaserad metod för att upptäcka levandehet med hjälp av en ny parameterisering av fingeravtryck baserat på kvalitetsrelaterade funktioner föreslås. Systemet testas på en mycket utmanande databas med över 10 500 verkliga och falska bilder förvärvade med fem sensorer av olika teknologier och täcker ett brett spektrum av direkta attackscenarier i form av material och förfaranden som följs för att generera gummy fingrar. Den föreslagna lösningen visar sig vara robust mot datasetet med flera scenarier och uppvisar en total andel på 90 % korrekt klassificerade prover. Dessutom har den liveness detektionsmetod som presenteras den extra fördelen jämfört med tidigare studerade tekniker för att behöva bara en bild från ett finger för att avgöra om det är äkta eller falska. Denna sista egenskap ger metoden mycket värdefulla funktioner eftersom den gör den mindre påträngande, mer användarvänlig, snabbare och minskar genomförandekostnaderna.
Galbally och al. REF använder kvalitetsrelaterade egenskaper i sitt arbete med att upptäcka liv.
5,847,552
A high performance fingerprint liveness detection method based on quality related features
{'venue': 'FUTURE GENERATION COMPUTER SYSTEMS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,804
Vi presenterar en konceptuellt enkel, flexibel och allmän ram för få shot-inlärning, där en klassificerare måste lära sig att känna igen nya klasser som ges bara några få exempel från varje. Vår metod, som kallas Relation Network (RN), är tränad från början till slut. Under meta-learning lär den sig att lära sig ett långt avståndsmått för att jämföra ett litet antal bilder inom avsnitt, som var och en är utformad för att simulera den få-shot-inställningen. En gång tränad, en RN kan klassificera bilder av nya klasser genom att beräkna relation poäng mellan frågebilder och några exempel på varje ny klass utan att ytterligare uppdatera nätverket. Förutom att ge bättre resultat på få shot-inlärning är vårt ramverk enkelt att utöka till noll shot-inlärning. Omfattande experiment på fem riktmärken visar att vårt enkla tillvägagångssätt ger en enhetlig och effektiv strategi för båda dessa två uppgifter.
Sung et al presentera en begreppsmässigt enkel, flexibel och allmän ram för få shot learning REF.
4,412,459
Learning to Compare: Relation Network for Few-Shot Learning
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
13,805
Vi föreslår semilattices (AC) som en lämplig order för analys av partiella modeller. Sådana order uttrycker semantisk påverkan, multi-viewpoint och flervärderad analys, bibehåller inre konsekvens i resonemang, och subsumera finita De Morgan lattices. Vi klassificerar de order som är ändliga och distributiva och tillämpar dem för att designa en effektiv algoritm för flerfaldig kontroll, där kontroller delegeras till en-viewpoint modeller - effektivt drivs av orderstrukturen. Instrumenteringar av denna algoritm gör det möjligt att upptäcka och lokalisera inkonsekvenser över olika synvinklars gränser. För att validera metoden undersöker vi modeller med flera värden och deras kompositionssemantik över en ändlig distributiv AC-lattice. Vi bevisar att denna semantik beräknas av vår algoritm ovan när primer av AC lattice bestämma "projicerade" enskilda synpunkter och ordningen mellan primer bevaras som förfining av singel-viewpoint modeller. Som en fallstudie diskuterar vi en flervärdig uppfattning om statsmaskiner med första ordningens logik plus transitiv stängning.
I REF definieras och argumenteras det som en riktig generalisering av De Morgan-lattices för en sund abstraktion av modeller med flera värden och deras kontroller.
9,368,673
Consistent partial model checking
{'venue': 'Electronic Notes in Theoretical Computer Science', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,806
Abstract-I ett trådlöst sensornätverk (WSN) är ett stort antal sensornoder med begränsad batterieffekt i allmänhet utplacerade över ett allvarligt fält för att samla in data. Det är opraktiskt att ladda upp eller byta ut batterierna i sensornoder i en så svår miljö. Därför är ett energieffektivt protokoll viktigt för att maximera livslängden för noder. I detta dokument föreslår vi ett nätbaserat dataaggregationssystem (GBDAS) för WSN. Vi delar upp hela sensorfältet i ett tvådimensionellt logiskt rutnät av celler. I varje cell, noden med mest restenergi tar tur att vara cellhuvudet, ansvarig för att aggregera sina egna data med data som avkänns av de andra sensorn noderna i cellen, och sedan överföra den ut. För att minska dataöverföringarna till basstationen (BS) förbinder vi varje cellhuvud ytterligare för att bilda en kedja. I kedjan betecknas cellhuvudet med mest restenergi i sin tur som kedjeledare. Aggregerade data rör sig från topp till topp längs kedjan, och slutligen överförs kedjeledaren till BS. I GBDAS behöver bara cellhuvudena överföra data mot BS. Dataöverföringarna till BS minskar därför avsevärt. Dessutom utses cellhuvudena och kedjeledaren i tur och ordning efter energinivån så att energiuttömningen av noderna fördelas jämnt. Simulering visar att GBDAS överträffar Direct och PEGASIS. Index Terms-Base station, cellhuvud, dataaggregation, rutnätsbaserade, trådlösa sensornätverk. Trådlösa sensornätverk (WSN) med en mängd olika potentiella tillämpningar har dragit mycket uppmärksamhet under de senaste åren [1], [2]. Sådana nätverk består vanligtvis av ett stort antal lågkostnads- och lågeffektsnoder med kapacitet att samla in, bearbeta och överföra data [3]– [5]. Sensornoder drivs vanligtvis av batterier så deras energi är strikt begränsad. Efter utplaceringen lämnas dessa sensornoder obevakade. Därför är det viktigt att hantera sensornoder på ett energieffektivt sätt. Eftersom energiförbrukningen av sensornoder används avsevärt i dataöverföring, särskilt för en lång sträcka. Ett energieffektivt överföringsprotokoll är viktigt för att maximera livslängden för sensornoder. Detta dokument behandlar främst problemet med dataöverföring från sensornoder till en fjärrbasstation (BS), där slutanvändaren kan få tillgång till data. Eftersom placeringen av BS är avlägsen, den energi som förbrukas av noder för att direkt överföra Manuscript mottog juli 10, 2013; reviderade September 10, 2013 deras uppgifter till BS är så betydande att de kommer att dö mycket snart. Därför är det viktigt att använda så få sändningar som möjligt till BS och minska mängden data som behöver överföras till BS [6]. I vårt föreslagna system är det bara en liten del av noderna som ansvarar för att sprida data till BS istället för att minska dataöverföringarna. För att minska mängden data som överförs till BS, sammanställer spridningsnoder sina egna data med de data som andra känner av och sedan överför ut. Aggregerade data går från spridning nod till spridning nod, och slutligen en utsedd nod överför till BS. Det är vårt designmål att jämnt fördela energiförbrukningen hos sensornoder för att maximera deras livslängd, så att hela WSN:s livslängd förlängs. I detta dokument presenterar vi ett protokoll som kallas ett rutnätsbaserat dataaggregationssystem (GBDAS) för WSN. För att förlänga livslängden för en WSN konstruerar vi en rutnätsbaserad infrastruktur genom att dela upp hela sensorfältet i ett rutnät av celler. Varje cell har ett huvud, det som har mest återstående energi i cellen, som ansvarar för att samla och sprida data. Varje cellhuvud är vidare kopplat till att bilda en kedja. I varje omgång utses ett cellhuvud med mest återstående energi till kedjeledare, som ansvarar för direktöverföring av data till BS. I GBDAS överför alla sensornoder regelbundet datan till sitt cellhuvud. Efter att ha tagit emot data från de andra medlem noderna i cellen, cellhuvudet aggregat med sina egna data och sedan skickar ut. Endast cellhuvuden behöver överföra data till kedjeledaren. De andra sensornoderna faller just in i viloläge baserat på GAF-protokollet [7]. Resten av detta dokument är organiserat enligt följande. I avsnitt II redogörs kortfattat för några relaterade arbeten. I avsnitt III beskrivs vårt föreslagna system. Simuleringsresultaten diskuteras i avsnitt IV. Slutligen drar avsnitt V slutsatsen. Många WSN-protokoll har utvecklats för att förlänga systemets livslängd under de senaste åren. Bland dessa går vi kort igenom några relevanta konstruktioner: diffusionsbaserad, klusterbaserad, kedjebaserad och rutnätsbaserad. I det diffusionsbaserade protokollet föreslår Directed Diffusion [1] ett datacentrerat spridningsprotokoll för sensornätverk. Data som genereras av sensornoder namnges med attribut-värde par så att en nod begär data bara genom att skicka intressen för namngivna data. Data som matchar intressena dras sedan ner mot den noden. Mellanliggande noder kan cache och aggregera data. Riktad diffusion tillämpar tekniken för initial låg-rate data översvämningar för att fastställa en förstärkt väg från källa till destination. Datapaket vidarebefordras sedan via den rutten i stället för att sändas. EADD [8] ändrar nodens vidarebefordrande ögonblick som beror på varje nods tillgängliga energi, vilket gör det möjligt för noderna med högre tillgänglig energi att reagera snabbare än de med lägre tillgänglig energi. EADD löser problem med ojämn energiförbrukning för att uppnå en balanserad energidistribution från noderna och förlänga nätverkets livslängd. Wan m.fl. [2] Föreslå en gradientmodell baserad på enfasriktad diffusion. Denna modell fördelar energibelastningen jämnt mellan alla noder i nätverket. Den tar också hänsyn till humletalet från diskbänken till en mellanliggande nod för att tillfredsställa vissa realtidstillämpningar. I det klusterbaserade protokollet kombinerar LEACH [9] idéerna om klusterbaserad routing och mediaåtkomst tillsammans med applikationsspecifik dataaggregation för WSN. I LEACH är distribuerade kluster självorganiserade av noderna i den lokala klustret. Varje kluster har ett huvud som ansvarar för aggregering av data och överföring av data till fjärr BS. LEACH innehåller slumpmässig rotation av klusterhuvudets position för att jämnt fördela energibelastningen mellan alla noder för att förlänga systemets livslängd. I GROUP [10] konstruerar en av sänkorna proaktivt, dynamiskt och slumpmässigt en klusternätstruktur för att förmedla frågor och datapaket. Endast en liten del av sensornoder kommer att delta i val av kluster huvuden. Klusterhuvuden kan snabbt aggregera data för att minska volymen av datapaket. GROUP kan också fördela energibelastningen bland sensornoder i nätverket. Vidhya och Dananjayans modell [5] ändrar LEACH-protokollet och gör det möjligt för klusterhuvuden att bilda en multihop ryggrad genom att införliva det kooperativa MIMO-systemet [11] genom valet av kooperativa sändande och mottagande noder. I det kedjebaserade protokollet förbinder PEGASIS [6] alla sensornoder med en girig algoritm för att bilda en kedja. Varje nod får från en granne data sammansmälta med sin egen och sedan överför till den andra i kedjan. Samlade data rör sig från nod till nod längs kedjan och slutligen en utsedd nod som kallas ledare överför till BS. För att minska den genomsnittliga energi som spenderas av varje nod per runda, noder turas om att överföra till BS. EECB [12] förbättrar PEGAS genom att tillämpa distanströskel för att undvika bildandet av LL (Long Link) på kedjan för att ytterligare fördela energibelastningen jämnt mellan noderna. Dessutom väljer EECB noden med lägsta kostnad som ledare för att slutligen överföra insamlade uppgifter till BS. Kostnaden är en funktion av den återstående energin i noden över avståndet mellan noden och BS. ECBSN [13] antar hierarkiska kedjor i två lager. I ett lågt lager antar ECBSN baserat på PEGASIS istället flera kedjor. Varje kedja har en ledare, noden med mest återstående energi. ECBSN länkar vidare ledaren för varje lågskiktskedja till en enda högskiktskedja. I den höga lagerkedjan väljs noden med kortast avstånd till BS som högskiktsledare, med ansvar för att slutligen överföra aggregerade data till BS. I dataöverföringsfasen är den symboliska övergångsmekanismen för varje lågskiktskedja densamma som för PEGASIS. Efter att ha tagit emot de insamlade uppgifterna överförs ledaren för varje lågskiktskedja till den höga lagerledaren som så småningom överförs till BS. I det gridbaserade protokollet bygger TTDD [14] nätet per källa. En källa överför data genom att bygga en rutnätsstruktur. Varje rutnätspunkt har en spridningsnod som ansvarar för att lagra och vidarebefordra data. En diskbänk skickar den omedelbara spridning noden en fråga som i sin tur vidarebefordras mot källan. Förfrågan vidarebefordrar processen lägger information om sökvägen till diskhon för att möjliggöra de begärda data från källan till diskhon. Till skillnad från TTDD:s nätstruktur per källa, delar CODE [15] in hela sensorfältet i rutnät. Varje rutnät har en koordinator som fungerar som en mellanliggande nod för cache- och relädata. I datameddelanden och frågeöverföringsfaser fastställer CODE först en dataspridningsväg så att källan kan skicka data till mobilsänkan längs stigen. EEDD [16] delar också in hela sensorfältet i små virtuella rutnät så att varje rutnät har ett huvud att vidarebefordra data. Varje rutnät är ytterligare indelat i fyra undernät om en händelse är oupphörlig. Arbetsnoder i undernäten är schemalagda för att förbli aktiva enligt deras motsvarande sub-nättid. När ett mål upptäcks och måste skickas till diskbänken vidarebefordras datapaketen av den fungerande noden till angränsande rutnätshuvudet mot diskbänken. Det föreslagna systemet har tre primära faser: nätkonstruktion, kedjebildning och dataöverföring. Vår nätverksmodell har följande egenskaper: 1) Alla sensornoder är stationära efter installation. 2) BS ligger långt från sensornoder. 3) Varje sensor nod är medveten om sin egen geografiska läge baserat på GPS eller andra tekniker [17, 18]. 4) Varje senor nod är också medveten om sin återstående energi. 5) Sensorn noderna är homogena och trådlösa kanaler är dubbelriktade. Hela sensorfältet är indelat i ett logiskt rutnät med M- och N-celler med samma storlek. Varje cell är en α × α kvadrat med ett ID, som innehåller sensornoder. En sensor nod kan beräkna sin cell ID [C x, C y ] från dess geografiska plats (x, y) enligt följande: där (x 0, y 0 ) är platsen för det virtuella ursprunget som anges på nätverket initieringsstadiet, α är cellstorleken, och på k är det största heltal inte större än k. För enkelhet, antar vi att alla cell-ID är positiva. Bilda. 1 visar ett exempel sensorfält som är partitionerat i ett logiskt rutnät på 4 4 celler, där cell-ID omges av hakparenteser. Vid Eq. (1) Varje sensornod beräknar sig själv vilken cell den tillhör. Varje nod lagrar sin egen geografiska plats, cell-ID och det nuvarande cellhuvudet. I vårt system, varje cell har ett huvud, ansvarig för att aggregera sina egna data med data som överförs från de andra sensormedlemmarna i cellen och sedan vidarebefordra till angränsande cellhuvudet mot BS. Nätverk, Vol. Ett, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, inte nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej 4 december 2013 330 Journal of Advances in Computer Huvudidén i GBDAS är att bygga en kedja genom att länka alla cellhuvuden så att avkännbara data kan spridas längs kedjan. Baserat på antagandet att alla noder börjar med en lika stor mängd energi, betecknar vi slumpmässigt en nod i varje cell initialt fungerar som cellhuvudet. Eftersom en huvudknuta förbrukar mycket mer energi än en icke-huvudknuta. För att samla in data i varje omgång, noden med den mest kvarvarande energin i cellen senare tar tur är cellhuvudet. Följaktligen är energibelastningen av att vara ett cellhuvud jämnt fördelade mellan noderna. När cellhuvudet i varje cell har bestämts börjar vi med det längst bort belägna cellhuvudet för att konstruera kedjan med hjälp av den giriga algoritmen. Bilda. 2 visar att kedjan börjar från huvudet h 0 ansluter till huvudet h 1, huvudet h 1 ansluter till huvudet h 2, och slutligen huvudet h 14 ansluter till huvudet h 15. Cellhuvudet döljer informationen om granncellens huvuden. På detta sätt är cellhuvudena i hela rutnätet äntligen sammankopplade för att bilda en kedja. I kedjan kommer ett cellhuvud med mest restenergi att utses till den kedjeledare som ansvarar för överföringen av de slutliga aggregerade uppgifterna till BS. För att samla in data i varje omgång väljer BS cellhuvudet med den mest kvarvarande energin som kedjeledare, ansvarig för att ta emot data från sina två angränsande cellhuvuden (om det har två grannar), aggregera med sina egna data, och sedan överföra aggregerade data till BS. När kedjan ledare tar emot begäran från BS, kommer det att skicka två polletter t 1 och t 2 till sina två angränsande cell huvuden, respektive. Token t 1 kommer att skickas rekursivt längs kedjan medurs till nästa cellhuvud. Omvänt, token t 2 kommer att passera rekursivt längs kedjan moturs till nästa cellhuvud. Varje token färdas från huvud till huvud längs kedjan i sin egen riktning. När token når sitt slut överför ändnoden sina egna aggregerade data till sitt upplänkshuvud i omvänd riktning. På samma sätt aggregerar upplänkhuvudet sina egna data med de mottagna uppgifterna från sitt nedlänkhuvud och sänder sedan rekursivt till sitt upplänkhuvud, och så småningom till kedjeledaren. Kedjeledaren väntar på att få data från båda grannarna och sedan aggregerar sina egna data med sina två grannars data. Äntligen sänder ledaren bara ett meddelande till BS. Till exempel som visas i bild. 3, BS väljer h 10 som kedjeledare. Efter att ha mottagit begäran, h 10 skickar två polletter t 1 och t 2 till sina två grannar, h 9 och h 11, Respektive. Token t 1 flyttar sig från h 9 längs kedjan medurs till slutet noden h 0. Efter att ha mottagit t 1, h 0 överför sin aggregerade data till sin uplink huvudet h 1. Likaså h 1 aggregerar sina egna data med de data som mottagits från h 0 och sedan rekursivt överför till h 2, och så småningom till h 10. Kedjeledaren h 10 väntar på att få data från h 9 och h 11, och sedan aggregerar sina egna data med data från h 9 och h 11. Slutligen sänder h 10 bara ett meddelande till BS. I detta avsnitt utvärderar vi prestanda för GBDAS genom simuleringar. Först beskriver vi vår simuleringsmodell och sedan presenterar vi några av resultaten. Vi använder den första radiomodellen [9] för att utvärdera energiförbrukningen för varje nod. Enligt denna modell, en radio skingrar E elec = 50 nJoule / bit för att köra sändaren eller mottagaren kretsar. Elec är energiförbrukningen i själva kretsen. Om d 2 energiförlust, där d är avståndet mellan noder, en överföring förstärkare vid avsändaren nod ytterligare förbrukar E amp d 2, där E amp = 100 pJoule/bit/m 2. E amp är den energi som förbrukas av förstärkaren vid överföring av paket. För att sända ett k-bit-meddelande ett avstånd d med hjälp av denna radiomodell, använder radion alltså: och för att ta emot detta meddelande, använder radion: Att ta emot ett meddelande är inte en billig operation med hjälp av dessa parametervärden. Protokollen bör därför försöka minimera inte bara överföringsavstånden utan också antalet överförings- och mottagningsåtgärder för varje meddelande. Vi kan generalisera den totala transmissionsförbrukningen enligt följande: I våra simuleringar är paketlängden k satt till 2000 bitar och den energi som förbrukas för dataaggregation antas vara 5 nJoule/bit/message. I det följande jämför vi prestanda för GBDAS med prestanda för Direct och PEGASIS [6] genom att använda flera slumpmässiga 2000-node nätverk. Direkt tillvägagångssätt är helt enkelt för varje nod att överföra sina data direkt till BS. I GBDAS ligger BS på (1000, 1500) under 2000 m × 2000 m fält uppdelat i ett rutnät på 10 × 10 celler. Vi utförde simuleringarna för att verifiera antalet rundor när 1%, 20%, 50%, och 100% av noderna dör för varje system med varje nod som har samma ursprungliga energinivå. I detta papper konstruerar vi en rutnätsbaserad infrastruktur genom att dela sensorfältet i ett rutnät av celler för att minimera mängden data som överförs till BS. Varje cellhuvud aggregerar sina data med de data som avkänns av cellens andra medlemsnoder. Dessutom utför GBDAS även dataaggregation för varje cellhuvud i kedjan utom båda slutnoder. För att minska dataöverföringen till BS ansluter vi ytterligare cellhuvudena genom girig algoritm för att bilda en kedja. Endast cellhuvuden i kedjan behöver sprida data till ledaren sedan till BS. I varje omgång för datainsamling, medlemsnoder turas om att vara cellhuvud. På samma sätt turas cellhuvudena i kedjan också om att vara kedjeledare. Därför är energiförbrukningen hos sensornoder jämnt fördelade för att maximera deras livstider. Resultatet blir att hela WSN:s livslängd förlängs. Våra simuleringar visar att GBDAS överträffar Direct och PEGASIS när 1%, 20%, 50% och 100% av noderna dör för olika initiala energinivåer. Nätverk, Vol. Ett, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, inte nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej 4 Journal of Advances in Computer
GBDAS REF är ett rutnätsbaserat dataaggregationssystem som partitionerar sensorfältet till ett tvådimensionellt logiskt rutnät av celler.
11,744,691
Grid-Based Data Aggregation for Wireless Sensor Networks
{'venue': None, 'journal': 'Journal of Advances in Computer Networks', 'mag_field_of_study': ['Computer Science']}
13,807
Abstract-Routing i NDN-nätverk måste skala i form av vidarebefordra tabellstorlek och routing protokoll overhead. Hyperbolic routing (HR) presenterar en potentiell lösning för att ta itu med problemet routing skalbarhet, eftersom det inte använder traditionella vidarebefordra tabeller eller utbyta routing uppdateringar vid ändringar i nätverk topologier. Även om HR har nackdelarna med att producera suboptimala rutter eller lokala minima för vissa destinationer, kan dessa problem mildras av NDN:s intelligenta sändningsplan för data. HR:s livsduglighet beror dock fortfarande på både kvaliteten på de rutter HR tillhandahåller och de omkostnader som uppstår på grund av HR:s suboptimala beteende. Vi utformade en ny forwardingstrategi kallad Adaptive Smoothed RTT-baserad forwarding (ASF) för att mildra HR:s suboptimala val av sökväg. Detta dokument beskriver vår experimentella undersökning av paketleveransförsening och overhead under HR jämfört med Named-Data Link State Routing (NLSR), som beräknar kortaste vägar. Vi kör emulering experiment med olika topologier med olika felscenarier, undersökningsintervall, och maximalt antal nästa humle för ett namn prefix. Våra resultat visar att HR:s delay stretch har en median på nära 1 och en 95:e percentil runt eller under 2, som inte växer med nätverksstorleken. HR:s meddelande overhead i dynamiska topologier är nästan oberoende av nätverksstorleken, medan NLSR:s overhead växer åtminstone polynomiskt. Dessa resultat tyder på att HR erbjuder en mer skalbar routinglösning med liten påverkan på den optimala routingbanan.
I REF undersöker författarna användningen av hyperbolisk routing i NDN för att minska FIB-storleken och förbättra skalbarheten.
3,374,000
An Experimental Investigation of Hyperbolic Routing with a Smart Forwarding Plane in NDN
{'venue': '2016 IEEE/ACM 24th International Symposium on Quality of Service (IWQoS)', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics']}
13,808
I detta papper studeras spammarnas beteende på nätverksnivå, bland annat: IP-adressintervall som skickar mest skräppost, vanliga skräppostlägen (t.ex. BGP-ruttkapning, bots), hur ihållande över tid varje skräppostvärd är och egenskaper hos spammande botnät. Vi försöker besvara dessa frågor genom att analysera ett 17-månaders spår av över 10 miljoner skräppost som samlats in på ett Internet "spam scobhole", och genom att korrelera denna data med resultaten av IP-baserade svarta listor, passiv TCP fingeravtryck information, routing information, och botnet "kommando och kontroll" spår. Vi finner att de flesta spam skickas från ett fåtal regioner av IP-adressutrymme, och att spammare verkar använda övergående "robotar" som bara skickar några få e-postmeddelanden under mycket korta tidsperioder. Slutligen får man en liten, men inte obetydlig, mängd skräppost från IP-adresser som motsvarar kortlivade BGP-rutter, vanligtvis för kapade prefix. Dessa trender tyder på att utveckla algoritmer för att identifiera botnet medlemskap, filtrera e-postmeddelanden baserade på nätverks-nivå egenskaper (som är mindre varierande än e-postinnehåll), och förbättra säkerheten för Internet routing infrastruktur, kan visa sig vara extremt effektivt för att bekämpa skräppost.
Ramachandran och Feamster analysera nätverks-nivå egenskaper spamming värdar REF, och Hao et.
8,282,784
Understanding the network-level behavior of spammers
{'venue': "SIGCOMM '06", 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,809
I nuvarande objektdetekteringssystem används de djupa konvolutionella neurala nätverken (CNN) för att förutsäga avgränsande lådor av objektkandidater, och har fått prestandafördelar jämfört med de traditionella regionförslagsmetoderna. Befintliga djupa CNN-metoder antar dock att föremålet begränsas till fyra oberoende variabler, som kan regresseras av l2-förlusten separat. Ett sådant alltför förenklat antagande strider mot den väl mottagna observationen, att dessa variabler korreleras, vilket resulterar i mindre exakt lokalisering. För att ta itu med frågan, vi först införa en ny Intersektion över Union (IoU ) förlust funktion för att begränsa box förutsägelse, som går tillbaka de fyra gränserna för en förutsagd låda som en hel enhet. Genom att ta fördelarna med IoU förlust och djupa fullt konvolutionella nätverk, UnitBox införs, som utför korrekt och effektiv lokalisering, visar robust för objekt med olika former och skalor, och konvergerar snabbt. Vi tillämpar UnitBox på ansiktsdetektering och uppnår bästa prestanda bland alla publicerade metoder på FDDB-riktmärket.
UnitBox REF använder IoU förlust för att regressera de fyra gränserna som en hel enhet.
15,883,006
UnitBox: An Advanced Object Detection Network
{'venue': "MM '16", 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,810
Vi presenterar en strategi för att utbilda neurala nätverk för att generera sekvenser med hjälp av skådespelare-kritiska metoder från förstärkning lärande (RL). Nuvarande log-likelihood utbildningsmetoder begränsas av skillnaden mellan deras utbildning och testlägen, eftersom modeller måste generera polletter som är beroende av deras tidigare gissningar snarare än mark-sanningen polletter. Vi tar itu med detta problem genom att införa ett kritiskt nätverk som är utbildat för att förutsäga värdet av en output token, med tanke på politiken i ett aktörsnätverk. Detta resulterar i ett utbildningsförfarande som ligger mycket närmare testfasen, och gör det möjligt för oss att direkt optimera för en uppgiftsspecifik poäng som BLEU. Avgörande, eftersom vi utnyttjar dessa tekniker i den övervakade inlärningsmiljön snarare än den traditionella RL-inställningen, vi villkorar den kritiker nätverk på mark-sanning output. Vi visar att vår metod leder till förbättrad prestanda både på en syntetisk uppgift, och för tysk-engelska maskinöversättning. Vår analys banar väg för sådana metoder att tillämpas i naturliga språkgeneration uppgifter, såsom maskinöversättning, bildtextgenerering, och dialog modellering.
REF presenterar en aktörskritisk metod även för maskinöversättning.
14,096,841
An Actor-Critic Algorithm for Sequence Prediction
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
13,811
Explosionen av bilddata på Internet har potential att främja mer sofistikerade och robusta modeller och algoritmer för att indexera, hämta, organisera och interagera med bilder och multimediadata. Men exakt hur sådana data kan utnyttjas och organiseras är fortfarande ett kritiskt problem. Vi introducerar här en ny databas som kallas "ImageNet", en storskalig ontologi av bilder som bygger på ryggraden i WordNet struktur. ImageNet syftar till att befolka majoriteten av de 80 000 synset av WordNet med ett genomsnitt av 500-1000 rena och full upplösning bilder. Detta kommer att resultera i tiotals miljoner kommenterade bilder organiserade av den semantiska hierarkin av WordNet. Detta papper erbjuder en detaljerad analys av ImageNet i dess nuvarande tillstånd: 12 delträd med 5247 synset och 3,2 miljoner bilder totalt. Vi visar att ImageNet är mycket större i skala och mångfald och mycket mer exakt än de nuvarande bilddataset. Att bygga en sådan stor databas är en utmanande uppgift. Vi beskriver datainsamlingen med Amazon Mechanical Turk. Slutligen illustrerar vi användbarheten av ImageNet genom tre enkla applikationer i objektigenkänning, bildklassificering och automatisk objektklustring. Vi hoppas att skala, noggrannhet, mångfald och hierarkisk struktur av ImageNet kan erbjuda oöverträffade möjligheter för forskare i datorseende samhället och bortom.
ImageNet REF är ett liknande projekt som syftar till att fylla varje synset av WordNet med 1000 bilder i genomsnitt.
206,597,351
ImageNet: A large-scale hierarchical image database
{'venue': '2009 IEEE Conference on Computer Vision and Pattern Recognition', 'journal': '2009 IEEE Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
13,812
Binära neurala nätverk (BNN) har studerats i stor utsträckning eftersom de kör dramatiskt snabbare vid lägre minne och strömförbrukning än flyttalsnätverk, tack vare effektiviteten av bitoperationer. Nutida BNN vars vikter och aktiveringar är både enstaka bitar lider dock av allvarlig noggrannhetsnedbrytning. För att förstå varför undersöker vi representationsförmåga, snabbhet och partiskhet/variant av BNNs genom omfattande experiment. Vi drar slutsatsen att felet hos BNN främst orsakas av den inneboende instabiliteten (träningstid) och icke-robustness (tåg- och testtid). Inspirerad av denna undersökning föreslår vi Binary Ensemble Neural Network (BENN) som utnyttjar ensemblemetoder för att förbättra BNN:s prestanda med begränsade effektivitetskostnader. Medan ensembletekniker i stort sett har ansetts vara endast marginellt användbara för starka klassificeringar såsom djupa neurala nätverk, visar vår analys och experiment att de är naturligt en perfekt passform för att boosta BNNs. Vi finner att våra BENN, som är snabbare och mer robust än toppmoderna binära nätverk, till och med kan överträffa noggrannheten i det kompletta flytande nummernätverket med samma arkitektur.
BENN REF ensembler flera standard binära nätverk för att förbättra prestanda.
49,318,748
Binary Ensemble Neural Network: More Bits per Network or More Networks per Bit?
{'venue': '2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
13,813
Den snabba och kostnadseffektiva hemleveransen av varor som beställts online är logistiskt utmanande. Många företag letar efter nya sätt att korsa sista milen till sina kunder. En teknik-aktiverad möjlighet som nyligen har fått mycket uppmärksamhet är användningen av en drönare för att stödja leveranser. En innovativ last-mile leverans koncept där en lastbil samarbetar med en drönare för att göra leveranser ger upphov till en ny variant av den resande säljare problem (TSP) som vi kallar TSP med drönare. I detta dokument modellerar vi detta problem som en IP och utvecklar flera snabba rutt första-kluster andra heuristik baserat på lokal sökning och dynamisk programmering. Vi bevisar de värsta approximationsförhållandena för heuristik och testar deras prestanda genom att jämföra lösningarna med de optimala lösningarna för små fall. Dessutom tillämpar vi våra heuristiker på flera artificiella fall med olika egenskaper och storlekar. Våra experiment visar att betydande besparingar är möjliga med detta koncept i jämförelse med enbart lastbilsleverans.
Agatz m.fl. REF var bland de första som föreslog TSP-D (Resa försäljarens problem med Drone).
2,349,508
Optimization Approaches for the Traveling Salesman Problem with Drone
{'venue': 'Transportation Science', 'journal': 'Transportation Science', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
13,814
Abstract-Behavioral ekonomi säger oss att känslor kan djupt påverka individuellt beteende och beslutsfattande. Gäller detta även för samhällen i stort, dvs. Kan samhällen uppleva stämningstillstånd som påverkar deras kollektiva beslutsfattande? I förlängningen är den allmänna stämningen korrelerad eller till och med prediktiv för ekonomiska indikatorer? Här undersöker vi om mätningar av kollektiva stämningstillstånd som härrör från storskaliga Twitter-flöden är korrelerade till värdet av Dow Jones Industrial Genomsnitt (DJIA) över tid. Vi analyserar textinnehållet i dagliga Twitter-flöden av två stämningsspårningsverktyg, nämligen OpinionFinder som mäter positivt vs. negativt humör och Google-Profile of Mood States (GPOMS) som mäter humör i termer av 6 dimensioner (Kalm, Alert, Sure, Vital, Kind, and Happy). Vi korsvaliderar de resulterande tidsserierna genom att jämföra deras förmåga att upptäcka allmänhetens svar på presidentvalet och Thanksgiving-dagen 2008. En Granger kausalitetsanalys och en Själv-Organizing Fuzzy Neural Network används sedan för att undersöka hypotesen att allmänhetens humörtillstånd, mätt genom opinionsbildare och GPOMS stämningstidsserie, är prediktiva för förändringar i DJIA slutvärden. Våra resultat visar att noggrannheten i DJIA förutsägelser kan förbättras avsevärt genom att inkludera specifika offentliga stämning dimensioner men inte andra. Vi finner en noggrannhet på 87,6% i att förutsäga den dagliga upp och ner förändringar i slutvärdena för DJIA och en minskning av medelvärdet procentfel med mer än 6%. Index Villkor-stock marknadsförutsägelse -twitter -mood analys.
Bollen m.fl. REF visar att allmänhetens stämning på Twitter är korrelerad till Dow Jones industriella medelvärde.
14,727,513
Twitter mood predicts the stock market
{'venue': 'Journal of Computational Science, 2(1), March 2011, Pages 1-8', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics']}
13,815
I detta dokument fokuserar vi på det anpassningsproblem som har en stor märkt data i källdomänen och en stor men omärkt data i måldomänen. Vårt mål är att lära sig tillförlitlig information från omärkta måldomändata för anpassning till beroende. Nuvarande toppmoderna statistiska tolkar presterar mycket bättre för kortare beroenden än för längre. Därför föreslår vi en anpassningsstrategi genom att lära sig tillförlitlig information om kortare beroenden i omärkta måldata för att hjälpa till att tolka längre avståndsord. Den omärkta data tolkas av en beroendetolk som är utbildad på märkta källdomändata. De experimentella resultaten visar att vårt föreslagna tillvägagångssätt överträffar baslinjesystemet och är bättre än dagens moderna anpassningsteknik.
REF ) utföra domänanpassning för en beroendetolk.
7,755,210
Learning Reliable Information for Dependency Parsing Adaptation
{'venue': 'International Conference On Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,816
I detta dokument presenterar vi en ny strategi för att förutsäga brottslighet i ett geografiskt utrymme från flera datakällor, särskilt mobiltelefoner och demografiska data. Det viktigaste bidraget från det föreslagna tillvägagångssättet är att använda aggregerade och anonymiserade mänskliga beteendedata som härrör från mobil nätverksaktivitet för att ta itu med problemet med brottsprognoser. Även om tidigare forskningsinsatser har använt antingen historisk bakgrundskunskap eller brottsförbrytares profilering stöder våra resultat hypotesen att aggregerade mänskliga beteendedata från mobilnätsinfrastrukturen, i kombination med grundläggande demografisk information, kan användas för att förutsäga brott. I våra experimentella resultat med verkliga brottsdata från London får vi en noggrannhet på nästan 70% när vi förutspår om ett specifikt område i staden kommer att vara en brott hotspot eller inte. Dessutom ger vi en diskussion om konsekvenserna av våra resultat för datadriven brottsanalys.
Brottshotspots ligger genom att analysera demografiska data och mobila nätverk i London REF.
746,921
Once Upon a Crime: Towards Crime Prediction from Demographics and Mobile Data
{'venue': None, 'journal': 'Proceedings of the 16th International Conference on Multimodal Interaction', 'mag_field_of_study': ['Computer Science', 'Physics']}
13,817
Uppmärksamhetsmekanismer har sett bred adoption i neurala NLP-modeller. Förutom att förbättra prediktiva prestanda, är dessa ofta tippade som att ge insyn: modeller utrustade med uppmärksamhet ger en fördelning över deltagande-till inmatningsenheter, och detta presenteras ofta (åtminstone implicit) som kommunicerar den relativa betydelsen av indata. Det är dock oklart vilket samband som finns mellan uppmärksamhetsvikter och modellutgångar. I detta arbete utför vi omfattande experiment över en mängd olika NLP uppgifter som syftar till att bedöma i vilken grad uppmärksamhet vikter ger meningsfulla "beskrivningar" för förutsägelser. Vi finner att de till stor del inte gör det. Till exempel är inlärda uppmärksamhet vikter ofta okorrelerade med gradient-baserade mått av funktionsvikt, och man kan identifiera mycket olika uppmärksamhet fördelningar som ändå ger likvärdiga förutsägelser. Våra resultat visar att vanliga uppmärksamhetsmoduler inte ger meningsfulla förklaringar och inte bör behandlas som om de gör det. Kod för att reproducera alla experiment finns på https://github.com/successar/AdvotionExplanation.
I synnerhet visar REF att för en mängd olika NLP-uppgifter är de inlärda uppmärksamhetsvikterna ofta okorrelerade med funktionsbetydelse som produceras av gradientbaserade prognosatiseringsmetoder, och slumpmässig permutation av uppmärksamhetsvikter kan dock ge likvärdiga förutsägelser.
67,855,860
Attention is not Explanation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
13,818
Effektiviteten av programvarutestning utvärderas ofta genom att mäta täckning av någon aspekt av programvaran, såsom dess kod. Det finns mycket forskning som syftar till att öka kodtäckningen av sekventiell programvara. Det har dock gjorts lite forskning om att öka täckningen för samtidig programvara. Detta dokument presenterar en ny teknik som syftar till att uppnå hög täckning av samtidiga program genom att generera trådscheman för att täcka otäckta täckningskrav. Vår teknik först uppskattar synkronisering-par täckningskrav, och sedan genererar tråd scheman som sannolikt kommer att täcka avtäckta täckningskrav. I detta dokument presenteras också en beskrivning av ett prototypverktyg som vi implementerade i Java, och resultaten av en uppsättning studier som vi utförde med hjälp av verktyget på flera öppna källkodsprogram. Resultaten visar att vår teknik för våra ämnesprogram uppnår högre täckning snabbare än slumpmässiga testtekniker; den skattningsbaserade heurismen bidrar väsentligt till effektiviteten i vår teknik.
Hong m.fl. REF presenterade en ny teknik för trådläggning när det gäller kriterier för synkronisering/partäckning för att uppnå hög testtäckning.
15,003,188
Testing concurrent programs to achieve high synchronization coverage
{'venue': 'ISSTA 2012', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,819
Abstract-Multicore processorer (CMP) är en bra lösning för att ge den prestanda som krävs för nuvarande och framtida hårda realtidssystem. Det är dock svårt att beräkna en snäv WCET-uppskattning för CMP på grund av störningar som uppgifter lider av när man får tillgång till delade maskinvaruresurser. Vi föreslår en analysbar JEDEC-kompatibel DDRx SDRAM-minneskontroll (AMC) för hårda CMP i realtid, vilket minskar effekten av minnesstörningar orsakade av andra uppgifter på WCET-uppskattning, vilket ger en förutsägbar minnesåtkomsttid och möjliggör beräkning av snäva WCET-uppskattningar.
Den SDRAM nås genom Analysable Memory Controller (AMC) REF.
903,136
An Analyzable Memory Controller for Hard Real-Time CMPs
{'venue': 'IEEE Embedded Systems Letters', 'journal': 'IEEE Embedded Systems Letters', 'mag_field_of_study': ['Computer Science']}
13,820
POMDP är en kraftfull ram för resonemang under utfall och informationsosäkerhet, men det är svårt att konstruera en korrekt POMDP-modell. Bayes-Adaptive Delvis observable Markov Decision Processes (BAPOMDPs) utökar POMDPs för att göra det möjligt att lära sig modellen under utförandet. BA-POMDP är en Bayesiansk RL-strategi som i princip möjliggör en optimal kompromiss mellan exploatering och prospektering. Tyvärr är BAPOMDPs för närvarande opraktiska att lösa för någon icke-trivial domän. I detta dokument utökar vi Monte-Carlo Tree Search-metoden POMCP till BA-POMDPs och visar att den resulterande metoden, som vi kallar BA-POMCP, kan ta itu med problem som tidigare lösningsmetoder inte har kunnat lösa. Dessutom introducerar vi flera tekniker som utnyttjar BA-POMDP-strukturen för att förbättra effektiviteten hos BA-POMCP tillsammans med bevis på deras konvergens.
Katt m.fl. REF utökar Monte-Carlo Tree Sökmetoden POMCP till BA-POMDPs, resulterar i den toppmoderna ramen för lärande och planering i BAPOMDPs.
19,988,345
Learning in POMDPs with Monte Carlo Tree Search
{'venue': 'Proceedings of the 34th International Conference on Machine Learning, PMLR 70:1819-1827, 2017', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,821
Tidigare arbete med 3D-insatsigenkänning har fokuserat på att använda handgjorda funktioner, antingen från djupvideor eller 2D-videor. I detta arbete presenterar vi ett effektivt sätt att kombinera oövervakat funktionsinlärning med diskriminerande funktionsbrytning. Obemärkt funktionsinlärning gör det möjligt för oss att extrahera spatio-temporala funktioner från omärkt videodata. Med detta kan vi undvika den besvärliga processen att utforma funktionen extraktion för hand. Vi föreslår en ensemble strategi med hjälp av en discriminativ inlärningsalgoritm, där varje baselever är en discriminativ multi-kernel-learning klassificerare, tränad för att lära sig en optimal kombination av gemensamma funktioner. Vår utvärdering inkluderar en jämförelse med toppmoderna metoder på MSRAction 3D dataset, där vår metod, förkortad EnMkl, överträffar tidigare metoder. Dessutom analyserar vi effektiviteten i vårt tillvägagångssätt i ett 3D-system för igenkänning av åtgärder.
Chen och Al. kombinera oövervakad funktionsinlärning som extraherar spatio-temporella funktioner från omärkta videodata och diskriminerande funktionsbrytning där varje basinlärare är en diskriminerande multi-kernel-learning klassificerare REF.
11,363,417
Combining unsupervised learning and discrimination for 3D action recognition
{'venue': 'Signal Process.', 'journal': 'Signal Process.', 'mag_field_of_study': ['Computer Science']}
13,822
Sammanfattning I den här artikeln beskriver vi en hierarkisk ansiktsklustringsalgoritm för triangelmaskor som bygger på att passa primitiva varelser som tillhör en godtycklig uppsättning. Den metod som föreslås är helt automatisk, och genererar ett binärt träd av kluster, som var och en är monterad av en av de primitiva som används. Inledningsvis representerar varje triangel en enda klunga; vid varje iteration, alla par av angränsande klungor beaktas, och den som bättre kan approximeras av en av de primitiva bildar en ny enda klunga. Det approximativa felet utvärderas med hjälp av samma mått för alla primitiva, så att det är vettigt att välja vilken som är den mest lämpliga primitiva för att approximera uppsättningen trianglar i ett kluster. Baserat på detta tillvägagångssätt har vi implementerat en prototyp som använder plan, sfärer och cylindrar, och har experimenterat med att för maskor gjorda av 100 K ansikten, hela binära träd av kluster kan byggas i cirka 8 s på en standard PC. Ramen som beskrivs här har en naturlig tillämpning i omvända konstruktionsprocesser, men den har också testats för ytdenoisering, funktionsåterställning och karaktärshudning.
En nedifrån-och-upp-strategi montering av plan, sfärer och cylindrar har föreslagits av REF.
8,498,653
Hierarchical mesh segmentation based on fitting primitives
{'venue': 'The Visual Computer', 'journal': 'The Visual Computer', 'mag_field_of_study': ['Computer Science']}
13,823
Djupa konvolutionella neurala nätverk (CNN) är oumbärliga för toppmoderna datorseende algoritmer. Men de är fortfarande sällan utplacerade på batteridrivna mobila enheter, såsom smartphones och bärbara prylar, där visionalgoritmer kan möjliggöra många revolutionerande verkliga applikationer. Den viktigaste begränsande faktorn är den höga energiförbrukningen vid CNN-bearbetning på grund av dess höga beräkningskomplexitet. Även om det finns många tidigare insatser som försöker minska CNN-modellens storlek eller mängden beräkning, finner vi att de inte nödvändigtvis resulterar i lägre energiförbrukning. Dessa mål fungerar därför inte som ett bra mått för uppskattningen av energikostnaderna. För att minska klyftan mellan CNN-design och optimering av energiförbrukningen föreslår vi en energibesparande beskärningsalgoritm för CNN som direkt använder CNN:s energiförbrukning för att styra beskärningsprocessen. Energiskattningsmetoden använder parametrar som extrapolerats från faktiska maskinvarumätningar. Den föreslagna layerby-layer beskärningsalgoritmen beskärs också mer aggressivt än tidigare föreslagna beskärningsmetoder genom att minimera felet i utdatafunktionskartorna istället för filtervikterna. För varje lager beskärs vikterna först och finjusteras sedan lokalt med en sluten, minstkvadratlösning för att snabbt återställa noggrannheten. När alla lager är beskurna, hela nätverket är globalt finjusterade med hjälp av backpropagation. Med den föreslagna beskärningsmetoden, är energiförbrukningen av AlexNet och GoogLeNet minskas med 3,7× respektive 1,6×, med mindre än 1% topp-5 noggrannhet förlust. Vi visar också att minska antalet målklasser i AlexNet kraftigt minskar antalet vikter, men har en begränsad inverkan på energiförbrukningen.
En energimedveten metod för att beskära filter av CNN beskrivs i REF.
2,779,809
Designing Energy-Efficient Convolutional Neural Networks Using Energy-Aware Pruning
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
13,824
Public Bicycle System (PBS) har utvecklats för korta transporter som en del av masstransportsystemet. Tillgången och efterfrågan på cyklar i PBS är vanligtvis obalanserad på olika stationer och behöver kontinuerligt och brett övervakas och omfördelas. Omfördelningen av cykeln är en del av problemet med fordonsrouting (VRP). Vi kan tillämpa lösningar på VRP för att omdistribuera cykeln effektivt. De flesta lösningarna till VRP använder dock sträckan Euclidean som villkorsfaktor, som inte tar hänsyn till vägförhållanden, trafikregler och geografiska faktorer, vilket leder till onödigt slöseri med leveranstid och mänskliga resurser. I detta arbete föreslår vi en faktisk vägsträckaoptimeringsmetod för VRP för att anpassa flera ytterligare begränsningar av vägproblem. Vi implementerar också ett system som integrerar realtidsstationsinformation, Web GIS, stadsvägnätet och heuristikalgoritmer för PBS. Systemet innehåller en simulator inuti som kan hjälpa PBS chefer att göra ruttplanering effektivt och hitta den bästa schemaläggningsstrategin för att uppnå hotspot-analys och justering av station distributionsstrategier för att minska PBS driftskostnader.
I REF föreslås en optimeringsmetod som tar hänsyn till vägförhållanden, trafikregler och geografiska faktorer i stället för att bara använda euklidiskt avstånd.
109,525,431
A Geo-Aware and VRP-Based Public Bicycle Redistribution System
{'venue': None, 'journal': 'International Journal of Vehicular Technology', 'mag_field_of_study': ['Engineering']}
13,825
Sammanfattning — I detta dokument överväger vi en ny, sessionsbaserad arbetsbörda för att mäta webbserverprestanda. Vi definierar en session som en sekvens av kundens individuella önskemål. Med hjälp av en simuleringsmodell visar vi att en överbelastad webbserver kan uppleva en allvarlig förlust av dataflöde mätt som ett antal avslutade sessioner jämfört med serverns dataflöde mätt i förfrågningar per sekund. Dessutom visar statistisk analys av avslutade sessioner att den överbelastade webbservern diskriminerar mot längre sessioner. För webbplatser för e-handel är längre sessioner typiskt de som skulle resultera i inköp, så de är just de för vilka företagen vill garantera slutförandet. För att förbättra webb-QoS för kommersiella webbservrar introducerar vi en sessionsbaserad behörighetskontroll (SBAC) för att förhindra att en webbserver blir överbelastad och för att säkerställa att längre sessioner kan slutföras. Vi visar att en webbserver förstärkt med inträdeskontrollmekanismen kan ge en rättvis garanti för slutförande, för varje accepterad session, oberoende av en sessionslängd. Detta ger en förutsägbar och kontrollerbar plattform för webbapplikationer och är ett kritiskt krav för alla e-affärer. Dessutom föreslår vi två nya adaptiva strategier för tillträdeskontroll, hybrida och prediktiva, som syftar till att optimera SBAC-mekanismens prestanda. Dessa nya adaptiva strategier bygger på en självgående funktion för inträdeskontroll, som anpassar sig i enlighet med variationer i trafikbelastningen.
Arbetet i REF införde ett tillvägagångssätt som kallas Sessionsbaserad Admission Control (SBAC) för att förhindra att en webbserver blir överbelastad och för att säkerställa att längre sessioner kan slutföras på kommersiella webbplatser.
615,309
Session-based admission control: A mechanism for peak load management of commercial web sites
{'venue': 'IEEE Transactions on Computers', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,826
Online-applikationer är sårbara för stöld av känslig information eftersom motståndare kan utnyttja programvara buggar för att få tillgång till privata data, och eftersom nyfikna eller skadliga administratörer kan fånga och läcka data. CryptDB är ett system som ger praktisk och bevisbar sekretess inför dessa attacker för program som stöds av SQL-databaser. Det fungerar genom att utföra SQL-frågor över krypterad data med hjälp av en samling av effektiva SQL-medvetna krypteringssystem. CryptDB kan också kedja krypteringsnycklar till användarlösenord, så att ett dataobjekt kan dekrypteras endast genom att använda lösenordet för en av användarna med tillgång till dessa data. Som ett resultat, en databasadministratör får aldrig tillgång till dekrypterade data, och även om alla servrar äventyras, en motståndare kan inte dekryptera data för någon användare som inte är inloggad. En analys av ett spår av 126 miljoner SQL-frågor från en produktion MySQL-server visar att CryptDB kan stödja operationer över krypterade data för 99,5% av 128,840 kolumner som ses i spåret. Vår utvärdering visar att CryptDB har låga omkostnader, vilket minskar genomströmningen med 14,5% för phpBB, ett webbforum program, och med 26% för frågor från TPC-C, jämfört med omodifierade MySQL. Kedja krypteringsnycklar till användarlösenord kräver 11-13 unika schemaanteckningar för att säkra mer än 20 känsliga fält och 2-7 rader av källkodsändringar för tre fleranvändarwebbapplikationer.
Mest framträdande, CryptDB REF är ett databassystem, med fokus på att utföra SQL-frågor på krypterad data.
6,323,154
CryptDB: protecting confidentiality with encrypted query processing
{'venue': "SOSP '11", 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,827
Abstract-Inter-område oscillationer i bulk kraftsystem är vanligtvis dåligt kontrollerbara med hjälp av lokal decentraliserad kontroll. Forskningsinsatserna på senare tid har syftat till att utveckla strategier för kontroll på bred front som inbegriper kommunikation av fjärrsignaler. Vid konventionell kontroll av stora områden fastställs kontrollstrukturen först och främst på grundval av modalkriterier. I motsats här använder vi det nyligen införda paradigmet sparty-främjande optimal kontroll för att samtidigt identifiera den optimala styrstrukturen och optimera den slutna slingan. För att inducera en sparsam kontroll arkitektur, vi regularisera standard kvadratiska prestandaindex med en -påföljd på feedback-matrisen. De kvadratiska objektiva funktionerna är inspirerade av den klassiska långsamma koherensteorin och syftar till att imitera homogena nätverk utan oscillationer mellan områden. Vi använder New Englands elnätsmodell för att visa att den föreslagna kombinationen av den sparty-främjande kontrolldesignen med de långsamma koherensmålen fungerar nästan lika bra som den optimala centraliserade kontrollen samtidigt som man endast använder sig av en enda bredområdeskommunikationslänk. Utöver denna nominella prestanda visar vi också att vår kontrollstrategi ger gynnsamma robusthetsmarginaler och att den kan användas för att identifiera en gles styrarkitektur för kontrolldesign via alternativa metoder.
Denna teknik tillämpades senare för att identifiera den optimala kontrollstrukturen för områdeskontroll av kraftnät REF.
13,022,991
Sparsity-Promoting Optimal Wide-Area Control of Power Networks
{'venue': 'IEEE Transactions on Power Systems', 'journal': 'IEEE Transactions on Power Systems', 'mag_field_of_study': ['Mathematics', 'Engineering']}
13,828
Sammanfattning av denna webbsida: Att använda sig av ett multihopa akustiskt sensornätverk under vatten (UASN) i ett stort område medför nya utmaningar när det gäller tillförlitliga dataöverföringar och nätverkets överlevnadsförmåga på grund av det begränsade undervattenskommunikationsområdet/bandbredden och den begränsade energin från undervattenssensornoder. För att ta itu med dessa utmaningar och uppnå målen för maximering av data leverans ratio och minimering av energiförbrukning av undervattenssensor noder, föreslår detta dokument en ny undervattens routing system, nämligen AURP (AUV-stödd undervattens routing protokoll), som använder inte bara heterogen akustiska kommunikationskanaler men också kontrollerad rörlighet av flera autonoma undervattensfordon (AUVs). I AURP, de totala dataöverföringarna minimeras genom att använda AUVs som relänoder, som samlar in avkännade data från gateway noder och sedan vidare till diskhon. Dessutom gör kontrollerad rörlighet av AUVs det möjligt att tillämpa en kortdistans hög datahastighet undervattenskanal för överföringar av en stor mängd data. Till det bästa vi vet är detta arbete det första försöket att använda flera AUVs som relänoder i en multi-hop UASN för att förbättra nätverkets prestanda i fråga om dataleverans förhållande och energiförbrukning. Simuleringar, som är införlivade med en realistisk akustikkanalmodell för undervattenskommunikation, utförs för att utvärdera det föreslagna systemets prestanda, och resultaten visar att en hög leveranskvot och låg energiförbrukning kan uppnås.
Författarna föreslog ett system för en AUV-stödd undervattens routing protokoll (AURP) i REF; det använder kontrollerad rörlighet av flera AUVs, samt heterogen akustiska kommunikationskanaler.
2,506,930
AURP: An AUV-Aided Underwater Routing Protocol for Underwater Acoustic Sensor Networks
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']}
13,829
Vi tar itu med problemet med att maximera en okänd submodulär funktion som endast kan nås via bullriga utvärderingar. Vårt arbete motiveras av uppgiften att sammanfatta innehåll, t.ex. bildsamlingar, genom att utnyttja användarnas feedback i form av klick eller betyg. För summering uppgifter med målet att maximera täckning och mångfald, submodulära uppsättning funktioner är ett naturligt val. När den underliggande submodulära funktionen är okänd, kan användarnas feedback ge bullriga utvärderingar av den funktion som vi försöker maximera. Vi tillhandahåller en generisk algoritm - EXPGREEDY - för att maximera en okänd submodulär funktion under kardinalitet begränsningar. Denna algoritm använder sig av en ny prospekteringsmodul -TOPX - som föreslår bra element baserade på adaptiv provtagning bullriga funktionsutvärderingar. TOPX kan rymma olika typer av observationsmodeller såsom värdefrågor och parvisa jämförelser. Vi ger PAC-liknande garantier för kvaliteten och provtagningskostnaden för den lösning som erhålls av EXPGREEDY. Vi visar effektiviteten i vår strategi i en interaktiv, crowdsourced bildsamling summering ansökan.
REF presenterar metoder för att maximera en sekvens av submodulära funktioner i en online-inställning.
14,023,068
Noisy Submodular Maximization via Adaptive Sampling with Applications to Crowdsourced Image Collection Summarization
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
13,830
I detta dokument presenteras ett problemreducerande tillvägagångssätt för att sammanfatta flera dokument: vi föreslår en minskning av problemet med att göra individuella meningar med sina ROUGE-poäng baserade på övervakad inlärning. För sammanfattningen löser vi ett optimeringsproblem där ROUGE poäng av de valda sammanfattning meningar maximeras. I detta syfte härleder vi en approximation av ROUGE-N poäng av en uppsättning meningar, och definiera en principiell diskret optimering problem för meningsval. Matematiska och empiriska bevis tyder på att meningen urval steg är löst nästan exakt, vilket minskar problemet till meningen scoring uppgift. Vi utför en detaljerad experimentell utvärdering av två DUC-dataset för att visa giltigheten av vårt tillvägagångssätt.
Nyligen föreslog Ref att man skulle använda en approximation av ROUGE-N score kombinerat med en ILP-lösare.
17,357,800
Optimizing an Approximation of ROUGE - a Problem-Reduction Approach to Extractive Multi-Document Summarization
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,831
Abstract Step Search, som har studerats och jämförts. Jämförelseprocessen prövas mellan olika videor som skiljer sig åt i kategori, innehåll och objekt. Det konstateras att det finns en avvägning mellan summeringsfaktor och precision under summeringsprocessen.
Summariseringsfaktorn ökades på bekostnad av precision under summeringsprocessen REF.
35,299,038
KEY FRAME EXTRACTION FOR VIDEO SUMMARIZATION USING MOTION ACTIVITY DESCRIPTORS
{'venue': None, 'journal': 'International Journal of Research in Engineering and Technology', 'mag_field_of_study': ['Computer Science']}
13,832
I detta dokument presenterar vi en metod för interaktionskraftsuppskattning som använder visuell information snarare än en kraftsensors. Specifikt föreslår vi en ny djupinlärningsbaserad metod som endast använder sekventiella bilder för att uppskatta interaktionskraften mot ett målobjekt, där objektets form ändras av en extern kraft. Den kraft som appliceras på målet kan uppskattas med hjälp av den visuella formens förändringar. Formskillnaderna i bilderna är dock inte särskilt tydliga. För att ta itu med detta problem formulerar vi en återkommande neural nätverk-baserad djup modell med fullt anslutna lager, som modellerar komplexa temporal dynamik från de visuella representationerna. Omfattande utvärderingar visar att de föreslagna inlärningsmodellerna med framgång uppskattar interaktionskrafterna med hjälp av endast motsvarande sekventiella bilder, särskilt när det gäller tre objekt gjorda av olika material, en svamp, en PET-flaska, en mänsklig arm och ett rör. De krafter som förutses av den föreslagna metoden är mycket lika dem som mäts med hjälp av kraftsensorer.
I REF fokuserade författarna på att förutsäga interaktionskraften med hjälp av visuella förändringar av målobjekten med hjälp av en enkel RNN-baserad metod.
12,487,487
Inferring Interaction Force from Visual Information without Using Physical Force Sensors
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']}
13,833
Anpassning innebär ofta förvärv av ett stort antal genomiska förändringar som uppstår som mutationer hos enskilda individer. I asexuella populationer, kombinationer av mutationer kan fixa endast när de uppstår i samma härstamning, men för populationer där genetisk information utbyts, positiva mutationer kan uppstå i olika individer och kombineras senare. I stora populationer, när produkten av befolkningens storlek N och den totala positiva mutationsfrekvensen U b är stor, kan många nya välgörande alleler separeras i befolkningen samtidigt. Vi beräknar graden av anpassning, v, i flera modeller av sådana sexuella populationer och visar att v är linjär i N U b endast i tillräckligt små populationer. I stora populationer, v ökar mycket långsammare som log N U b. Förefaktorn för denna logaritm, dock, ökar som kvadraten på rekombinationsfrekvensen. Denna accelererande anpassning genom återkombination innebär en stark evolutionär fördel av sex.
I REF undersöktes flera olika rekombinationsformer och det visades att i alla modeller, när befolkningsstorleken är stor, har anpassningshastigheten ett logaritmiskt beroende av N · u (populationens storlek gånger positiv mutationsfrekvens) snarare än linjär.
11,399,398
Rate of Adaptation in Large Sexual Populations
{'venue': None, 'journal': 'arXiv: Populations and Evolution', 'mag_field_of_study': ['Biology', 'Medicine', 'Physics']}
13,834
Abstract-Vi beskriver ett objekt detektionssystem baserat på blandningar av flerskaliga deformerbara delmodeller. Vårt system kan representera mycket varierande objektklasser och uppnå toppmoderna resultat i PASCAL-objektdetekteringsutmaningarna. Även om deformerbara delmodeller har blivit ganska populära, hade deras värde inte visats på svåra riktmärken såsom PASCAL-datamängderna. Vårt system bygger på nya metoder för discriminativ träning med delvis märkta data. Vi kombinerar ett marginalkänsligt tillvägagångssätt för data-mining hårda negativa exempel med en formalism som vi kallar latent SVM. En latent SVM är en omformulering av MI-SVM i termer av latenta variabler. En latent SVM är semikonvex och träningsproblemet blir konvext när latent information specificeras för de positiva exemplen. Detta leder till en iterativ träningsalgoritm som växlar mellan att fixera latenta värden för positiva exempel och optimera den latenta SVM objektivfunktionen.
Till exempel den senaste metoden i REF kombinerade både utseende poäng och den translationella deformation poäng.
3,198,903
Object Detection with Discriminatively Trained Part-Based Models
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
13,835
Abstract-Den exponentiella servern timing kanal är känd för att vara den enklaste, och i viss mening kanoniska, köa timing kanal. Kapaciteten hos denna oändliga minneskanal är känd. Här diskuterar vi praktiska begränsningar i ändlig längd på kodorden och försöker förstå den maximala hastighet som kan uppnås för en målfelsannolikhet. Genom att använda Markov kedjeanalys, visar vi en lägre gräns på den maximala kanalkodning hastighet som kan uppnås på blocklängd n och fel sannolikhet. Gränsen är ungefärlig med C − n − 1/2 σQ −1 ( ) där Q betecknar Q-funktionen och σ 2 är den asymptotiska variansen i den underliggande Markovkedjan. Ett slutet formuttryck för σ 2 ges.
Riedl m.fl. REF ansåg att användningen av den ovan nämnda kanalen med finita-längd kodord och fick en lägre gräns på maximal hastighet uppnåelig.
16,785,725
Finite block-length achievable rates for queuing timing channels
{'venue': '2011 IEEE Information Theory Workshop', 'journal': '2011 IEEE Information Theory Workshop', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
13,836
Abstract-Instrumentera den fysiska världen genom stora nätverk av trådlösa sensorn noder, särskilt för tillämpningar som miljöövervakning av vatten och jord, kräver att dessa noder är mycket små, lätta, otyglade och diskreta. Problemet med lokalisering, d.v.s. att bestämma var en given nod fysiskt befinner sig i ett nätverk är ett utmanande problem, men ändå oerhört viktigt för många av dessa tillämpningar. Praktiska överväganden såsom liten storlek, formfaktor, kostnad och makt begränsningar noder utesluter beroendet av GPS (Global Positioning System) på alla noder i dessa nätverk. I detta dokument granskar vi lokaliseringstekniker och utvärderar effektiviteten av en mycket enkel konnektivitet-metrisk metod för lokalisering i utomhusmiljöer som använder sig av de inneboende radiofrekvens (RF) kommunikationskapacitet av dessa enheter. Ett fast antal referenspunkter i nätverket med överlappande områden för täckning sänder periodiska signaler från beacon. Noder använder en enkel konnektivitetsmätare, som är mer robust för miljövagarier, för att härleda närheten till en given delmängd av dessa referenspunkter. Noder lokaliserar sig själva till centroiden av deras proximata referenspunkter. Noggrannheten i lokaliseringen är då beroende av separationsavståndet mellan två intilliggande referenspunkter och dessa referenspunkters överföringsområde. Initiala experimentella resultat visar att noggrannheten för 90% av våra datapunkter ligger inom en tredjedel av separationsavståndet. Men framtida arbete krävs för att utvidga tekniken till mer belamrade miljöer.
Till exempel utvärderar REF effektiviteten av en enkel konnektivitet metrisk metod för lokalisering i utomhusmiljöer.
771,769
GPS-less Low Cost Outdoor Localization For Very Small Devices
{'venue': 'IEEE Personal Communications Magazine', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,837
Vi föreslår Adaptive Recursive Neural Network (AdaRNN) för målberoende Twitter-klassificering. AdaRNN sprider adaptivt ordens känslor att rikta beroende på sammanhanget och syntaktiska relationer mellan dem. Det består av mer än en sammansättning funktioner, och vi modellerar adaptiv känsla förökningar som fördelningar över dessa sammansättning funktioner. De experimentella studierna visar att AdaRNN förbättrar baslinjemetoderna. Dessutom introducerar vi en manuellt kommenterad datauppsättning för målberoende Twitter-känsloanalys.
Dong m.fl. I Ref föreslogs en målberoende klassificeringsram som lär sig att sprida ordkänslan mot målet beroende på sammanhang och syntaktikstruktur.
3,158,440
Adaptive Recursive Neural Network for Target-dependent Twitter Sentiment Classification
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,838
Medan människor samtalar med chatbots, tenderar de vanligtvis att ställa många frågor, av vilka en betydande del kan besvaras genom att hänvisa till storskaliga kunskapsgrafer (KG). Medan frågesvar (QA) och dialogsystem har studerats självständigt, finns det ett behov av att studera dem noga för att utvärdera sådana verkliga scenarier inför bots som involverar båda dessa uppgifter. I detta syfte introducerar vi uppgiften för Complex Sequential QA som kombinerar de två uppgifterna att (i) besvara faktiska frågor genom komplexa slutsatser över en realistisk storlek KG miljoner enheter, och (ii) lära sig att samtala genom en rad sammanhängande sammankopplade QA par. Genom en arbetsintensiv halvautomatisk process, med intern och crowdsourced arbetare, skapade vi ett dataset med cirka 200K dialoger med totalt 1,6M varv. Till skillnad från befintliga storskaliga QA-datauppsättningar som innehåller enkla frågor som kan besvaras från en enda tuple, kräver dessutom frågorna i våra dialogrutor en större subgraf av KG. Specifikt har vår datauppsättning frågor som kräver logiska, kvantitativa och jämförande resonemang samt deras kombinationer. Detta kräver modeller som kan: (i) tolka komplexa frågor om naturligt språk, (ii) använda konversation sammanhang för att lösa coreferenser och ellips i uttalanden, (iii) be om förtydliganden för tvetydiga frågor, och slutligen (iv) hämta relevanta underbilder av KG för att svara på sådana frågor. Våra experiment med en kombination av toppmodern dialog och QA-modeller visar dock att de uppenbarligen inte uppnår ovanstående mål och är otillräckliga för att hantera sådana komplexa verkliga världsinställningar. Vi anser att denna nya datauppsättning i kombination med de begränsningar av befintliga modeller som rapporteras i detta dokument bör uppmuntra till ytterligare forskning i komplex sekventiell kvalitetssäkring.
REF studerar problemet med sekventiellt svar på frågor och inför en datauppsättning för uppgiften.
19,240,019
Complex Sequential Question Answering: Towards Learning to Converse Over Linked Question Answer Pairs with a Knowledge Graph
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
13,839
Abstrakt. Vi fortsätter en forskning som inleddes i [10, 11] om integritetsbevarande av statistiska databaser. Tänk på en pålitlig server som har en databas med känslig information. Med tanke på en frågefunktion f kartläggning databaser till reals, är det så kallade sanna svaret resultatet av att tillämpa f till databasen. För att skydda integritet, är det sanna svaret störs av tillägg av slumpmässiga buller genereras enligt en noga vald distribution, och detta svar, det sanna svaret plus buller, returneras till användaren. Tidigare arbete fokuserade på fallet med bullriga summor, där f = P i g (xi), där xi betecknar ith raden i databasen och g kartor databasrader till [0, 1]. Vi utökar studien till allmänna funktioner f, Bevisa att integritet kan bevaras genom att kalibrera standardavvikelsen för buller enligt känsligheten för funktionen f. Grovt talat, Detta är den mängd som varje enskilt argument till f kan ändra sin utgång. Den nya analysen visar att för flera specifika tillämpningar behövs betydligt mindre buller än vad som tidigare ansågs vara fallet. Det första steget är en mycket ren karaktärisering av integritet i termer av oskiljaktighet av utskrifter. Dessutom får vi separationsresultat som visar det ökade värdet av interaktiva saniteringsmekanismer över icke-interaktiva.
Dwork m.fl. REF visade att alla frågor kan släppas samtidigt som buller i proportion till den totala känsligheten i frågan.
2,468,323
Calibrating Noise to Sensitivity in Private Data Analysis
{'venue': 'TCC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,840
Java är ett av de mest populära programmeringsspråken för utveckling av bärbara arbetsstationer och serverapplikationer som finns tillgängliga idag. På grund av sin rena design och typsäkerhet blir den också attraktiv inom området inbyggda system. Tyvärr orsakar de dynamiska egenskaperna hos språket och dess rika klassbibliotek betydande overhead när det gäller körtid och minneskonsumtion. Effektiva tekniker för att implementera Java virtuella maskiner som är lämpliga för användning i resursbegränsade miljöer behövs därför. I detta arbete presenterar vi en lösning för mycket begränsade miljöer baserade på CACAO. CACAO är en just-in time kompilering virtuell maskin implementation, kombinerar hög hastighet och liten storlek. Vi har modifierat den ursprungliga versionen av CACAO för att köra utan ett underliggande operativsystem inom bara 1 MB minne. Dessutom presenterar vi en ny teknik för selektiv kompilering av metoder under initieringsfasen av Javaapplikationer i realtid för att förhindra oönskad interaktion mellan dynamisk sammanställning och kritiska uppgifter. Dessutom presenterar vi YARI soft-core som CACAO:s exekveringsplattform inom ett fältprogrammerbart grindsystem. Vi jämför vårt genomförande med två välkända Java-processorer, JOP och Suns picoJava-II, på samma teknik. Även om JOP uppnår en högre klockfrekvens och picoJava-II upptar nästan 4 gånger YARI:s resurser, kan vår lösning överträffa båda med en faktor på upp till 2,8 respektive 2,2.
Det är möjligt att köra CACAO JIT-kompilatorn för MIPS-målet och ett enkelt Java-program inom 1 MB minne REF.
4,956,123
Embedded JIT Compilation with CACAO on YARI
{'venue': '2009 IEEE International Symposium on Object/Component/Service-Oriented Real-Time Distributed Computing', 'journal': '2009 IEEE International Symposium on Object/Component/Service-Oriented Real-Time Distributed Computing', 'mag_field_of_study': ['Computer Science']}
13,841
Befintliga insatser för att definiera och genomföra hälsodatastandarder drivs av frågor som rör vårdens kvalitet, kostnader och kontinuitet, patientsäkerhetsfrågor och önskemål om att påskynda kliniska forskningsresultat till sängs. Presidentens mål för nationellt antagande av elektroniska patientjournaler under det kommande årtiondet, tillsammans med den nuvarande betoningen på translationell forskning, understryker det trängande behovet av datastandarder inom klinisk forskning. I detta dokument granskas motiven och kraven för standardiserade kliniska forskningsdata samt det aktuella läget när det gäller utveckling och antagande av standarder, inklusive luckor och överlappningar inom relevanta områden. Olösta frågor och informatikutmaningar i samband med antagandet av kliniska forskningsdata och terminologistandarder nämns, liksom de samarbeten och aktiviteter som författarna uppfattar som mest benägna att ta itu med dem. III J Är Med Informera Assoc. Under 2007:14:687-696. DOI 10.1197/jamia.M2470. Ansträngningar för att bygga upp en nationell infrastruktur för hälsoinformation (NHII) och stödjande datastandarder måste tillgodose den kliniska forskningens behov. 1 Klinisk forskning, såsom den definieras av National Institutes of Health (NIH) är patientorienterad forskning som bedrivs med människor (eller på material av mänskligt ursprung som kan kopplas till en individ). 2 Klinisk forskning omfattar utredning av mekanismer för människans sjukdom, terapeutiska interventioner, kliniska prövningar, utveckling av ny teknik, epidemiologi, beteendestudier, och utfall och hälso- och sjukvård forskning. Den breda omfattningen av klinisk forskning, i kombination med teknikinfusion, har genererat ökande mängder data, och forskarsamhället måste identifiera strategier för att dela den på ett meningsfullt sätt. NIH:s policy för delning av forskningsdata 3 väcker frågor om hur data ska representeras för datadelning, och gör behovet av kliniska forskningsdatastandarder kritiskt och omedelbart. Datastandarder definieras här som samförståndsspecifikationer för representation av data från olika källor eller inställningar. Standarder är nödvändiga för delning, portabilitet och återanvändning av data. 4 -7 Begreppet standardiserade data innehåller specifikationer för både datafält (-variabler) och värdeuppsättningar (-koder) som kodar data inom dessa fält. Även om den nuvarande datastandarden fokuserar på reglerad forskning (ofta den snävare kontexten av kliniska prövningar) och deras affärsverksamhet (t.ex. säkerhetsrapportering, studierapportering till regulatoriska organ), är det viktigt att nämna att klinisk forskning omfattar många andra typer av forskning, inklusive observations-, epidemiologisk- och resultatforskning samt molekylär- och biologiforskning (t.ex. genetik och biomarkörer för sjukdom). Även om denna diskussion är viktig, behandlar den inte "-omik"-standarderna, 8 utan snarare kliniska, laboratorie-, procedur- och observationsdata som samlats in i samband med kliniska studiebesök. Permening av kliniska forskningsdatastandarder som är harmoniska med kliniska vårdstandarder krävs för att dela patientdata mellan hälso- och sjukvård och forskning om NHII:s ambition. 9 Målen för NHII inkluderar en sömlös integrering av kliniska forskningsdata till/från patientdata till/från populationsdata och befintliga medicinska kunskapsbaser, vilket gör standardiserade data inom klinisk forskning till en hög prioritet. 6,9,10 Interoperabilitet mellan hälso- och sjukvård och klinisk forskning kan skapa möjligheter till ökad patientinskrivning, evidensbaserad medicin och populationsövervakning. I detta dokument beskrivs datastandardernas krav på ämnesuppgifter inom det kliniska forskningsområdet, typen av överlappningar och luckor i den nuvarande standardens täckning, och lyfts fram viktiga informationsutmaningar som kvarstår. Författare: Pediatrik Epidemiology Center (RLR, JK), University of South Florida, Tampa, FL Projektet som beskrivs stöds av Grant Number RR019259 från National Center for Research Resources (NCRR), en del av National Institutes of Health (NIH). Författarna tackar medlemmarna i HL7 och CDISC:s vokabulär- och terminologiteam vars hårda arbete och engagemang gav inspiration till detta dokument samt ledamöterna i RDCRN:s standardiseringskommitté. Författarna tackar också byrån för sällsynta sjukdomar för deras stöd. Projektets innehåll är uteslutande upphovsmännens ansvar och representerar inte nödvändigtvis NCRR:s eller NIH:s officiella åsikter. Författarna är tacksamma för de ingående granskningarna och insiktsfulla kommentarerna från de två anonyma recensenterna, vars bidrag har stärkt värdet och riktigheten i detta manuskript. Det finns flera intressenter (bilaga 1 finns som en online JAMIA tillägg på www.jamia.org) för en enhetlig antagande av datastandarder inom klinisk forskning, inklusive både läkemedelsföretag och tillsynsmyndigheter såsom den amerikanska Food and Drug Administration (FDA) och dess internationella motsvarighet International Conference on Harmonisering of Technical Requirements for Registration of Pharmaceuticals for Human Use (ICH). Andra intressenter är akademiska och statliga kliniska forskare och myndigheter som är stora sponsorer för klinisk forskning inom specificerade områden (t.ex. National Cancer Institute, National Heart, Lung och Blood Institute) och de NIH institut som sponsrar kliniska forskningsagendor (t.ex. National Center for Research Resources, NCRR). På grund av betydelsen av datastandarder vid tillhandahållande av hälso- och sjukvård och federalt finansierad forskning har olika NIH-institut standardiseringsinsatser och särskilda resurser för att undersöka datastandarder inom sina intresseområden. NCRR undersöker effekten av nuvarande statliga standardiseringsinitiativ på breda kliniska forskningsintressen uttryckligen. År 2003, alla federala myndigheter med hälsodata intressen åtagit sig att anta en uppsättning frivilliga data standarder rekommenderas av Consolidated Health Informatics (CHI) initiativ, en amerikansk baserad multi-agency rörelse för hälso-och sjukvård data standarder. 12 Deras rekommenderade standarder för mer än 20 områden av hälso- och sjukvårdsdata har godkänts av Department of Health and Human Services' Office of the National Coordinator for Health Information Technology (ONC). 13 Medan CHI standarder som definierades 2004 har ännu inte i stor utsträckning genomförts i den kommersiella världen, statliga myndigheter, såsom Centers for Medicare and Medicaid Services (CMS) och Veteran's Administration (VA), strävar efter att införliva dem. Vissa CHI-standarder, såsom HL7, var välanvända innan de kallades CHI-standarder, medan andra, såsom SNOMED CT, inte genomfördes i stor utsträckning och deras antagande i federala hälso- och sjukvårdsverksamhet går långsammare. CHI-grupperna för identifiering av standarder från 2004 sköt upp rekommendationerna om många viktiga dataområden, inklusive fysisk undersökning, sjukdomshistoria och negativa händelser, och det är inte klart om ONC:s standardpanel för hälsoinformationsteknik kommer att fortsätta med den agendan. Kliniska forskningsintressen var inte specifikt representerade i CHI-verksamheten 2003-4, men förespråkare för kliniska forskningsbehov i hälsa IT-standarder har en formell närvaro i den nuvarande ONC-verksamheten. National Library of Medicine (NLM) har en ledande och samordnande roll när det gäller att identifiera en sammanflätad uppsättning standarder som helt och hållet skulle tillgodose alla NHII-datarepresentationsbehov. NLM har utvecklat och upprätthåller kunskapskällor och verktyg för att underlätta tillgång till standardterminologier samt för att samordna användningen av dem. 14 År 2003 upphandlade NLM en allmän amerikansk licens för användning av SNOMED CT via deras Uniified Medical Language System (UMLS). UMLS är en multifunktionell resurs som innehåller begrepp och termer från över 100 olika källvokabulärer, och etablerar kopplingar mellan dessa källvokabulärer med dess semantiska nätverk representation av viktiga begrepp och relationer inom den biomedicinska domänen. 15,16 UMLS-verktygen stöder kartläggningen av flera datastandarder till en gemensam uppsättning begrepp via Metathesaurus, 17 och NLM fungerar historiskt i en samordnare och finansiär roll för att skapa nödvändiga kartläggningar över heterogena datastandarder. Dessutom har NLM stött utvecklingen av verktyg för tillgång till och användning av CHI-standarder och för att uppnå interoperabilitet mellan dem. De har finansierat LOINC och särskilda projekt som underlättar myndighetsintressen i standarder, inklusive HL7. Dessutom har NLM utvecklat och levererar RxNorm, en databas över läkemedelskoncept, inklusive den kliniska drogen (läkemedelsväg dos) som är kopplad till FDA:s nya strukturerade produktetiketter (dvs. paketinlägg) ansträngning. ICH är ett samarbete mellan de tillsynsmyndigheter i Europa, Japan och Förenta staterna som bildades 1990 i syfte att harmonisera vetenskapliga och tekniska aspekter av produktregistrering för att eliminera behovet av dubbla tester i utvecklingen av nya läkemedel. ICH har utvecklat flera referensmodeller för det kliniska forskningsdomänen och E2B-specifikationen för dataelement för överföring av enskilda fallsäkerhetsrapporter för alla typer av enskilda fallsäkerhetsrapporter, oavsett källa och destination. 18 E2B-standarden är grunden för att andra grupper av kliniska datastandarder bygger på för att stödja utvecklingen av standardiserade applikationer för elektronisk rapportering av data på kort sikt. De dominerande diskussionsforumen för att gå mot kliniska forskningsdatastandarder som stöder tillämpad användning är Clinical Data Standards Interchange Consortium (CDISC) och Regulated Clinical Research (RCRIM) Technical Committee of Health Level Seven (HL7). Dessa grupper är mycket olika när det gäller medlemskap, organisation och syfte. CDISC-medlemskapet kommer främst från stora läkemedelsbolag över hela världen, men inkluderar även FDA samt representation från statliga organ som VA och NCI. Det omedelbara målet med CDISC är att skapa standarddatamodeller för regulatoriska inlagor. Medan CDISC har berömvärt deltagande i branschen och motivation, är det inte en formell standardutvecklingsorganisation, och det finns en risk att organisationen inte kan tillgodose behoven hos alla intressenter. HL7 är en ideell frivillig organisation tillägnad att producera standarder för kliniska och administrativa data i alla hälsomiljöer, och är en American National Standards Institute (ANSI)-ackrediterad Standards Development Organization (SDO). 19 Liksom alla ANSI-ackrediterade SDO:er följer HL7 en strikt och väldefinierad uppsättning operativa förfaranden som säkerställer samförstånd, öppenhet och intressebalans. Den reglerade tekniska kommittén för klinisk forskningsinformation (RCRIM) delar några av samma mål som CDISC, men företräder även bredare klinisk forskning och patientsäkerhetsintressen. Eftersom HL7 också vänder sig till fler intressenter än enbart kliniska forskare kan tiden för diskussion och godkännande av standarderna vara lång. Denna formella och nödvändiga diskussion och godkännande av att utveckla standarder under hela HL7 ökar sannolikheten för att de standarder som definieras i tekniska kommittéer och särskilda intressegrupper som RCRIM, kommer att vara 688 av gäst den 6 januari 2016 http://jamia.oxfordjournals.org/ Laddas ner från interoperabel, eller harmonisk med, de nya meddelandestandarderna inom andra hälso- och sjukvårdsområden. Både CDISC och HL7 utvecklar modeller för meddelanden eller överföring av data (t.ex. register, rapporter eller datamängder) till regulatoriska organisationer för narkotikaforskning. CDISC-insatsen fokuserar på att bygga formella datamodeller för regulatorisk rapportering (till FDA). Även om nuvarande (2.x) versioner av HL7 använder relativt enkla modeller för att stödja meddelanden i kliniska miljöer, bygger HL7 version 3 (inte allmänt implementerad) på en mycket abstrakt informationsmodell, referensinformationsmodellen (RIM) som är tillräckligt bred och flexibel för att hantera eventuella meddelanden som behövs inom hälso- och sjukvårdsområdet. CDISC utvecklar mer praktiska datamodeller (utformade för mycket snäva, explicita regleringsbehov), med en begränsad uppsättning variabler som behöver kontrollerad vokabulär. Både HL7 och CDISC har terminologiteam eller kontakter med terminologigrupper som har till uppgift att sätta terminologin (eller de kontrollerade värdemängderna) i ankomst- och avgångstiderna för de informationsmodeller som de har utvecklat, men de stora skillnaderna i HL7 och CDISC-modellerna väcker oro för att "ideala" terminologistandarder för varje tillämpning kan skilja sig åt mellan grupperna. Heterogenitet mellan modellerna HL7 och CDISC innebär också en risk för att samma terminologistandarder kan tillämpas på olika sätt i olika tillämpningar. Förutom terminologifrågor är harmoniseringen av HL7 och CDISC-standarder för meddelande-/informationsstruktur, kodning av datatyper och kommunikationskonventioner absolut nödvändig. CDISC och HL7:s RCRIM-grupper inledde ett formellt samarbete 2001 och har åtagit sig att uppnå syntaktisk och semantisk interoperabilitet mellan sina standarder. Det är inte klart om CDISC-datamodellerna och de bredare HL7-meddelandena någonsin kommer att synkroniseras, men det finns lovande arbete med att harmonisera CDISC-labbdatarapporteringsstandarder med HL7 (version 2 och 3)-meddelanden, inklusive användning av LOINC-testkoder inom båda modellerna. Incitamentet att harmonisera modellerna CDISC och HL7 är starkt, även om uppgiften är skrämmande på grund av skillnaderna i komplexitet, konceptualisering och abstraktionsnivåer mellan modellerna. Biomedical Research Integrated Domain Group (BRIDG) bildades 2005 enbart för att koppla samman CDISC:s datarapporteringsmodeller med HL7 RIM. Modellen (BRIDG) är en domänanalysmodell av protokolldriven biomedicinsk och klinisk forskning, utvecklad för att tillhandahålla en omfattande konceptuell modell av det kliniska forskningsdomänen som en grund för harmonisering mellan standarder för informationsmodeller. Domänmodellen är resultatet av arbete från HL7 RCRIM, CDISC, NCI och FDA. BRIDG-modellen har nyligen formellt antagits av både CDISC och HL7 (RCRIM) tekniska kommittén som deras domänanalysmodell och stöder National Cancer Institutes (NCI) cancer Bioinformatics Grid (caBIG). BRIDG-modellen är avsedd att vara den konceptuella ryggraden till vilken alla CDISC- och HL7 RCRIM-utförandemodeller länkar, vilket skapar interoperabla tillämpningar inom och över båda organisationerna. Bevis på koncept och pilotdemonstrationer för denna harmonisering håller på att utvecklas i ett tidigt skede. Även om NCI inte är en formell SDO, har NCI byggt upp en standardinfrastruktur i åratal, erbjuder robusta terminologiresurser, och är en viktig och aktiv deltagare i de flesta kliniska forskningsdatastandarder. NCI har utvecklat den gemensamma terminologi kriterier för biverkningar (CTCAE), en standard för biverkningar (AE), som är kanske den mest omfattande AE klassificering för allmän klinisk forskning, trots dess ursprung i onkologi. NCI har skapat en stark infrastruktur för terminologiska underhåll, kartläggning och åtkomstaktiviteter. 20 NCI fungerar som värd för CDISC-dataelement, värdeuppsättningar och terminologi som de definieras. 21 Dessutom är NCI värd kontrollerad terminologi för FDA. NCI har varit framgångsrik med att standardisera (i viss utsträckning) kliniska forskningsdata inom sina många sponsrade studier, även om de kämpar med de standardluckor och överlappningar som vi beskriver i nästa avsnitt. En av de största utmaningarna när det gäller att fastställa datastandarder för den kliniska forskningen är att förena kraven hos olika utredare och dataanvändare med behovet av gemensamma standarder. Medan enskilda utredare kanske bara vill ha en delmängd av en informationsmodell eller en standardiserad terminologi, behöver kollektiv klinisk forskning terminologi med omfattande täckning, inklusive breda begrepp (t.ex. "onormala nervsystemet fynd") och detaljerade (t.ex. "onormala laterala konjugerade blick"). Vidare skapar arbetsflöden för klinisk forskning krav för att representera viktiga nyanser av kliniska data och forskningsdata, särskilt i regulatoriska sammanhang, som skiljer sig från andra hälso- och sjukvårdsområden. Till exempel, även om biverkningar är kliniska fynd och observationer, de definieras i ett forskningsprotokoll, innebär subjekt deltagande i en studieprocedur (vanligtvis intervention), och innehåller andra semantiska dimensioner (t.ex. tillskrivning, förväntadhet). Den kliniska forskningsdomänen omfattar som helhet data från spektrumet av breda konstruktioner som visas i tabell 1 online. Om det finns en aktuell amerikansk standard listas standarden och organisationen som namnger standarden. Vi karakteriserade om varje konstruktion hade en lucka eller en överlappning i namngivna amerikanska standarder. Konkurrerande standarder listas för konstruktionerna med överlappningar, och potentiella standarder (med åtminstone ett visst relevant innehåll) listas för konstruktionerna med luckor i standardens täckning. Eftersom standardiserade data innehåller specifikationer för både datafält (-variabler) och värdeuppsättningar (-kodningssystem), beskrivs antagandet av standarder av både variabler och värdeuppsättningar för de flesta undersökta konstruktioner. Konceptualiseringar av den kliniska forskningsdomänen (dvs. definition och organisation av konstruktioner) kan baseras på datainnehållstyper (t.ex. kliniska observationer, rapporterade symtom, diagnoser) eller genom arbetsflödesaktiviteter eller artefakter (t.ex. fysisk undersökning, medicinsk historia, biverkningar). I tabell 1 presenterar vi konstruktioner som är relaterade till både datainnehållstyper och arbetsflödesaktiviteter för att passa ihop med hur andra grupper såsom CHI konceptualiserade hälso- och sjukvårdsdata domäner för att godkänna standarder. Vi presenterar tabell 1 som utgångspunkt för att visualisera breda målområden för datastandarder inom klinisk forskning och för att illustrera antalet dataområden som saknas med namngivna standarder ("gaps") eller har en eller flera konkurrerande standarder ("överlappningar"). Vissa kliniska forskningskonstruktioner omfattas av befintliga datastandarder, men det finns viktiga områden som har luckor i standardens täckning. Dessa inkluderar studie beskrivande information (inklusive studien design och randomisering / bländning funktioner), ämnes- och leverantörsidentifierare, kriterier för studie behörighet, ämne disposition deskriptorer (t.ex., berättigade, inskrivna, förlust för uppföljning), studiehändelser (t.ex., baseline besök, uppföljning besök, fysisk undersökning), protokoll avvikelser, medicinska enhet namn och vitala tecken. Även om datastandarder för medicintekniska produkters namn och vitala tecken är relevanta för bredare hälso- och sjukvårdsintressen, är majoriteten av luckorna i kliniska forskningsdatastandarder de som är mycket unika för klinisk forskning. Detta är förståeligt med tanke på att CHI-initiativet främst var inriktat på att namnge datastandarder för tillhandahållande av hälso- och sjukvård. För konstruktioner med standardluckor har vissa (ämnesidentifierare, protokollavvikelser) bara en eller ett fåtal kandidatstandarder och inga uppenbara de facto-standarder med en bred användarbas inom klinisk forskning. Andra konstruktioner med formella standardluckor (studiedeskriptorer, demografi, ämnesfördelning, medicintekniska produkter och vitala tecken) har flera kandidatstandarder och överlappning av standarder är sannolikt i framtiden. En annan lucka, som anges som en separat konstruktion i tabell 1 men som är relevant för alla konstruktionsområden, behövs för att koda saknade data, t.ex. okänd, inte rapporterad, inte bedömd, vägrad osv. Även om detta har tagits upp av "smaken av null" arbete inom HL7 version 3, måste det förenklas och antas genom datainsamling och hantering inom det kliniska forskningsområdet. Det finns en iögonfallande brist på namngivna standarder för strukturering av frågor och fallrapporter, särskilt inom områdena fysisk undersökning, sjukdomshistoria, familjehistoria och kriterier för stödberättigande. Det är viktigt att notera att även om det finns namngivna standarder (dvs. SNOMED CT och MedDRA) för innehållet i dessa verksamhetsområden, 22,23 standarder för hur de används (metadata och frågemodellering) är både viktiga och saknas. Sådana standarder skulle stödja en konsekvent struktur och användning av standardiserade terminologier i en rad olika tillämpningar, inklusive gränssnitt mot elektroniska patientjournaler, folkhälsofrågeformulär, meddelandemodeller som HL7 eller formulär för kliniska forskningsrapporter. Betydelsen av metadata på frågenivå framgår av tillämpningar som NCI:s Cancer Data Standards Repository 20 och CDISC:s Clinical Data Acquisition Standards Harmonization (CDASH) projekt-ett nytt projekt fokuserat på utveckling av datastandarder i fallrapport form design. 21, 17 Vikten av utbyte och återanvändning av federalt-krävda patient / klient bedömning och annat fungerande och funktionshinder innehåll till Centers för Medicare och Medicaid Services (CMS), och andra amerikanska Department of Health and Human Services (DHHS) byråer, resulterade i att detta område på CHI agenda. CHI-standarden (Fall 2006) för området för funktionsnedsättning och funktionsnedsättning 24 innehåller en kombination av datastandarder, inklusive LOINC, för att representera objekt och batterier av objekt på standardiserade federalt nödvändiga patient/kliniska bedömningar och annat handikappinnehåll i hela det federala vårdföretaget. Rekommendationerna föregicks av en DHHS-sponsrad arbetsgrupp som tittade på många av frågorna och fastställde att majoriteten av det kliniska (en hälsorelaterad) innehållet (som gruppen kallade "användbart relaterat" innehåll) i viss utsträckning täcktes av relevanta ordförråd som International Classification for Functional, Disability, and Health (ICH) och SNOMED CT, men att strukturella egenskaper hos frågor, inklusive svarsgrupper, inte representerades väl av rekommenderade ordförråd.
I synnerhet har avsaknaden av en standardbaserad informationsmodell erkänts som ett stort hinder för att uppnå beräkningsbara diagnostiska kriterier REF.
11,303,988
Data Standards in Clinical Research: Gaps, Overlaps, Challenges and Future Directions
{'venue': 'Journal of the American Medical Informatics Association : JAMIA', 'journal': 'Journal of the American Medical Informatics Association : JAMIA', 'mag_field_of_study': ['Computer Science', 'Medicine']}
13,842
Sammanfattning av denna webbsida: Med en snabbt växande volym av frivillig geografisk information (VGI) ökar trenden att använda VGI för att tillhandahålla lokaliseringsbaserade tjänster. I denna studie undersöker vi med hjälp av OpenStreetMap data för att integrera inomhus och utomhus ruttplanering för fotgängare. För att stödja planering av inomhus- och utomhusrutter fokuserar vi på anslutningarna inne i byggnader och föreslår en datamodell som använder OSM primitiva (noder, vägar och relationer) och taggar för att fånga horisontella och vertikala inomhuskomponenter, samt kopplingen mellan inomhus- och utomhusmiljöer. En uppsättning nya metoder utvecklas för att stödja modellering och kartläggning inomhus. Baserat på den föreslagna datamodellen presenterar vi ett arbetsflöde som möjliggör automatisk generering av en routingkurva och ger en algoritm för att beräkna integrerade rutter inomhus-utomhus. Vi tillämpade vår datamodell på en uppsättning testfall. Applikationsresultaten visar kapaciteten hos vår datamodell i modellering av byggda miljöer och dess genomförbarhet för integrering av inomhus- och utomhusnavigering.
Wang och Niu REF diskuterade en datamodell som representerar horisontella och vertikala inomhuskomponenter med hjälp av OpenStreetMap primitiva (noder, vägar, relationer) och taggar.
49,547,725
A Data Model for Using OpenStreetMap to Integrate Indoor and Outdoor Route Planning
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Computer Science', 'Engineering', 'Medicine']}
13,843
Abstract-This article tar itu med lönsamhetsproblem i samband med auto-parallellisering av allmänna ändamål distribuerade data stream processing applikationer. Auto-parallellisering innebär att lokalisera regioner i programmets dataflöde diagram som kan replikeras på körtid för att tillämpa data partitionering, för att uppnå skala. För att göra självparallelliseringen effektiv i praktiken måste lönsamhetsfrågan besvaras: Hur många parallella kanaler ger bäst genomströmning? Svaret på denna fråga ändras beroende på arbetsbelastningsdynamiken och resurstillgången i körtid. I denna artikel föreslår vi en elastisk auto-parallellering lösning som dynamiskt kan justera antalet kanaler som används för att uppnå hög genomströmning utan onödigt slöseri med resurser. Viktigast av allt, vår lösning kan hantera partitionerade stateful operatörer via run-time state migration, som är helt transparent för programutvecklare. Vi tillhandahåller en implementering och utvärdering av systemet på en plattform för bearbetning av industriella dataflöden för att validera vår lösning.
Gedik m.fl. REF föreslår en elastisk autoparallelliseringslösning som dynamiskt kan justera antalet arbetstagare.
33,564
Elastic Scaling for Data Stream Processing
{'venue': 'IEEE Transactions on Parallel and Distributed Systems', 'journal': 'IEEE Transactions on Parallel and Distributed Systems', 'mag_field_of_study': ['Computer Science']}
13,844
Abstract-Tillgänglighet tjänst i många trådlösa nätverk beror på förmågan för nätverksanvändare att etablera och underhålla kommunikationskanaler med hjälp av styrmeddelanden från basstationer och andra användare. En motståndare med kunskap om det underliggande kommunikationsprotokollet kan montera en effektiv överbelastningsattack genom att störa de kommunikationskanaler som används för att utbyta styrmeddelanden. Användningen av spridningsspektrumteknik kan avskräcka en extern motståndare från sådana kontrollkanalers störningsattacker. Men skadliga samverkande insiders eller en motståndare som fångar eller kompromissar systemanvändare inte avskräckas av spridning spektrum, som de vet de nödvändiga spridningssekvenser. När det gäller interna motståndare föreslår vi en ram för system för åtkomst till kontrollkanaler med hjälp av slumpmässig tilldelning av kryptografiska nycklar för att dölja var kontrollkanalerna finns. Vi föreslår och utvärderar mätvärden för att kvantifiera den probabilistiska tillgängligheten av tjänst under kontroll kanal störning av skadliga eller komprometterade användare och visa att tillgången på tjänst försämrar graciöst som antalet samverkande insiders eller komprometterade användare ökar. Vi föreslår en algoritm som kallas GUIDE för identifiering av komprometterade användare i systemet baserat på uppsättningen av kontrollkanaler som är blockerade. Vi utvärderar skattningsfelet med hjälp av GUIDE-algoritmen i form av falsklarm och felfrekvenser i identifieringsproblemet. Vi diskuterar olika design kompromisser mellan robusthet att kontrollera kanal störning och resursutgifter.
För att ta itu med ett liknande problem, Tague et al. REF föreslår ett ramverk för att styra kanalåtkomst, med hjälp av slumpmässig tilldelning av kryptografiska nycklar för att dölja platsen för kontrollkanalerna.
1,207,919
Mitigation of Control Channel Jamming under Node Capture Attacks
{'venue': 'IEEE Transactions on Mobile Computing', 'journal': 'IEEE Transactions on Mobile Computing', 'mag_field_of_study': ['Computer Science']}
13,845
Abstrakt. Denna artikel gäller den uttryckskraft av djup i neurala nät med ReLU aktiveringar och begränsad bredd. Vi är särskilt intresserade av följande frågor: vad är den minsta bredden wmin(d) så att ReLU-nät med bredd wmin(d) (och godtyckligt djup) kan approximera någon kontinuerlig funktion på enheten kuben [0, 1] d aribiträrt väl? För ReLU-nät nära denna minimala bredd, vad kan man säga om det djup som krävs för att approximera en viss funktion? Vi får ett i huvudsak fullständigt svar på dessa frågor för konvexa funktioner. Vår strategi bygger på observationen att, på grund av konvexiteten i ReLU-aktiveringen, ReLU-nät är särskilt väl lämpade för att representera konvexa funktioner. I synnerhet visar vi att ReLU-nät med bredd d + 1 kan approximera alla kontinuerliga konvexa funktioner av d-variabler godtyckligt väl. Dessutom, när vi approximerar konvexa, bitvis affina funktioner med sådana nät, får vi matchande övre och nedre gränser på det önskade djupet, vilket bevisar att vår konstruktion är i huvudsak optimal. Dessa resultat ger sedan kvantitativa djupuppskattningar för graden av approximation av någon kontinuerlig skalarfunktion på den d-dimensionella kuben [0, 1] d av ReLU-nät med bredd d + 3.
Nyligen diskuterar REF den expressiva kraften hos ReLU-nät med begränsad bredd och visar att ett ReLU-nätverk med bredd d+1 kan approximera alla kontinuerliga konvexa funktioner för d-variabler godtyckligt väl.
10,737,109
Universal Function Approximation by Deep Neural Nets with Bounded Width and ReLU Activations
{'venue': 'Mathematics 2019, 7(10), 992', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
13,846
ABSTRACT Med den ökade användningen av ansiktsverifiering har ökad uppmärksamhet ägnats åt deras noggrannhet och säkerhet. För att säkerställa dessa systems noggrannhet och säkerhet föreslås i detta dokument ett krypterat system för ansiktskontroll. I detta papper, ansiktsfunktioner extraheras med hjälp av djupa neurala nätverk och sedan krypteras med Paillier algoritmen och sparas i en datauppsättning. Ramen för hela systemet omfattar tre parter: klienten, dataservern och verifieringsservern. Dataservern sparar krypterade användarfunktioner och användar-ID, verifieringsservern utför verifiering och klienten ansvarar för att samla in en begärandes information och skicka den till servrarna. Informationen överförs mellan parterna som chiffertext, vilket innebär att inga parter känner till de privata nycklarna förutom verifieringsservern. Det föreslagna systemet testas med två djupa konvolutionella neurala nätverk arkitekturer på de märkta ansikten i Wild och Faces94 datauppsättningar. De omfattande experimentella resultaten, inklusive resultat för identifierings- och verifieringsuppgifter, visar att vårt tillvägagångssätt kan öka säkerheten i ett igenkänningssystem med liten noggrannhet. Det föreslagna systemet är därför effektivt både när det gäller säkerhet och hög verifieringsnoggrannhet. INDEX TERMS Face verifiering, Paillier kryptering, konvolutionella neurala nätverk.
Referens Ref föreslog också ett säkert ansiktsverifieringssystem, djupa neurala nätverk används för att extrahera ansiktsfunktioner och två servrar är involverade i detta system, en dataserver lagrar användarens krypterade ansiktsfunktioner och en verifieringsserver används för att utföra ansiktsverifiering.
22,374,832
A Secure Face-Verification Scheme Based on Homomorphic Encryption and Deep Neural Networks
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
13,847
Tanken på en decentraliserad, självorganiserande tjänsteorienterad arkitektur verkar vara mer och mer rimlig än den traditionella registerbaserade arkitekturen med tanke på hur framgångsrik webben är och motviljan mot att ta till sig webbtjänstteknik. Automatiskt klusterering Web Service Beskrivning Språk (WSDL) filer på webben i funktionellt liknande homogena tjänstegrupper kan ses som en bootstrappa steg för att skapa en tjänst sökmotor och samtidigt minska sökområdet för tjänsten upptäckt. I detta dokument föreslås tekniker för att automatiskt samla, upptäcka och integrera funktioner relaterade till en uppsättning WSDL-filer och samla dem i naturligt förekommande servicegrupper. Trots bristen på en gemensam plattform för att bedöma prestanda för webbtjänstkluster upptäckt, våra inledande experiment med verkliga WSDL-filer visade den stora potentialen av de föreslagna teknikerna.
Liu och Wong REF föreslagna tekniker för att samla, upptäcka och integrera funktioner relaterade till en uppsättning WSDL-dokument och gruppera dem i funktionellt liknande homogena tjänstegemenskaper.
38,204,365
Web service clustering using text mining techniques
{'venue': 'IJAOSE', 'journal': 'IJAOSE', 'mag_field_of_study': ['Computer Science']}
13,848
Vi ger de första representation-oberoende hårdhetsresultat för PAC lärande skärningspunkter av halvrymder, en central koncept klass i beräkningslära teori. Våra hårdhetsresultat är härledda från två publika kryptosystem på grund av Regev, som är baserade på den värsta-fall hårdheten av välstuderade lattice problem. Specifikt visar vi att en polynom-tidsalgoritm för PAC inlärning skärningspunkter av n halvrymder (för en konstant > 0) i n dimensioner skulle ge en polynom-tid lösning tõ O(n 1.5 )-uSVP (unique kortaste vektor problem). Vi visar också att PAC lärande skärningspunkter av n låg vikt halvrymder skulle ge en polynom-tid kvantlösning tõ O(n 1.5 )-SVP och Õ(n 1.5 )-SIVP (kortaste vektor problem respektive kortaste oberoende vektor problem, respektive). Genom att göra starkare antaganden om hårdheten hos uSVP, SVP och SIVP visar vi att det inte finns någon polynom-tidsalgoritm för att lära skärningspunkter av log c n halvrymder i n dimensioner, för c > 0 tillräckligt stora. Vårt tillvägagångssätt ger också de första representation-oberoende hårdhetsresultat för att lära polynom storlek djup-2 neurala nätverk och polynom storlek djup-3 aritmetiska kretsar.
Som nämnts tidigare, det viktigaste verktyget vi förlitar oss på för att härleda hårdheten resultatet är representationen oberoende hårdhet resultat för lärande skärningspunkter av halvrymder ges i REF.
5,999,286
Cryptographic Hardness for Learning Intersections of Halfspaces
{'venue': "2006 47th Annual IEEE Symposium on Foundations of Computer Science (FOCS'06)", 'journal': "2006 47th Annual IEEE Symposium on Foundations of Computer Science (FOCS'06)", 'mag_field_of_study': ['Mathematics', 'Computer Science']}
13,849
Åsiktsbildningsprocessen genom syntes och kontrast mellan olika synvinklar har varit föremål för många studier inom nationalekonomi och samhällsvetenskap. I dag manifesterar sig denna process också i sociala nätverk och sociala medier på nätet. Den viktigaste egenskapen hos framgångsrika marknadsföringskampanjer är att de tar hänsyn till en sådan opinionsbildningsdynamik för att skapa en övergripande positiv uppfattning om en specifik informationspunkt, såsom en person, en produkt eller en idé. I detta dokument antar vi en väletablerad modell för social-opinion dynamik och formalisera problemet med kampanjdesign som problemet med att identifiera en uppsättning målpersoner vars positiva åsikt om en informationspunkt kommer att maximera den övergripande positiva åsikten för punkten i det sociala nätverket. Vi kallar detta problem Campaign. Vi studerar komplexiteten i Campaign-problemet och utformar algoritmer för att lösa det. Våra experiment på verkliga data visar effektiviteten och den praktiska nyttan av våra algoritmer.
I REF överväger författarna problemet med att identifiera de individer vars starka positiva uppfattning om en produkt kommer att maximera den övergripande positiva åsikten om produkten.
15,450,775
Opinion Maximization in Social Networks
{'venue': 'Siam International Conference on Data Mining (SDM), 2013', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics']}
13,850