src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
Nuvarande metoder för korrekt identifiering, klassificering och kvantifiering av biotiska och abiotiska påfrestningar i gröda forskning och produktion är främst visuella och kräver specialiserad utbildning. Sådana tekniker hindras dock av subjektivitet till följd av kognitiv variation mellan och intrarater. Detta leder till felaktiga beslut och ett betydande resursslöseri. Här visar vi en maskininlärning ram förmåga att identifiera och klassificera en varierande uppsättning av bladpåfrestningar i sojaböna [Glycine max (L.) Merr.] med anmärkningsvärd exakthet. Vi presenterar också en förklaringsmekanism, med hjälp av top-K hög-upplösning funktionskartor som isolerar de visuella symptom som används för att göra förutsägelser. Denna oövervakade identifiering av visuella symtom ger ett kvantitativt mått på stressens svårighetsgrad, vilket möjliggör identifiering (typ av bladstress), klassificering (låg, medium eller hög stress), och kvantifiering (stresss svårighetsgrad) i en enda ram utan detaljerade symtom annotering av experter. Vi identifierade och klassificerade på ett tillförlitligt sätt flera biotiska (bakterie- och svampsjukdomar) och abiotiska (kemiska skador och näringsbrist) påfrestningar genom att lära av över 25 000 bilder. Den lärda modellen är robust för att ge bilder perturbationer, vilket visar genomförbarhet för hög genomströmning. Vi lade också märke till att den lärda modellen verkar vara agnostisk för arter, vilket till synes visar en förmåga att överföra lärande. Tillgången till en förklarande modell som konsekvent, snabbt och korrekt kan identifiera och kvantifiera bladpåfrestningar skulle få betydande konsekvenser för vetenskaplig forskning, växtförädling och växtproduktion. Den utbildade modellen skulle kunna användas i mobila plattformar (t.ex. obemannade luftfarkoster och automatiserade markscouter) för snabb, storskalig scouting eller som en mobil applikation för realtidsdetektering av stress hos jordbrukare och forskare. växt stress fenotypning med maskininlärning, förklarande djupinlärning, lösning av rater variabilitys, precisionsjordbruk C onventional växt stressidentifiering och klassificering har alltid förlitat sig på mänskliga experter som identifierar visuella symtom som ett sätt att kategorisera (1). Denna process är visserligen subjektiv och felbenägen. Datorseende och maskininlärning har förmågan att lösa detta problem och möjliggör korrekt, skalbar high-throughput fenotyping. Bland maskininlärning metoder, djupt lärande har vuxit fram som en av de mest effektiva tekniker inom olika områden av modern vetenskap, såsom medicinsk avbildning tillämpningar, som har uppnått dermatolog nivå klassificeringsaccuracies för hudcancer (2), i modellering neurala svar och befolkning i visuella kortikala områden i hjärnan (3), och i att förutsäga sekvens särdrag av DNA-och RNA-bindande proteiner (4). På liknande sätt har djupinlärningsbaserade tekniker gjort transformativa demonstrationer av att utföra komplexa kognitiva uppgifter som att uppnå mänsklig nivå eller bättre noggrannhet för att spela Atari spel (5) och även slå en mänsklig expert i spelet Go (6). I detta dokument bygger vi en djupinlärningsmodell som är exceptionellt exakt när det gäller att identifiera en stor klass av sojabönspåfrestningar från röda, gröna, blå (RGB) bilder av sojabönsblad (se bild. 1 )............................................................................................................... Denna typ av modell fungerar dock vanligtvis som en svart-box prediktor och kräver ett hopp om att tro sina förutsägelser. Däremot ger visuell symptombaserad manuell identifiering en förklaringsmekanism [t.ex. synliga kloros och nekros är symptomatiska för järnbristkloros (IDC)] för stressidentifiering. Bristen på "förklarabarhet" är endemisk för de flesta svart-box modeller och utgör en stor flaskhals för deras utbredda acceptans (7). Här försökte vi "titta under huven" på den utbildade modellen för att förklara varje beslut om identifiering och klassificering som fattades. Vi gör det genom att dra ut de visuella signaler eller funktioner som är ansvariga för ett visst beslut. Dessa funktioner är topp-K hög-upplösning funktionskartor lärt av modellen baserat på deras lokala aktiveringsnivåer. Dessa funktioner-som lärs på ett oövervakat sätt- jämförs sedan och korreleras med mänskliga-identifierade symtom på varje stress, vilket ger en inre titt på hur modellen gör sina förutsägelser. Leaf Sample Collection och Data Generation. Vi började med insamlingen av bilder av stressade och friska sojabönsbroschyrer i fält. De märkta uppgifterna samlades in efter ett rigoröst bildprotokoll med hjälp av en standardkamera (se SI-bilagan, avsnitten 1 och 2 för närmare information). Över 25,000 Plant stress identifiering baserad på visuella symtom har huvudsakligen förblivit en manuell övning utförs av utbildade patologer, främst på grund av förekomsten av förbryllande symtom. Men den manuella klassificeringsprocessen är tråkig, tidskrävande och lider av inter- och intrarater variabilitet. Vårt arbete löser sådana problem genom konceptet att förklara djup maskininlärning för att automatisera processen för identifiering av växtstress, klassificering och kvantifiering. Vi konstruerar en mycket exakt modell som inte bara kan leverera utbildad patologisk nivå prestanda utan också förklara vilka visuella symptom som används för att göra förutsägelser. Vi visar att vår metod är tillämplig på en stor variation av biotiska och abiotiska påfrestningar och är överförbar till andra bildförhållanden och växter.
Nyligen, REF föreslog en förklarande djup maskin vision ram för växt stress fenotypning genom att välja top-K högupplösta funktionskartor.
4,951,327
An explainable deep machine vision framework for plant stress phenotyping
{'venue': 'Proceedings of the National Academy of Sciences of the United States of America', 'journal': 'Proceedings of the National Academy of Sciences of the United States of America', 'mag_field_of_study': ['Computer Science', 'Medicine']}
13,548
Vårt arbete föreslår en ny ram för djupt lärande för att uppskatta folkmassans densitet från statiska bilder av mycket täta folkmassor. Vi använder en kombination av djupa och grunda, helt konvolutionella nätverk för att förutsäga densitet kartan för en given publik bild. En sådan kombination används för att effektivt fånga upp både den semantiska informationen på hög nivå (ansikts-/kroppsdetektorer) och de lågnivåfunktioner (blob-detektorer), som är nödvändiga för att man ska kunna räkna i stor skala. Eftersom de flesta crowd dataset har begränsade träningsprover (<100 bilder) och djupinlärningsbaserade metoder kräver stora mängder träningsdata, utför vi flerskalig dataförstärkning. Att förstärka utbildningsproverna på ett sådant sätt hjälper till att vägleda CNN att lära sig skala invarianta representationer. Vår metod är testad på den utmanande UCF CC 50 dataset, och visade sig överträffa toppmoderna metoder.
Boominathan m.fl. I REF föreslogs en ny ram för djupt lärande genom en kombination av djup och ytlig för att ta itu med frågan om variation i skalan för att uppskatta folkmassans densitet för att förutsäga densitetskartan för en viss publikbild.
697,405
CrowdNet: A Deep Convolutional Network for Dense Crowd Counting
{'venue': "MM '16", 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,549
I detta dokument föreslår vi ett distribuerat datainsamlingssystem med hjälp av ett autonomt undervattensfordon (AUV) som arbetar som ett mobilt handfat för att samla in data från ett slumpmässigt distribuerat undervattenssensornätverk där sensornoder samlas runt flera klusterhuvuden. Till skillnad från konventionella datainsamlingssystem där AUV besöker antingen varje nod eller varje klusterhuvud, det föreslagna systemet tillåter AUV att besöka några utvalda noder namngivna sökväg-nodes på ett sätt som minskar den totala överföringskraften hos sensorn noder. Monte Carlo simuleringar utförs för att undersöka prestandan hos det föreslagna systemet jämfört med flera befintliga tekniker som använder AUV i termer av total mängd energiförbrukning, standardavvikelse av varje nods energiförbrukning, latens för att samla in data vid en diskho, och kontrollera overhead. Simuleringsresultat visar att det föreslagna systemet inte bara minskar den totala energiförbrukningen utan också fördelar energiförbrukningen mer enhetligt över nätet, vilket ökar nätets livslängd.
I REF använde författarna en AUV som arbetar som en MS.
17,046,903
A Distributed Data-Gathering Protocol Using AUV in Underwater Sensor Networks
{'venue': 'Sensors', 'journal': 'Sensors', 'mag_field_of_study': ['Medicine', 'Computer Science', 'Engineering']}
13,550
I domänanpassning för neural maskinöversättning, översättning prestanda kan dra nytta av att separera funktioner till domän-specifika funktioner och gemensamma funktioner. I detta dokument föreslår vi en metod för att explicit modellera de två typerna av information inom ramen för encoderdecoder för att utnyttja out-ofdomain data i in-domänutbildning. I vår metod upprätthåller vi en privat kodare och en privat dekoder för varje domän som används för att modellera domänspecifik information. Under tiden inför vi en gemensam kodare och en gemensam dekoder som delas av alla domäner som bara kan ha domänoberoende informationsflöde genom. Dessutom lägger vi till en discriminator till den delade kodaren och använder kontradiktorisk utbildning för hela modellen för att förstärka prestandan av informationsseparation och maskinöversättning samtidigt. Experimentella resultat visar att vår metod kan överträffa konkurrenskraftiga baslinjer i hög grad på flera datauppsättningar.
REF behöll inte bara en privat kodare och en privat dekoder för varje domän, utan införde också en gemensam kodare och en gemensam dekoder som delas av alla domäner.
102,350,939
Improving Domain Adaptation Translation with Domain Invariant and Specific Information
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
13,551
Sammanhangspredikterande modeller (mer känd som inbäddningar eller neurala språk modeller) är de nya barnen på distributionssemantik blocket. Trots surrandet kring dessa modeller saknar litteraturen fortfarande en systematisk jämförelse av de prediktiva modellerna med klassiska, räknavektorbaserade distributionssemantiska metoder. I detta dokument gör vi en så omfattande utvärdering, på ett brett spektrum av lexiska semantiska uppgifter och på många parameterinställningar. Resultatet, till vår egen förvåning, visar att surret är helt berättigat, eftersom de sammanhangspredikterande modellerna får en grundlig och rungande seger mot sina räkna-baserade motsvarigheter.
I en omfattande utvärdering, Baroni et al. REF försäkra sig om att inbäddningar av prediktiva modeller är överlägsna deras räkna-baserade motsvarigheter på ordlikviditet uppgifter.
85,205
Don't count, predict! A systematic comparison of context-counting vs. context-predicting semantic vectors
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,552
I detta dokument föreslås en teknik som stöder processdeltagare i att fatta riskinformerade beslut, i syfte att minska processriskerna. Riskreduktion innebär att sannolikheten för och svårighetsgraden av ett processfel minskar från att inträffa. Med tanke på en process som är utsatt för risker, t.ex. en finansiell process som är utsatt för en risk för ryktesförlust, vi antar denna process och när en process deltagare måste ge input till processen, t.ex. Genom att välja nästa uppgift att utföra eller genom att fylla i ett formulär, uppmanar vi deltagaren med den förväntade risken att ett givet fel kommer att inträffa med tanke på den specifika inputen. Dessa risker förutses genom att man traverserar beslutsträd som genererats från loggar över tidigare processgenomföranden och överväger processdata, inblandade resurser, uppgiftsdurationer och kontextuell information som uppgiftsfrekvenser. Metoden har genomförts i YAWL-systemet och dess effektivitet har utvärderats. Resultaten visar att de processfall som utförs i testerna är klara med betydligt färre fel och med lägre svårighetsgrad, när man tar hänsyn till de rekommendationer som vår teknik ger.
I Ref presenterar författarna till exempel en teknik för att stödja processdeltagare i att fatta riskinformerade beslut i syfte att minska processfel.
2,499,708
Supporting Risk-Informed Decisions during Business Process Execution
{'venue': 'CAiSE', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,553
Mobile-edge computing (MEC) är ett framväxande paradigm för att möta de ständigt ökande kraven på beräkning från mobila applikationer. Genom att avlasta den beräkningsintensiva arbetsbelastningen till MEC-servern kan kvaliteten på beräkningsupplevelsen, t.ex. exekveringslatensen, förbättras avsevärt. Eftersom batterikapaciteten på enheten är begränsad, skulle dock beräkningen avbrytas när batteriets energi tar slut. För att ge tillfredsställande beräkningsprestanda och uppnå grön databehandling är det av stor betydelse att söka förnybara energikällor för att driva mobila enheter via energiskördsteknik. I detta dokument kommer vi att undersöka ett grönt MEC-system med EH-enheter och utveckla en effektiv avlastningsstrategi. Exekveringskostnaden, som tar upp både genomförande latency och uppgiftsfel, antas som prestandamått. En låg-komplexitet online-algoritm, nämligen Lyapunov optimering-baserad dynamisk beräkning offloading (LODCO) algoritm föreslås, som gemensamt beslutar avlastning beslut, CPU-cykel frekvenser för mobilt utförande, och sändningseffekt för beräkning offloading. En unik fördel med denna algoritm är att besluten endast beror på den ögonblickliga sidan information utan att kräva distribution information om begäran om beräkning uppgift, den trådlösa kanalen, och EH processer. Genomförandet av algoritmen kräver bara att lösa ett deterministiskt problem i varje tidsrymd, för vilken den optimala lösningen kan erhållas antingen i sluten form eller genom bisektionssökning. Dessutom visas att den föreslagna algoritmen är asymptotiskt optimal genom noggrann analys. Resultaten av provsimuleringen ska presenteras för att verifiera den teoretiska analysen och validera den föreslagna algoritmens effektivitet. Mobil-edge computing, energi skörd, dynamisk spänning och frekvensskalning, effektstyrning, QoE, Lyapunov optimering. Författarna är med
En lågkomplexitet online algoritm föreslogs i litteratur REF, nämligen den Lyapunov optimering baserad dynamisk beräkning offloading algoritm, som gemensamt beslutar avlastning beslut, CPU-cykel frekvenser för mobilt utförande, och sändningseffekt för beräkning offloading.
14,777,050
Dynamic Computation Offloading for Mobile-Edge Computing with Energy Harvesting Devices
{'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
13,554
I detta dokument presenterar vi ett nytt tillvägagångssätt för att identifiera argumentativa diskursstrukturer i övertygande essäer. Argumentationens struktur består av flera komponenter (dvs. fordringar och lokaler) som är kopplade till argumenterande relationer. Vi betraktar denna uppgift i två på varandra följande steg. För det första identifierar vi argumentens beståndsdelar med hjälp av klassificering i flera klasser. För det andra klassificerar vi ett par argumentkomponenter som antingen stöd eller icke-stöd för att identifiera strukturen av argumenterande diskurs. För båda uppgifterna utvärderar vi flera klassificeringar och föreslår nya funktionsuppsättningar inklusive strukturella, lexiska, syntaktiska och kontextuella funktioner. I våra experiment får vi en makro F1-poäng på 0,726 för att identifiera argumentkomponenter och 0,722 för argumentativa relationer.
Dessutom föreslår Ref modeller för automatiskt erkännande av argumenteringskomponenter i övertygande essäer och identifiering av om de argumenterande komponenterna återspeglar stöd eller icke-stöd.
71,907
Identifying Argumentative Discourse Structures in Persuasive Essays
{'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,555
Vi tränar generativa "upp-konvolutionella" neurala nätverk som kan generera bilder av objekt som ges objektstil, synvinkel och färg. Vi utbildar nätverken på renderade 3D-modeller av stolar, bord och bilar. Våra experiment visar att nätverken inte bara lär sig alla bilder utan snarare hittar en meningsfull representation av 3D-modeller som gör det möjligt för dem att bedöma likheten mellan olika modeller, interpolera mellan givna vyer för att generera de saknade, extrapolera vyer och uppfinna nya objekt som inte finns i den utbildning som sätts genom rekombinering av utbildningsinstanser, eller till och med två olika objektklasser. Dessutom visar vi att sådana generativa nätverk kan användas för att hitta korrespondenser mellan olika objekt från datasetet, som överträffar befintliga strategier för denna uppgift.
Till exempel, REF träna en ConvNet för att generera bilder av 3D-modeller, med tanke på en modell ID och synvinkel.
8,152,666
Learning to Generate Chairs, Tables and Cars with Convolutional Networks
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
13,556
Webbsökmotorer idag visar oftast resultat som en lista över titlar och korta snippets som sammanfattar hur de hämtade dokumenten är relaterade till frågan. Den senaste tidens forskning tyder dock på att längre sammanfattningar kan vara att föredra för vissa typer av frågor. I detta dokument presenteras empiriska belägg för att domare kan förutsäga lämpliga längder på sökresultatet och att uppfattningar om kvaliteten på sökresultatet kan påverkas av att dessa längder varierar. Dessa resultat har viktiga konsekvenser för presentationen av sökresultat, särskilt för frågor om naturligt språk.
Kaisser m.fl. REF fann att snippets längd bör variera beroende på typ av fråga, vilket ger bevis för att användarna kan förutsäga lämplig snippets längd och att deras uppfattning om sökresultatets kvalitet påverkas i enlighet därmed.
5,549,766
Improving Search Results Quality by Customizing Summary Lengths
{'venue': 'Annual Meeting Of The Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,557
Abstract-Nows, högpresterande transaktionsbearbetning program körs i allt högre grad på multisocket multicore servrar. Sådana arkitekturer uppvisar icke-uniforma minnesåtkomst latens samt icke-uniforma trådkommunikationskostnader. Tyvärr är traditionella system för delad databashantering utformade för enhetliga kommunikationshastigheter mellan huvudstäderna. Detta orsakar oförutsägbara access latenser i den kritiska vägen. Brist på datalokalisering kan vara en mindre olägenhet för system med färre än 4 processorer, men det blir en allvarlig skalbarhetsbegränsning för större system på grund av tillgång till centraliserade datastrukturer. I detta dokument föreslår vi ATraPos, en lagringshanterare design som är medveten om de icke-uniforma åtkomst latenser av multisocketsystem. ATraPos uppnår god datalokalitet genom att noggrant partitionera data och interna datastrukturer (t.ex. tillståndsinformation) till tillgängliga processorer och genom att tilldela trådar till specifika partitioner. Dessutom anpassar ATraPos dynamiskt till arbetsbelastningsegenskaperna, dvs. när arbetsbelastningen ändras upptäcker ATraPos förändringen och reviderar automatiskt datapartitioneringen och trådplaceringen för att passa de nuvarande åtkomstmönstren och hårdvarutopologin. Vi prototyperar ATraPos ovanpå en lagringsansvarig med öppen källkod Shore-MT och vi presenterar en detaljerad experimentell analys med både syntetiska och standard (TPC-C och TATP) riktmärken. Vi visar att ATraPos uppvisar prestandaförbättringar av en faktor som sträcker sig från 1,4 till 6,7x för en bred samling av transaktionsbelastningar. Dessutom visar vi att systemet med adaptiv övervakning och uppdelning av ATraPos innebär en försumbar kostnad, samtidigt som det gör det möjligt för systemet att dynamiskt och graciöst anpassa sig när arbetsbördan förändras.
ATraPos REF, som bygger på PLP, är en lagringshanterare design som är medveten om de icke-uniforma åtkomst latenser av multisocketsystem.
12,976,945
ATraPos: Adaptive transaction processing on hardware Islands
{'venue': '2014 IEEE 30th International Conference on Data Engineering', 'journal': '2014 IEEE 30th International Conference on Data Engineering', 'mag_field_of_study': ['Computer Science']}
13,558
Flera befintliga volymåtergivningsalgoritmer fungerar genom att faktorisera visningsomvandlingen till en 3D-skjuvning parallell med dataskivorna, en projektion för att bilda en mellanliggande men förvrängd bild, och en 2D-varp för att bilda en icke snedvriden slutlig bild. Vi utökar denna klass av algoritmer på tre sätt. Först beskriver vi en ny objektorder renderingsalgoritm baserad på faktoriseringen som är betydligt snabbare än publicerade algoritmer med minimal förlust av bildkvalitet. Shear-warp factorizations har egenskapen att rader av voxels i volymen är i linje med rader av pixlar i den mellanliggande bilden. Vi använder detta faktum för att konstruera en scanline-baserad algoritm som passerar volymen och den mellanliggande bilden i synkronisering, dra nytta av den rumsliga samstämmighet som finns i båda. Vi använder rumsliga datastrukturer baserade på run-long kodning för både volym och mellanbild. Vår implementering körs på en SGI Indigo arbetsstation ger en 2563 voxel medicinska data i en sekund. Vår andra förlängning är en saxwarp factorization för perspektiv tittar transformationer, och vi visar hur vår rendering algoritm kan stödja denna förlängning. För det tredje inför vi en datastruktur för kodning av rumslig samstämmighet i oklassificerade volymer (dvs. Skalarfält utan förberäknad opacitet). I kombination med vår sax-warp renderingsalgoritm gör denna datastruktur att vi kan klassificera och återge en volym på 2563 Voxel på tre sekunder. Metoden sträcker sig till att stödja blandade volymer och geometri och är parallelliserbar.
Principen liknar skjuv-varp algoritm REF.
1,266,012
Fast volume rendering using a shear-warp factorization of the viewing transformation
{'venue': "SIGGRAPH '94", 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,559
För närvarande har flera av de högpresterande processorer som används i ett PC-kluster en DVS-arkitektur (Dynamisk spänningsskalning) som dynamiskt kan skala processorspänning och frekvens. Adaptiv schemaläggning av spänningen och frekvensen gör det möjligt för oss att minska strömavledningen utan en avmattning av prestandan under kommunikationen och minnesåtkomsten. I detta dokument föreslår vi en metod för profilerad optimering av effektprestanda genom DVS schemaläggning i ett högpresterande PC-kluster. Vi delar upp programgenomförandet i flera regioner och väljer den bästa växeln för effekteffektivitet. Att välja den bästa växeln är inte enkelt eftersom omkostnaderna för DVS övergången inte är gratis. Vi föreslår en optimeringsalgoritm för att välja en växel med hjälp av exekvering och effektprofil genom att ta hänsyn till övergången overhead. Vi har byggt och konstruerat ett power-profilsystem, PowerWatch. Med detta system undersökte vi effektiviteten hos vår optimeringsalgoritm på två typer av kraftskalbara kluster (Crusoe och Turion). Enligt resultaten från referenstester har vi uppnått nästan 40 procents minskning av EDP (energidämpande produkt) utan påverkan på prestanda (mindre än 5 procent) jämfört med resultat som använder standardurfrekvensen.
I REF presenteras en metod för profilbaserad effektoptimering.
9,669,270
Profile-based optimization of power performance by using dynamic voltage scaling on a PC cluster
{'venue': 'Proceedings 20th IEEE International Parallel & Distributed Processing Symposium', 'journal': 'Proceedings 20th IEEE International Parallel & Distributed Processing Symposium', 'mag_field_of_study': ['Computer Science']}
13,560
Abstract-Vi definierar och studerar schemaläggning komplexiteten i trådlösa nätverk, som uttrycker den teoretiskt uppnåeliga effektiviteten av MAC skikt protokoll. Med tanke på en uppsättning förfrågningar om kommunikation i godtyckliga nätverk, beskriver schemaläggning komplexiteten den tid som krävs för att framgångsrikt schemalägga alla förfrågningar. Den mest grundläggande och viktiga nätverksstrukturen i trådlösa nätverk är konnektivitet, vi studerar schemaläggning komplexiteten i konnektivitet, dvs. den minimala tid som krävs tills en ansluten struktur kan schemaläggas. I detta dokument, vi bevisar att schemaläggning komplexiteten av konnektivitet växer bara polylogaritmiskt i antalet noder. Specifikt presenterar vi en ny schemaläggningsalgoritm som framgångsrikt schemalägger en starkt ansluten uppsättning länkar i tid O(log 4 n) även i godtyckliga värsta-fall-nätverk. Å andra sidan bevisar vi att standard MAC lager eller schemaläggning protokoll kan utföra mycket värre. I synnerhet har alla protokoll som antingen använder en enhetlig eller linjär (en nods sändningseffekt står i proportion till den minsta effekt som krävs för att nå den avsedda mottagaren) krafttilldelningen en (n) schemaläggningskomplex i värsta fall, även för enkla kommunikationsförfrågningar. Däremot tillåter vår polylogaritmiska schemaläggningsalgoritm många samtidiga överföringar genom att använda ett explicit formulerat icke-linjärt krafttilldelningsschema. Våra resultat visar att det inte finns några teoretiska skalbarhetsproblem när det gäller schemaläggning av överföringsförfrågningar även i stora, värsta nät, vilket ger ett intressant komplement till de mer pessimistiska gränserna för kapaciteten i trådlösa nät. Alla resultat baseras på den fysiska kommunikationsmodellen, som tar hänsyn till att signaltonoise plus interferens ratio (SINR) vid en mottagare måste ligga över ett visst tröskelvärde om överföringen ska tas emot korrekt.
I dokumentet Ref studerar schemaläggning komplexiteten i att ansluta ett visst antal noder som ligger på godtyckliga positioner av vissa kommunikationsträd.
146,982
The Complexity of Connectivity in Wireless Networks
{'venue': 'Proceedings IEEE INFOCOM 2006. 25TH IEEE International Conference on Computer Communications', 'journal': 'Proceedings IEEE INFOCOM 2006. 25TH IEEE International Conference on Computer Communications', 'mag_field_of_study': ['Computer Science']}
13,561
Vector Space Models (VSMs) representerar ordbetydelser som punkter i ett utrymme med höga dimensioner. VSM:er skapas vanligtvis med hjälp av en stor textkorpora, och representerar så ordsemantik som observeras i text. Vi presenterar en ny algoritm (JNNSE) som kan innehålla ett mått av semantik som inte tidigare använts för att skapa VSM: hjärnaktiveringsdata registreras medan människor läser ord. Den resulterande modellen drar nytta av de kompletterande styrkor och svagheter av corpus och hjärnaktiveringsdata för att ge en mer fullständig representation av semantik. Utvärderingar visar att modellen 1) matchar ett beteendemått av semantik närmare, 2) kan användas för att förutsäga corpus data för osynliga ord och 3) har prediktiv kraft som generaliserar över hjärnan avbildning teknik och över försökspersoner. Vi anser att modellen på så sätt är en mer trogen representation av mentala ordförråd.
REF visade att integrering av textvektorrymdmodeller med hjärnaktiveringsdata när människor läser ord uppnår bättre korrelation till beteendedata än modeller av en modalitet.
10,030
Interpretable Semantic Vectors from a Joint Model of Brain- and Text- Based Meaning
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Medicine']}
13,562
Vi föreslår en ram för djupinlärning för modellering av komplexa högdimensionella densiteter via ickelinjär oberoende komponentskattning (NICE). Det bygger på tanken att en bra representation är en där data har en distribution som är lätt att modellera. För detta ändamål lär man sig en icke-linjär deterministisk omvandling av data som kartlägger den till ett latent utrymme för att få den omvandlade datan att överensstämma med en faktoriserad fördelning, d.v.s., vilket resulterar i oberoende latenta variabler. Vi parametriserar denna omvandling så att beräkning av bestämningsfaktorn för den Jacobian och invers Jacobian är trivialt, men vi upprätthåller förmågan att lära sig komplexa icke-linjära transformationer, via en sammansättning av enkla byggstenar, var och en baserad på ett djupt neuralt nätverk. Utbildningskriteriet är helt enkelt den exakta log-likelihood, som är dragbar, och opartiska förfäder provtagning är också lätt. Vi visar att detta tillvägagångssätt ger bra generativa modeller på fyra bilddataset och kan användas för inpainting.
REF utvecklar flödesbaserade generativa modeller med afffinomvandlingar för att göra Jacobians beräkning effektiv.
13,995,862
NICE: Non-linear Independent Components Estimation
{'venue': 'ICLR 2015', 'journal': 'arXiv: Learning', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
13,563
Vi föreslår en enkel tvåstegsmetod för att påskynda konvolutionslager inom stora konvolutionella neurala nätverk baserat på tensor sönderdelning och diskriminativ finjustering. Med tanke på ett lager, använder vi icke-linjära minst kvadrater för att beräkna en låg-rank CP-dekomposition av 4D-konvolution kärna tensor till en summa av ett litet antal rank-en tensorer. I det andra steget används denna nedbrytning för att ersätta det ursprungliga konvolutionslagret med en sekvens av fyra konvolutionslager med små kärnor. Efter en sådan ersättning är hela nätverket finjusterat på träningsdata med hjälp av standard backpropagation process. Vi utvärderar detta tillvägagångssätt på två CNNs och visar att det ger större CPU hastigheter på bekostnad av lägre noggrannhet sjunker jämfört med tidigare metoder. För 36-klass teckenklassificering CNN, vår strategi får en 8,5x CPU hastighetsökning av hela nätverket med endast mindre noggrannhet nedgång (1% från 91% till 90%). För den vanliga ImageNet arkitekturen (AlexNet), påskyndar inflygningen upp det andra konvolutionsskiktet med en faktor på 4x till priset av 1% ökning av den totala top-5 klassificeringsfel.
Lebedev m.fl. REF införde en tvåstegsmetod för att påskynda konvolutionsskikt inom stora CNN baserat på tens eller nedbrytning och diskriminerande finjustering.
15,002,492
Speeding-up Convolutional Neural Networks Using Fine-tuned CP-Decomposition
{'venue': 'ICLR 2015', 'journal': 'arXiv: Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
13,564
För att erhålla kausala slutsatser som är objektiva, och därför har den bästa chansen att avslöja vetenskapliga sanningar, noggrant utformade och utförda randomiserade experiment anses i allmänhet vara guldstandarden. Observationsstudier däremot är i allmänhet fulla av problem som äventyrar varje påstående om objektivitet i de resulterande orsakssambanden. Avhandlingen här är att observationsstudier måste vara noggrant utformade för att approximera randomiserade experiment, i synnerhet, utan att undersöka några slutliga resultatdata. Ofta måste en uppsättning kandidatdata avvisas som otillräcklig på grund av brist på data om viktiga kovariater, eller på grund av brist på överlappning i fördelningen av viktiga kovariater mellan behandlings- och kontrollgrupper, ofta avslöjas genom noggranna analys av benägenheten för poäng. Ibland måste mallen för det ungefärliga randomiserade experimentet ändras, och användningen av den huvudsakliga stratifieringen kan vara till hjälp för att göra detta. Dessa frågor diskuteras och illustreras med hjälp av ramen för möjliga resultat för att definiera orsakssamband, vilket i hög grad klargör kritiska frågor.
Randomiserade experiment är en guldstandard för kausal inference REF; dock är mycket av tillgängliga data för kausal inference observational, där försöksledaren inte kontrollerar randomiseringsmekanismen.
18,380,673
For objective causal inference, design trumps analysis
{'venue': 'Annals of Applied Statistics 2008, Vol. 2, No. 3, 808-840', 'journal': None, 'mag_field_of_study': ['Mathematics']}
13,565
Produktrecensioner som publiceras på onlineshopping webbplatser varierar kraftigt i kvalitet. I detta dokument behandlas problemet med att upptäcka recensioner av produkter av låg kvalitet. Tre typer av fördomar i den befintliga utvärderingsstandarden för produktrecensioner upptäcks. För att bedöma kvaliteten på produktrecensioner, en uppsättning specifikationer för att bedöma kvaliteten på recensioner först definieras. Ett klassificeringsbaserat tillvägagångssätt föreslås för att upptäcka översyner av låg kvalitet. Vi tillämpar det föreslagna tillvägagångssättet för att öka åsiktssammanfattningen i en tvåstegsram. Experimentella resultat visar att det föreslagna tillvägagångssättet på ett effektivt sätt (1) diskriminerar granskningar av låg kvalitet från dem av hög kvalitet och (2) förstärker uppgiften att sammanfatta åsikter genom att upptäcka och filtrera recensioner av låg kvalitet.
Liu m.fl. I Ref föreslogs en metod för att upptäcka översyner av låg kvalitet för att förbättra åsiktssammanfattningens kvalitet.
18,196,068
Low-Quality Product Review Detection in Opinion Summarization
{'venue': '2007 Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning (EMNLP-CoNLL)', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,566
I detta dokument presenteras en statistiskt optimal lösning på problemet Perspective-n-Point (PnP). Många lösningar på PnP-problemet är geometriskt optimala, men tar inte hänsyn till osäkerheten i observationerna. Dessutom skulle det vara önskvärt att ha en intern uppskattning av noggrannheten i kamerans uppskattade rotations- och översättningsparametrar. Därför föreslår vi en ny lösning med största sannolikhet på PnP-problemet, som omfattar osäkerheter i fråga om bildobservationer och som samtidigt är kapabel i realtid. Vidare är den presenterade metoden allmän, liksom fungerar med 3D riktning vektorer i stället för 2D-bildpunkter och kan därmed hantera godtyckliga centrala kameramodeller. Detta uppnås genom att projicera (och därmed minska) kovariansmatriserna för observationerna till motsvarande vektor tangentutrymme.
MLPNP REF använder bildpunkter osäkerheter för att presentera en ny lösning med maximal sannolikhet för PnP-problemet.
14,704,843
MLPnP - A Real-Time Maximum Likelihood Solution to the Perspective-n-Point Problem
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
13,567
Att samla data genom att identifiera en undergrupp av representativa exempel är viktigt för att bearbeta sensoriska signaler och upptäcka mönster i data. Sådana "exemplars" kan hittas genom att slumpmässigt välja en första delmängd av datapunkter och sedan iterativt förfina den, men detta fungerar bra endast om det ursprungliga valet är nära en bra lösning. Vi uppfann en metod som kallas "affinitetsförökning", som tar som indatamått av likhet mellan par av datapunkter. Realvärderade meddelanden utbyts mellan datapunkter tills en högkvalitativ uppsättning exemplarer och motsvarande kluster gradvis dyker upp. Vi använde affinitet för att samla bilder av ansikten, upptäcka gener i mikroarray data, identifiera representativa meningar i detta manuskript, och identifiera städer som effektivt nås av flygbolag resor. Affinitetsförökning fann kluster med mycket lägre fel än andra metoder, och det gjorde det på mindre än hundradels tid. C lysterdata baserat på ett mått på likhet är ett kritiskt steg i vetenskaplig dataanalys och i tekniska system. En gemensam metod är att använda data för att lära sig en uppsättning centra sådan att summan av kvadratfel mellan datapunkter och deras närmaste centra är liten. När centra väljs ut från faktiska datapunkter kallas de "exemplars". Den populära k-centra klusterteknik (1) börjar med en första uppsättning slumpmässigt utvalda exemplars och iterativt förfinar denna uppsättning för att minska summan av kvadratfel. k-centers klusterbildning är ganska känslig för det första urvalet av exemplars, så det brukar köras om många gånger med olika initieringar i ett försök att hitta en bra lösning. Detta fungerar dock endast bra när antalet kluster är litet och chanserna är goda att åtminstone en slumpmässig initiering är nära en bra lösning. Vi intar en helt annan hållning och inför en metod som samtidigt betraktar alla datapunkter som potentiella exemplarer. Genom att titta på varje datapunkt som en nod i ett nätverk har vi utarbetat en metod som rekursivt överför verkligt värderade meddelanden längs nätverkets kanter tills en bra uppsättning exemplarer och motsvarande kluster dyker upp. Som beskrivits senare uppdateras meddelanden på grundval av enkla formler som söker efter minima av en lämpligt vald energifunktion. Vid vilken tidpunkt som helst återspeglar omfattningen av varje meddelande den nuvarande affinitet som en datapunkt har för att välja en annan datapunkt som sitt exempel, så vi kallar vår metod "affinitetsförökning". Figur 1A visar hur kluster gradvis uppstår under meddelandepasseringsförfarandet.
Affinitetsförökning REF är en klustermetod baserad på meddelande som passerar mellan datapunkter.
6,502,291
Clustering by passing messages between data points
{'venue': 'Science', 'journal': None, 'mag_field_of_study': ['Medicine', 'Computer Science']}
13,568
Abstrakt. Taxonomisk kunskap ger varje organismgrupp ett vetenskapligt namn och är därför oumbärlig information för att förstå den biologiska mångfalden. De olika perspektiven på klassificering av organismer och förändringar i taxonomisk kunskap har dock lett till inkonsekventa klassificeringsuppgifter mellan olika databaser och databaser. För att få en exakt förståelse för taxonomi måste man integrera relevanta data i taxonomiska databaser. Detta är svårt att fastställa på grund av tvetydigheten i tolkningen av taxonomin. De flesta forskare i tidigare skeden använde tekniken Linked Open Data (LOD) för att etablera länkar i taxonomiövergång. De förbisåg dock taxas tidsmässiga representation och underliggande kunskap om förändringen i taxonomi, så det är svårt för inlärare att få perspektiv på hur vissa identifierare av taxa är kopplade. I detta syfte syftar denna forskning till att utveckla en modell för att presentera och bevara förändringen i taxonomisk kunskap i ramen för resursbeskrivning (RDF). Den föreslagna modellen drar särskilt nytta av att koppla samman Internetresurser som representerar taxa, presentera historisk information om taxa och bevara bakgrundskunskapen om förändringen av taxonomisk kunskap för att möjliggöra en bättre förståelse av organismer. Vi implementerar en prototyp för att visa genomförbarheten och prestandan i vår strategi. Resultaten visar att den föreslagna modellen kan hantera olika praktiska fall av förändringar i taxonomiska verk och ger öppen och korrekt tillgång till länkade data för biologisk mångfald.
Chawuthai m.fl. I Ref föreslogs en modell som underlättar förståelsen av organismer.
33,662,828
Presenting and preserving the change in taxonomic knowledge for linked data
{'venue': 'Semantic Web', 'journal': 'Semantic Web', 'mag_field_of_study': ['Philosophy', 'Computer Science']}
13,569
Vi föreslår en ny hybridautomatmodell som kan beskriva både kontinuerligt och diskret beteende. Modellen, som utökar den tidsinställda automaton modellen av [33, 42] och fas övergångssystem modeller av [36, 2], möjliggör kommunikation mellan komponenter med hjälp av både delade variabler och delade åtgärder. De viktigaste bidragen i detta dokument är: 1) en definition av hybrida automata och ett genomförandeförhållande baserat på hybridspår, 2) en definition av en simulering mellan hybrida automata och ett bevis på att förekomsten av en simulering innebär ett genomförandeförhållande, 3) en definition av sammansättning och döljande verksamhet på hybrida automata och ett bevis på att dessa verksamheter respekterar genomförandeförhållandet, 4) en definition av hybrid I/O automata, som specialiserar hybrida automata genom en ytterligare åtskillnad mellan input och output, och ett bevis på att resultaten av simuleringssamband, sammansättning och gömställen för över till denna nya inställning, och (5) en definition av mottaglighet för hybrid I/O automata och ett bevis på att, förutsatt att vissa kompatibilitetsvillkor, mottaglighet bevaras genom sammansättning.
Hybrid I/O automata REF utökar hybridautomata med en uppfattning om yttre beteende.
6,680,019
Hybrid I/O Automata
{'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,570
Abstrakt. Vi föreslår en ny Connectionist Text Proposition Network (CTPN) som exakt lokaliserar textlinjer i naturlig bild. CTPN upptäcker en textrad i en sekvens av textförslag i finskala direkt i konvolutionella funktionskartor. Vi utvecklar en vertikal ankarmekanism som tillsammans förutser placering och text/icke-textpoäng för varje förslag med fast bredd, vilket avsevärt förbättrar lokaliseringsnoggrannheten. De sekventiella förslagen är naturligt sammankopplade med ett återkommande neuralt nätverk, som sömlöst införlivas i det konvolutionella nätverket, vilket resulterar i en end-to-end trainingable modell. Detta gör det möjligt för CTPN att utforska rik kontextinformation av bild, vilket gör det kraftfullt att upptäcka extremt tvetydig text. CTPN fungerar tillförlitligt på flerskalig och flerspråkig text utan vidare efterbehandling, vilket avviker från tidigare bottom-up-metoder som kräver flerstegs postfiltrering. Den uppnår 0,88 och 0,61 F-mått på riktmärkena för ICDAR 2013 och 2015 och överträffar de senaste resultaten [8, 35] med stor marginal. CTPN är beräkningseffektiv med 0,14s/bild, genom att använda den mycket djupa VGG16 modellen [27]. Online demo finns på: http://textdet.com/.
Tian m.fl. REF utvecklar en vertikal ankarmekanism och föreslår ett nätverk för anslutning av textförslag (CTPN) för att korrekt lokalisera textrader i bilder.
14,728,290
Detecting Text in Natural Image with Connectionist Text Proposal Network
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
13,571
Att lära sig navigera i komplexa miljöer med dynamiska element är en viktig milstolpe i utvecklingen av AI-agenter. I detta arbete formulerar vi navigationsfrågan som ett förstärkande inlärningsproblem och visar att dataeffektivitet och uppgiftsprestanda kan förbättras dramatiskt genom att förlita sig på ytterligare hjälpuppgifter som utnyttjar multimodala sensoriska ingångar. I synnerhet överväger vi att gemensamt lära sig det måldrivna förstärka lärandet problem med extra djup förutsägelse och slinga stängning klassificering uppgifter. Detta tillvägagångssätt kan lära sig att navigera från rå sensorisk ingång i komplicerade 3D labyrinter, närmar sig mänsklig nivå prestanda även under förhållanden där målet platsen ändras ofta. Vi ger detaljerad analys av agentens beteende 1, dess förmåga att lokalisera, och dess nätverk aktivitetsdynamik, visar att agenten implicit lär sig viktiga navigerings förmågor.
Mirowski m.fl. REF förbättrar navigeringsprestandan genom gemensam utbildning med hjälpuppgifter, t.ex. djupprognoser från RGB och detektering av stängning av slingor.
13,298,214
Learning to Navigate in Complex Environments
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
13,572
Modern maskininlärningsteknik ger robusta metoder för datadriven modellering och kritisk informationsextrahering, medan mänskliga experter har fördelen av att ha hög intelligens och domänspecifik expertis. Vi kombinerar kraften hos de två för anomali upptäckt i GPS-data genom att integrera dem genom en visualisering och människa-dator interaktionsgränssnitt. I det här dokumentet introducerar vi GPSvas (GPS Visual Analytics System), ett system som upptäcker avvikelser i GPS-data med hjälp av visuell analys: en villkorlig slumpmässig fält (CRF) modell används som maskininlärning komponent för anomali upptäckt i strömmande GPS-spår. En visualiseringskomponent och ett interaktivt användargränssnitt byggs för att visualisera dataströmmen, visa signifikanta analysresultat (dvs. anomalier eller osäkra predikationer) och dold information som extraheras av anomaliens detektionsmodell, vilket gör det möjligt för mänskliga experter att observera databeteendet i realtid och få insikter i dataflödet. Mänskliga experter ger vidare vägledning till maskininlärningsmodellen genom interaktionsverktygen; inlärningsmodellen förbättras sedan stegvis genom ett aktivt inlärningsförfarande.
Liao m.fl. I REF föreslogs en metod för att upptäcka avvikelser genom att modellera data från taxisond med hjälp av villkorade slumpmässiga fält (CRF).
9,287,062
Anomaly detection in GPS data based on visual analytics
{'venue': '2010 IEEE Symposium on Visual Analytics Science and Technology', 'journal': '2010 IEEE Symposium on Visual Analytics Science and Technology', 'mag_field_of_study': ['Computer Science']}
13,574
Den nyligen introducerade kontinuerliga Skip-gram modellen är en effektiv metod för att lära sig högkvalitativa distribuerade vektor representationer som fångar ett stort antal exakta syntaktiska och semantiska ordrelationer. I detta dokument presenterar vi flera tillägg som förbättrar både kvaliteten på vektorerna och träningshastigheten. Genom att subsampla de ofta förekommande orden får vi en betydande upptrappning och lär oss också mer regelbundna ordrepresentationer. Vi beskriver också ett enkelt alternativ till det hierarkiska softmax som kallas negativ provtagning. En inneboende begränsning av ordrepresentationer är deras likgiltighet för ordföljd och deras oförmåga att representera idiomatiska fraser. Till exempel, betydelsen av "Kanada" och "Air" kan inte enkelt kombineras för att få "Air Canada". Motiverade av detta exempel presenterar vi en enkel metod för att hitta fraser i text, och visar att lära sig bra vektor representationer för miljontals fraser är möjligt.
Den kontinuerliga hoppa-gram modell REF är en av de mest kända Word-bäddning modeller.
16,447,573
Distributed Representations of Words and Phrases and their Compositionality
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
13,575
Slutenheter i IEEE 802.15.4-nätverket är beroende av passiv skanning för att hitta koordinatorn för föreningen. Hur latent koordinatorfyndigheten är beror på koordinatorns intervalllängd. Om bacon intervall är lång krävs mer tid för framgångsrik upptäckt och vice versa. Det latenta utbytet av föreningsmeddelanden i IEEE 802.15.4 är avsevärt hög på grund av svarsfördröjningstid. Det är den tid då samordnaren registrerar enheten och tilldelar en nätverksadress. Den totala tid som krävs för framgångsrik upptäckt och association är otillräcklig för att stödja anslutning av mobila enheter i kort räckvidd IEEE 802.15.4 nätverk. För att minska denna tid föreslår vi en samordnare som bistår passiva upptäckts- och föreningssystem för mobila slutenheter i IEEE 802.15.4-nätverk. Det föreslagna systemet minskar beacon intervallet för de samordnare som är nära mobila enheter för snabb grannsamordnare upptäckt. Det eliminerar också behovet av svar väntar tid under föreningen baserat på tidig registrering mekanism. Simuleringsanalysen visar att det föreslagna systemet säkerställer snabb passiv upptäckt och samvaro med samordnaren, oavsett baconintervalllängd.
Ett system som bygger på snabb passiv upptäckt och associering har föreslagits i REF.
32,385,213
Coordinator Discovery and Association in Beacon-Enabled IEEE 802.15.4 Network
{'venue': None, 'journal': 'International Journal of Distributed Sensor Networks', 'mag_field_of_study': ['Computer Science']}
13,576
Att utbilda ett konventionellt automatiskt taligenkänningssystem (ASR) för att stödja flera språk är en utmaning eftersom underordsenheten, lexikonet och ordinventeringen vanligtvis är språkspecifika. Däremot är sekvens-till-sekvens modeller väl lämpade för flerspråkig ASR eftersom de inkapslar en akustisk, uttal och språkmodell tillsammans i ett enda nätverk. I detta arbete presenterar vi en enda sekvens-till-sekvens ASR-modell utbildad på 9 olika indiska språk, som har mycket lite överlappning i sina manus. Specifikt tar vi en förening av språkspecifika diagramuppsättningar och utbildar en grafembaserad sekvens-till-sekvens-modell gemensamt på data från alla språk. Vi finner att denna modell, som inte uttryckligen ges någon information om språkidentitet, förbättrar igenkänningsprestandan med 21 % jämfört med motsvarande sekvens-till-sekvens-modeller som utbildas på varje språk individuellt. Genom att ändra modellen för att acceptera en språkidentifierare som ytterligare en indatafunktion förbättrar vi prestandan ytterligare med 7 % relativ och eliminerar förvirring mellan olika språk.
Ett flerspråkigt tillvägagångssätt föreslogs av REF med Seq2Seq-metoden med hjälp av en union av språkspecifika diagramuppsättningar och träna en grafembaserad sekvens-till-sekvens-modell gemensamt på data från alla språk.
3,267,237
Multilingual Speech Recognition with a Single End-to-End Model
{'venue': '2018 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP)', 'journal': '2018 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP)', 'mag_field_of_study': ['Computer Science', 'Engineering']}
13,577
Även om maskininlärning har blivit den viktigaste scenen i dialogforskningsgemenskapen, har det verkliga genombrottet blockerats av den tillgängliga dataskalan. För att ta itu med detta grundläggande hinder, introducerar vi Multi-Domain Wizard-of-Oz dataset (MultiWOZ), en fullt märkt samling av mänskliga-mänskliga skriftliga samtal som spänner över flera domäner och ämnen. Vid en storlek av 10k dialoger är det minst en storleksordning större än alla tidigare kommenterade uppgiftsorienterade corpora. Bidraget från detta arbete förutom de öppna datauppsättningar som är märkta med dialog trosstater och dialogåtgärder är tvåfaldigt: För det första ges en detaljerad beskrivning av datainsamlingsförfarandet tillsammans med en sammanfattning av datastruktur och analys. Den föreslagna datainsamlingsledningen är helt baserad på crowd-sourcing utan behov av att anställa professionella annoterare. För det andra rapporteras en uppsättning referensresultat av trosspårning, dialogakt och svarsgenerering, som visar användbarheten av data och sätter en bas för framtida studier.
Related to finch dataset is the Multi-Domain Wizard-of-Oz dataset (MultiWOZ) 2 REF, som är en fullt märkt samling av mänskliga-mänskliga skriftliga samtal som spänner över flera domäner och ämnen.
52,897,360
MultiWOZ - A Large-Scale Multi-Domain Wizard-of-Oz Dataset for Task-Oriented Dialogue Modelling
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
13,578
Detta dokument presenterar en Saliency detektionsalgoritm genom att integrera både lokal uppskattning och global sökning. I det lokala skattningsstadiet upptäcker vi lokal salthalt genom att använda ett djupt neuralt nätverk (DNN-L) som lär sig lokala patchfunktioner för att bestämma saltvärdet för varje pixel. De uppskattade lokala översiktskartorna förfinas ytterligare genom att man utforskar objektkoncepten på hög nivå. I det globala sökstadiet används den lokala lönekartan tillsammans med global kontrast och geometrisk information som globala funktioner för att beskriva en uppsättning objektkandidatregioner. Ett annat djupt neuralt nätverk (DNN-G) tränas för att förutsäga saliency poäng för varje objekt region baserat på de globala funktionerna. Den slutliga soliditetskartan genereras av en viktad summa av framträdande objektregioner. Vår metod ger två intressanta insikter. För det första kan lokala funktioner som man lärt sig av ett övervakat system effektivt fånga upp lokal kontrast, struktur och forminformation för detektering av beständighet. För det andra kan det komplexa förhållandet mellan olika globala soliditetskurer fångas upp av djupa nätverk och utnyttjas huvudsakligen snarare än heuritiskt. Kvantitativa och kvalitativa experiment på flera referensdatauppsättningar visar att vår algoritm presterar gynnsamt mot toppmoderna metoder.
Wang m.fl. REF utvecklar två djupa neurala nätverk för att lära sig lokala funktioner och globala kontraster med geometriska funktioner för att förutsäga soliditet poäng i varje region.
164,628
Deep networks for saliency detection via local estimation and global search
{'venue': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
13,579
Abstract-This paper handlar om, nu ganska väl studerat, problemet med integrerad väg geometri uppskattning och fordonsspårning. De största skillnaderna mot de befintliga tillvägagångssätten är att vi använder oss av en förbättrad modell för värdfordon och en ny dynamisk modell för vägen. Problemet finns inom ett standard ramverk för sensorfusion, vilket gör att vi kan använda den tillgängliga sensorinformationen på ett bra sätt. Lösningens prestanda utvärderas med hjälp av mätningar från verkliga och relevanta trafikmiljöer från allmänna vägar i Sverige. Experimenten visar att vinsten i att använda den utvidgade värdfordonsmodellen är mest framträdande när man kör på landsvägar utan några fordon framför.
I själva verket den nödvändiga sensor fusion ram REF använder sig av uppskattningar från en visuell körfält spårare.
10,978,951
Road geometry estimation and vehicle tracking using a single track model
{'venue': '2008 IEEE Intelligent Vehicles Symposium', 'journal': '2008 IEEE Intelligent Vehicles Symposium', 'mag_field_of_study': ['Engineering']}
13,580
Abstract-Wireless body area networks (BAN) kräver service av hög kvalitet. Eftersom BAN kommer att användas i stor utsträckning i tätbefolkade områden står de dock oundvikligen inför RF-interferens mellan teknikområden (CTI) från trådlösa enheter som inte följer protokoll och som är verksamma inom samma spektrumområde. De största utmaningarna för att försvara sig mot ett så starkt teknikinitiativ beror på bristen på spektrumresurser, osäkerheten i CTI-källorna och BAN-kanalstatusen samt de stränga hårdvarubegränsningarna. I detta dokument karakteriserar vi först experimentellt den negativa inverkan på BAN:s tillförlitlighet som orsakas av det icke-protokollöverensstämmande CTI. Sedan formulerar vi ett gemensamt routing- och power control-problem (JRPC) som syftar till att minimera energiförbrukningen under stark CTI och samtidigt uppfylla nodåtkomst och fördröja begränsningar. Vi omformulerar vårt problem till ett blandat heltal linjära program problem och sedan härleda de optimala resultaten genom IBM: s CPLEX. Därefter föreslås ett praktiskt protokoll, inklusive en heuristisk JRPC-algoritm, där vi tar itu med utmaningen med snabb länkkvalitetsmätning genom att föreslå en passiv länkkvalitetsberäkning och förutsägelsemetod. Genom experiment och simuleringar visar vi att vårt protokoll kan säkerställa robustheten av BAN även när CTI-källorna är i mycket nära närhet, med hjälp av en liten mängd energi på kommersiella-off-the-shelf sensor enheter. Index Terms-Body område nätverk, gemensam routing och effektstyrning, multihop, optimering, wideband störningar.
Det gemensamma styrnings- och kraftkontrollsystem som föreslås i REF syftar till att minimera energiförbrukningen vid starka tvärteknologiska störningar samtidigt som det uppfyller kraven på nåbarhet och fördröjning.
206,827,829
Making Wireless Body Area Networks Robust Under Cross-Technology Interference
{'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
13,581
Vi föreslår ett system för att reversera gennätverk i en genomomfattande skala med hjälp av en relativt liten mängd genuttrycksdata från mikroarrayexperiment. Vår metod bygger på den empiriska iakttagelsen att sådana nätverk är typiskt stora och glesa. Den använder singular value sönderdelning för att konstruera en familj av kandidatlösningar och sedan använder robust regression för att identifiera lösningen med det minsta antalet anslutningar som den mest sannolika lösningen. Vår algoritm har O(log N) provtagning komplexitet och O(N 4) beräkning komplexitet. Vi testar och validerar vårt tillvägagångssätt i en serie i numero-experiment på modellgennätverk. W ith senaste framsteg i cDNA och oligonukleotid microarray teknologier (1) det har blivit möjligt att mäta mRNA uttrycksnivåer på en genom-bred skala. Data som sålunda samlats in ger värdefulla beskrivningar av genaktiviteter under olika biokemiska (2) och fysiologiska (3) omständigheter och gör det möjligt att vända gennätverken, d.v.s. att härleda de underliggande nätverksstrukturerna från experimentella mätningar. Men naturligt förekommande genreglerande nätverk är inbäddade i genom som vanligtvis består av tusentals gener. Att extrahera topologin för sådana nätverk och därmed isolera de funktionella undernätverken representerar en beräkningsmässigt skrämmande uppgift; det kräver också en mycket stor mängd experimentella data, som är dyra att få. För att kringgå detta problem med databrist har många pågående forskningsinsatser inriktats på klusterbildning, dvs. att gruppera gener till hierarkiska funktionella enheter baserade på korrelationer i uttrycksmönster (3) (4) (5) (6) (7) (8). Detta hierarkiska tillvägagångssätt har varit fruktbart när det gäller att identifiera samreglerade gener i vissa funktionella enheter (3-6). Den har också generaliserats till självorganiserande kartor (7) och övervakade utbildningsprogram (8) för att hantera känsligheten för buller och andra brister som är inneboende i hierarkisk klusterbildning (9), till priset av ökade beräkningskostnader. En grundläggande brist i sådana klustersystem är dock att de bygger på antagandet att i) genreglerande nätverk är hierarkiska i struktur (3-6) och ii) gener som utför relaterade biologiska funktioner uppvisar liknande uttrycksmönster (och vice versa). Dessa antaganden är kanske inte alltid giltiga. På strukturell nivå finns det uppgifter som tyder på att genreglerande nätverk inte är strikt hierarkiska till sin natur; snarare är de sammanvävda som en väv (10), som i fallet med metaboliska (11) och proteinnätverk (12), med flera vägar för liknande funktioner för att ge redundans för att skydda mot mutationer och andra skadliga effekter (13). På en dynamisk nivå kan mRNA- och proteinuttrycksnivåer för vissa gener inte korreleras (14), vilket tyder på en liknande brist på strikt korrelation mellan genuttryck och funktion. Även om klusterbildning är användbar på lokal nivå för att identifiera isolerade samuttryckande enheter är den därför inte lämplig för storskalig omvänd teknik. Nyligen har det gjorts försök att rekonstruera modeller för genreglerande nätverk på en global, genomomfattande skala med hjälp av idéer från systemidentifiering (15), såsom genetiska algoritmer (16), neurala nätverk (17) och Bayesianska modeller (18). Även om dessa metoder är användbara i specifika sammanhang, är de av begränsad omfattning, eftersom de vanligtvis kräver en stor mängd data och beräkningar för att generera konnektivitetskartor för stora nät, t.ex. genomiska skalor. För att lösa dessa problem med databrist och dataineffektivitet har flera forskare (19-22) antagit en linjär modell och använt sig av singular value decomposition (SVD) (23) för att reversera nätverksarkitekturen. Som vi kommer att förklara mer i detalj nedan, även om SVD ger en användbar och kondenserad beskrivning av data, det ensam kan inte korrekt identifiera konnektivitetsmatrisen och därför kanske inte exakt förutsäga beteendet hos gennätverken som svar på nya stimuli. Metoden för SVD måste kompletteras med extra villkor, baserade på biologisk kunskap, för att återställa nätverket topologi korrekt. Här föreslår vi ett sådant system för att identifiera hela nätverksstrukturen i genreglerande nätverk i en genomomfattande skala. Vår strategi bygger på tidigare arbete med SVD (19) (20) (21) (22) och bygger på en insikt som tillhandahålls av tidigare studier om genregulatoriska nätverk (24, 25) och bioinformatiska databaser (11, 12), nämligen att gennätverk i de flesta biologiska system är glesa. Därför använder vi SVD först för att bygga en familj av kandidatnätverk, alla är förenliga med experimentella data, och sedan använder robust regression (26) för att identifiera det glesaste nätverket i denna familj som den mest sannolika lösningen. Som sådan, vårt system har O(log N) provtagning komplexitet och O(N 4 ) beräknings komplexitet. Mycket i systembiologins anda (27) är vårt mål att utvinna genregulatoriska nätverk i global skala och att göra det effektivt, för att identifiera enskilda subnätverk i ett första utkast till topologin för hela nätverket, som ytterligare, mer lokala, analyser kan baseras på. Den metod vi föreslår för att vända gennätverk består av två steg. Vi använder SVD först för att konstruera en uppsättning genomförbara lösningar som överensstämmer med uppmätta data och sedan använder vi robust regression för att välja den glesaste som lösning. För enkelhetens skull kommer vi endast att överväga system som fungerar nära ett stabilt tillstånd, så att dynamiken kan approximeras genom ett linjärt system med vanliga differentialekvationer:
I REF användes Singular Value Decomposition för att få en familj av kandidatnätverk.
8,361,429
Reverse engineering gene networks using singular value decomposition and robust regression
{'venue': 'Proceedings of the National Academy of Sciences of the United States of America', 'journal': 'Proceedings of the National Academy of Sciences of the United States of America', 'mag_field_of_study': ['Medicine', 'Computer Science']}
13,582
Sammanfattning Nyligen har det funnits en ökande oro från den evolutionära beräkningsgemenskapen för dynamiska optimeringsproblem eftersom många verkliga optimeringsproblem är dynamiska. Detta papper undersöker en partikel svärm optimering (PSO) baserad memetisk algoritm som hybridiserar PSO med en lokal sökteknik för dynamiska optimeringsproblem. Inom ramen för den föreslagna algoritmen används en lokal version av PSO med en ringformig topologistruktur som global sökoperatör och en fuzzy cognition lokal sökmetod föreslås som lokal sökteknik. Dessutom utvidgas ett självorganiserat system med slumpmässiga invandrare till vår föreslagna algoritm för att ytterligare förbättra dess prospekteringskapacitet för nya toppar i sökområdet. Experimentell studie över de rörliga topparna referensproblem visar att den föreslagna PSO-baserade memetiska algoritmen är robust och anpassningsbar i dynamiska miljöer.
Hongfeng Wang REF presenterade en partikel svärm optimering baserad memetisk algoritm för dynamiska optimeringsproblem.
7,814,935
A particle swarm optimization based memetic algorithm for dynamic optimization problems
{'venue': 'Natural Computing', 'journal': 'Natural Computing', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
13,584
ABSTRACT: Denna studie utvecklar en alternativ metodik för riskanalys av informationssystemsäkerhet (ISS), en skenbar resonemangsmetod under Dempster-Shafer teorin om trosfunktioner. Tillvägagångssättet har följande viktiga dimensioner. För det första ger det bevisbaserade resonemanget ett rigoröst och strukturerat sätt att införliva relevanta ISS-riskfaktorer, relaterade motåtgärder och deras inbördes samband vid bedömningen av ISS-risken. För det andra använder metoden definitionen av risk i trosfunktionen, dvs. ISS-risken är rimligheten i informationssystemets säkerhetsbrister. Det föreslagna tillvägagångssättet har andra tilltalande inslag, som att underlätta kostnads-nyttoanalyser för att bidra till en effektiv ISS-riskhantering. I dokumentet beskrivs både de teoretiska begreppen och den operativa vägledningen för hur metoden ska genomföras. Metoden illustreras med hjälp av ett hypotetiskt exempel ur ledningens perspektiv och ett verkligt exempel ur externa försäkringsgivares perspektiv. Känslighetsanalyser görs för att utvärdera effekten av viktiga parametrar på modellens resultat.
Sol och al. REF presenterar en tillämpning av DS-teorin på riskanalysen av informationssystemsäkerhet.
8,706,931
An Information Systems Security Risk Assessment Model under Dempster-Shafer Theory of Belief Functions
{'venue': 'FSKD', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,585
A b s t r a c t Petri Nets (PN) och deras förlängningar är lovande metoder för modellering och simulering av biologiska system. Vi undersökte PN formalismer och verktyg och jämförde dem utifrån deras matematiska förmåga samt deras lämplighet att representera typiska biologiska processer. Vi mätte dessa verktygs förmåga att modellera specifika egenskaper hos biologiska system och besvara en uppsättning biologiska frågor som vi definierade. Vi fann att olika verktyg krävs för att tillhandahålla alla funktioner som vi utvärderade. Vi skapade programvara för att översätta en generisk PN-modell till de flesta formalismer och verktyg som diskuterades. Vi har också gjort tre modeller tillgängliga och föreslår att ett bibliotek av sådana modeller skulle katalysera framstegen i kvalitativ modellering via PN:er. Utveckling och bred användning av gemensamma format skulle göra det möjligt för forskare att dela modeller och använda olika verktyg för att analysera dem utan att behöva konvertera till egna format.
REF undersökte olika Petri Net implementeringar för att studera egenskaperna och dynamiken hos biologiska system.
9,011,311
Using Petri Net Tools to Study Properties and Dynamics of Biological Systems
{'venue': 'Journal of the American Medical Informatics Association : JAMIA', 'journal': 'Journal of the American Medical Informatics Association : JAMIA', 'mag_field_of_study': ['Computer Science', 'Medicine']}
13,586
Med den snabba tillväxten av Internet har e-post, med dess bekväma och effektiva egenskaper, blivit ett viktigt kommunikationsmedel i människors liv. Det minskar kostnaderna för kommunikation. Det följer med Spam. Spam e-post, även känd som "skräp e-post", är oönskad en"s skickas i bulk med dold eller förfalskade identitet av avsändaren, adress, och huvudinformation. Det är viktigt att eftersträva effektivare metoder för skräppostfiltrering för att upprätthålla normal drift av e-postsystem och skydda e-postanvändarnas intressen. I detta papper har vi utvecklat ett Spamfilter baserat på Bayesian filtreringsmetod med hjälp av Aho-corasick och PFAC strängmatchande algoritm. Detta filter utvecklade en förbättrad version av skräppostfilter baserat på traditionell Bayesiansk skräppostfiltrering för att förbättra skräppostfiltreringens effektivitet, och för att minska risken för felbedömning av elakartad skräppost. För ytterligare förbättring av skräppostfiltreringsprocessen omvandlar vi filtret till parallellt spamfilter på GPGPU:s med hjälp av PFAC Algorithm.
Bayesian spamfiltrering REF.
61,505,587
Serial and Parallel Bayesian Spam Filtering using Aho- Corasick and PFAC
{'venue': None, 'journal': 'International Journal of Computer Applications', 'mag_field_of_study': ['Computer Science']}
13,587
Katadioptriska system är insikter om allsidig syn genom kombinationer av spegel-linser. Designer som bevarar det unika i ett eektivt synsätt har nyligen vunnit dragningskraft. Vi presenterar här en ny metod för att uppskatta de inneboende parametrarna i ett välkänt katadioptriskt system som består av en p araboloid spegel och en ortografisk lins. Vi introducerar geometrin av katadioptrisk linje projektion och vi visar att de försvinnande punkter ligger på en konisk sektion som kodar hela c alibration information. Projektioner av två uppsättningar parallella linjer för inre kalibrering från en sikt såväl som för metrisk rektikering av ett plan. Vårt tillvägagångssätt övervinner begränsningar av befintliga manuella kalibreringsmetoder och testades framgångsrikt på uppgiften att återskapa verkliga bilder på virtuella plan.
Geyer och Daniilidis REF använder en paraboloidspegel och en ortografisk lins.
13,020,867
Catadioptric camera calibration
{'venue': 'Proceedings of the Seventh IEEE International Conference on Computer Vision', 'journal': 'Proceedings of the Seventh IEEE International Conference on Computer Vision', 'mag_field_of_study': ['Computer Science']}
13,588
Vilka ämnen väcker de hetaste debatterna i sociala medier? Att identifiera dessa ämnen är ett första steg mot att skapa system som genomborrar ekokammare. I detta dokument genomför vi en systematisk metodologisk studie av kontroversdetektion med hjälp av sociala mediers nätverksstruktur och innehåll. Till skillnad från tidigare arbete, snarare än att identifiera kontroverser i ett enda handplockat ämne och använda domänspecifika kunskaper, fokuserar vi på att jämföra ämnen inom alla områden. Vår strategi för att kvantifiera kontroverser är en grafbaserad trestegs pipeline, som innebär att (i) bygga ett samtalsdiagram om ett ämne, som representerar anpassning av åsikter bland användare, (ii) partitionera konversationsdiagram för att identifiera potentiella sidor av kontroversen, och (iii) mäta mängden kontroverser från egenskaper i grafen. Vi gör en omfattande jämförelse av kontroversiella åtgärder, liksom grafbyggande metoder och datakällor. Vi använder både kontroversiella och icke-kontroversiella ämnen på Twitter, samt andra externa datauppsättningar. Vi finner att vår nya slumpmässiga-walk-baserade mått överträffar befintliga i att fånga den intuitiva begreppet kontroverser, och visar att innehållsfunktioner är mycket mindre hjälpsamma i denna uppgift.
För att kvantifiera kontroverser i sociala nätverk inom alla ämnesområden föreslås en trestegs pipeline i REF.
207,232,498
Quantifying Controversy in Social Media
{'venue': "WSDM '16", 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,589
Abstract-inkrementella provtagningsbaserade rörelseplaneringsalgoritmer som de snabbt utforskande Random Trees (RRTs) har varit framgångsrika i att effektivt lösa beräkningsutmaningar rörelseplaneringsproblem som involverar komplexa dynamiska system. En nyligen föreslagen algoritm, som kallas RRT *, ger också asymptotiska optimala garantier, dvs. nästan säker konvergens till optimala banor (som RRT algoritmen saknade) samtidigt som beräkningseffektiviteten av RRT algoritmen. I detta papper, tidsoptimala manövrar för en höghastighets terrängfordon ta snäva svängar på en lös yta studeras med hjälp av RRT * algoritm. Våra simuleringsresultat visar att den aggressiva glidmanövern, som brukar kallas spårbromsmanövern, naturligt framträder från RRT * algoritmen som minimum-tidens bana. Längs vägen, vi utöka RRT * algoritm för att hantera komplexa dynamiska system, såsom de som beskrivs av icke-linjära differentialekvationer och involverar högdimensionella tillstånd utrymmen, som kan vara av oberoende intresse. Vi utnyttjar också RRT * som ett när som helst beräkningsramverk för ickelinjära optimeringsproblem.
Tidseffektiva manövrer för ett terrängfordon som svänger tätt med hög hastighet på en lös yta har studerats med hjälp av RRT* planeraren REF.
5,705,955
Anytime computation of time-optimal off-road vehicle maneuvers using the RRT*
{'venue': 'IEEE Conference on Decision and Control and European Control Conference', 'journal': 'IEEE Conference on Decision and Control and European Control Conference', 'mag_field_of_study': ['Computer Science']}
13,590
Abstract-Measuring programvara underhållbarhet tidigt i utvecklingslivscykeln, särskilt under designfasen, kan hjälpa designers att införliva nödvändiga förbättringar och korrigeringar för att förbättra underhållbarheten av den slutliga programvaran. Detta papper utvecklade en multivariat linjär modell "Maintainability Estimation Model for Object-oriented software in Design fase" (MEMOOD), som uppskattar underhållbarheten av klassdiagram i termer av deras begriplighet och modifiability. För att kvantifiera klassdiagrammets begriplighet och modifierbarhet utvecklade papperet ytterligare två flervariata modeller. Dessa två modeller använder objektorienterade mått på konstruktionsnivå, för att kvantifiera begriplighet och modifiability av klassdiagram. En sådan tidig kvantifiering av underhållbarheten ger en möjlighet att förbättra underhållbarheten hos klassdiagram och följaktligen underhållbarheten hos den slutliga programvaran. Alla de tre modellerna har validerats genom lämpliga statistiska åtgärder och kontextuell tolkning har gjorts.
Rizvi m.fl. REF, utvecklat en multivariat linjär modell "Maintainability Estimation Model for Object-oriented software in design fas (MEMOOD)" för att uppskatta underhållbarheten av UML klass diagram i termer av begriplighet och modifiability.
5,955,750
Maintainability Estimation Model for Object-Oriented Software in Design Phase (MEMOOD)
{'venue': 'Journal of Computing, Volume 2, Issue 4, April 2010', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,591
Abstract-Self-övervakning sensorstatus såsom levandehet, nodtäthet och restenergi är avgörande för att upprätthålla den normala driften av sensornätverket. När man bygger upp övervakningsarkitekturen fokuserar de flesta befintliga arbeten på att minimera antalet övervakningsnoder. Med färre övervakningspunkter kan dock den falska larmfrekvensen öka som en följd av detta. I detta dokument studerar vi den grundläggande avvägningen mellan antalet övervakningsnoder och den falska larmfrekvensen i de trådlösa sensornätverken. Specifikt föreslår vi helt distribuerade övervakningsalgoritmer, för att bygga upp en poller-pollee-baserad arkitektur med målet att minimera antalet totala polletter samtidigt som den falska larmfrekvensen begränsas. Baserat på den etablerade övervakningsarkitekturen utforskar vi ytterligare hop-by-hop aggregeringsmöjligheten längs multihopen från polen till pollen, med målet att minimera övervakning omkostnaderna. Vi visar att den optimala aggregeringsvägen problem är NP-hård och föreslå en opportunistisk girig algoritm, som uppnår en approximation förhållande av. Så vitt vi vet är detta det första bevisade konstanta approximationsförhållande som tillämpas på system för val av aggregeringsvägar över trådlösa sensornätverk.
REF föreslår en distribuerad approximationsalgoritm för att välja ett minsta antal pollare och studerar effekten på falsklarmfrekvensen.
16,338,601
Distributed Monitoring and Aggregation in Wireless Sensor Networks
{'venue': '2010 Proceedings IEEE INFOCOM', 'journal': '2010 Proceedings IEEE INFOCOM', 'mag_field_of_study': ['Computer Science']}
13,592
Mycket djupa konvolutionella nätverk med hundratals eller fler skikt har lett till betydande minskningar av fel på konkurrenskraftiga riktmärken som ImageNet eller COCO uppgifter. Även om den oöverträffade expressiviteten hos de många djupa skikten kan vara mycket önskvärd vid provtillfället, kommer träning mycket djupa nätverk med sina egna utmaningar. Lutningarna kan försvinna, framflödet minskar ofta och träningstiden kan vara smärtsamt långsam även på moderna datorer. I detta dokument föreslår vi stokastiskt djup, ett utbildningsförfarande som gör det möjligt för det till synes motsägelsefulla upplägget att utbilda korta nät och få djupa nätverk. Vi börjar med mycket djupa nätverk men under träningen, för varje mini-batch, slumpmässigt släppa en delmängd av lager och kringgå dem med identitetsfunktionen. De resulterande nätverken är korta (i förväntan) under utbildning och djupt under testning. Utbildning Restuella nätverk med stokastiskt djup är övertygande enkelt att genomföra, men ändå effektivt. Vi visar att detta tillvägagångssätt på ett framgångsrikt sätt tar itu med utbildningssvårigheterna i de djupa nätverken och kompletterar de senaste framgångarna för Residual- och Highway Networks. Det minskar träningstiden avsevärt och förbättrar testfelen på nästan alla datamängder avsevärt (CIFAR-10, CIFAR-100, SVHN). Förvånansvärt nog, med stokastiskt djup kan vi öka djupet av kvarvarande nätverk även bortom 1200 lager och ändå ge meningsfulla förbättringar i testfel (4.91%) på CIFAR-10.
För att övervinna problemet med översittande, Huang et al. REF föreslog Stochastic Djup resterande nätverk (SD ResNets), som slumpmässigt släppa lager undergrupper och förbigå dem under utbildningen.
6,773,885
Deep Networks with Stochastic Depth
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
13,593
I detta dokument presenterar vi en jämförande analys av den prediktiva kraften hos två olika uppsättningar mätvärden för felprognoser. Vi väljer en uppsättning produktrelaterade och en uppsättning processrelaterade programvarumått och använder dem för att klassificera Javafiler i Eclipseprojektet som defekta respektive defektfria. Klassificeringsmodeller byggs med hjälp av tre vanliga maskininlärare: logistisk regression, Naïve Bayes och beslutsträd. För att tillåta olika kostnader för förutsägelsefel utför vi kostnadskänslig klassificering, vilket visar sig vara mycket framgångsrikt: >75% procent av korrekt klassificerade filer, en återkallelse av >80%, och en falsk positiv andel <30%. Resultaten visar att för Eclipse-data är processmått mer effektiva felprediktorer än kodmått.
Moser m.fl. Ref jämförde modeller baserat på produktmått och processmått, och drog slutsatsen att processmått var mer användbara än produktmått för Eclipse-data.
16,074,379
A comparative analysis of the efficiency of change metrics and static code attributes for defect prediction
{'venue': "ICSE '08", 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,594
Abstrakt. I detta dokument beskriver vi hur BBC arbetar för att integrera data och länka dokument över BBC domäner genom att använda Semantic Web-teknik, särskilt länkade data, MusicBrainz och DBpedia. Vi täcker arbetet med BBC Programmes och BBC Music building Linked Data sites för alla musik- och programrelaterade varumärken, och vi beskriver befintliga projekt, pågående utveckling och ytterligare forskning som vi gör i ett gemensamt samarbete mellan BBC, Freie Universität Berlin och Rattle Research för att använda DBpedia som den kontrollerade vokabulären och semantiska ryggraden för hela BBC.
REF beskriver hur BBC integrerar data och länkar dokument över underhållnings- och nyhetsdomäner med hjälp av länkade öppna data.
17,437,981
Media Meets Semantic Web - How the BBC Uses DBpedia and Linked Data to Make Conections
{'venue': 'In European Semantic Web Conference, Semantic Web in Use Track', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,595
Abstrakt. Denna handledning handlar om runtime efterlevnad och förespråkar dess användning som en förlängning av runtime verifiering. Medan forskningsinsatser i körtid verifiering har främst handlat om upptäckt av missuppfostran och erkännande av önskade beteenden, runtime efterlevnad syftar främst till att kringgå missuppfostran av system och att garantera önskade beteenden. För det första föreslår vi en jämförelse mellan kontroll av körtid och verkställighet av körtid. Vi presenterar sedan tidigare teoretiska modeller för genomförandemekanismer och deras uttryckskraft när det gäller verkställighet. Sedan ser vi över det befintliga arbetet med runtime surveillance monitor syntes. Slutligen föreslår vi några framtida utmaningar när det gäller tekniken för att kontrollera efterlevnaden av reglerna. Kontroll av drifttid [1, 2] är en väletablerad teknik som består i att använda en monitor för att vid drifttid övervaka genomförandet av ett underliggande program mot en uppsättning förväntade egenskaper. En monitor är ett beslutsförfarande med en utdatafunktion (t.ex. en statsmaskin vid hantering av regelbundna egenskaper) bearbetning (steg för steg) en utförandesekvens av det övervakade programmet, och producerar en sekvens av domar (sanning värden av en sanning-domän) som indikerar uppfyllelse eller brott mot en egendom. Även om upptäckten ibland kan vara en tillräcklig säkerhet för vissa system, förekomsten (resp. Icke-förekomst) av egendomsöverträdelser (s.k. Valideringar) kan vara oacceptabla för andra. Verkställighet av körtid [3] [4] [5] [6] av den önskade egendomen är en möjlig lösning för att säkerställa förväntade beteenden och undvika missuppfostran. Inom denna teknik övervakaren inte bara observerar det aktuella programmet exekvering, men också ändrar det. Den använder en intern memoreringsmekanism för att säkerställa att den förväntade egenskapen uppfylls: den läser fortfarande en inmatningssekvens men producerar nu en ny händelsesekvens på ett sådant sätt att egendomen upprätthålls. Det exakta och formella förhållandet mellan inmatnings- och utmatningssekvenser styrs vanligen av två begränsningar: sundhet och transparens. Ur en abstrakt synvinkel innebär dessa begränsningar monitorn att minimalt ändra inmatningssekvensen för att säkerställa den önskade egenskapen. När programmet beter sig väl, kan exekutionsövervakaren låta programmet köra med minst inflytande. Om programmet beteende är på väg att uppvisa en avvikelse w.r.t. den förväntade egenskapen använder monitorn sin interna memoreringsmekanism för att förhindra missuppfostran. Praktiska tillämpningar av regelefterlevnad. Det har förekommit många praktiska tillämpningar av teorin om driftstöd (t.ex. [7] [8] [9] för programsäkerhet, eller i [10–11] för tillträdesregler). De flesta av dem är uppbyggda på en längre version med fler resultat och exempel finns på författarens webbsida. Schneiders modell av säkerhetsautomat. Även om vi i denna handledning kommer att se en idémässig skillnad mellan verkställighet och verifiering, finns det i praktiken inte alltid någon tydlig åtskillnad mellan dessa discipliner. Som så, även tidigt runtime verifiering ramar var ofta utformade för att, säg, "utöva någon kod" när en egendom kränks, vilket ändrar den ursprungliga program exekvering. Till exempel, när en fastighet blir kränkt: -JPAX [12], RMOR [13] tillåter att ange call-back-funktioner som får kallas; -Temporal Rover [14] gör det möjligt att ange en massa kod som ska köras; -MOP [15] utökar monitorer med undantag hanterare. Reaktioner på fel används dock sällan eller saknar åtminstone en systematisk och formell studie. Dessutom är det tydligt att förebyggande av dåliga beteenden skulle vara mer önskvärt än att ge reaktioner till dem ("bättre säker än ledsen"). Handledning. Denna handledning fokuserar på arbetet med att bygga en teori om runtime efterlevnad som, som vi tror, växer fram som en ny verksamhet. Vi förespråkar att det används som en viktig kompletterande verksamhet för kontroll av körtiden. Eftersom ett alfabet E, en sekvens σ på E är en total funktion σ : I → E där jag är antingen intervallet [0, n] för vissa n på N, eller själva N. Den tomma sekvensen betecknas med. Vi betecknar med E * uppsättningen av finita sekvenser över E och av E på uppsättningen av oändliga sekvenser över E. E * på E är noterad E ∞. Vi kommer att anta viss förtrogenhet med begreppen sekvens, prefix och fortsättning. Vi kommer att använda σ ··n, för n på N \ {0}, för att beteckna prefixet av σ längd n. Avrättning sekvenser. I körtid verifiering och genomförande tekniker, som vi inte är medvetna om programspecifikationen, är det övervakade programmet ofta betraktas som en generator av sekvenser. Således, körtiden aktivitet fokuserar på en begränsad alfabetet på c av konkreta händelser eller operationer som programmet kan utföra. Sådana sekvenser kan göras av t.ex. resursåtkomsthändelser på ett säkert system eller kärnoperationer på ett operativsystem. I ett programvarusammanhang kan dessa händelser utgöra en relevant undergrupp av instruktioner (t.ex. variabla ändringar eller proceduranrop). Dessa operationer bestämmer sanningen värdet av egenskaper. Således, för att jämföra programmets avrättningar med egendomen, dessa konkreta händelser bör abstrakteras i en ändlig uppsättning abstrakta händelser, en. Denna abstraction är en underliggande korrespondens och en kartläggning av varje händelse av en konkret händelse till förekomsten av en abstrakt händelse 1. För att förenkla notationer, i denna handledning kommer vi att tala enhetligt om utförande sekvenser, och använda en enhetlig alfabetet på. Utförandesekvenser, d.v.s. eventuellt icke-avslutande körningar, spänner över. Policyer mot egenskaper. Som ofta nämns i verifieringslitteraturen är en egenskap en uppsättning enskilda utförandesekvenser, d.v.s. en egenskap partitionerar uppsättningen möjliga utförandesekvenser. Schneider [3] skiljer egenskaper från policy. En policy definieras över uppsättningar av utförandesekvenser, d.v.s. en policypartitioner 1 Detta är exakt syftet med programinstrumentering (jfr. Avsnitt 2.1. Observera också att problemet kan vara något mer komplicerat när man hanterar parametriska händelser, händelser som också beror på konkreta verkställande värden (se. [16] till exempel). 2 uppsättningen uppsättningar av utförande sekvenser. Egenskaper representerar således en undergrupp av policyer. Endast egenskaper är lämpliga för en övervakningsmetod eftersom de kan beslutas om enstaka utföranden; genom en predikat tillämpas på utförande sekvenser i isolering. Tvärtom kan policyer som inte är egenskaper inte övervakas eftersom de skulle kräva information från andra avrättningar. Till exempel [3], förbjuda informationsflöde från två variabler i ett program är en policy och inte en egenskap eftersom kontroll det skulle kräva många utföranden för att avgöra om värden korreleras. Dessutom, i denna handledning, eftersom vi har att göra med runtime tekniker, kommer vi endast att överväga egenskaper definierade på linjära utföranden, exklusive specifika egenskaper definierade på grenning utförande sekvenser [17]. Runtime ramar har övervägt egenskaper på ändliga, infinita, eller både finita och infinita sekvenser. Vi kommer att notera Π den egendom som granskas och Π (σ) när sekvensen σ tillhör Π.
Merparten av arbetet med detta ämne ägnades åt efterlevnad av otidsenliga egenskaper (se REF för en kort översikt).
8,177,435
You should Better Enforce than Verify ⋆
{'venue': 'RV', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,596
Abstrakt. Inspirerad av de senaste framgångarna med metoder som använder form tidigare för att uppnå robusta 3D rekonstruktioner, föreslår vi en ny återkommande neurala nätverk arkitektur som vi kallar 3D Recurrent Reconstruction Neural Network (3D-R2N2). Nätverket lär sig en kartläggning från bilder av objekt till deras underliggande 3D-former från en stor samling syntetiska data [1]. Vårt nätverk tar i en eller flera bilder av en objekt instans från godtyckliga synvinklar och resulterar en rekonstruktion av objektet i form av en 3D beläggning rutnät. Till skillnad från de flesta av de tidigare verken kräver vårt nätverk inga bildanteckningar eller objektklassetiketter för utbildning eller testning. Vår omfattande experimentella analys visar att vår rekonstruktionsram i) överträffar de centrala metoderna för ensidig rekonstruktion, och ii) möjliggör 3D-rekonstruktion av objekt i situationer då traditionella SFM/SLAM-metoder misslyckas (på grund av brist på textur och/eller bred baslinje).
Choy m.fl. REF använder ett återkommande neuralt nätverk för att lära sig en kartläggning från bilder av objekt till deras underliggande 3D-former från en stor samling av syntetiska data.
6,325,059
3D-R2N2: A Unified Approach for Single and Multi-view 3D Object Reconstruction
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
13,597
Den senaste tidens framsteg inom tekniken för molntjänster driver på en uppsjö av informationsteknikinnovationer, inklusive nätverk, lagring och databehandling. Idag har olika smaker utvecklats av Internet of Things (IoT), cloud computing och den så kallade dimma computing, ett koncept som refererar till funktioner av kant-enheter och användarens kunder att beräkna, lagra och utbyta data mellan varandra och med molnet. Även om utvecklingen inte var lätt att förutse att hända i en så snabb takt, varje del av det idag underlättar och möjliggör införandet av vad vi vanligtvis kallar ett smart scenario, inklusive smarta städer, smarta transporter och smarta hem. Eftersom de flesta moln-, dim- och nätverkstjänster idag körs samtidigt i varje scenario, observerar vi att vi är i början av vad kanske nästa stora steg i molndata- och nätverksutveckling, där tjänster kan utföras vid nätverkskanten, både parallellt och på ett samordnat sätt, samt stöds av den ostoppbara teknikutvecklingen. Allteftersom eggenheter blir rikare på funktionalitet och smartare,inbäddning av kapaciteter som lagring eller behandling, samt inbäddning av nya funktioner, såsom beslutsfattande, datainsamling och vidarebefordran, delning osv., uppstår ett verkligt behov av samordnad hantering av datasystem för dim-to-cloud (F2C). I detta dokument introduceras en innehållsrik dim-to-cloud-arkitektur (F2C), dess fördelar och styrkor samt de öppna och forskningsutmaningar som uppstår, vilket gör att det finns ett verkligt behov av en samordnad förvaltning. Vår arkitektur, det illustrativa användningsfall som presenteras och en jämförande prestandaanalys, om än konceptuell, visar alla tydligt vägen framåt mot ett nytt IoT-scenario med en uppsättning befintliga och oförutsedda tjänster som tillhandahålls på en mycket distribuerad och dynamisk beräkning, lagring och nätverksresurser, föra samman heterogena och råvarukanter enheter, framväxande dimma samt konventionella moln.
Masip-Bruin m.fl. REF införde en skiktad F2C-arkitektur med fördelar och styrkor och gav det verkliga behovet av en samordnad förvaltning.
206,491,385
Foggy clouds and cloudy fogs: a real need for coordinated management of fog-to-cloud computing systems
{'venue': 'IEEE Wireless Communications', 'journal': 'IEEE Wireless Communications', 'mag_field_of_study': ['Computer Science']}
13,598
Abstrakt. I det här dokumentet presenterar vi en metod för att approximera sensorernas värden i ett trådlöst sensornätverk baserat på tidsserieprognoser. Mer specifikt, vår strategi bygger på autoregressiva modeller som byggs vid varje sensor för att förutsäga lokala avläsningar. Noder överför dessa lokala modeller till en diskbänk nod, som använder dem för att förutsäga sensorvärden utan att direkt kommunicera med sensorer. När det behövs, noder skicka information om outlier avläsningar och modelluppdateringar till diskhon. Vi visar att detta tillvägagångssätt dramatiskt kan minska den mängd kommunikation som krävs för att övervaka avläsningarna av alla sensorer i ett nätverk, och visa att vårt tillvägagångssätt ger bevisligen korrekta, användarkontrollerbara felgränser på de förutsedda värdena för varje sensor.
Tulone och Madden REF presenterade en metod för att approximera sensorernas värden i ett trådlöst sensornätverk baserat på tidsserieprognoser.
12,031,961
PAQ: Time Series Forecasting for Approximate Query Answering in Sensor Networks
{'venue': 'EWSN', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,599
Närheten mäter kvantifierar närhet eller likhet mellan noder i ett socialt nätverk och utgör grunden för en rad tillämpningar inom samhällsvetenskap, näringsliv, informationsteknik, datanät och cybersäkerhet. Det är utmanande att uppskatta närhetsåtgärder i online sociala nätverk på grund av deras massiva skala (med miljontals användare) och dynamiska natur (med hundratusentals nya noder och miljontals kanter läggs till dagligen). För att ta itu med denna utmaning utvecklar vi två nya metoder för att på ett effektivt och korrekt sätt närma en stor familj av närhetsåtgärder. Vi föreslår också en ny stegvis uppdateringsalgoritm för att möjliggöra nära realtid närhetsberäkning i mycket dynamiska sociala nätverk. Utvärdering baserad på en stor mängd verkliga data som samlats in i fem populära sociala nätverk på nätet visar att våra metoder är korrekta och enkelt kan skalas till nätverk med miljontals noder. För att visa de praktiska värdena av våra tekniker, anser vi en betydande tillämpning av närhetsberäkning: länk förutsägelse, dvs. att förutsäga vilka nya kanter kommer att läggas till inom en snar framtid baserat på tidigare ögonblicksbilder av ett socialt nätverk. Våra resultat visar att (i) effektiviteten av olika närhetsåtgärder för länk förutsägelse varierar avsevärt mellan olika online sociala nätverk och beror kraftigt på den del av kanterna som bidrar av den högsta graden noder, och (ii) kombinera flera närhet åtgärder konsekvent ger den bästa länken förutsägelse noggrannhet.
Länk förutsägelse tillvägagångssätt REF förutsäger förekomsten av länkar baserade på nuvarande vänskap användare'.
657,835
Scalable proximity estimation and link prediction in online social networks
{'venue': "IMC '09", 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,600
Abstract-This paper beskriver resultat på hög nivå från ett innovativt nätverk av högpresterande phasormätningsenheter (PMUs), eller mikro-PMUs (μPMUs), utformade för att ge en aldrig tidigare skådad nivå av synlighet för kraftdistributionssystem. Vi presenterar kapaciteten hos den teknik som utvecklats under loppet av ett treårigt Arpa-E-finansierat projekt, tillsammans med utmaningar och lärdomar från fältinstallationer i samarbete med flera elektriska verktyg. Utöver specifika tillämpningar och användningsfall för μPMU-data som studeras inom ramen för detta projekt, diskuterar detta dokument ett bredare spektrum av diagnostiska tillämpningar som verkar lovande för framtida arbete, särskilt i närvaro av stora penetrationer av variabla distribuerade energiresurser.
Dessutom är hög precision phasor måttenheter (PMUs) som kallas mikro-PMUs (μPMUs) utformas särskilt för distributionsnät REF.
7,607,748
Precision Micro-Synchrophasors for Distribution Systems: A Summary of Applications
{'venue': 'IEEE Transactions on Smart Grid', 'journal': 'IEEE Transactions on Smart Grid', 'mag_field_of_study': ['Engineering', 'Computer Science']}
13,601
Abstract-This paper presents a empirical study on the performance of mobile High Speed Packet Access (en 3,5G cellulär standard brukar förkortas som HSPA) nätverk i Hong Kong genom omfattande fälttester. Vår studie, ur slutanvändarnas synvinkel, omfattar praktiskt taget alla möjliga rörliga scenarier i stadsområden, inklusive tunnelbana, tåg, färjor till havs och stadsbussar. Vi har bekräftat att rörligheten till stor del har negativa effekter på prestandan hos HSPA-nät, eftersom en snabbt föränderlig trådlös miljö orsakar allvarlig försämring av tjänsterna eller till och med avbrott. Samtidigt har våra fältexperimentresultat visat oväntade nya rön och därmed avslöjat nya funktioner i de mobila HSPA-nätverken, vilket motsäger allmänt hållna åsikter. Vi får överraskande reda på att rörlighet kan förbättra rättvisa bandbreddsdelning bland användare och trafikflöden. Även de utlösande och slutliga resultaten av överlämnanden i mobila HSPA-nät är oförutsägbara och ofta olämpliga, vilket kräver snabba reaktionsmekanismer. Dessutom finner vi att genomströmningsprestanda inte monotont minskar med ökad rörlighetsnivå. Vi har forskat ingående för att ge detaljerad analys och förklaringar till vad vi har observerat. Vi drar slutsatsen att rörlighet är ett tveeggat svärd för HSPA-nätverk. Såvitt vi vet är detta den första offentliga rapporten om en storskalig empirisk studie av prestandan hos kommersiella mobila HSPA-nät.
Tso m.fl. studera prestandan hos mobila HSPA (en 3,5G cellulär standard) nätverk i Hongkong med hjälp av omfattande fälttester REF.
1,135,054
Mobility: A Double-Edged Sword for HSPA Networks: A Large-Scale Test on Hong Kong Mobile HSPA Networks
{'venue': 'IEEE Trans. Parallel Distrib. Syst.', 'journal': 'IEEE Trans. Parallel Distrib. Syst.', 'mag_field_of_study': ['Computer Science']}
13,602
Mål: Kvalitetssäkring av programvara är en formell process för att utvärdera och dokumentera kvaliteten på arbetsprodukterna under varje steg av programvaruutvecklingens livscykel. Bruket att tillämpa programvarumått på operativa faktorer och att upprätthålla faktorer är en komplex uppgift. Framgångsrik kvalitetssäkring av programvara är i hög grad beroende av programvarumått. Den behöver koppla ihop kvalitetsmodell och programvarumått genom kvalitetsfaktorer för att kunna erbjuda mätmetod för kvalitetssäkring av programvara. Bidragen från detta papper bygga en lämplig metod för programkvalitetsmått tillämpning i kvalitet livscykel med kvalitetssäkring av programvara. Design: Syftet metod definierar vissa programvarumått i faktorerna och diskuterade flera program kvalitetssäkring modell och vissa kvalitetsfaktorer mäta metod. Metodologi: Detta papper löser kundvärdering problem är: Bygga en ram av kombination av kvalitetskriterier för programvara. Beskriver programvarumått. Bygga programvara kvalitetsmått ansökan i kvalitet livscykel med kvalitetssäkring av programvara. Resultat: Från den lämpliga metoden för programkvalitetsmått tillämpning i kvalitetslivscykel med kvalitetssäkring av programvara, varje aktivitet i programvarans livscykel, det finns en eller flera QA kvalitetsmått fokus på att säkerställa kvaliteten på processen och den resulterande produkten. Framtida forskning är nödvändigt att utöka och förbättra metoden för att förlänga mätvärden som har validerats på ett projekt, med våra kriterier, giltiga kvalitetsmått på framtida programvaruprojekt. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning.
Programvarans kvalitet har varit ett viktigt ämne från början av mjukvaruutveckling REF.
60,583,920
Software Quality Factors and Software Quality Metrics to Enhance Software Quality Assurance
{'venue': None, 'journal': 'British Journal of Applied Science and Technology', 'mag_field_of_study': ['Computer Science']}
13,603
Abstract-Nows, användare kräver tillgång till videoinnehåll när som helst och var som helst. LTE-sändningstjänster och videoströmningstjänster kan minska de resurser som telekommunikationsföretagen använder för att ge tillgång till videoinnehåll och öppna nya affärsmöjligheter. I detta sammanhang kan testbäddar och simuleringsverktyg bidra till analysen av de olika parametrar som måste beaktas vid spridningen av videotjänster baserade på LTE. I detta dokument beskriver vi utformningen och genomförandet av en virtualiserad plattform med öppen källkod som stöder både LTE-sändningar och videoströmningstjänster. Testbädden används både över verkliga LTE-nätverk och LTE-nätverksemuleringar för att analysera prestandan hos videoströmningstjänster och för att validera nya förslag.
I REF beskriver författarna utformningen och genomförandet av en virtualiserad plattform med öppen källkod som stöder både LTE-sändningar och videoströmningstjänster och analyserar tjänsteprestanda.
15,331,569
A virtualized platform for analyzing LTE broadcast services
{'venue': '2015 European Conference on Networks and Communications (EuCNC)', 'journal': '2015 European Conference on Networks and Communications (EuCNC)', 'mag_field_of_study': ['Computer Science']}
13,604
Mobile-edge computing (MEC) och trådlös kraftöverföring är två lovande tekniker för att förbättra beräkningskapaciteten och för att förlänga drifttiden för trådlösa enheter med låg effekt som är allmänt förekommande i sakernas Internet. Beräkningsprestandan och den skördade energin påverkas dock avsevärt av den allvarliga spridningsförlusten. För att ta itu med denna fråga studeras ett trådlöst MEC-drivet system för obemannade luftfartyg (UAV). Beräkningshastigheten maximeringsproblem i ett trådlöst MEC-drivet UAV-system undersöks under både partiella och binära beräkningsavlastningslägen, med förbehåll för den energislitna orsaksbegränsningen och UAV:s hastighetsbegränsning. Dessa problem är inte konvexa och utmanande att lösa. En tvåstegsalgoritm och en trestegs alternativ algoritm föreslås för att lösa de formulerade problemen. De slutna formuttrycken för den optimala centralenhetens frekvenser, användarens avlastningstid och användarens sändningseffekt härleds. Det optimala urvalssystemet för huruvida användare väljer att lokalt beräkna eller avlasta beräkningsuppgifter föreslås för det binära avlastningsläget. Simuleringsresultat visar att våra föreslagna resursfördelningssystem överträffar andra referenssystem. Resultaten visar också att de föreslagna systemen konvergerar snabbt och har låg beräkningsmässig komplexitet. Index Terms-Mobile-edge computing, trådlös kraftöverföring, obemannade luftfartyg-aktiverad, resursfördelning, binär beräkning offloading, partiell beräkning offloading.
En UAV-assisterad mobil-edge datorsystem med en UAV och flera användare studerades i REF, där UAV agerade för att ge trådlös kraftöverföring i nedlänken och som en mobil kant datorserver i upplänken.
48,364,286
Computation Rate Maximization in UAV-Enabled Wireless-Powered Mobile-Edge Computing Systems
{'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science', 'Engineering', 'Mathematics']}
13,605
Samverkansmärkning beskriver den process genom vilken många användare lägger till metadata i form av nyckelord till delat innehåll. Nyligen, kollaborativ taggning har vuxit i popularitet på webben, på webbplatser som tillåter användare att tagga bokmärken, fotografier och annat innehåll. I detta dokument analyserar vi strukturen av samverkande märkningssystem samt deras dynamiska aspekter. Specifikt, Vi upptäckte regularities i användaraktivitet, taggfrekvenser, typer av taggar som används, spricker av popularitet i bokmärken och en anmärkningsvärd stabilitet i de relativa proportionerna av taggar inom en given webbadress. Vi presenterar också en dynamisk modell av samarbetsmärkning som förutsäger dessa stabila mönster och relaterar dem till imitation och delad kunskap.
Bland dessa forskning var en studie av Golder och Huberman REF, från HP Labs, som analyserade strukturen av samarbete taggning för att upptäcka regularities i användaraktivitet, taggfrekvenser, den typ av taggar som används och spricker av popularitet i bokmärkenade webbadresser i del.icio.us systemet.
3,205,721
The Structure of Collaborative Tagging Systems
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
13,606
Abstrad-Söka efter innehåll i peer-to-peer nätverk är ett intressant och utmanande problem. Frågor i Gnutella-Iike ostrukturerade system som använder översvämningar eller slumpmässig promenad för att söka måste besöka O ( n ) noder i ett nätverk av storlek R, vilket förbrukar betydande mängder bandbredd. I detta dokument föreslår vi en frågerouting protokoll som tillåter låg bandbredd förbrukning under förfrågan vidarebefordring med hjälp av en låg kostnad mekanism för att skapa och underhålla information om närliggande objekt. För att uppnå detta, vårt protokoll upprätthåller en lätt probabilistisk routing tabell vid varje nod som tyder på platsen för varje objekt i nätverket. Efter de cortesponding routing tabellposter, en fråga kan nå destinationen i ett litet antal humle med stor sannolikhet. Det krävs dock icke-traditionella mekanismer för att hålla routingtabellerna i ett stort och mycket dynamiskt nätverk. Vi designar en ny datastruktur som kallas en exponentiellt förfallande Blmm Filter (EDBF) som kodar sådana probabilistiska routing tabeller på ett mycket komprimerat sätt, och möjliggör effektiv aggregering och förökning. Den sökning primitiver som tillhandahålls av vårt system kan användas för att söka efter enkla nycklar eller flera nyckelord med lika lätthet. Analytisk modellering av vår design förutspår betydande förbättringar i sökeffektivitet, verifieras genom omfattande simuleringar där vi observerade en storleksordning minskning i frågeväg längd jämfört med tidigare förslag.
Exponentially Decaying Bloom Filters REF probabilistically koda routing tabeller på ett mycket komprimerat sätt som möjliggör effektiv aggregering och spridning av routing information i ostrukturerade peer-to-peer nätverk.
10,184,291
Efficient and scalable query routing for unstructured peer-to-peer networks
{'venue': 'Proceedings IEEE 24th Annual Joint Conference of the IEEE Computer and Communications Societies.', 'journal': 'Proceedings IEEE 24th Annual Joint Conference of the IEEE Computer and Communications Societies.', 'mag_field_of_study': ['Computer Science']}
13,607
Data sparness är ett av de mest utmanande problemen för recommender system. En lovande lösning på detta problem är korsdomänrekommendationer, dvs. att utnyttja återkopplingar eller betyg från flera områden för att förbättra rekommendationsprestandan på ett kollektivt sätt. I detta dokument föreslår vi en ram för integrering och kartläggning av gränsöverskridande rekommendationer, kallad EMCDR. Det föreslagna EMCDR-ramverket skiljer sig från befintliga gränsöverskridande rekommendationsmodeller i två avseenden. För det första används en flerskikts perceptron för att fånga den icke-linjära kartfunktionen mellan olika domäner, vilket ger hög flexibilitet för att lära sig domänspecifika egenskaper hos enheter inom varje domän. För det andra används endast enheter med tillräckliga data för att lära sig kartläggningsfunktionen, vilket garanterar dess robusthet för buller som orsakas av data gleshet inom en och samma domän. Omfattande experiment med två korsdomäniska rekommendationsscenarier visar att EMCDR avsevärt överträffar de senaste metoderna för korsdomänrekommendationer.
I rekommendationssystem använde REF slutligen ett tvärdomänskt rekommendationssystem för att utnyttja återkopplingar eller betyg från flera områden och förbättra rekommendationsprestandan.
19,627,224
Cross-domain recommendation: an embedding and mapping approach
{'venue': 'IJCAI', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,608
En fråga i routingprotokollet för trådlösa sensornätverk (WSN) är hur man kan ge så mycket säkerhet som möjligt till vissa speciella applikationer. En annan är hur man till fullo kan utnyttja den starkt begränsade resurs som WSN:s presenterar. De befintliga routingprotokollen i den senaste litteraturen fokuserar antingen bara på att ta itu med säkerhetsfrågor och samtidigt använda mycket kraft eller bara på att förbättra nätverkets livslängd. Ingen av dem kombinerar effektivt de två ovannämnda utmaningarna med en enda integrerad lösning. I detta papper föreslår vi effektiva och säkra routing protokoll baserat på kryptering och autentisering för WSN: Bearp, som består av tre faser: grannen upptäckt fas, routing upptäckt fas, och routing underhåll fas. BEARP krypterar alla kommunikationspaket och autentiserar källnoder och basstationen (BS), och det säkerställer de fyra säkerhetsfunktionerna inklusive routing informationsekretess, autentisering, integritet och friskhet. Dessutom designar vi fortfarande routing banvalssystem, intrångsdetekteringssystem och den flertrådiga processmekanismen för BEARP. Därför är alla säkra mekanismer förenade för att effektivt stå emot vissa typiska attacker, däribland selektiv vidarebefordringsattack, maskhålsattacker, sjunkhålsattacker och till och med en nod som fångas. Vår BEARP minskar särskilt lasten av sensornoder genom att överföra routing relaterade uppgifter till BS, som inte bara upprätthåller nätverk bred energi ekvivalens och förlänger nätverkets livslängd utan också förbättrar vår säkerhetsmekanism som utförs unikt av den säkra BS. Simuleringsresultat visar en gynnsam ökning av prestanda för BEARP jämfört med riktad diffusion protokoll och säker riktad diffusion protokoll i närvaro av komprometterade noder.
REF diskuterar effektivt och säkert routingprotokoll baserat på kryptering och autentisering.
9,215,777
Efficient and Secure Routing Protocol Based on Encryption and Authentication for Wireless Sensor Networks
{'venue': None, 'journal': 'International Journal of Distributed Sensor Networks', 'mag_field_of_study': ['Computer Science']}
13,609
En bra rörlighetsmodell är en nödvändig förutsättning för prestandautvärdering av protokoll för trådlösa nätverk med nodrörlighet. Sensornoder i ett trådlöst Body Area Network (WBAN) uppvisar hög rörlighet. WBAN topologin kan helt förändras på grund av förändringar i hållningen och rörelser även inom en viss typ av hållning. WBAN rör sig också som helhet i ett omgivande nätverk. Därför är en lämplig rörlighetsmodell av stor betydelse för utvärdering av resultat. Detta dokument presenterar en omfattande konfigurerbar mobilitetsmodell MoBAN för utvärdering av intra och extra-WBAN kommunikation. Det implementerar olika hållningar samt individuell nod rörlighet inom en viss hållning. Modellen kan anpassas till ett brett spektrum av tillämpningar för WBAN. Modellen görs tillgänglig via http://www.es.ele.tue.nl/nes/, som ett tillägg till mobilitetsramen för simulatorn OMNeT++. Två fallstudier illustrerar användningen av rörlighetsmodellen för utvärdering av nätverksprotokollens prestanda.
Mobilitetsmodeller för WBAN som drivs från experiment studerades i REF.
11,633,195
MoBAN: A configurable mobility model for wireless body area networks
{'venue': 'in Proc. of 4th Int’l Conf. on Simulation Tools and Techniques (SIMUTools). ICST', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,610
I paradigmet för lärande med flera uppgifter lär man sig flera relaterade förutsägelser gemensamt och delar med sig av information över uppgifterna. Vi föreslår en ram för lärande med flera uppgifter som gör det möjligt för en att selektivt dela med sig av informationen över uppgifterna. Vi antar att varje aktivitet parameter vektor är en linjär kombination av ett begränsat antal underliggande basuppgifter. Koefficienterna för den linjära kombinationen är glesa till sin natur och överlappningen i två uppgifters gleshetsmönster styr hur mycket som delas mellan dessa. Vår modell bygger på antagandet att uppgiftsparametrar inom en grupp ligger i en subrymd med låg dimension men tillåter uppgifterna i olika grupper att överlappa varandra i en eller flera baser. Experimentella resultat på fyra datauppsättningar visar att vårt tillvägagångssätt överträffar konkurrerande metoder.
Senare, en multi-task lärande algoritm som gör det möjligt att dela en eller flera latent grund för uppgift som tillhör olika grupper presenteras i REF.
9,494,747
Learning Task Grouping and Overlap in Multi-task Learning
{'venue': 'ICML', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
13,611
Abstrakt. BitTorrent klientprogrammet är ett populärt verktyg för att distribuera de stora filerna över Internet. Verktyget kan dock användas för olaglig distribution av vissa filer. En sådan verksamhet betraktas som en it-brottslighet. För att hjälpa den rättsmedicinska utredaren att bekämpa it-brotten genomförde vi forskningen, under vilken vi undersökte de bevis som BitTorrent klient ansökan lämnat i den lokala datorn som fungerar under Windows 8.1. Under experimentet studerade vi de bevis som BitTorrent-klienten lämnat i Windows-registret och i BitTorrent-klientens konfigurationsfiler. Vi undersökte också möjligheterna att ta bort bevisen för användningen av BitTorrent ansökan för att dölja ett sådant faktum. Experimentet avslöjade att bevisen lämnas antingen i Windows-registret eller i BitTorrent konfigurationsfiler eller båda beroende på borttagningsläget för BitTorrent klientprogrammet. BitTorrent konfigurationsfiler kan endast avslöja om it-brottet begicks.
Venčkauskas m.fl. REF undersökte den senaste versionen av BitTorrent klienten för Windows 8.1 operativsystem.
27,351,952
Investigation of Artifacts Left by BitTorrent Client on the Local Computer Operating under Windows 8.1
{'venue': 'ITC', 'journal': 'ITC', 'mag_field_of_study': ['Computer Science']}
13,612
I den här artikeln presenterar vi Power Agent-ett genomträngande spel som utformats för att uppmuntra tonåringar och deras familjer att minska energiförbrukningen i hemmet. Idéerna bakom detta mobiltelefonbaserade spel är tvåfaldiga; att omvandla hemmiljön och dess enheter till en lärande arena för praktisk erfarenhet av elanvändning och att främja engagemang via ett lagtävlingssystem. Vi rapporterar om spelets utvärdering med sex tonåringar och deras familjer som spelade spelet i tio dagar i två städer i Sverige. Datainsamlingen bestod av hemenergimätningar före, under och efter ett spelförsök, förutom intervjuer med deltagare i slutet av utvärderingen. Resultaten tyder på att spelkonceptet var mycket effektivt när det gällde att motivera och engagera spelarna och deras familjer att ändra sina dagliga energikonsumtionsmönster under spelförsöket. Även om utvärderingen inte tillåter några slutsatser om huruvida spelet hade några effekter efter spelet på beteende, kan vi dra slutsatsen att den genomträngande övertygande spel tillvägagångssätt verkar vara mycket lovande när det gäller energibevarande och liknande områden eller frågor.
Gustafsson och Bang REF utformade ett omfattande mobilbaserat spel kallat "Power Agent" för att utbilda tonåringar och deras familjer för att minska energiförbrukningen i deras hem.
53,241,952
Evaluation of a pervasive game for domestic energy engagement among teenagers
{'venue': 'CIE', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,613
Det har nyligen gjorts betydande arbete med teori och tillämpning av randomiserade algoritmer för koordinatnedstigning, med början i Nesterovs arbete [SIAM J. Optim., 22.2. 2012 ], som visade att en slumpmässig koordinat urval regel uppnår samma konvergens takt som Gauss-Southwell urval regel. Detta resultat tyder på att vi aldrig bör använda Gauss-Southwell regeln, eftersom det är typiskt mycket dyrare än slumpmässigt urval. De empiriska beteendena hos dessa algoritmer motsäger dock detta teoretiska resultat: i tillämpningar där beräkningskostnaderna för urvalsreglerna är jämförbara tenderar urvalsregeln Gauss-Southwell att prestera betydligt bättre än slumpmässiga koordinatval. Vi ger en enkel analys av Gauss-Southwell regeln visar att-utom i extrema fall-dess konvergens är snabbare än att välja slumpmässiga koordinater. Vi också (i) visar att exakt koordinatoptimering förbättrar konvergensen för vissa glesa problem, (ii) föreslå en Gauss-Southwell-Lipschitz regel som ger en ännu snabbare konvergens takt med tanke på kunskapen om Lipschitz konstanter av de partiella derivat, (iii) analysera effekten av ungefärliga Gauss-Southwell regler, och (iv) analysera proximal-gradient varianter av Gauss-Southwell regeln. Det har funnits ett stort intresse på senare tid för att tillämpa koordinatnedstigningsmetoder för att lösa storskaliga optimeringsproblem, med början i Nesterovs seminala arbete [2012], som gav den första globala konvergensanalysen för koordinatavslappningsmetoder för att minimera konvexa funktioner. Denna analys tyder på att välja en slumpmässig koordinat för att uppdatera ger samma prestanda som att välja den "bästa" koordinaten att uppdatera via dyrare Gauss-Southwell (GS) regel. (Nesterov föreslog också en mer smart randomiserad plan, som vi behandlar senare i detta dokument.) Detta resultat ger ett övertygande argument för att använda randomiserad koordinatnedstigning i sammanhang där GS-regeln är för dyr. Det tyder också på att det inte finns någon fördel med att använda GS-regeln i sammanhang där den är relativt billig. Men i dessa sammanhang, GS regel ofta betydligt överträffar randomiserade koordinat urval i praktiken. Detta tyder på att antingen analysen av GS inte är stram, eller att det finns en klass av funktioner för vilka GS-regeln är lika långsam som randomiserad koordinat nedstigning. Efter att ha diskuterat sammanhang där det är meningsfullt att använda koordinatnedstigning och GS-regeln besvarar vi denna teoretiska fråga genom att göra en noggrannare analys av GS-regeln (under starka konvexitets- och standardsantaganden) som ger samma hastighet som den randomiserade metoden för en begränsad klass av funktioner, men som annars är snabbare (och i vissa fall betydligt snabbare). Vi visar vidare att GS-metoden med exakt koordinatoptimering, jämfört med den vanliga konstanta stegvisa uppdateringen av koordinaten, har en märkbart snabbare takt för problem som uppfyller en viss gleshetsbegränsning (avsnitt 5). Vi tror att detta är det första resultatet som visar en teoretisk fördel med exakt koordinatoptimering; alla tidigare analyser visar att dessa strategier får samma hastighet som konstanta steg-storlek uppdateringar, även om exakt optimering tenderar att vara snabbare i praktiken. I avsnitt 6 föreslår vi dessutom en variant av GS-regeln som, i likhet med Nesterovs mer smarta slumpmässiga provtagningssystem, använder sig av kunskap om Lipschitz-konstanterna i de koordinatvisa gradienterna för att få en snabbare hastighet. Vi analyserar också ungefärliga GS-regler (avsnitt 7), som Nesterovs hastigheter visar att koordinatnedstigning kan vara snabbare än lutningsnedstigning i fall där, om vi optimerar n-variabler, kostnaden för att utföra n-koordinatuppdateringar liknar kostnaden för att utföra en fullständig gradient iteration. Detta innebär i huvudsak att koordinat nedstigning metoder är användbara för att minimera konvexa funktioner som kan uttryckas i en av följande två former: där x i är element i x, f är slät och billig, f ij är slät, G = {V, E} är en graf, och A är en matris. (Det antas att alla funktioner är konvexa.) 1 Familjen av funktioner h 1 inkluderar kärn maskininlärning problem såsom minst kvadrater, logistisk regression, lasso, och SVMs (när löst i dubbel form) [Hsieh et al., 2008]. Familj h 2 innehåller kvadratiska funktioner, grafbaserade etikettutbredning algoritmer för semiövervakad lärande [Bengio et al., 2006], och hitta de mest sannolika uppdrag i kontinuerlig parvis grafiska modeller [Rue och Held, 2005]. I allmänhet är GS-regeln för problem h 2 lika dyr som en fullständig gradientbedömning. G:s struktur möjliggör dock ofta ett effektivt genomförande av GS-regeln. Till exempel, om varje nod har som mest d grannar, kan vi spåra lutningarna av alla variabler och använda en max-heap struktur för att genomföra GS-regeln i O(d log n) tid [Meshi et al., 2012]. Detta liknar kostnaden för den randomiserade algoritmen om d på grund av den genomsnittliga kostnaden för den randomiserade metoden beror på den genomsnittliga graden). Detta villkor är sant i en mängd olika tillämpningar. Till exempel, i rumslig statistik använder vi ofta tvådimensionella rutnätsstrukturerade grafer, där den maximala graden är fyra och den genomsnittliga graden är något mindre än 4. Som ett annat exempel, för att tillämpa grafbaserad märkning förökning på Facebook grafen (för att upptäcka spridningen av sjukdomar, till exempel), är det genomsnittliga antalet vänner runt 200 men ingen användare har mer än sju tusen vänner. 2 Det maximala antalet vänner skulle vara ännu mindre om vi avlägsnade kanter baserat på närhet. Ett icke-sparsivt exempel där GS är effektivt är kompletta grafer, eftersom den genomsnittliga graden och den maximala graden här är båda (n − 1). GS-regeln är således effektiv för att optimera täta kvadratiska funktioner. Å andra sidan kan GS vara mycket ineffektivt för stjärngrafer. Om varje kolumn av A har som mest c non-noles och varje rad har högst r non-noles, då för många anmärkningsvärda fall av problem h 1 kan vi genomföra GS-regeln i O(cr log n) tid genom att behålla Ax samt lutningen och igen med hjälp av en max-heap (se tillägg A). GS kommer således att vara effektivt om cr liknar antalet icke-nollor i A dividerat med n. Annars Dhillon et al. [2011] visar att vi kan approxima GS regeln för problem h 1 med ingen g i funktioner genom att lösa en närmaste granne problem. Deras analys av GS-regeln i det konvexa fallet ger dock samma konvergensgrad som erhålls genom slumpmässigt urval (även om den konstanta faktorn kan vara mindre med en faktor upp till n). Mer nyligen, Shrivastava och Li [2014] ger en allmän metod för att approximera GS-regeln för problem h 1 med ingen g i funktioner genom att skriva det som en maximal inre produkt sökproblem. Vi är intresserade av att lösa konvex optimering problem 1 Vi kan också överväga något mer allmänna fall som funktioner som definieras på hyper-kanter [Richtárik och Takáč, 2015], förutsatt att vi fortfarande kan utföra n koordinat uppdateringar för en liknande kostnad till en gradient utvärdering. 2 https://recordsetter.com/world-record/facebook-friends 2 där en koordinatvis L-Lipschitz kontinuerlig, dvs. för varje i = 1,...., n, där e i är en vektor med en en i läge i och noll i alla andra positioner. För två-differentiable funktioner, är detta likvärdigt med antagandet att de diagonala elementen i hessian begränsas i magnitud av L. I kontrast, det typiska antagandet som används för gradient metoder är att till är Den koordinat-descent metod med konstant steg-storlek är baserad på iteration Den randomiserade koordinat-urval regel väljer i k enhetligt från uppsättningen {1, 2,.., n}. Alternativt väljer GS-regeln koordinaten med den största riktningsderivatan. Under endera regeln, eftersom f är koordinatmässigt Lipschitz kontinuerlig, vi får följande bundna på de framsteg som görs av varje iteration: Vi fokuserar på fallet där f är μ-starkt konvex, vilket innebär att, för vissa positiva μ, vilket innebär att där x * är den optimala lösningen av (1). Denna gräns erhålls genom att minimera båda sidor av (3) med avseende på y. Konditionering på σ-fältet F k−1 genereras av sekvensen {x 0, x 1,. ., x k-1 }, och med förväntningar på båda sidor av (2), när i k väljs med enhetlig provtagning vi få Använda (4) och subtrahera f (x * ) från båda sidor, vi får Detta är ett specialfall av Nesterov [2012, Theorem 2] med α = 0 i sin notation. Vi tänker nu på de framsteg som GS-regeln innebär. Genom definitionen av i k, Tillämpa denna ojämlikhet till (2), vi får som tillsammans med (4), innebär att detta är ett specialfall av Boyd och Vandenberghe [2004, § 9.4.3], betraktar GS-regeln som utför brantaste nedstigning i 1-normen. Även om detta är snabbare än vad som är känt för cykliskt koordinatval [Beck och Tetruashvili, 2013] och innehar deterministiskt snarare än i förväntan, är denna siffra densamma som den som anges i (5). Bristen på den befintliga GS-analysen är att för mycket går förlorat när vi använder ojämlikheten i (6). För att undvika behovet av att använda denna ojämlikhet, mäter vi istället stark konvexitet i 1-normen, dvs., som är analogen av (3). Minimera båda sidor med avseende på y, vi får som använder sig av konvex konjugat (och Vandenberghe, 2004, §3.3). Använda (8) i (2) och det faktum att ( ∞ för GS-regeln, vi får Det är uppenbart att om μ 1 = μ/n, då de hastigheter som underförs av (5) och (9) är identiska, men (9) är snabbare om μ 1 > μ/n. I bilaga B visar vi att relationen mellan μ och μ 1 kan erhållas genom förhållandet mellan de fyrkantiga normerna och ·. I synnerhet har vi således, på en ytterlighet GS regeln får samma hastighet som enhetligt urval (μ 1 på μ/n). Vid den andra ytterligheten kan det dock vara snabbare än ett enhetligt urval med en faktor av n (μ 1 μ). Denna analys, att GS regeln endast får samma bundna som slumpmässiga urval i ett extremt fall, stöder bättre praktiskt beteende GS. Vi illustrerar dessa två ytterligheter med det enkla exemplet på en kvadratisk funktion med en diagonal hessian Vi bevisar riktigheten av denna formel för μ 1 i bilaga C. Parametern μ 1 uppnår sin nedre gräns när alla λ i är lika, λ 1 = · · = λ n = α > 0, i vilket fall alltså enhetligt urval gör liksom GS-regeln om alla element i lutningen ändras i exakt samma takt. Detta är rimligt: under detta villkor finns det ingen uppenbar fördel med att välja koordinaten för att uppdatera på ett smart sätt. Intuitivt kan man förvänta sig att det gynnsamma fallet för Gauss-Southwell regeln skulle vara där en λ i är mycket större än de andra. I detta fall liknar emellertid μ 1 åter μ/n. För att uppnå den andra ytterligheten, anta att λ 1 = β och λ 2 = λ 3 = · · = λ n = α med α ≥ β. I detta fall har vi μ = β och om vi tar α → ∞, då har vi μ 1 → β, så μ 1 → μ. Detta fall är mycket mindre intuitivt; GS är n gånger snabbare än slumpmässig koordinat val om en del av lutningen förändras mycket långsammare än de andra. I det åtskiljbara kvadratiska fallet ovan ges μ 1 av det harmoniska medelvärdet av hessianens eigenvärden dividerat med n. Det harmoniska medelvärdet domineras av dess minsta värden, och det är därför som ha ett litet värde är ett anmärkningsvärt fall. Dessutom har det harmoniska medelvärdet delat med n en tolkning i termer av processer som "arbetar tillsammans" [Ferger, 1931]. Om varje λ i representerar den tid som varje process tar för att avsluta en uppgift (t.ex., stora värden av λ i motsvarar långsamma arbetare), är μ den tid som krävs av den snabbaste arbetaren för att slutföra uppgiften, och μ 1 är den tid som behövs för att slutföra uppgiften om alla processer fungerar tillsammans (och har oberoende effekter). Med hjälp av denna tolkning ger GS-regeln den största fördelen jämfört med slumpmässigt urval när det inte är effektivt att arbeta tillsammans, vilket innebär att om n-processerna fungerar tillsammans, då är uppgiften inte löst mycket snabbare än om den snabbaste arbetaren utförde uppgiften ensam. Detta ger en tolkning av det icke-intuitiva scenariot där GS ger störst nytta: om alla arbetstagare har samma effektivitet, löser de tillsammans problemet n gånger snabbare. På samma sätt, om det finns en långsam arbetare (stor λ i ), då problemet löses ungefär n gånger snabbare genom att arbeta tillsammans. Å andra sidan, om de flesta arbetstagare är långsamma (många stora λ i ), då arbetar tillsammans har liten nytta. Överväga standard linjär-prediction ram, där vi har inkluderat en snedvariabel β (ett exempel på problem h 1 ). Vanligtvis är regularisering parametern σ av snedvariabeln inställd på att vara mycket mindre än regularization parametern λ av de andra covariates, för att undvika fördomar mot en global förändring i prediktorn. Om man antar att det inte finns någon dold stark konvexitet i summan, har detta problem den struktur som beskrivs i föregående avsnitt (μ 1 på μ) där GS har den största fördelen över slumpmässigt urval. Betrakta den mer allmänna scenario där vi har en Lipschitz konstant L i för den partiella derivatan av f med avseende på varje koordinat i, och vi använder en koordinat-beroende steg-storlek vid varje iteration: Genom logiken av (2), i denna miljö vi har och därmed en konvergens av notera att L = max i {L i}, vi har således, konvergensen som baseras på L i kommer att vara snabbare, förutsatt att åtminstone en iteration väljer en i k med L i k < L. I värsta fall, dock (13) innehar med jämlikhet även om L i är distinkt, som vi kan behöva uppdatera en koordinat med L i = L på varje iteration. (Till exempel, överväga en separat funktion där alla utom en koordinat initieras till sitt optimala värde, och den återstående koordinaten har L i = L.) I Avsnitt 6, diskuterar vi urvalsregler som införlivar L i för att uppnå snabbare hastigheter när L i är distinkt, men först anser vi effekten av exakt koordinatoptimering på valet av L i k. För problem med funktioner i form h 1 och h 2, Vi kan ofta utföra exakt (eller numeriskt mycket exakt) koordinatoptimering, även om den objektiva funktionen inte är quadratic (t.ex., genom att använda en linesearch eller en sluten-form uppdatering). Observera att (12) fortfarande håller när du använder exakt koordinatoptimering snarare än att använda en stegstorlek på 1/L i k, som i detta fall vi har som motsvarar (11). I praktiken leder dock exakt koordinatoptimering till bättre prestanda. I detta avsnitt visar vi att användningen av GS-regeln resulterar i en konvergenshastighet som faktiskt är snabbare än (9) för problem med distinkt L i när funktionen är kvadratisk, eller när funktionen inte är kvadratisk men vi utför exakt koordinatoptimering. Den viktigaste egenskapen vi använder är att, efter att vi har utfört exakt koordinatoptimering, är vi garanterade att ha om inte x k+1 är den optimala lösningen. Därför väljer vi aldrig samma koordinat två gånger i rad, vilket garanterar att ojämlikhet (13) är strikt (med distinkt L i ) och exakt koordinatoptimering är snabbare. Vi noterar att förbättringen kan vara marginell, eftersom vi helt enkelt kan växla mellan de två största L i-värdena. Men, överväga att minimera h 2 när grafen är gles; efter uppdatering i k, är vi garanterade att ha i k f (x k+m ) = 0 för alla framtida iterationer (k + m) tills vi väljer en variabel i k+m-1 som är en granne till node i k i grafen. Således, om de två största L i inte är anslutna i grafen, GS kan inte helt enkelt alternera mellan de två största L i. Genom att använda denna egenskap, i bilaga D visar vi att GS-regeln med exakt koordinatoptimering för problem h 2 under en kedjestrukturerad graf har en konvergenshastighet av formen bland på varandra följande noder i, j, och k. Konsekvensen av detta resultat är att om de stora L i-värdena är mer än två kanter från varandra i grafen, då får vi en mycket bättre konvergenshastighet. Vi antar att för allmänna grafer, kan vi få en gräns som beror på det största värdet av ρ G 2 bland alla noder i och j ansluten av en väg av längd 1 eller 2. Observera att vi kan få liknande resultat för problem h 1, genom att bilda en graf som har en kant mellan noder i och j när motsvarande variabler är båda gemensamt icke-noll i minst en rad av A. Om L i är kända, Nesterov [2012] visade att vi kan få en snabbare konvergens genom provtagning proportionellt mot L i. Vi granskar detta resultat nedan och jämför det med GS-regeln, och föreslår sedan en förbättrad GS-regel för detta scenario. Även om vi i detta avsnitt kommer att anta att L i är kända, detta antagande kan mildras med hjälp av en backtracking förfarande [Nesterov, 2012, §6.1]. Tar förväntan på (11) under distribution p i = L i / n j=1 L j och fortsätter som tidigare, får vi L j är genomsnittet av Lipschitz konstanter. Detta visades av Leventhal och Lewis [2010] och är ett specialfall av Nesterov [2012, Theorem 2] med α = 1 i sin notation. Denna hastighet är snabbare än (5) för enhetlig provtagning om någon L i skiljer sig åt. Enligt vår analys kan denna kurs vara snabbare än (9) för GS-regeln. På den ena ytterligheten, om μ 1 = μ/n och någon L i skiljer sig, då detta Lipschitz provtagningsschema är snabbare än vår hastighet för GS. I samband med problemet i avsnitt 4.1 kan vi faktiskt göra Lipschitz provtagning snabbare än GS med en faktor på nästan n genom att göra en λ i mycket större än alla andra (återkalla att vår analys inte visar någon fördel för GS-regeln över slumpmässigt urval när endast en λ i är mycket större än de andra). Vid den andra ytterligheten, i vårt exempel från avsnitt 4.1 med många stora α och en liten β, GS och Lipschitz provtagningsfrekvensen är densamma när n = 2, med en hastighet av (1 − β/(α + β)). GS-hastigheten kommer dock att vara snabbare än provtagningsfrekvensen för Lipschitz för alla α > β när n > 2, eftersom provtagningsfrekvensen för Lipschitz är (1 − β/(n − 1)α + β)), vilket är långsammare än GS-hastigheten (1 − β/(α + (n − 1)β)). Eftersom varken Lipschitz provtagning eller GS dominerar den andra i allmänhet, är vi motiverade att överväga om snabbare regler är möjliga genom att kombinera de två tillvägagångssätten. Faktum är att vi får en snabbare hastighet genom att välja 7 i k som minimerar (11), vilket leder till den regel som vi kallar Gauss-Southwell-Lipschitz (GSL) regel. Efter ett liknande argument som avsnitt 4, men med användning av (11) i stället för punkt 2, får GSL-regeln en konvergenskvot där μL är den starka konvexitetskonstanten med avseende på normen Detta visas i bilaga E, och i bilaga F visar vi att GSL-regeln därför alltid är minst lika snabb som den snabbaste GS-regeln och Lipschitz-provtagningen. Det kan faktiskt vara mer än en faktor av n snabbare än att använda Lipschitz provtagning, medan det kan få en hastighet närmare den minsta L i, i stället för den maximala L i som den klassiska GS regeln beror på. En intressant egenskap hos GSL-regeln för kvadratiska funktioner är att det är den optimala myopiska koordinatuppdateringen. Det vill säga, om vi har ett orakel som kan välja koordinaten och den steg-storlek som minskar f med den största mängden, dvs., är detta likvärdigt med att använda GSL-regeln och uppdateringen i (10). Detta beror på att (11) håller med jämlikhet i det kvadratiska fallet, och valet α k = 1/L i k ger den optimala stegstorleken. Även om snabbare system kan vara möjliga med icke-myopiska strategier som skickligt väljer sekvensen av koordinater eller steg-storlekar, om vi bara kan utföra en iteration, då GSL regeln inte kan förbättras. [Bo och Sminchisescu, 2008] och lågrankade tensor approximationer [Li et al., 2015]. Med hjälp av ett argument som liknar (14) tillämpas även vår GSL-frekvens på MI-regeln, vilket förbättrar de befintliga gränserna för denna strategi. GSL-regeln är dock mycket billigare och kräver ingen särskild struktur (återkalla att vi kan uppskatta L i som vi går). Dhillon m.fl. [2011] diskutera en intressant koppling mellan GS-regeln och närmaste granne-sök (NNS) problem för mål för formen Detta är ett specialfall av h 1 med no g i funktioner, och dess lutning har den speciella formen där r(x) = på (Ax). Vi använder symbolen r eftersom det är den kvarvarande vektorn (Ax − b) i specialfallet av minst kvadrater. För detta problem struktur GS regeln har formen där a i betecknar kolumn i av A för i = 1,..., n. Dhillon et al. [2011] föreslår en approximation av ovanstående argmax genom att lösa följande NNS-problem där i i intervallet (n + 1) till 2n avser negationen −(a i‐n ) i kolumnen (i − n) och om den valda i k är större än n återvänder vi (i − n). Vi kan motivera denna approximation med hjälp av logiken NNS beräknar alltså en approximation till GS-regeln som är partisk mot koordinater där en i är liten. Observera att denna formulering är likvärdig med GS-regeln i specialfallet att a i = 1 (eller någon annan konstant) för alla i. Shrivastava och Li [2014] mer nyligen har övervägt fallet där en i ≤ 1 och införlivar befogenheter hos en i i i NNS för att ge en bättre approximation. Ytterligare en intressant egenskap hos GSL-regeln är att vi ofta kan formulera den exakta GSL-regeln som ett normaliserat NNS-problem. Särskilt för problem (16) kommer Lipschitz-konstanterna ofta att ha formen L i = γ a i 2 för en viss positiv skalar γ. Till exempel har minst kvadrater γ = 1 och logistisk regression har γ = 0,25. När Lipschitz konstanter har denna form, kan vi beräkna den exakta GSL-regeln genom att lösa en normaliserad NNS-problem, Exaktheten i denna formel följer eftersom Således, formen av Lipschitz konstant smidigt avlägsnar fördomar mot mindre värden av ett i som blir introducerat när vi försöker formulera den klassiska GS-regeln som ett NNS-problem. Intressant nog behöver vi i denna miljö inte känna till γ för att genomföra GSL-regeln som ett NNS-problem. I många tillämpningar är den exakta GS-regeln för ineffektiv för att kunna användas praktiskt. En beräkningsmässigt billigare ungefärlig GS-regel kan dock finnas tillgänglig. Ungefärliga GS-regler under multiplikativa och additiva fel övervägdes av Dhillon et al. [2011] i det konvexa fallet, men i detta sammanhang liknar konvergenssatsen den som uppnås genom slumpmässigt urval. I detta avsnitt ger vi hastigheter beroende på μ 1 för ungefärliga GS-regler. I det multiplikativa felsystemet väljer den ungefärliga GS-regeln en i k som uppfyller för vissa k på [0, 1). I denna regim, vår grundläggande bunden på framsteg (2) fortfarande innehar, som det definierades för alla i k. Vi kan införliva denna typ av fel i vår lägre gräns (8) för att erhålla Detta innebär en konvergensgrad av Således, konvergensen av metoden är nästan identisk med att använda den exakta GS-regeln för små k (och det bryts graciöst med k ). Detta är i motsats till att ha ett fel i lutningen [Friedlander och Schmidt, 2012], där felet måste minska till noll över tid. I det additiva felsystemet väljer den ungefärliga GS-regeln en i k som uppfyller vissa k ≥ 0. I bilaga G visar vi att enligt denna regel har vi där L 1 är Lipschitz-konstanten av och f med avseende på 1-normen. Observera att L 1 kan vara betydligt större än L, så den andra delen av den maximala i A k är sannolikt den mindre delen om inte i är stora. Detta system är närmare fallet med ett fel i lutningen, eftersom k 10 måste minska till noll för att uppnå konvergens. Detta resultat innebär att ett tillräckligt villkor för algoritmen att erhålla en linjär konvergenshastighet är att felen k konvergerar till noll vid en linjär hastighet. Dessutom, om felen uppfyller k = O(ρ k ) för vissa ρ < (1 − μ 1 /L), då konvergensen av metoden är samma som om vi använde en exakt GS regel. Å andra sidan, om k inte minskar till noll, kan vi hamna upprepade gånger uppdatera samma fel koordinat och algoritmen kommer inte att konvergera (även om vi kan byta till den randomiserade metoden om detta upptäcks). En av de viktigaste motivationerna för återuppvaknandet av intresset för koordinat nedstigande metoder är deras prestanda på problem i form där f är slät och konvex och g i är konvex, men möjligen icke-smooth. Detta inkluderar problem med 1 -reglering, och optimering med lägre och / eller övre gränser på variablerna. I likhet med proximalgradientmetoder kan vi tillämpa den proximala operatören på koordinatuppdateringen, där Richtárik och Takáč [2014] med slumpmässiga koordinatval visar att denna metod har en konvergensgrad som liknar det icke-konsistenta/smooth-fallet. Det finns flera generaliseringar av GS-regeln till detta scenario. Här överväger vi tre möjligheter, som alla är likvärdiga med GS-regeln om g i inte är närvarande. För det första, GS-s regeln väljer koordinaten med den mest negativa riktning derivat. Denna strategi är populär för 1 -reglering [Shevade och Keerthi, 2003, Wu och Lange, 2008, Li och Osher, 2009 och i allmänhet ges av [se Bertsekas, 1999, §8.4] Emellertid kan längden på steget ( x k+1 - x k ) vara godtyckligt liten enligt detta val. I kontrast, GS-r regeln väljer den koordinat som maximerar längden på steg Yun, 2009, Dhillon et al., 2011], Denna regel är effektiv för bundna-konstruerade problem, men det ignorerar förändringen i den icke-smooth term. Slutligen, GS-q regeln maximerar framsteg antar en kvadratisk övre gräns på f [Tseng och Yun, 2009], Även om den minst intuitiva regeln, GS-q regeln verkar ha de bästa teoretiska egenskaper. Vidare, om vi använder L i stället för L i GS-q-regeln (som vi kallar GSL-q-strategin), då får vi GSL-regeln om g i 11 inte är närvarande. Däremot ger inte användningen av L i stället för L i GS-r-regeln (som vi kallar GSL-r-strategin) GSL-regeln som specialfall. I bilaga H visar vi att användningen av GS-q-regeln ger en konvergenshastighet där k avgränsas ovan av ett mått på g i:s icke-linjäritet längs möjliga koordinatuppdateringar gånger det omvända tillståndet μ 1 /L. Observera att k går till noll när k ökar och vi antar att ovanstående gräns faktiskt håller med k = 0. I bilaga H ger vi däremot också motexempel som visar att ovanstående sats inte håller med k = 0 för GS-s- eller GS-r-regeln, även om du ersätter minimivärdet med ett maximum. Således skulle varje gräns för GS-s eller GS-r regeln vara långsammare än den förväntade hastigheten vid slumpmässigt urval, medan GS-q regeln leder till en bättre gräns. Vi jämför först effektiviteten av olika koordinat urvalsregler på följande enkla fall av h 1. 2 -regulariserade gles minst kvadrater: Här anser vi problemet en instans av problem h 1. Vi sätter A till att vara en m by n matris med poster provtagna från en N (0, 1) distribution (med m = 1000 och n = 1000). Vi lade sedan till 1 till varje post (för att framkalla ett beroende mellan kolumner), multiplicerade varje kolumn med ett prov från N (0, 1) multiplicerat med tio (för att inducera olika Lipschitz konstanter över koordinaterna), och endast höll varje post av A icke-noll med sannolikhet 10 log(n)/n (en gleshetsnivå som tillåter Gauss-Southwell regeln att tillämpas med kostnad O(log 3 (n)). Vi sätter λ = 1 och b = Ax + e, där poster av x och e drogs från en N (0, 1) distribution. I denna inställning använde vi en stegstorlek på 1/L i för varje koordinat i, vilket motsvarar exakt koordinatoptimering. 2 -regulariserade gles logistisk regression: Här anser vi att problemet Vi ställer in en T i att vara raderna av A från föregående problem, och ställa in b = tecken(Ax), men slumpmässigt vända varje b i med sannolikhet 0,1. I den här inställningen jämförde vi med en stegstorlek på 1/L i med exakt koordinatoptimering. Överbestämda täta minsta kvadrater: Här ser vi problemet men, till skillnad från det tidigare fallet, ställer vi inte in element av A till noll och vi gör A har dimension 1000 av 100. Eftersom systemet är överbestämt, behöver det inte en explicit starkt konvex regularizer för att inducera global stark konvexitet. I detta fall innebär densitetsnivån att den exakta GS-regeln inte är effektiv. Därför använder vi en balltreestruktur [Omohundro, 1989] för att genomföra en effektiv ungefärlig GS-regel baserad på kopplingen till NNS-problemet upptäckt av Dhillon et al. Kommissionens genomförandeförordning (EU) nr 668/2014 av den 13 juni 2014 om tillämpningsföreskrifter för Europaparlamentets och rådets förordning (EU) nr 1151/2012 om kvalitetsordningar för jordbruksprodukter och livsmedel (EUT L 179, 19.6.2014, s. 1). Å andra sidan kan vi beräkna den exakta GSL-regeln för detta problem som ett NNS-problem som diskuteras i avsnitt 6.3. 1 -regularized underdefinierad gles minst kvadrater: Här anser vi att det icke-smooth problem Vi genererar A som vi gjorde för 2 -regularized gles minst kvadrater problem, utom med dimension 1000 av 10000. Detta problem är inte globalt starkt konvext, utan kommer att vara starkt konvext längs de dimensioner som inte är noll i den optimala lösningen. Vi ritar den objektiva funktionen (delad på dess ursprungliga värde) av koordinat nedstigning under olika urvalsregler i Figur 1. Även på dessa enkla dataset ser vi dramatiska skillnader i prestanda mellan de olika strategierna. GS-regeln överträffar i synnerhet det slumpmässiga urvalet av koordinater (och cykliskt urval) med stor marginal i samtliga fall. Lipschitz provtagningsstrategi kan minska denna klyfta, men den är fortfarande stor (även när en ungefärlig GS-regel används). Skillnaden mellan GS och slumpmässigt urval verkar vara mest dramatisk för 1 -regulariserade problemet; GS reglerna tenderar att fokusera på icke-noll variabler medan de flesta randomiserade / cykliska uppdateringar fokuserar på nollvariabler, som tenderar att inte flytta sig från noll. 3 Exakt koordinatoptimering och användning av GSL regeln verkar ge blygsamma men konsekventa förbättringar. De tre icke-smooth GS- * reglerna hade nästan identiska prestanda trots sina olika teoretiska egenskaper. GSL-q-regeln gav bättre prestanda än GS- *-reglerna, medan GSL-r-varianten fungerade sämre än till och med cykliska och slumpmässiga strategier. Vi fann det också möjligt att göra GS-s regeln fungerar dåligt genom att störa initiering bort från noll. Medan dessa experiment ritar prestanda i termer av antalet iterationer, i bilaga I visar vi att GS- * regler kan också vara fördelaktigt i fråga om körtid. Vi nästa överväga ett exempel på problem h 2, utför etikettutbredning för halvövervakad lärande i " två månar " dataset [Zhou et al., 2004]. Vi genererar 500 prover från denna datauppsättning, slumpvis märka fem punkter i data, och ansluta varje nod till sina fem närmaste grannar. Denna höga nivå av sparhet är typisk för grafbaserade metoder för halvövervakad inlärning, och gör det möjligt att genomföra den exakta Gauss-Southwell regeln effektivt. Vi använder det kvadratiska märkningskriteriet för Bengio et al. [2006], vilket möjliggör exakt koordinatoptimering och är normalt optimerad med cyklisk koordinatnedstigning. Vi ritar upp resultatet under olika urvalsregler i figur 2. Här ser vi att även cyklisk koordinat nedstigning överträffar randomiserad koordinat nedstigning, men att GS- och GSL-reglerna ger ännu bättre prestanda. Vi noterar att GS- och GSL-reglerna fungerar på samma sätt på detta problem eftersom Lipschitz-konstanterna inte varierar mycket. Det är uppenbart att GS-regeln inte är praktisk för alla problem där randomiserade metoder är tillämpliga. Icke desto mindre har vi visat att till och med ungefärliga GS-regler kan uppnå bättre konvergensnivåer än fullständigt randomiserade metoder. Vi har gett en liknande motivering för användningen av exakt koordinatoptimering, 3 För att minska kostnaden för GS-s-metoden i detta sammanhang, Shevade och Keerthi [2003] överväga en variant där vi först beräkna GS-s-regeln för icke-nollvariablerna och om ett element är tillräckligt stor då de inte anser nollvariabler. 14 och vi noterar att vårt argument också kan användas för att motivera användningen av exakt koordinatoptimering inom randomiserade koordinatnedstigningsmetoder (som används i våra experiment). Vi har också föreslagit den förbättrade GSL-regeln, och övervägt ungefärliga/proximala varianter. Vi förväntar oss att vår analys också gäller block uppdateringar genom att använda blandade normer · p,q, och kan användas för accelererade / parallella metoder [Fercoq och Richtárik, 2013], för primal-dual rates av dubbla koordinat uppstigning [Shalev-Shwartz och Zhang, 2013], för successiva prognosmetoder [Leventhal och Lewis, 2010], för att öka algoritmer [Rätsch et al., 2001], och för scenarier utan stark konvexitet under allmänna felgränser [Luo och Tseng, 1993].
Specifikt, ett konvext optimeringsproblem som minimerar en starkt konvex objektiv funktion ansågs i REF.
8,890,061
Coordinate Descent Converges Faster with the Gauss-Southwell Rule Than Random Selection
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
13,614
Ramen för Cascade-regression har visat sig vara effektiv för att upptäcka landmärken i ansiktet. Den börjar från en inledande ansiktsform och förutspår gradvis ansiktsform uppdateringen från de lokala utseende funktioner för att generera ansiktet landmärke platser i nästa iteration till konvergens. I detta dokument förbättrar vi ramverket för kaskadregression och föreslår Constomed Joint Cascade Regression Framework (CJCRF) för samtidig igenkänning av ansiktsåtgärder och upptäckt av ansiktsmarkörer, som är två relaterade ansiktsanalysuppgifter, men sällan utnyttjas tillsammans. I synnerhet lär vi oss först relationerna mellan ansiktsaction enheter och ansiktsformer som en begränsning. Sedan, i den föreslagna begränsade gemensamma kaskad regression ram, med hjälp av begränsningen, vi iterativt uppdatera ansiktet landmärke platser och åtgärdsenheten aktivering sannolikheter fram till konvergens. Experimentella resultat visar att de sammanflätade relationerna mellan ansiktsaction enheter och ansiktsformer ökar prestandan för både ansiktsaction enhet igenkänning och ansikts landmärke upptäckt. De experimentella resultaten visar också hur effektiv den föreslagna metoden är i jämförelse med de senaste verken.
Wu och Ji REF undersökte kombinationen av ansikts AU igenkänning och ansikts landmärke upptäckt.
8,426,942
Constrained Joint Cascade Regression Framework for Simultaneous Facial Action Unit Recognition and Facial Landmark Detection
{'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
13,615
Abstrakt. Djupa konvolutionella nätverk har uppnått stor framgång för visuellt erkännande i stillbilder. När det gäller erkännande av åtgärder i videofilmer är dock fördelen med traditionella metoder inte så uppenbar. Detta dokument syftar till att upptäcka principerna för att utforma effektiva ConvNet arkitekturer för åtgärdsigenkänning i videor och lära sig dessa modeller ges begränsad utbildning prover. Vårt första bidrag är tidssegmentnätverk (TSN), ett nytt ramverk för videobaserad igenkänning av åtgärder. som bygger på idén om långdistans tidsstrukturmodellering. Den kombinerar en sparsam strategi för timlig provtagning och övervakning på videonivå för att möjliggöra ett effektivt och effektivt lärande med hjälp av hela actionvideon. Det andra bidraget är vår studie om en rad goda metoder för att lära ConvNets om videodata med hjälp av tidssegmentnätverk. Vårt tillvägagångssätt ger den senaste prestandan på datamängderna för HMDB51 (69,4%) och UCF101 (94,2%). Vi visualiserar också de lärda ConvNet modellerna, som kvalitativt visar effektiviteten av temporal segment nätverk och de föreslagna god praxis.
I REF föreslogs tidssegmentnätverk, som huvudsakligen bygger på de två strömarkitekturerna.
5,711,057
Temporal Segment Networks: Towards Good Practices for Deep Action Recognition
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
13,616
Vi föreslår en ny visuell spårningsalgoritm baserad på representationerna från ett discriminativt utbildad Convolutional Neural Network (CNN). Vår algoritm pretrainerar en CNN med hjälp av en stor uppsättning videor med spårning jordsanningar för att få en generisk mål representation. Vårt nätverk består av delade lager och flera grenar av domänspecifika lager, där domäner motsvarar individuella träningssekvenser och varje gren ansvarar för binär klassificering för att identifiera mål i varje domän. Vi utbildar varje domän i nätverket iterativt för att få generiska målrepresentationer i de delade skikten. När vi spårar ett mål i en ny sekvens konstruerar vi ett nytt nätverk genom att kombinera de delade lagren i det förtränade CNN med ett nytt binärt klassificeringsskikt, som uppdateras online. Online spårning utförs genom att utvärdera kandidatfönstren slumpmässigt provtas runt det tidigare måltillståndet. Den föreslagna algoritmen illustrerar enastående prestanda i befintliga riktmärken för spårning.
Nam och Han REF introducerade en ny utbildningsmetod som undviker överutrustning genom att lägga till ett klassificeringsskikt till ett konvolutionellt neuralt nätverk som uppdateras online.
973,101
Learning Multi-domain Convolutional Neural Networks for Visual Tracking
{'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
13,617
Abstract-Single image dise borttagning har varit ett utmanande problem på grund av sin illa placerade natur. I det här dokumentet föreslår vi en enkel men kraftfull färgdämpning innan diset tas bort från en enda indata dimmig bild. Genom att skapa en linjär modell för att modellera scendjupet på den suddiga bilden under denna roman och lära sig modellens parametrar med en övervakad inlärningsmetod, kan djupinformationen mycket väl återvinnas. Med djupkartan över den suddiga bilden kan vi enkelt uppskatta överföringen och återställa scenstrålningen via den atmosfäriska spridningsmodellen, och därmed effektivt ta bort diset från en enda bild. Experimentella resultat visar att den föreslagna metoden överträffar state-of-the-art dise borttagningsalgoritmer både vad gäller effektivitet och dehazaring effekt.
Zhu m.fl. REF skapade en linjär modell för att modellera scenen djupet av den suddiga bilden under en färgdämpning tidigare, och lärde sig parametrarna för modellen på ett övervakat sätt.
4,252,508
A Fast Single Image Haze Removal Algorithm Using Color Attenuation Prior
{'venue': 'IEEE Transactions on Image Processing', 'journal': 'IEEE Transactions on Image Processing', 'mag_field_of_study': ['Mathematics', 'Medicine', 'Computer Science']}
13,618
Nuvarande distribuerade routingparadigm (såsom länk-state, distansvektor och vägvektor) omfattar en konvergensprocess som består av en iterativ undersökning av mellanliggande rutter som utlöses av vissa händelser, t.ex. länkfel. Konvergensprocessen ökar routerbelastningen, introducerar avbrott och övergående slingor och bromsar reaktionen på fel. Vi föreslår ett nytt routingparadigm där målet inte är att minska konvergenstiderna utan att helt eliminera konvergensprocessen. I detta syfte föreslår vi en teknik som kallas Fail-Carrying Packets (FCP) som gör det möjligt för datapaket att självständigt upptäcka en fungerande väg utan att kräva helt aktuella tillstånd i routers. Våra simuleringar, som utförs med hjälp av verkliga felspår och Rocketfuel topologies, visar att: (a) omkostnaderna för FCP är mycket låg, (b) till skillnad från traditionella länk-state routing (såsom OSPF), FCP kan ge både låg förlust samt låg kontroll overhead, (c) jämfört med tidigare arbete i backup path precomputations, FCP ger bättre routing garantier under misslyckanden trots att hålla mindre tillstånd på routrarna.
Misslyckande med paket REF försöker eliminera behovet av konvergens.
1,459,205
Achieving convergence-free routing using failure-carrying packets
{'venue': "SIGCOMM '07", 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,619
Vi presenterar två metoder för att bestämma den känsla som uttrycks i en filmrecension. Den semantiska inriktningen på en granskning kan vara positiv, negativ eller neutral. Vi undersöker valenceshifters effekt på klassificeringen av recensionerna. Vi undersöker tre typer av valenceshifters: negations, intensifierare och förminskare. Negationer används för att vända den semantiska polariteten hos en viss term, medan intensifierare och avmattare används för att öka respektive minska i vilken grad en term är positiv eller negativ. Den första metoden klassificerar recensioner baserat på antalet positiva och negativa termer de innehåller. Vi använder General Inquirer för att identifiera positiva och negativa termer, såväl som negationstermer, intensifierare och förminskare. Vi använder också positiva och negativa termer från andra källor, inklusive en ordbok av synonymskillnader och en mycket stor Web corpus. För att beräkna corpus-baserade semantiska orienteringsvärden för termer använder vi deras associationspoäng med en liten grupp av positiva och negativa termer. Vi visar att en förlängning av terminsräkningsmetoden med kontextuella valenceshifters förbättrar klassificeringens noggrannhet. Den andra metoden använder en maskininlärningsalgoritm, Support Vector Machines. Vi börjar med unigramfunktioner och lägger sedan till bigrams som består av en valenceshifter och ett annat ord. Klassificeringens noggrannhet är mycket hög, och valenceshifter bigrams förbättrar den något. De egenskaper som bidrar till den höga noggrannheten är orden i listorna över positiva och negativa termer. Tidigare arbete fokuserade på antingen terminsräkningsmetoden eller Maskininlärningsmetoden. Vi visar att kombinera de två metoderna uppnår bättre resultat än någondera metoden ensam.
Kennedy REF föreslog två metoder: känsloklassificering baserad på antalet emotionella ord och användning av Support Vector Machines.
16,414,995
Sentiment Classification of Movie Reviews Using Contextual Valence Shifters
{'venue': 'Computational Intelligence', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,620
För att beräkna kameraperspektiv under sensorplanering presenterar Tarabanis et a1 en grupp funktionsdetekteringsbegränsningar som inkluderar sex icke-linjära ojämlikheter i ett åttadimensionellt verkligt utrymme. Det är svårt att beräkna robusta perspektiv som uppfyller alla funktioner avkännbarhet Restriktioner. I detta dokument formuleras synpunktsinställningen som ett oinskränkt optimeringsproblem. Därefter används en träd glödgningsalgoritm, som är en allmän-purpose-teknik för att hitta minima av funktioner av kontinuerligt värderade variabler, för att lösa detta icke-linjära multiconstraint optimeringsproblem. Våra resultat visar att tekniken är ganska effektiv för att få robusta synpunkter även i närvaro av betydande mängder buller.
Dessutom Yao och Allen REF, formulera problemet med sensorplacering som en okonstruerad optimering problem, och tillämpa träd-annealing för att beräkna optimala kamera synpunkter i närvaro av buller.
54,770,744
Computing robust viewpoints with multi-constraints using tree annealing
{'venue': '1995 IEEE International Conference on Systems, Man and Cybernetics. Intelligent Systems for the 21st Century', 'journal': '1995 IEEE International Conference on Systems, Man and Cybernetics. Intelligent Systems for the 21st Century', 'mag_field_of_study': ['Computer Science']}
13,621
Abstract-In Mobile Cognitive Radio Ad Hoc Networks routing är en av de viktigaste frågorna att tas upp och önskar djup utredning. I det här dokumentet föreslår vi ett distribuerat och effektivt klusterbaserat interferensmedvetet routingprotokoll. Den införlivar kostnaderna för spektrumtillgång och interferensmått i routingalgoritmen för att hitta bättre rutter. En ruttbevarande metod ingår också i den föreslagna algoritmen för att reparera rutten när den är defekt på grund av primär användaraktivitet. Resultaten av ns2-simuleringar visar att den föreslagna algoritmen mycket väl kan passa in i de mobila kognitiva radio ad hoc-nätverken och förbättra nätverksprestandan. Resultaten visar att Förenta staterna ger bättre anpassningsförmåga till miljön och ökar genomströmningen och minskar dataleveranslatensen.
I REF föreslås en distribuerad klusterbaserad routingalgoritm för CRN för att maximera nätverkets dataflöde och minimera end-to-end fördröjning.
18,128,213
United nodes: cluster-based routing protocol for mobile cognitive radio networks
{'venue': 'IET Communications', 'journal': 'IET Communications', 'mag_field_of_study': ['Computer Science']}
13,622
Det är ett känt faktum att utbildning återkommande neurala nätverk för uppgifter som har långsiktiga beroenden är utmanande. En av de främsta orsakerna är den försvinnande eller exploderande gradient problem, som förhindrar gradient information från att sprida sig till tidiga skikt. I detta dokument föreslår vi en enkel återkommande arkitektur, Fourier Recurrent Unit (FRU), som stabiliserar de lutningar som uppstår i dess träning samtidigt som vi ger oss starkare uttryckskraft. FRU sammanfattar specifikt de dolda tillstånden h (t) längs den timliga dimensionen med Fourier basfunktioner. Detta gör det möjligt för gradienter att enkelt nå vilket lager som helst på grund av FRU:s återstående inlärningsstruktur och det globala stödet för trigonometriska funktioner. Vi visar att FRU har lutning lägre och övre gränser oberoende av temporal dimension. Vi visar också den starka expressiviteten av glesare Fourier bas, från vilken FRU får sin starka uttryckskraft. Vår experimentella studie visar också att med färre parametrar överträffar den föreslagna arkitekturen andra återkommande arkitekturer på många uppgifter.
På senare tid har Fourier Recurrent Units (FRUs) REF föreslagits, vilket förbättrar lutningsflödet via Fourier basfunktioner i dess interna minnestillstånd.
3,958,635
Learning Long Term Dependencies via Fourier Recurrent Units
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
13,624
Spektrumavkänning är en grundläggande komponent i en kognitiv radio. I detta dokument föreslår vi nya avkänningsmetoder baserade på eigenvärden av kovariansmatrisen av signaler som mottagits hos sekundära användare. I synnerhet föreslås två sensoralgoritmer, den ena baseras på förhållandet mellan det maximala eigenvärdet och det lägsta eigenvärdet; den andra baseras på förhållandet mellan det genomsnittliga eigenvärdet och det lägsta eigenvärdet. Med hjälp av några senaste slumpmässiga matristeorier (RMT) kvantifierar vi fördelningen av dessa nyckeltal och härleder sannolikheterna för falsklarm och sannolikhet för detektion för de föreslagna algoritmerna. Vi finner också trösklarna för metoderna för en given sannolikhet för falsklarm. De föreslagna metoderna löser problemet med bullerosäkerhet och kan till och med prestera bättre än den idealiska energidetekteringen när de signaler som ska detekteras är starkt korrelerade. Metoderna kan användas för olika signaldetekteringstillämpningar utan att det krävs kunskap om signal-, kanal- och ljudeffekt. Simuleringar baserade på slumpmässigt genererade signaler, trådlösa mikrofonsignaler och fångade ATSC DTV-signaler presenteras för att verifiera de föreslagna metodernas effektivitet. Index Terms-signal detektion, spektrumavkänning, avkänningsalgoritm, kognitiv radio, slumpmässig matris, eigenvärden, IEEE 802.22 trådlösa regionala nätverk (WRAN).
I REF föreslås två sensoralgoritmer, den ena baseras på förhållandet mellan det maximala eigenvärdet och det lägsta eigenvärdet; den andra baseras på förhållandet mellan det genomsnittliga eigenvärdet och det lägsta eigenvärdet.
113,695
Eigenvalue-based spectrum sensing algorithms for cognitive radio
{'venue': 'IEEE Transactions on Communications', 'journal': 'IEEE Transactions on Communications', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
13,625
I den här artikeln utvecklar vi ett konvolutionellt neuralt nätverk för positionsdetektering i tweets. Enligt de officiella resultaten, vårt system rankas 1 st på subtask B (bland 9 lag) och rankas 2 nd på subtask A (bland 19 lag) på twitter test uppsättningen SemEval2016 Uppgift 6. Det viktigaste bidraget från vårt arbete är följande: Vi utformar ett "röstschema" för förutsägelser istället för att förutsäga när valideringsuppsättningens noggrannhet når sitt maximum. Dessutom gör vi vissa förbättringar av de specifika deluppgifterna. För deluppgift A separerar vi dataset i fem deldataset enligt deras mål, och tränar och testar fem separata modeller. För subtask B etablerar vi en tvåklassig träningsdatauppsättning från den officiella domänkorpusen, och sedan modifierar vi softmax-skiktet för att utföra treklassklassificering. Vårt system kan enkelt implementeras och optimeras för andra relaterade uppgifter.
Även i samband med SemEval-2016, arbetet i REF presenterar en strategi baserad på konvolutionella neurala nätverk som, i stället för att helt enkelt förutsäga när valideringsnoggrannheten kommer att nå sitt maximum, använder ett röstningssystem och andra sekundära förbättringar.
8,723,311
pkudblab at SemEval-2016 Task 6 : A Specific Convolutional Neural Network System for Effective Stance Detection
{'venue': 'SemEval@NAACL-HLT', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,626
Eftersom en uppgift T, en pool av individer X med olika färdigheter, och ett socialt nätverk G som fångar kompatibiliteten bland dessa individer, studerar vi problemet med att hitta X, en delmängd av X, att utföra uppgiften. Vi kallar det här Team Formation-problemet. Vi kräver att medlemmar i X inte bara uppfyller kompetenskraven för uppgiften, men kan också arbeta effektivt tillsammans som ett team. Vi mäter effektiviteten med hjälp av de kommunikationskostnader som uppstår av delgrafen i G som endast involverar X. Vi studerar två varianter av problemet för två olika kommunikations-kostnadsfunktioner, och visar att båda varianterna är NP-hårda. Vi utforskar deras kopplingar till befintliga kombinatoriska problem och ger nya algoritmer för deras lösning. Såvitt vi vet är detta det första arbetet med att överväga problemet med Team Formation i närvaro av ett socialt nätverk av individer. Experiment på DBLP-datasetet visar att vårt ramverk fungerar bra i praktiken och ger användbara och intuitiva resultat.
Lappas m.fl. Ref studera problemet med en uppgift, en pool av individer χ med olika färdigheter och ett socialt nätverk som fångar kompatibiliteten mellan dem, hitta en delmängd av χ, som tillsammans har färdigheter för att slutföra en uppgift med minimala kommunikationskostnader.
9,466,509
Finding a team of experts in social networks
{'venue': 'KDD', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,627
Problemet med hypergrafmatchning är att hitta en största samling osammanhängande hyperkanter i en hypergraf. Detta är ett välstuderat problem i kombinatorisk optimering och grafteori med olika tillämpningar. De mest kända approximationsalgoritmerna för detta problem är alla lokala sökalgoritmer. I detta papper analyserar vi olika linjära och semidefinita programmeringsavkopplingar för hypergraph matchningsproblem, och studerar deras kopplingar till den lokala sökmetoden. Våra viktigaste resultat är följande: • Vi anser att den normala linjära programmering av problemet. Vi tillhandahåller ett algoritmiskt bevis på ett resultat av Füredi, Kahn och Seymour, som visar att integralititetsgapet är exakt k − 1 + 1/k för k-uniform hypergraphs, och är exakt k − 1 för k-partit hypergraphs. Detta ger en förbättrad approximationsalgoritm för det viktade 3-dimensionella matchningsproblemet. Vår algoritm kombinerar användningen av den iterativa avrundningsmetoden och metoden med fraktionerat lokalt förhållande, vilket visar ett nytt sätt att runda linjära programmeringslösningar för förpackningsproblem. • Vi studerar förstärkningen av standard LP avslappning genom lokala begränsningar. Vi visar att även efter linjärt antal rundor av Sherali-Adams lyft-och projektprocedur på standard LP relaxation, det finns k-uniform hypergraphs med integrality gap minst k − 2. Å andra sidan visar vi att för varje konstant k, det finns en förstärkning av standard LP avslappning med bara ett polynom antal begränsningar, med integrality gap som mest (k + 1)/2 för k-uniform hypergraphs. Konstruktionen använder ett resultat i extrem kombinatorik. • Vi anser att den vanliga halvdefinita programmeringen av problemet är avslappning. Vi visar att Lovász-funktionen ger en SDP-avkoppling med integrality gap som mest (k + 1)/2. Beviset ger ett indirekt sätt (inte genom en avrundningsalgoritm) att begränsa förhållandet mellan en lokal optimal lösning och en optimal SDP-lösning. Detta visar en ny koppling mellan lokal sökning och linjära och semidefinita programmeringsavkopplingar.
Även för standard (oviktad) k-SET FÖRPACKNING problem Chan och Lau REF presenterade en förstärkt LP avkoppling, som har integrality gap (k + 1)/2.
858,853
On linear and semidefinite programming relaxations for hypergraph matching
{'venue': "SODA '10", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
13,628
Abstract - Fördelar i djupt lärande har lett till den breda antagandet av Deep Neural Networks (DNN) till en rad viktiga maskininlärning problem, t.ex., guida autonoma fordon, taligenkänning, malware upptäckt. Men, maskininlärning modeller, inklusive DNNs, visades vara sårbara för kontradiktoriska prover-subtly (och ofta mänskligt oskiljaktigt) modifierade skadliga ingångar som skapats för att äventyra integriteten i sina resultat. Motståndskraftiga exempel gör det således möjligt för motståndare att manipulera systembeteenden. Potentiella attacker inkluderar försök att kontrollera beteendet hos fordon, har spam innehåll identifieras som legitimt innehåll, eller har malware identifieras som legitim programvara. Det är känt att kontradiktoriska exempel överförs från en modell till en annan, även om den andra modellen har en annan arkitektur eller är utbildad på en annan uppsättning. Vi introducerar den första praktiska demonstrationen att denna tvärmodell överföring fenomen gör det möjligt för angripare att styra en fjärrvärd DNN utan tillgång till modellen, dess parametrar, eller dess träningsdata. I vår demonstration utgår vi bara från att motståndaren kan observera resultat från målet DNN givet indata som valts av motståndaren. Vi introducerar attackstrategin för att montera en ersättningsmodell till input-output-paren på detta sätt, och skapar sedan kontradiktoriska exempel baserade på denna hjälpmodell. Vi utvärderar tillvägagångssättet för befintliga DNN-datauppsättningar och verkliga inställningar. I ett experiment tvingar vi en DNN som stöds av MetaMind (ett av de online API:er för DNN klassificerare) att felklassificera indata med en hastighet av 84,24%. Vi avslutar med experiment som undersöker varför kontradiktoriska prover överförs mellan DNNs, och en diskussion om tillämpligheten av vår attack när man riktar maskininlärningsalgoritmer som skiljer sig från DNNs.
Gradient Maskering Gradient maskering avser fenomenet gradienter som döljs från motståndaren genom att minska modellens känslighet för små förändringar tillämpas på input REF.
14,321,358
Practical Black-Box Attacks against Deep Learning Systems using Adversarial Examples.
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
13,629
Abstract-De flesta dokumentigenkänningsarbete hittills har utförts på engelsk text. På grund av den stora överlappningen mellan de teckenuppsättningar som finns på engelska och stora västeuropeiska språk som franska och tyska, har vissa utvidgningar av den grundläggande engelska förmågan till dessa språk ägt rum. Automatisk språkidentifiering före optisk teckenigenkänning är dock inte allmänt tillgänglig och ger nytta till sådana system. Språk och deras skript har attribut som gör det möjligt att automatiskt bestämma ett dokuments språk. Detektering av värdena för dessa attribut kräver erkännande av särskilda egenskaper hos dokumentbilden och, när det gäller språk som använder latinska symboler, teckensyntax för det underliggande språket. Vi har utvecklat tekniker för att särskilja vilket språk som finns representerat i en bild av texten. Detta arbete är begränsat till en liten men viktig del av världens språk. Metoden först klassificerar manuset i två breda klasser: Han-baserade och latinbaserade. Denna klassificering baseras på de rumsliga sambanden mellan funktioner relaterade till de uppåtgående konkaviteterna i karaktärsstrukturer. Språkidentifiering inom Han-skriptklassen (kinesiska, japanska, koreanska) utförs genom analys av fördelningen av optisk densitet i textbilderna. Vi hanterar 23 latinbaserade språk med hjälp av en teknik baserad på teckenform koder, en representation av latinsk text som är billig att beräkna.
I REF använder det föreslagna systemet fördelningen av konkaviteter till toppen av tecknen i textraderna för att diskriminera asiatiska och latinska skript.
18,996,947
Determination of the script and language content of document images
{'venue': 'IEEE Trans. Pattern Anal. Mach. Intell.', 'journal': 'IEEE Trans. Pattern Anal. Mach. Intell.', 'mag_field_of_study': ['Computer Science']}
13,630
Vi introducerar en polynom-tidsalgoritm för statistisk maskinöversättning. Denna algoritm kan användas i stället för de dyra, långsamma bästa-första sökstrategier i nuvarande statistiska översättning arkitekturer. Tillvägagångssättet använder sig av den stokastiska parentesen transduction grammatik (SBTG) modell som vi nyligen infört för att ersätta tidigare Word anpassning kanal modeller, samtidigt som man behåller en bigram språk modell. Den nya algoritmen i vår erfarenhet ger stor hastighetsförbättring utan någon betydande förlust av noggrannhet. Den statistiska översättningsmodell som infördes av IBM (Brown et al., 1990 ) ser översättning som en bullrig kanalprocess. Anta, som vi gör i hela detta papper, att inmatningsspråket är kinesiska och uppgiften är att översätta till engelska. Den underliggande generativa modellen, som visas i Figur 1, innehåller en stokastisk engelsk mening generator vars utdata är "korrupterad" av översättningskanalen för att producera kinesiska meningar. I IBM-systemet använder språkmodellen enkla n-gram, medan översättningsmodellen använder flera uppsättningar parametrar som diskuteras nedan. Uppskattning av parametrarna har beskrivits på annat håll (Brown et al., 1993). Översättning utförs i omvänd riktning från generation, som vanligt för erkännande under generativa modeller. För varje kinesisk mening c som ska översättas måste systemet försöka hitta den engelska meningen e* så att: (1) e* = argmaxPr(elc ) e (2) = argmaxPr(cle ) Pr(e) e I IBM-modellen utförs sökningen efter den optimala e* med hjälp av en första heuristisk "stackarsökning" som liknar A*-metoder. Ett av de främsta hindren för att göra den statistiska översättningen praktiskt är långsam hastighet översättning, som utförs på A*-sätt. Detta pris betalas för den robusthet som uppnås genom att använda mycket flexibla språk- och översättningsmodeller. Språkmodellen tillåter meningar av godtycklig ordning och översättningsmodellen tillåter godtycklig ordordning permutation. Modellerna har inga strukturella begränsningar, utan förlitar sig istället på sannolikhetsparametrar för att ge låga sannolikheter till osannolika meningar. Detta uttömmande utrymme, tillsammans med ett stort antal parametrar, möjliggör större modelleringsnoggrannhet. Men även om noggrannheten förbättras, så lider översättningseffektiviteten på grund av bristen på struktur i hypotesutrymmet. Översättningskanalen kännetecknas av två uppsättningar av parametrar: översättning och anpassning sannolikheter3 Översättningsannolikheterna beskriver lexical substitution, medan anpassning sannolikheter beskriver ord-order permutation. Det viktigaste problemet är att formuleringen av anpassningsannolikheterna a(ilj, V, T) tillåter det kinesiska ordet i position j av en längd-T mening att kartlägga till någon position i av en längd-V engelsk mening. Så V T-anpassningar är möjliga, vilket ger ett exponentiellt utrymme med motsvarande långsamma söktider. Observera att det inte finns någon explicit språklig grammatik i IBM-kanalmodellen. Det finns användbara metoder för att införliva begränsningar som matas in från andra förbearbetningsmoduler, och vissa av dessa moduler använder språklig grammatik. Till exempel har vi tidigare rapporterat en metod för att förbättra söktiderna i kanalöversättningsmodeller som utnyttjar klammering information (Wu och Ng, 1995). Om några parenteser för den kinesiska meningen kan tillhandahållas som ytterligare indata, som produceras till exempel genom ett förbearbetningssteg, kan en modifierad version av A*-baserade algoritmen följa parenteserna för att styra sökningen heuritiskt. Denna strategi verkar ge måttliga förbättringar i sökhastigheten och något bättre översättningar. Sådana språkliga förbehandlingsmetoder kan 1Variösa modeller har konstruerats av IBM-teamet (Brown et al., 1993). Denna beskrivning motsvarar en av de enklaste, "Modell 2"; sökkostnaderna för de mer komplexa modellerna är motsvarande högre. 152 Försäkrings- och återförsäkringsföretag, försäkringsholdingbolag, försäkringsholdingbolag, försäkringsholdingbolag, försäkringsholdingbolag, försäkringsholdingbolag, försäkringsholdingbolag, försäkringsholdingbolag, försäkringsholdingbolag, försäkringsholdingbolag, försäkringsholdingbolag och försäkringsholdingbolag
I REF användes de initiala ITG-begränsningarna för statistisk maskinöversättning.
74,294
A Polynomial-Time Algorithm For Statistical Machine Translation
{'venue': 'Annual Meeting Of The Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,631
Detta papper analyserar interaktioner mellan protokoll stacken (TCP/IP eller iWARP över 10-Gigabit Ethernet) och dess multicore miljö. Särskilt, för värdbaserade protokoll som TCP/IP, märker vi att en betydande mängd bearbetning är statiskt tilldelad en enda kärna, vilket resulterar i en obalans i belastningen på de olika kärnorna i systemet och negativt påverkar prestandan hos många applikationer. För mottagningsladdade protokoll som iWARP, å andra sidan, är de delar av kommunikationsstacken som utförs på värddatorn, såsom buffring av meddelanden och minneskopior, nära knutna till den tillhörande processen, och skapar därför inte sådana lastobalanser. I detta dokument visar vi således att genom att på ett intelligent sätt kartlägga olika processer för en tillämpning på specifika kärnor kan den obalans som skapas av TCP/IP-protokollstacken till stor del motverkas och applikationens prestanda förbättras avsevärt. Samtidigt, eftersom belastningen är en bättre balans i värd-offloaded protokoll såsom iWARP, sådan kartläggning inte negativt påverkar deras prestanda, vilket håller kartläggningen generisk nog att användas med flera protokoll stackar.
Interaktionen mellan flerkärniga arkitekturer och 10-Gigabit Ethernet-nätverk beaktas också i REF, där det visas att lämpliga kartläggningar av processerna i en applikation mellan olika kärnor och NIC kan korrigera obalansen som skapats av protokoll stack bearbetning, vilket minimerar cache missar och förbättra den totala prestandan.
7,718,172
An Analysis of 10-Gigabit Ethernet Protocol Stacks in Multicore Environments
{'venue': '15th Annual IEEE Symposium on High-Performance Interconnects (HOTI 2007)', 'journal': '15th Annual IEEE Symposium on High-Performance Interconnects (HOTI 2007)', 'mag_field_of_study': ['Computer Science']}
13,632
Tidigare arbete med täckning av mobila sensornätverk fokuserar på algoritmer för att flytta sensorer för att uppnå en statisk konfiguration med ett utvidgat täckt område. I detta dokument studerar vi de dynamiska aspekterna av täckningen av ett mobilt sensornätverk som är beroende av processen för sensorrörelser. Allteftersom tiden går är det mer sannolikt att en position täcks; mål som kanske aldrig upptäcks i ett stationärt sensornätverk kan nu upptäckas av rörliga sensorer. Vi karakteriserar områdestäckningen vid specifika tidpunkter och under tidsintervall, samt den tid det tar att upptäcka ett slumpmässigt lokaliserat stationärt mål. Våra resultat visar att sensorrörlighet kan utnyttjas för att kompensera för bristen på sensorer och förbättra nätverkstäckningen. För mobila mål tar vi ett spelteoretiskt förhållningssätt och tar fram optimala mobilitetsstrategier för sensorer och mål ur sina egna perspektiv.
Liu m.fl. REF studerade de dynamiska aspekterna av fälttäckningen av ett mobilt sensornätverk som är beroende av de mobila sensorernas kontinuerliga rörelse.
6,703,489
Mobility improves coverage of sensor networks
{'venue': "MobiHoc '05", 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,633
Abstract-Order-bevarande kryptering-ett krypteringssystem där sort ordning av chiffertexts matchar sorteringsordningen för motsvarande klartext-tillåter databaser och andra program för att behandla frågor som omfattar ordning över krypterade data effektivt. Den idealiska säkerhetsgarantin för ordningsbevarande kryptering som läggs fram i litteraturen är att chiffertexterna inte avslöjar någon information om de enkla texterna förutom ordning. Även om mer än ett dussin system föreslogs, läcker alla dessa system mer information än ordning. I detta dokument presenteras det första ordningsbevarande systemet som uppnår idealisk säkerhet. Vår huvudsakliga teknik är muterbara cchertexts, vilket innebär att med tiden, cchertexts för ett litet antal klartextvärden förändras, och vi bevisar att mutable chiffertexts behövs för idealisk säkerhet. Vårt protokoll är interaktivt, med ett litet antal interaktioner. Vi implementerade vårt system och utvärderade det på mikrobenchmarks och i samband med en krypterad MySQL databasapplikation. Vi visar att förutom att tillhandahålla idealisk säkerhet, vårt system uppnår 1-2 order av magnitud högre prestanda än den toppmoderna order-bevarande krypteringssystem, som är mindre säker än vårt system.
Hittills är det enda idealiska säkerhets-OPE-systemet den muterbara ordningsbevarande kodning (MOPE) som Popa REF genomfört, där chiffertexterna inte avslöjar någonting annat än ordningen för de enkla värdena.
5,621
An Ideal-Security Protocol for Order-Preserving Encoding
{'venue': '2013 IEEE Symposium on Security and Privacy', 'journal': '2013 IEEE Symposium on Security and Privacy', 'mag_field_of_study': ['Computer Science']}
13,634
GLS är en ny distribuerad platstjänst som spårar mobila nodplatser. GLS i kombination med geografisk spedition gör det möjligt att bygga ad hoc mobila nätverk som skalas till ett större antal noder än möjligt med tidigare arbete. GLS är decentraliserat och körs på de mobila noderna själva, vilket inte kräver någon fast infrastruktur. Varje mobil nod uppdaterar regelbundet en liten uppsättning av andra noder (sitt läge servrar) med sin nuvarande plats. En nod skickar sina positionsuppdateringar till sina positionsservrar utan att känna till deras faktiska identiteter, med hjälp av en fördefinierad beställning av nodidentifierare och en fördefinierad geografisk hierarki. Frågar efter en mobil nod plats använder också fördefinierad identifierare beställning och rumslig hierarki för att hitta en plats server för den noden. Experiment som använder ns-simulatorn för upp till 600 mobila noder visar att lagrings- och bandbreddskraven för GLS växer långsamt med nätverkets storlek. Dessutom tolererar GLS nodfel bra: varje fel har bara en begränsad effekt och frågeprestanda försämrar graciöst som noder misslyckas och starta om. Förfrågan prestanda av GLS är också relativt okänsligt för nod hastigheter, Enkel geografisk vidarebefordra i kombination med GLS jämförs gynnsamt med Dynamic Source Routing (DSR): i större nätverk (över 200 noder) vår strategi levererar fler paket, men förbrukar färre nätverksresurser.
GLS REF är en skalbar lokaliseringstjänst för geografisk routing i ad hoc-nät.
3,447,663
A scalable location service for geographic ad hoc routing
{'venue': "MobiCom '00", 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,635
Förutsägelse och förståelse av människans rörelsedynamik har många tillämpningar, såsom rörelsesyntes, förstärkt verklighet, säkerhet och autonoma fordon. På grund av den senaste tidens framgång för generativa kontrariska nätverk (GAN), har det funnits stort intresse för probabilistisk uppskattning och syntetisk datagenerering med hjälp av djupa neurala nätverk arkitekturer och lärande algoritmer. Vi föreslår en ny sekvens-till-sekvens-modell för probabilistiska mänskliga rörelseförutsägelser, tränad med en modifierad version av förbättrade Wasserstein generativa kontrariska nätverk (WGN-GP), där vi använder en anpassad förlustfunktion avsedd för mänsklig rörelseförutsägelse. Vår modell, som vi kallar HP-GAN, lär sig en sannolikhet densitet funktion av framtida mänskliga poser beroende på tidigare poser. Den förutsäger flera sekvenser av möjliga framtida mänskliga poser, var och en från samma ingångssekvens men en annan vektor z dras från en slumpmässig fördelning. För att kvantifiera kvaliteten på de icke-deterministiska förutsägelserna tränar vi samtidigt en modell för bedömning av rörelsekvalitet som lär oss sannolikheten att en given skelettsekvens är en verklig mänsklig rörelse. Vi testar vår algoritm på två av de största skelettdataseten: NTURGB-D och Human3.6M. Vi tränar vår modell på både enstaka och flera actiontyper. Dess prediktiva effekt för långsiktig rörelseuppskattning visas genom att generera flera troliga framtider på mer än 30 ramar från bara 10 indataramar. Vi visar att de flesta sekvenser som genereras från samma ingång har mer än 50% sannolikhet för att bedömas som en verklig mänsklig sekvens. Vi publicerade alla koder som används i detta dokument till https://github.com/ebarsoum/hpgan.
HP-GAN REF försökte först modellera mänsklig rörelseförutsägelse som ett probabilistiskt generativt tillvägagångssätt.
22,857,558
HP-GAN: Probabilistic 3D Human Motion Prediction via GAN
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW)', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW)', 'mag_field_of_study': ['Computer Science']}
13,636
I detta arbete utvärderar vi den lokala kapaciteten hos trådlösa ad hoc-nätverk med flera mediumaccess-protokoll och identifierar det mest optimala protokollet. Vi definierar lokal kapacitet som den genomsnittliga informationshastighet som mottas av en mottagare slumpmässigt lokaliserad i nätverket. Vi analyserade rutnätsmönsterprotokoll där samtidiga transmittrar placeras i ett regelbundet rutmönster, rena ALOHA protokoll där samtidiga transmittrar sänds enligt en enhetlig Poisson distribution och uteslutning protokoll där samtidiga transmittrar sänds enligt en undantagsregel såsom nod färgning och bärar sense protokoll. Vår analys gör det möjligt för oss att anta att lokal kapacitet är optimal när samtidiga sändare är placerade i ett rutmönster baserat på liksidiga trianglar och våra resultat visar att denna optimala lokala kapacitet är som mest dubbelt så stor som den lokala kapaciteten hos enkla ALOHA-protokoll. Våra resultat visar också att nodfärgning och bärar sense protokoll närmar sig den optimala lokala kapaciteten med en nästan försumbar skillnad.
Författarna till artikeln REF införde begreppet lokal kapacitet för enhop-nät och definierade det som den genomsnittliga informationsmängd som en nod slumpmässigt befinner sig i nätet.
8,165,783
Optimizing local capacity of wireless ad hoc networks
{'venue': '2011 4th Joint IFIP Wireless and Mobile Networking Conference (WMNC 2011)', 'journal': '2011 4th Joint IFIP Wireless and Mobile Networking Conference (WMNC 2011)', 'mag_field_of_study': ['Computer Science']}
13,637
Vi presenterar de första upplevelserna av att använda programmerbara lågeffekt WiFi-moduler för att ansluta saker direkt till webben. I stället för att förlita oss på dedikerad radioteknik med låg effekt och specialiserade protokoll utnyttjar vi åtkomstpunkterna IEEE 802.11 och HTTP-protokollets driftskompatibilitet. Med hjälp av ett löst kopplat tillvägagångssätt möjliggör vi sömlös förening av sensorer, ställdon och vardagliga föremål med varandra och med webben. Våra experimentella resultat visar att WiFi-moduler med låg effekt kan uppnå lång batterilivslängd trots att vi använder HTTP över TCP/IP för kommunikation.
I REF visas det att, med tanke på höga OSI-lager, Wi-Fi-moduler kan uppnå lång batteritid, trots användningen av HTTP över TCP/IP.
3,081,268
Connecting things to the web using programmable low-power WiFi modules
{'venue': "WoT '11", 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,638
Link schemaläggning är avgörande för att förbättra genomströmningen i trådlösa nätverk och det har studerats i stor utsträckning under olika interferens modeller. I detta dokument studerar vi problemet med länkschemaläggning enligt modellen för fysisk störning där alla avsändare av länkarna sänder med en given effekt P och en länk kan överföra framgångsrikt om och endast om signal-till-interference-plus-Noise-Ratio (SINR) vid motsvarande mottagare är minst en viss tröskel. Länken schemaläggning problem är att hitta en maximal "oberoende uppsättning" (MIS) av länkar, dvs. det maximala antalet länkar som kan överföra framgångsrikt i ett tidsparti, med tanke på en uppsättning inmatningslänkar. Detta problem har visat sig vara NP-hard [10]. Här föreslår vi den första länk schemaläggning algoritm med en konstant approximation förhållande för godtycklig bakgrundsbuller N ≥ 0. När varje länk l har en vikt w(l) > 0, föreslår vi en metod för viktad MIS med approximationsförhållande O(min(log, log max l på l min l på l )), där l är Euclideans längd av en länk l.
Xu och al. I REF föreslogs en konstant approximationsalgoritm för schemaläggning av oneslot-länkar i godtyckliga nät enligt SINR-interferensmodellen, där en överföring lyckas om det mottagna SINR-värdet är högre än ett visst tröskelvärde.
11,176,674
A constant approximation algorithm for link scheduling in arbitrary networks under physical interference model
{'venue': "FOWANC '09", 'journal': None, 'mag_field_of_study': ['Mathematics']}
13,639
Abstract-The idé av programmerbara nätverk har nyligen åter fått betydande fart på grund av uppkomsten av Software-definierad Networking (SDN) paradigm. SDN, som ofta kallas "radikal ny idé i nätverk", lovar att dramatiskt förenkla nätverkshanteringen och möjliggöra innovation genom nätverksprogrammerbarhet. I detta dokument undersöks den senaste tekniken i programmerbara nätverk med tonvikt på SDN. Vi ger ett historiskt perspektiv på programmerbara nätverk från tidiga idéer till den senaste utvecklingen. Därefter presenterar vi SDN-arkitekturen och OpenFlow-standarden i synnerhet, diskuterar aktuella alternativ för implementering och testning av SDN-baserade protokoll och tjänster, undersöker aktuella och framtida SDN-tillämpningar och utforskar lovande forskningsinriktningar baserade på SDN-paradigmet.
Programvarudefinierad nätverk har dragit till sig en växande oro under de senaste åren REF.
2,623,404
A Survey of Software-Defined Networking: Past, Present, and Future of Programmable Networks
{'venue': 'IEEE Communications Surveys & Tutorials', 'journal': 'IEEE Communications Surveys & Tutorials', 'mag_field_of_study': ['Computer Science']}
13,640
Abstract-Node churn och misslyckanden finns som grundläggande egenskaper i både peer-to-peer (P2P) och sensornätverk. Peers i P2P-nätverk är mycket dynamiska, medan sensorer inte är tillförlitliga. Som sådan har bibehållandet av periodiskt uppmätta data på ett skalbart sätt blivit en kritisk utmaning i sådana system, utan användning av centraliserade servrar. För att bättre hantera noddynamik och misslyckanden föreslår vi prioriterade slumpmässiga linjära koder (RLC) samt tillhörande predistributionsprotokoll, för att bibehålla mätdata i olika prioriteringar, så att kritiska data har en högre möjlighet att överleva nodfel än data av mindre betydelse. En framträdande egenskap hos prioriterade RLCs är förmågan att delvis återställa viktigare delmängder av de ursprungliga data med högre prioriteringar, när det inte är möjligt att återställa alla av dem på grund av noddynamik. Vi presenterar omfattande analytiska och experimentella resultat för att visa effektiviteten hos prioriterade RLC.
Till exempel, i ett sammanhang där partiell återhämtning kan tolereras, har prioriterade slumpmässiga linjära koder föreslagits i REF för att erbjuda egenskapen att kritiska data har en högre möjlighet att överleva nodfel än data av mindre betydelse.
5,688,344
Priority Random Linear Codes in Distributed Storage Systems
{'venue': 'IEEE Transactions on Parallel and Distributed Systems', 'journal': 'IEEE Transactions on Parallel and Distributed Systems', 'mag_field_of_study': ['Computer Science']}
13,641
Eftersom två permutationer σ och π, Permutations Mönster problemet frågar om σ är en subpattern av π. Vi visar att problemet kan lösas i tid 2 O( 2 log ) ·n, där =... och n =.... Med andra ord, problemet är fast-parameter dragbar parameter av storleken på subpattern som finns. Vi introducerar en ny typ av nedbrytningar för permutationer och en motsvarande breddmått. Vi presenterar en linjär-tid algoritm som antingen finner σ som en subpattern av π, eller finner en nedbrytning av π vars bredd begränsas av en funktion av. Sedan visar vi hur man löser Permutations Mönster problemet i linjär tid om en avgränsad bredd sönderdelning ges i inmatningen.
I det exakta fallet visade Guillemot och Marx REF att ett ordermönster π av längd k kan hittas i en sekvens f av längd n i tid 2 O(k 2 log k) n; i synnerhet problemet med att hitta ordermönster är fast-parameterdragbar (i parameter k).
1,846,959
Finding small patterns in permutations in linear time
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
13,642
Abstract-Interference management har varit ett nyckelkoncept för att utforma framtida trådlösa system med hög datahastighet som krävs för att använda tät återanvändning av spektrum. Statiska eller semistatiska interferensbaserade system ger förbättrad prestanda på cellkanten men med stränga påföljder för den totala cellgenomströmningen. Dessutom gör statisk resursplanering dessa system olämpliga för tillämpningar där frekvensplanering är svårt, såsom femtocell nätverk. I detta dokument presenterar vi ett nytt dynamiskt system för att undvika störningar som använder sig av intercellssamordning för att förhindra alltför stora intercellsinterferenser, särskilt för användare av cell- eller sektorskanten som påverkas mest av intercellsinterferens, med minimal eller ingen påverkan på nätverkets dataflöde. Det föreslagna systemet består av en två-nivå algoritm - en på basstationen nivå och den andra på en central styrenhet som en grupp av angränsande basstationer är anslutna till. Simuleringsresultat visar att det föreslagna systemet överträffar referenssystemen, i vilka antingen samordning inte används (återanvändning av 1) eller används på ett statiskt sätt (återanvändning av 3 och fraktionerad frekvensåteranvändning), när det gäller genomströmning av cellkanter med minimal påverkan på nätgenomströmningen och med en viss ökning av komplexiteten.
Författarna i REF presenterar en interferensundvikande metod för att förhindra stark intercellinterferens för cellkantsanvändaren.
11,313,211
Enhancing cell-edge performance: a downlink dynamic interference avoidance scheme with inter-cell coordination
{'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
13,643
Abstrakt. I denna artikel presenterar vi SPADE, en ny algoritm för snabb upptäckt av sekventiella mönster. De befintliga lösningarna på detta problem gör upprepade databassökningar och använder komplexa hashstrukturer som har dålig lokalitet. SPADE använder kombinatoriska egenskaper för att bryta ner det ursprungliga problemet i mindre sub-problem, som kan lösas självständigt i huvudminnet med hjälp av effektiva lattice söktekniker, och med hjälp av enkla gå operationer. Alla sekvenser upptäcks i bara tre databasavsökningar. Experiment visar att SPADE överträffar den bästa tidigare algoritmen med en faktor av två, och genom en storleksordning med vissa förbehandlade data. Den har också linjär skalbarhet med avseende på antalet indatasekvenser och ett antal andra databasparametrar. Slutligen diskuterar vi hur resultaten av sekvensbrytning kan tillämpas i en verklig applikationsdomän.
SPADE presenteras av Zaki REF kan undvika många upprepade databassökningar och gruvsekvenser i endast tre databassökningar.
5,387,869
SPADE: An Efficient Algorithm for Mining Frequent Sequences
{'venue': 'Machine Learning', 'journal': 'Machine Learning', 'mag_field_of_study': ['Computer Science']}
13,644
I mobila ad hoc-nät är säkerheten av stor betydelse på grund av dess inneboende skyldigheter. Egenskaperna hos MANETS som infrastruktur mindre nätverk med dynamisk topologi innebär ett antal utmaningar för säkerhetsdesign. Det finns ett ökande hot om attacker i MANET. Maskhålsattack är en av säkerhetsattackerna på mobila ad hoc-nätverk där ett par samverkande noder gör en tunnel med hjälp av ett höghastighetsnät. Detta dokument fokuserar på att tillhandahålla en lösning för säker överföring genom nätverket och föreslår en granne nodanalys strategi för att identifiera maskhål attack och tar bort maskhål länk i MANET. Det föreslagna arbetet simuleras med NS-2 och analyseras med hjälp av vissa parametrar såsom genomströmning, förlusthastighet, fördröjningsfrekvens.
Grannknutan analys är ett tillvägagångssätt för att ge en lösning för säker överföring i MANET och för att identifiera maskhål attack och tar bort maskhål länk i MANET REF.
1,369,980
Securing MANET against Wormhole Attack using Neighbor Node Analysis
{'venue': None, 'journal': 'International Journal of Computer Applications', 'mag_field_of_study': ['Computer Science']}
13,645
För de flesta problem inom vetenskap och teknik kan vi få data som beskriver systemet ur olika perspektiv och registrera beteendet hos dess enskilda komponenter. Heterogena datakällor kan kollektivt brytas genom datafusion. Fusion kan fokusera på ett specifikt målförhållande och utnyttja direkt tillhörande data tillsammans med data om sammanhanget eller ytterligare begränsningar. I tidningen beskriver vi ett datafusion tillvägagångssätt med bestraffad matris tri-faktorisering som samtidigt faktoriserar datamatriser för att avslöja dolda associationer. Metoden kan direkt beakta alla datamängder som kan uttryckas i en matris, inklusive dem från attributbaserade representationer, ontologier, föreningar och nätverk. Vi demonstrerar dess nytta på en gen funktion förutsägelse problem i en fallstudie med elva olika datakällor. Vår fusionsalgoritm jämför positivt med toppmodern inlärning av flera kärnan och uppnår högre noggrannhet än vad som kan erhållas från vilken enskild datakälla som helst.
Zitnik m.fl. REF jämförde matrisfaktorisering med toppmodern MKL vid hantering av heterogen datafusion.
362,295
Data Fusion by Matrix Factorization
{'venue': 'Marinka Zitnik and Blaz Zupan. IEEE Transactions on Pattern Analysis and Machine Intelligence, 37(1):41-53 (2015)', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics', 'Medicine']}
13,646
Crowdsourcing har vuxit fram som en ny metod för att få kommentarer till träningsmodeller för maskininlärning. Det finns många varianter av denna process, men de skiljer sig i hög grad åt i sin metod att motivera ämnen att bidra och omfattningen av sina tillämpningar. Hittills har det dock ännu inte gjorts en studie som hjälper en utövare att bestämma vilken form en annoteringsansökan ska ta för att på bästa sätt nå sina mål inom ramen för ett projekts begränsningar. Vi ger först en facetterad analys av befintliga crowdsourcing annotation applikationer. Vi använder sedan vår analys för att diskutera våra rekommendationer om hur utövare kan dra nytta av crowdsourcing och diskutera vår syn på potentiella möjligheter på detta område. Det är en accepterad tradition inom naturlig språkbearbetning (NLP) att använda kommenterad korpora för att få maskininlärda modeller för att utföra många uppgifter: maskinöversättning, tolkning och sammanfattning. Med tanke på att maskininlärare bara kan utföra uppgifter så bra som deras indata annotation, mycket arbete i notation centrerad på att definiera höga kvalitetsstandarder som var tillförlitliga och reproducerbara, och hitta lämpligt utbildad personal för att utföra sådana uppgifter. Penn Treebank och WordNet är förmodligen de mest synliga exemplen i denna gemenskap. Även nu fortsätter denna högkvalitativa rutt att användas i systerprojekt för att utöka dessa resurser till andra språk: HowNet (Dong och Dong, 2006) och EuroWordNet (Jacquin m.fl., 2007). Ett alternativ till högkvalitativ notering är att använda sig av kvantitet och regeln att redundans i stora data skulle agera för att filtrera bort buller. Uppkomsten av webben gjorde detta till en verklig möjlighet, där rå enspråkig och parallell corpora, termräkningar och användargenererat innehåll gjorde det möjligt att utvinna stora mängder statistiska data för att träna NLP-modeller. I Web 2.0 står det också klart att webben har gjort människor tillgängliga som resurser att dra nytta av. Denna trend når en logisk slutsats när webben fungerar för att nätverka mänskliga tjänsteleverantörer med dem som söker sina tjänster. Även om denna process beskrivs av många olika termer, använder vi termen crowdsourcing i hela detta papper. Crowdsourcing är en strategi som kombinerar allmänhetens ansträngningar att lösa ett problem eller producera en viss sak. "Crowdsourcing" har använts i den populära pressen för att betona att arbetarna inte behöver vara experter utan lekmän eller amatörer. Även om människor kan användas för att tillhandahålla data eller tjänster i många former, begränsar vi i detta arbete vår uppmärksamhet på kommentarer för data som är användbara för NLP-uppgifter, och fokuserar inte på den distribuerade karaktären av crowdsourcing. Crowdsourcing tar många former som kräver olika former av motivation för att uppnå slutmålet att kommentera. I spel med ett syfte (nedan, GWAP), är den viktigaste drivkraften roligt (von Ahn och Dabish, 2008a,b). Annoteringsuppgifter är utformade för att ge underhållning åt det mänskliga ämnet under korta sessioner. I Amazon Mechanical Turk (MTurk) är den viktigaste drivkraften vinst. Leverantörer skapar och listar partier av små jobb som kallas Human Intelligence Tasks (HITs) på Amazons Mechanical Turk webbplats, som kan göras av allmänheten. Arbetstagare som utför dessa uppgifter krediteras i mikrobetalningar. Även om säkert inte den enda betalda arbetskraft inköpsmiljö, Mekanisk Turks nuvarande allestädes närvarande gör "MTurk" en användbar etikett för att hänvisa till denna och andra former av dator medierade arbete. Crowds Vishet (WotC) är en annan form av crowdsourcing. WotC-utplaceringar gör det möjligt för allmänheten att samarbeta för att bygga en offentlig resurs, för att förutsäga händelseresultat eller för att uppskatta svårförutsägbara mängder. Wikipedia, den mest kända fielded WotC ansökan, har olika drivkrafter som har förändrats över tid. Inledningsvis var altruism och indirekt nytta faktorer: människor bidrog med artiklar till Wikipedia för att hjälpa andra men också för att bygga en resurs som i slutändan skulle hjälpa sig själva. Som Wikipedia mognat, prestige att vara en regelbunden bidragsgivare eller redaktör också saktade leden av bidragsgivare från publiken till en mer stabil formaliserad grupp (Suh et al., 2009). Det är viktigt att inse att dessa olika drivkrafter på ett avgörande sätt formar varje form av crowdsourcing, ändra viktiga egenskaper. Lika viktigt är att notera att utrymmet för möjliga motiv och dimensioner av crowdsourcing inte har utforskats fullt ut. Med tanke på råa språkliga data, vilket verktyg för notering skulle vara mest givande att sträva efter? Hittills har det inte funnits något systematiskt system för eventuella projekt att följa. Dessa brister i det nuvarande arbetet är allvarliga, och vi försöker ta itu med dem. I synnerhet vi: • dekonstruera crowdsourced annotation applikationer i relevanta dimensioner och sedan ge vår subjektiva analys av publicerade crowdsourced NLP-applikationer med hjälp av ovanstående dimensioner (avsnitt 0.3); • analysera egenskaperna hos de tre genrer av crowdsourcing metoder och göra rekommendationer för de mest effektiva sätten att erhålla annoteringar för prov NLP uppgifter (avsnitt 0.4); • analysera dessa crowdsourcing instanser och föreslå bättre crowdsourcing plattformar (avsnitt 0,5); • diskutera framtiden för crowdsourcing annotations i slutsatsen (avsnitt 0.6). Även om crowdsourcing är en ganska ny utveckling, är det erkänt som ett växande och spirande forskningsområde, vilket framgår av denna tidskrifts specialnummer samt flera verk som har producerat en översikt över dessa metoder från olika perspektiv. Mest relaterad i omfattning är Quinn och Bederson (2009) som beskriver en taxonomi av crowdsourcing (benämns "Distributed Human Computation" i deras papper). De delar in crowdsourcing i sju genrer: GWAP, Mechanized Labor (som vi kallar "MTurk"), Visdom av Crowds, Crowdsourcing, Dual-Purpose Work, Grand Search, Human-baserade Genetiska Algorithms och Knowledge Collection från Volontär Bidragsgivare. De dekonstruerar dessa genrer längs sex dimensioner och diskuterar även framtida riktningar för att utnyttja crowdsourcing för att lösa andra datorproblem. Även om säkert en användbar utgångspunkt, genrerna är allmänt definierade och inte specifik för uppgiften att annotera. Som sådan är några av deras genrer irrelevanta och vi känner oss bättre kombinerade ur ett kommentarsperspektiv. Samtidigt, Yuen et al. (2009) också undersökt crowdsourcing applikationer, kategorisera dem i sex klasser: initiativtagare mänskliga beräkningar, distribuerade mänskliga beräkningar, sociala spelbaserade mänskliga beräkningar med volontärer, betalda ingenjörer och online-spelare. Deras undersökning analyserar crowdsourcing ur ett socialt spelperspektiv, att differentiera klasserna baserat på spelstruktur och mekanismer. De tar också upp prestandaaspekterna i sådana system och presenterar referenser till primära studier som beskriver metoder för att bäst mäta tillförlitligheten hos resultat från crowdsourcing-ramar. Yuen m.fl.Dess arbete går emellertid inte utöver dess undersökning för att antyda någon kritik eller analys av den befintliga crowdsourcing-litteraturen. Bortsett från dessa två undersökningar som undersökte crowdsourcing i sin bredare definition, studier har också analyserat specifika teoretiska aspekter. von Ahn och Dabish (2008a) presentera allmänna designprinciper för GWAPs, De artikulerar tre spelklasser ( 2 "mallar"). Varje mall definierar de grundläggande reglerna och vinstvillkoren för ett spel på ett sätt som gör det i spelarnas intresse att utföra den avsedda beräkningen. De beskriver också en uppsättning designprinciper för att komplettera mallarna, och föreslår mätvärden för att definiera GWAP-beräkning framgång när det gäller att maximera det verktyg som erhålls per spelare timme spenderas. På liknande sätt kartlade Jain och Parkes (2009) befintliga spelteoretiska modeller för deras användning i crowdsourcing-modeller, med utmaningar i riktning mot framåtgående teori som kan möjliggöra bättre design. Med fokus på användarens perspektiv föreslår Roi (2009) att deltagandet kan förbättras genom antingen användbara verktyg eller underhållande distraktioner som resulterar i produktion av önskade data. De utvecklade verktyg för att hjälpa användare att hantera sina webbbokmärken i en social miljö, vilket ger en taggning spel för användare att ansluta resurser från varandra. Denna miljö hjälper systemet att förvärva ytterligare kunskap om taggar och resurser implicit. Kazai m.fl. (2009) föreslår en metod för kollektiv insamling av relevansbedömningar med hjälp av en social spelmodell för att få användarna att engagera sig. De diskuterar tillvägagångssättet i detalj och presenterar resultaten av en pilotstudie som genomförts på en bok corpus. Analysen avslöjade förhållandet mellan systemets förmåner, det sociala spelets incitament och bedömarnas beteende. Även om det har funnits ett tydligt intresse av att utnyttja crowdsourcing, har det sammanfattande arbetet hittills koncentrerats på dess mekanismer och utformning. Undersökningar har beskrivit tidigare arbete i varje crowdsourcing-mekanismer men har inte jämfört dessa tillämpningsfall med en enhetlig uppsättning kriterier. Dessutom har det inte gjorts mycket arbete för att ena dessa ramar när det gäller att kommentera uppgifter om naturligt språk, även om det uppenbarligen finns mycket uttryckliga intressen på detta område, vilket framgår av nyligen genomförda workshops om MTurk-ramverket (Callison-Burch och Dredze, 2010) och om gemensamt konstruerade semantiska resurser (Gurevych och Zesch, 2009, 2010) Som vi vet har det inte funnits mycket som beskriver vilken crowdsourcing modell som är lämplig i vilken situation eller uppgift. Det står inte heller klart när den traditionella formen av manuell anmärkning från lokala experter är lämplig - är dagarna för högt betalda expertanmärkning över? En utövare i behov av annoteringar kan inte förlita sig på den befintliga litteraturen för att rekommendera vilken form av annotering hennes specifika uppgift bör ta. WordNet känner definitioner som möjliga etiketter. De fick mer än 100.000 namngivna fall av en skara frivilliga. Med tanke på dessa brister återbesöker vi först crowdsourcing ansökningar för att destillera en uppsättning dimensioner som lämpar sig för att karakterisera dem. Detta arbete skiljer sig från Quinn och Bederson (2009), då vi konstruerar våra fem dimensioner ur utövarens perspektiv. Det finns dock förvisso överlappningar, eftersom vissa av deras dimensioner bevaras i vår analys, som är markerade med asterisker. Det finns förvisso också ett samband mellan dimensionerna. Många av våra fem dimensioner -motivation, annotering kvalitet, uppställning ansträngning, mänskligt deltagande och data karaktär - har inre aspekter, som vi kortfattat diskuterar i sin tur. En viktig del av vårt arbete är också att tilldela en facett en rad möjliga värden. Detta 3
Crowdsourced WSD Många NLP-områden har tillämpat crowdsourcing REF; av dessa områden är det mest relaterade till detta arbete crowdsourcing ord sense annotations.
7,489,171
Perspectives on Crowdsourcing Annotations for Natural Language Processing
{'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,647
I detta dokument föreslår vi opportunistisk interferensjustering (OIA) för tre-sändare multipel-ingång multipleoutput (MIMO) interferenskanaler (ICs). I det föreslagna OIA-schemat har varje sändare sin egen användargrupp som består av K-användare, och varje sändare väljer opportunistiskt den användare vars mottagna interferenssignaler är mest anpassade. Således är tre-sändare MIMO IC opportunistiskt konstruerat av tre sändare och deras utvalda användare. I motsats till konventionell IA krävs inte perfekt kanalinformation för alla interferenslänkar vid sändaren. Varje användare behöver bara mata tillbaka ett skalarvärde i det föreslagna OIA-systemet. När antalet mottagningsantenner är N R (med N R = 2M ) och antalet sändningsantenner är N T (med N T ≥ M ), visar vi att varje sändare kan uppnå M grader av frihet (DoF) som antalet användare i varje grupp går till oändlighet (K → ❌), i jämförelse med 2M 3 DoF som är känd för att vara uppnåelig i tre-sändaren M × 2M MIMO IC. Vi visar också att användaren skalning K på P αM 2 gör det möjligt för nätverket att uppnå M DoF per sändare där P är sändningseffekt, och α är den relativa vägen förlust av den störande kanalen i decibel. Det föreslagna OIA-systemets beräkningsmässiga komplexitet analyseras och jämförs med konventionella system för användarurval.
Lee och Choi REF föreslog ett tre-sändare MIMO OIA-nätverk där varje sändare har sin egen användargrupp och endast den användare där interferenssignalerna från andra sändare i nätverket är mest anpassade väljs.
1,745,994
On the Achievable DoF and User Scaling Law of Opportunistic Interference Alignment in 3-Transmitter MIMO Interference Channels
{'venue': None, 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
13,648
Liksom i de flesta informationssökningsstudier spelar utvärderingen en viktig roll i webbsökningsforskningen. Både o ine och online utvärderingsmått används för att mäta prestandan hos sökmotorer. O ine mätvärden baseras vanligtvis på relevans bedömningar av frågedokument par från bedömare medan online mätvärden utnyttja användarens beteende data, såsom klick, samlas in från sökmotorer för att jämföra sökalgoritmer. Även om båda typerna av IR-utvärderingsmått har uppnått framgång, i vilken utsträckning kan de förutsäga användarnöjdhet fortfarande undervärderas. För att belysa denna forskningsfråga, meta-bedömer vi en rad befintliga online- och o ine-mått för att studera hur väl de kan dra slutsatsen att användaren är nöjd i olika sökscenarier. Vi nd att båda typerna av utvärderingsmått i sig kan korrelera med användarnöjdhet medan de re ect tillfredsställelse från olika perspektiv för olika sökuppgifter. O ine mätvärden vara i linje med användarnöjdheten i homogen sökning (dvs. tio blå länkar) medan online-mått överträffar när vertikala resultat federeras. Slutligen föreslår vi också att inkorporera mus svävande information i befintliga online utvärderingsmått, och empiriskt visa att de er anpassa sig till sökanvändarnöjdhet än klick-baserade online-mått.
Även om båda typerna av utvärderingsmått har uppnått framgång, finns det fortfarande frågor om huruvida de kan förutsäga "faktisk" användarnöjdhet REF.
13,850,478
Meta-evaluation of Online and Offline Web Search Evaluation Metrics
{'venue': "SIGIR '17", 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,649
Många ansträngningar görs varje dag av programmerare för att försöka minska långa, misslyckade avrättningar till orsaken till felet. Vi presenterar en algoritm för felorsak lokalisering baserad på en minskning till maximal tillfredsställelse problem (MAX-SAT), som frågar vad är det maximala antalet klausuler i en Boolesk formel som kan samtidigt tillgodoses av en uppdrag. På en intuitiv nivå tar vår algoritm som ingång ett program och ett feltest, och omfattar följande tre steg. För det första, med hjälp av begränsad modellkontroll, och en gräns som erhålls från genomförandet av testet, kodar vi semantiken för en avgränsad orullning av programmet som en Boolesk spårformel. För det andra, för ett felande program utförande (t.ex. en som bryter mot ett påstående eller en post-villkor), vi konstruera en otillfredsställande formel genom att ta formeln och dessutom hävda att input är feltest och att påståendet villkor håller i slutet. För det tredje, med hjälp av MAX-SAT, hittar vi en maximal uppsättning av klausuler i denna formel som kan uppfyllas tillsammans, och utdata komplementet som en potentiell orsak till felet. Vi har implementerat vår algoritm i ett verktyg som heter BugAssist som utför fellokalisering för C-program. Vi demonstrerar effektiviteten av BugAssist på en uppsättning benchmarking exempel med injicerade fel, och visar att i de flesta fall, BugAssist kan snabbt och exakt isolera några rader kod vars förändring eliminerar felet. Vi visar också hur vår algoritm kan ändras för att automatiskt föreslå korrigeringar för vanliga klasser av fel såsom off-by-one.
Fel lokaliseringstekniker REF syftar till att peka ut ett programuttryck som motsvarar grundorsaken till ett fel.
5,309,097
Cause clue clauses: error localization using maximum satisfiability
{'venue': "PLDI '11", 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,650