src
stringlengths 100
134k
| tgt
stringlengths 10
2.25k
| paper_id
int64 141
216M
| title
stringlengths 9
254
| discipline
stringlengths 67
582
| __index_level_0__
int64 0
83.3k
|
---|---|---|---|---|---|
Abstrakt. Befintliga platsbaserade tjänster tillhandahåller specialiserade tjänster till sina kunder baserat på kunskap om deras exakta platser. Med opålitliga servrar kan platsbaserade tjänster leda till flera integritetshot som sträcker sig från oro över arbetsgivare som snokar på sina arbetstagares var de befinner sig till rädsla för att spåras av potentiella stalkers. Även om det finns flera tekniker för att bevara platsen integritet i mobila miljöer, dessa tekniker är begränsade eftersom de inte skiljer mellan plats integritet (d.v.s. en användare vill dölja sin plats) och fråga integritet (d.v.s., en användare kan avslöja sin plats men inte hennes fråga). Denna åtskillnad är avgörande i många tillämpningar där mobila användares platser är allmänt kända. I detta papper går vi bortom begränsningen av befintliga kamouflage algoritmer som vi föreslår en ny robust rumslig kamouflage teknik för ögonblicksbild och kontinuerlig plats-baserade frågor som tydligt skiljer mellan plats integritet och frågeintegritet. Genom denna distinktion uppnår vi två huvudmål: 1) stödja privata platsbaserade tjänster till de kunder med offentliga platser, och 2) utföra rumsliga kamouflage on-demand endast (dvs. när frågor ges) snarare än uttömmande kamouflera varje enskild plats uppdatering. Experimentella resultat visar att den robusta rumsliga kamouflagealgoritmen är skalbar och effektiv samtidigt som den ger anonymitet för ett stort antal kontinuerliga frågor utan att dölja användarnas platser. | Det första arbetet för att skilja mellan plats integritet och fråga länka integritet är REF. | 7,820,440 | Enabling Private Continuous Queries For Revealed User Locations | {'venue': 'in SSTD', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,361 |
Under 2013 uppskattades den globala mobilappmarknaden till över US $50 miljarder och förväntas växa till $150 miljarder dollar under de kommande 2 åren. I det här dokumentet bygger vi en strukturell ekonometriska modell för att kvantifiera den levande plattformskonkurrensen mellan mobila (smartphone och surfplatta) appar på Apples iOS- och Google Android-plattformar och uppskatta konsumenternas preferenser mot olika mobilappars egenskaper. Vi finner att appefterfrågan ökar med köpalternativet i appen där en användare kan slutföra transaktioner inom appen. Tvärtom, app efterfrågan minskar med i-app annonsalternativet där konsumenter visas annonser medan de engagerar sig i appen. Den direkta effekten på app intäkter från införandet av en i-app köp och i-app annons option motsvarar att erbjuda en 28 procent prisrabatt och ökande pris med 8 procent, respektive. Vi finner också att en prisrabattstrategi resulterar i en större ökning av appefterfrågan i Google Play jämfört med Apple App Store, och apputvecklare kan maximera sina intäkter genom att ge 50% rabatt på sina betalda appar. Med hjälp av den uppskattade efterfrågefunktionen, finner vi att mobilappar har ökat konsumentöverskottet med cirka $33,6 miljarder årligen i USA, och diskuterar olika konsekvenser för mobil marknadsföring analytics, app prissättning och app design strategier. | Särskilt utvecklar Ghose och Han REF en strukturell modell för att uppskatta konsumenternas efterfrågan på mobila appar baserat på kvantifiering av deras preferenser för olika appegenskaper. | 26,294,283 | Estimating Demand for Mobile Applications in the New Economy | {'venue': 'Management Science', 'journal': 'Management Science', 'mag_field_of_study': ['Economics', 'Computer Science']} | 9,362 |
Abstract-Artists använder olika sätt att stilisera för att styra fokus på olika objekt i scenen. Detta gör det möjligt för dem att skildra komplex mening och uppnå vissa konstnärliga effekter. De flesta tidigare arbeten på målerisk återgivning av videor, dock använder bara en enda målning stil, med fasta globala parametrar, oavsett objekt och deras layout i bilderna. Detta leder ofta till otillräcklig konstnärlig kontroll. Dessutom antas borste stroke orientering följa ett överallt kontinuerlig riktning fält. I det här dokumentet föreslår vi ett videomålningssystem som står för det rumsliga stödet av objekt i bilder eller videor, och använder denna information för att ange stilparametrar och stroke orientering för måleriskt rendering. Eftersom objekt upptar olika bildplatser och rör sig relativt smidigt från en videoram till en annan, kännetecknas vår objektbaserade måleriskt renderingsmetod av stilparametrar som konsekvent varierar i rum och tid. Rymdtidsvarierande stilparametrar möjliggör mer konstnärlig frihet, såsom betoning/de-fokusering, ökning eller minskning av kontrast, överdrift eller abstraktion av olika objekt i scenen på ett tidsmässigt sammanhängande sätt. | Kagaya m.fl. REF presenterar ett designgränssnitt för att styra tidsvarierande tensorfält för den tillfälligt sammanhängande måleriska återgivningen av videor. | 954,008 | Video Painting with Space-Time-Varying Style Parameters | {'venue': 'IEEE Transactions on Visualization and Computer Graphics', 'journal': 'IEEE Transactions on Visualization and Computer Graphics', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 9,363 |
I detta dokument föreslås en enhetlig och allmän ram för diskussionsbaserade förhandlingar, där argumentationens roll analyseras formellt. Ramen gör det möjligt att studera resultaten av en diskussionsbaserad förhandling. Det visar vad ett avtal är, hur det är relaterat till agenternas teorier, när det är möjligt, och hur detta kan uppnås av förhandlingsagenterna i detta fall. Det definierar också begreppet eftergift, och visar i vilken situation en agent kommer att göra en, liksom hur det påverkar utvecklingen av dialogen. | Inom ramen för denna artikel kan en relevant strategi för diskussionsbaserade förhandlingar ses i REF, där den föreslagna ramen gör det möjligt att studera resultaten av förhandlingsprocessen. | 9,747,747 | A unified and general framework for argumentation-based negotiation | {'venue': "AAMAS '07", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,364 |
Vi skapar ett supportsystem för att förutsäga slutpriser på eBay. Slutprisprognoserna är baserade på de objektbeskrivningar som finns i posten noteringar av eBay, och på några numeriska objektfunktioner. Systemet använder textbrytning och ökar algoritmer från maskininlärningsområdet. Vårt system överträffar avsevärt den naiva metoden att förutsäga medelpriset för kategorin. Dessutom ger tolkning av modellen oss möjlighet att identifiera inflytelserika termer i objektbeskrivningarna och visar att objektbeskrivningen är mer inflytelserik än säljarens feedback betyg, som visade sig vara inflytelserik i tidigare studier. | Ett stödsystem för att förutsäga slutpriset för en onlineauktion baserat på posten beskrivning med textbrytning och öka algoritm har föreslagits REF. | 35,572,472 | A support system for predicting eBay end prices | {'venue': 'Decis. Support Syst.', 'journal': 'Decis. Support Syst.', 'mag_field_of_study': ['Business', 'Computer Science']} | 9,365 |
Abstrakt. Detta dokument belyser möjligheter och överväganden när man utvecklar interaktionstekniker inom det relativt outforskade sömnområdet. Vi gör detta genom att först beskriva de sociologiska aspekterna av sömnen såsom behovet av att schemalägga och samordna sömnen inom ett kollektiv, följt av en beskrivning av de fysiologiska aspekterna såsom dygnsrytmen och sömnstadierna. Vi undersöker sedan hur vissa yttre faktorer som platsen för sömn och familjeinställningar kan påverka sömnen för att belysa potentiella designmöjligheter. Vi avslutar papperet med att beskriva fem olika teman som schemaläggning för en kollektiv, stödja sömn övergångar och låtsas och hindra sömn runt vilka designmöjligheter utforskas. Det viktigaste bidraget i detta dokument är en diskussion om fenomenet sömn och dess position i det sociala livet för att ge en rik förståelse för sömn och en uppsättning möjligheter till interaktion design forskning runt sömn. | Aliakseyeu m.fl. ge en rik förståelse för sömn och dess sociala aspekt, för att belysa möjligheterna för interaktion design forskning runt sömn REF. | 17,369,834 | Exploring interaction strategies in the context of sleep | {'venue': 'INTERACT', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,366 |
Användare av Web sökmotorer tvingas ofta att sålla igenom den länge beställda listan över dokument "snippets" returneras av motorerna. IR-gemenskapen har utforskat dokumentklustring som en alternativ metod för att organisera hämtningsresultat, men klusterbildning har ännu inte satts in på de flesta större sökmotorer. Sökmotorn NorthernLight organiserar sin utdata i "custom folders" baserat på fördefinierade dokumentetiketter, men avslöjar inte hur mapparna genereras eller hur väl de motsvarar användarnas intressen. I den här artikeln introducerar vi Grouper -ett gränssnitt till resultaten av HuskySearch meta-sökmotorn, som dynamiskt grupperar sökresultaten i kluster som är märkta med fraser som hämtats från snippets. Dessutom rapporterar vi om den första empiriska jämförelsen av användarens webbsökningsbeteende på en standardrankad presentation jämfört med en klusterpresentation. Genom att analysera HuskySearch loggar kan vi visa på betydande skillnader i antalet dokument som följs, och i hur mycket tid och ansträngning användare använder för att få tillgång till sökresultat via dessa två gränssnitt. | Scatter-Gather systemet följs av en annan on-line sökresultat klustererade system som heter Grouper dynamiskt grupperar Snippets i kluster tolkas av de extraherade fraser REF. | 206,134,308 | Grouper: A Dynamic Clustering Interface to Web Search Results | {'venue': 'Computer Networks', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,367 |
Abstract-En oförmåga att anpassa myoelektriska gränssnitt till en ny användares unika stil av handrörelse, eller ens att anpassa sig till rörelsestilen i en motsatt lem på vilken gränssnittet tränas, är viktiga faktorer som hämmar den praktiska tillämpningen av myoelektriska gränssnitt. Detta beror främst på de individuella skillnaderna i de utställda elektromyogram (EMG) signaler som genereras av musklerna i olika extremiteter. I detta dokument föreslår vi ett multianvändarmyoelektriskt gränssnitt som enkelt anpassar sig till nya användare och bibehåller en god rörelseigenkänningsprestanda. Det huvudsakliga bidraget är en ram för att genomföra stiloberoende funktionsomvandling genom att använda kanonisk korrelationsanalys (CCA) där olika användares data projiceras på ett enhetligt stilutrymme. Den föreslagna idén sammanfattas i tre steg: 1) träna en myoelektrisk mönsterklassning på uppsättningen stiloberoende funktioner som extraheras från flera användare med hjälp av den föreslagna CCA-baserade kartläggningen; 2) skapa en ny uppsättning funktioner som beskriver en ny användares rörelser under en snabb kalibreringssession; och 3) projicera den nya användarens funktioner på en lägre dimensionell enhetlig stil utrymme med funktioner maximalt korrelerad med träningsdata och klassificera därefter. Den föreslagna metoden har validerats på en uppsättning av åtta oskadade försökspersoner, vänster- och högerhänta, som utför tio klasser av bilaterala synkrona fingrar med fyra elektroder på varje underarm. Metoden kunde övervinna individuella skillnader genom det stiloberoende ramverket med noggrannhet på 83% för flera användare. Tester utfördes också på en uppsättning av tio oskadade och sex personer under armbågs amputerade eftersom de utförde finger- och tumrörelser. Det föreslagna ramverket gjorde det möjligt för oss att träna klassificeringen på en normal persons data medan vi därefter testade den på en amputerads data efter kalibrering med en prestanda på i genomsnitt 82% för alla amputerade. Index Terms-Electromyogram (EMG), funktionsextraktion, multianvändargränssnitt, myoelektriskt gränssnitt. | Khushaba REF presenterade en kanonisk korrelationsanalys (CCA)-baserad algoritm för inter-individuell gestigenkänning. | 23,473,981 | Correlation Analysis of Electromyogram Signals for Multiuser Myoelectric Interfaces | {'venue': 'IEEE Transactions on Neural Systems and Rehabilitation Engineering', 'journal': 'IEEE Transactions on Neural Systems and Rehabilitation Engineering', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']} | 9,368 |
Vi utökar definitionsarbetet för Dwork, Naor och Sahai från deniable autentisering till deniable key-exchange protokoll. Vi använder sedan dessa definitioner för att bevisa förnekelsefunktionerna i SKEME och SIGMA, två naturliga och effektiva protokoll som ligger till grund för Internet Key Exchange-protokollet (IKE). SKEME är ett krypteringsbaserat protokoll som vi visar full förnekande baserat på klartext medvetenhet om den underliggande krypteringsschema. Intressant nog är SKEMEs förnekelse möjligen den första "naturliga" applikationen som i huvudsak kräver klartextmedvetenhet (fram tills nu har detta begrepp huvudsakligen använts som ett verktyg för att bevisa vald chiffertextsäkerhet). SIGMA, å andra sidan, använder icke-återkalleliga signaturer för autentisering och kan därför inte bevisas vara fullt förnekande. Ändå kan vi bevisa en svagare, men meningsfull, "partiell förnekelse" egenskap: ett parti kanske inte kan förneka att det var "levande" någon gång i tiden men kan helt förneka innehållet i sina meddelanden och sina samtalspartners identitet. Vi noterar att förnekelsen av SKEME och SIGMA håller i en samtidig inställning och inte i huvudsak förlitar sig på den slumpmässiga oraklet modellen. | Vissa protokoll ger förnekelse, där det inte på ett avgörande sätt kan bevisas att en part deltog i en viktig utbytessession. | 6,385,775 | Deniable authentication and key exchange | {'venue': "CCS '06", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,369 |
I detta dokument tillämpas ett kooperativt två-hop kommunikationssystem, tillsammans med opportunistisk relä (OR), inom ett mobilt trådlöst body area nätverk (WBAN). Dess effektivitet när det gäller att begränsa störningar undersöks i ett scenario där det finns flera närbelägna nät. På grund av en typisk WBAN natur, ingen samordning används bland olika WBANs. Ett lämpligt system för tidsdelnings-multiple-access (TDMA) antas som både ett intranät och ett system för tillgång till Internet. Omfattande mätning av kropps- och utomkroppskanalsvinster används för att mäta prestanda, som är överlagda för att simulera en realistisk WBAN-arbetsmiljö. Det konstateras att opportunistisk återutläggning kan förbättra signal-till-interferens-plus-brus-förhållandet (SINR) prestanda med en avbrottsannolikhet på 10% med ett genomsnitt på 5 dB, och det visas också att det kan minska plankorsningshastighet (LCR) signifikant vid låga SINRs. Dessutom är detta system effektivare när kanalerna på kroppen bleknar snabbare. | Författarna visar kooperativ två relä kommunikation med opportunistisk relä avsevärt minskar WBAN interferens REF. | 3,831,944 | Opportunistic relaying in wireless body area networks: Coexistence performance | {'venue': '2013 IEEE International Conference on Communications (ICC)', 'journal': '2013 IEEE International Conference on Communications (ICC)', 'mag_field_of_study': ['Computer Science']} | 9,370 |
Abstrakt. I detta dokument analyserar vi säkerheten för ett nytt viktigt utbyte protokoll som föreslås i [3], som bygger på ömsesidigt lärande neurala nätverk. Detta är en ny potentiell källa för allmänt viktiga kryptografiska system som inte är baserade på talteoretiska funktioner, och har liten tids- och minneskomplexitet. I den första delen av dokumentet analyserar vi systemet, förklarar varför de två parterna konvergerar till en gemensam nyckel, och varför en angripare som använder ett liknande neuralt nätverk är osannolikt att konvergera till samma nyckel. Men i den andra delen av dokumentet visar vi att detta viktiga utbytesprotokoll kan brytas på tre olika sätt, och därmed är det helt osäkert. | En äldre men relevant "Analys av neural kryptografi" REF bygger på ömsesidigt lärande nätverk men är benägna att attackera. | 15,961,809 | Analysis of neural cryptography | {'venue': 'In Proc. of AsiaCrypt 2002, volume 2501 of LNCS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,371 |
Abstract-We introducerar en algoritm för optimering av avkänningsparametrar inklusive antalet avkänningsprover och antalet rapporteringsbitar av ett kvantiseringsbaserat spektrumavkänningssystem i kognitiva radionät. Detta erhålls genom att maximera nätverkets dataflöde med en sannolikhet för att målet ska upptäckas. Med Rayleigh bleknings- och energidetektor optimerar den föreslagna algoritmen samtidigt antalet avkänningsprover vid en lokal nod, antalet bitar för kvantifiering av lokala avkänningsdata och den globala tröskeln vid ett fusionscenter. | Referens REF föreslog en algoritm för ett kvantiseringsbaserat CSS-system i CRN, som samtidigt optimerar antalet avkänningsprover vid en lokal nod, antalet bitar för kvantifiering av lokala avkänningsdata och den globala tröskeln vid ett fusionscenter. | 188,379 | How Many Bits Should Be Reported In Quantized Cooperative Spectrum Sensing? | {'venue': 'IEEE Wireless Communications Letters', 'journal': 'IEEE Wireless Communications Letters', 'mag_field_of_study': ['Computer Science']} | 9,372 |
Framtida 5G-system kommer att behöva stödja ultratillförlitliga låg latenta kommunikationsscenarier. Ur latens-tillförlitlighetssynpunkt är det ineffektivt att förlita sig på genomsnittlig bruksbaserad systemdesign. Därför inför vi begreppet garanterad försening, som är den genomsnittliga förseningen plus tre standardavvikelser för medelvärdet. Vi undersöker avvägningen mellan garanterad fördröjning och genomströmning för de trådlösa raderingslänkarna från punkt till punkt med otillförlitlig och fördröjd feedback, genom att sammanföra signalflödestekniker till området för kodning. Vi använder små koder, dvs. skjutfönster genom att koda med bara 2 paket, och designa tre varianter av selektiva återupprepade ARQ protokoll, genom att bygga på baslinjeschemat, dvs okodade ARQ, utvecklat av Ausavapattanakun och Nosratinia: (i) Hybrid ARQ med mjuk kombination vid mottagaren; (ii) kumulativ feedback-baserad ARQ utan hastighet anpassning; och (iii) kodade ARQ med hastighet anpassning baserat på den kumulativa återkopplingen. Kontrast mot dessa protokolls prestanda med okodad ARQ, visar vi att HARQ presterar bara något bättre, den kumulativa feedback-baserade ARQ ger inte betydande genomströmning medan den har en bättre genomsnittlig fördröjning, och den kodade ARQ kan ge vinster upp till cirka 40% i form av genomströmning. Den kodade ARQ ger också fördröjningsgarantier, och är robust för olika utmaningar som bristfällig och fördröjd feedback, spricker raderingar, och run-trip tid variationer. Denna funktion kan vara att föredra för att uppfylla de strikta kraven på latens och tillförlitlighet i framtida användningsfall för ultratillförlitlig låg latenskommunikation i 5G, såsom uppdragskritiska kommunikationer och industriell kontroll för kritiska kontrollmeddelanden. | I REF studerade författarna FEC-designen för att minimera den garanterade fördröjningen, som definieras som den genomsnittliga fördröjningen plus tre standardavvikelser. | 49,274,631 | Tiny Codes for Guaranteeable Delay | {'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 9,373 |
Abstrakt. Inkrementell inlärning (IL) har fått mycket uppmärksamhet på senare tid, men litteraturen saknar en exakt problemdefinition, korrekta utvärderingsinställningar och mått anpassade speciellt för IL-problemet. Ett av huvudmålen med detta arbete är att fylla dessa luckor för att skapa en gemensam grund för bättre förståelse av IL. Den största utmaningen för en IL-algoritm är att uppdatera klassificeringen samtidigt som befintlig kunskap bevaras. Vi observerar att förutom att glömma, en känd fråga samtidigt bevara kunskap, IL också lider av ett problem som vi kallar oförsonlighet, oförmåga av en modell att uppdatera sin kunskap. Vi introducerar två mätvärden för att kvantifiera glömska och oförsonlighet som gör att vi kan förstå, analysera och få bättre insikter i IL-algoritmers beteende. Vi presenterar RWalk, en generalisering av EWC++ (vår effektiva version av EWC [7] ) och Path Integral [26] med ett teoretiskt grundat KL-divergence-baserat perspektiv. Vi tillhandahåller en grundlig analys av olika IL algoritmer på MNIST och CIFAR-100 dataset. I dessa experiment får RWalk överlägsna resultat i form av noggrannhet, och ger också en bättre avvägning mellan glömska och oförsonlighet. | Chaudhry m.fl. REF introducerar mätvärden för att kvantifiera glömska och oförsonlighet, och föreslår också Riemannian gå till gradvis lära klasser. | 4,047,127 | Riemannian Walk for Incremental Learning: Understanding Forgetting and Intransigence | {'venue': '15th European Conference on Computer Vision (ECCV), 2018', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,374 |
Deskriptiva namn är en viktig del av läsbar och därmed underhållsbar kod. Nyligen gjorda framsteg på automatiskt föreslå namn för lokala variabler tantaliserar med utsikten att replikera denna framgång med metod och klassnamn. Det är dock mycket svårare att ange namn på metoder och klasser. Detta beror på att bra metod- och klassnamn måste vara funktionellt beskrivande, men att föreslå sådana namn kräver att modellen går utöver det lokala sammanhanget. Vi introducerar en neural probabilistisk språkmodell för källkod som är speciellt utformad för metoden namnge problem. Vår modell lär sig vilka namn som är semantiskt lika genom att tilldela dem till platser, som kallas inbäddningar, i ett högdimensionellt kontinuerligt utrymme, på ett sådant sätt att namn med liknande inbäddningar tenderar att användas i liknande sammanhang. Dessa inbäddningar verkar innehålla semantisk information om polletter, även om de endast lärs av statistiska samtidiga förekomster av polletter. Dessutom introducerar vi en variant av vår modell som, såvitt vi vet, är den första som kan föreslå neologism, namn som inte har dykt upp i tränings corpus. Vi får toppmoderna resultat om metod, klass, och även enklare variabel namngivning uppgifter. Mer allmänt har de kontinuerliga inbäddningar som vi lär oss av vår modell potential för bred tillämpning inom programvaruteknik. | En neural probabilistisk språkmodell introducerad i REF som kan föreslå namn för metoderna och klasserna. | 9,279,336 | Suggesting accurate method and class names | {'venue': 'ESEC/FSE 2015', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,375 |
Sammanfattning av denna webbsida: På grund av sin speciella miljö är Underwater Wireless Sensor Networks (UWSN) vanligtvis utplacerade över ett stort havsområde och noderna flyter oftast. Detta resulterar i en lägre bacon nod distribution densitet, en längre tid för lokalisering, och mer energiförbrukning. För närvarande betalar de flesta av lokaliseringsalgoritmerna inom detta område inte tillräckligt med hänsyn till nodernas rörlighet. I detta dokument, genom att analysera rörlighet mönster av vatten nära havsstranden, en lokaliseringsmetod för UWSNs baserat på en Mobility Prediction och en partikel Swarm Optimization algoritm (MP-PSO) föreslås. I denna metod används den områdesbaserade PSO-algoritmen för att lokalisera fyranoder, och deras hastighet kan beräknas. Hastigheten hos en okänd nod beräknas med hjälp av den rumsliga korrelationen av undervattensobjektets rörlighet, och sedan kan deras platser förutsägas. Den intervall-baserade PSO-algoritmen kan orsaka betydande energiförbrukning och dess beräkning komplexitet är lite hög, icke desto mindre antalet fyrar noder är relativt mindre, så beräkningen för det stora antalet okända noder är koncis, och denna metod kan naturligtvis minska energiförbrukningen och tidskostnaden för att lokalisera dessa mobila noder. Simuleringsresultaten indikerar att denna metod har högre lokaliseringsnoggrannhet och bättre lokaliseringstäckningshastighet jämfört med några andra allmänt använda lokaliseringsmetoder inom detta område. | Författare i REF, föreslå en lokaliseringsteknik baserad på Mobility Prediction och en partikel Swarm Optimization algoritm (MP-PSO) för UWSNs. | 7,318,221 | A Localization Method for Underwater Wireless Sensor Networks Based on Mobility Prediction and Particle Swarm Optimization Algorithms | {'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Medicine', 'Engineering', 'Computer Science']} | 9,376 |
: Multi operatörsalgoritmen använder dynamisk programmering för att hitta den optimala kombinationen av retargeting operatörer. Här visar vi en jämförelse av flera metoder. Den ursprungliga bilden (vänster) återmålas med hjälp av: enkel beskärning, enhetlig skalning, sömsnideri [Rubinstein et al. 2008], icke-uniform warpning [Wang et al. 2008] och vår multioperatoralgoritm. I det här exemplet kombinerar multioperatoralgoritmen beskärning, skalning och snideri för att optimera vårt nya bild-till-bild-mått, benämnt dubbelriktad warping (BDW). Algoritmen kan använda andra omriktande operatörer och liknande åtgärder. Innehåll medveten storleksändring vunnit popularitet nyligen och användare kan nu välja från ett batteri av metoder för att omrikta sina medier. Men ingen enda retargeting operatör presterar bra på alla bilder och alla målstorlekar. I en användarstudie som vi genomförde fann vi att användarna föredrar att kombinera sömsnidning med beskärning och skalning för att producera resultat som de är nöjda med. Detta inspirerar oss att föreslå en algoritm som kombinerar olika operatörer på ett optimalt sätt. Vi definierar en storleksändring av rymden som ett konceptuellt flerdimensionellt utrymme som kombinerar flera storleksändringsoperatörer, och visar hur en väg i detta utrymme definierar en sekvens av operationer för att återmåla media. Vi definierar ett nytt bildliknande mått, som vi kallar Bi-Directional Warping (BDW), och använder det med en dynamisk programmeringsalgoritm för att hitta en optimal väg i storleken utrymme. Dessutom visar vi ett enkelt och intuitivt användargränssnitt som gör det möjligt för användare att utforska storleken på olika bildstorlekar interaktivt. Med hjälp av nyckelramar och interpolering utökar vi också vår teknik för att remåla video, vilket ger flexibiliteten att använda den bästa kombinationen av operatörer vid olika tidpunkter i sekvensen. | Deras senaste arbete kombinerar flera storleksändring operatörer, såsom söm snidning, beskärning och skalning, för att uppnå optimal storleksändring resultat REF. | 18,009,907 | Multi-operator media retargeting | {'venue': 'SIGGRAPH 2009', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,377 |
Detta dokument introducerar en ny arkitektur för mänsklig pose estimering med hjälp av en flerlagers konvolutionsnätverksarkitektur och en modifierad inlärningsteknik som lär sig funktioner på låg nivå och en svag rumslig modell på högre nivå. Oöverskådlig human pose assessment är ett av de svåraste problemen i datorseendet, och vår nya arkitektur och inlärningsschema visar på förbättringar jämfört med den senaste tekniken. Det viktigaste bidraget i detta dokument är att för första gången visa att en specifik variation av djupt lärande kan uppfylla prestanda, och i många fall överträffa, befintliga traditionella arkitekturer på denna uppgift. I artikeln diskuteras också flera lärdomar som dragits samtidigt som man undersöker alternativ, framför allt att det är möjligt att lära sig starka funktionsdetektorer på låg nivå på regioner som bara kan täcka några få bildpunkter i bilden. De rumsliga modellerna på högre nivå förbättrar det övergripande resultatet något, men i mycket mindre utsträckning än väntat. Många forskare har tidigare hävdat att den kinematiska strukturen och top-down-informationen är avgörande för detta område, men med vår rent nedifrån-och-upp-modell, och svaga rumsliga modell, förbättrar vi på andra mer komplicerade arkitekturer som för närvarande ger de bästa resultaten. Detta påminner om vad många andra forskare, liksom de i taligenkänningen, objektigenkänningen och andra domäner har upplevt [26]. | Sedan införandet av den första ConvNet-metoden för human pose estimation REF har ett antal relaterade metoder föreslagits. | 7,777,777 | Learning Human Pose Estimation Features with Convolutional Networks | {'venue': None, 'journal': 'arXiv: Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 9,378 |
Abstract-Vi föreslår en allmän arkitektur för åtgärder (mimicking) och program (gesur) nivå visuell imitation. Åtgärdsnivå imitation omfattar två moduler. Utgångspunkten Transformation (VPT) utför en "rotation" för att anpassa demonstratorns kropp till inlärarens. Visuo-Motor Map (VMM) kartlägger denna visuella information till motordata. För programnivå (gesur) imitation, finns det en ytterligare modul som gör det möjligt för systemet att känna igen och generera sin egen tolkning av observerade gester för att producera liknande gester / mål i ett senare skede. Förutom det holistiska synsättet på problemet skiljer sig vår strategi från det traditionella arbetet i i) användningen av motorisk information för gestigenkänning; ii) användning av sammanhang (t.ex. objektförmågor) för att fokusera uppmärksamheten på igenkänningssystemet och minska tvetydigheter, och iii) använda ikoniska bildrepresentationer för handen, i motsats till att montera kinematiska modeller till videosekvensen. Detta tillvägagångssätt motiveras av upptäckten av visuomotoriska neuroner i F5-området i den macaque hjärnan som tyder på att gestigenkänning/imitering utförs i motoriska termer (mirror) och förlitar sig på användning av objektförmågor (kanoniska) för att hantera tvetydiga handlingar. Våra resultat visar att detta tillvägagångssätt kan överträffa mer konventionella (t.ex. rent visuella) metoder. | Lopes m.fl. REF använder sammanhang från objekt i termer av möjliga greppord för att fokusera uppmärksamheten på deras igenkänningssystem. | 17,648,373 | Visual learning by imitation with motor representations | {'venue': 'IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics)', 'journal': 'IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics)', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 9,379 |
till Profilering, matchning, och open-world expertfynd är viktiga uppgifter som kan åtgärdas med hjälp av funktionsbaserade representationer som ofta används i maskininlärning. Sådana effektiviseringsverktyg ger också perspektiv på hur peer-review processen kan förbättras: i synnerhet, idén om profilering naturligt leder till en uppfattning om att peer review syftar till att hitta den bästa publiceringsplats (om någon) för ett inlämnat papper. Att skapa en mer global inbäddning för peer-review processen som överskrider enskilda konferenser eller konferensserier med hjälp av ihärdiga granskare och författare profiler är enligt vår mening nyckeln till en mer robust och mindre godtycklig peer-review process. det finns en fast eller förutbestämd pool av människor eller resurser. Till exempel, tilldela papper för granskning i en sluten värld inställning antar en programkommitté eller redaktionell styrelse har redan samlats, och därför är huvuduppgiften en av matchande papper till potentiella granskare. I en öppen värld blir däremot uppgiften att hitta lämpliga experter. På samma sätt har en författare i en sluten värld redan beslutat vilken konferens eller tidskrift de ska skicka sin uppsats till, medan man i en öppen värld kan tänka sig ett recommender system som föreslår möjliga publiceringsplatser. Skillnaden mellan slutna och öppna världar är gradvis snarare än absolut: tillgången till en global databas med potentiella publiceringsställen eller granskare med tillhörande metadata skulle i själva verket göra åtskillnaden till en skala snarare än substans. Det är dock förmodligen rimligt att säga att i avsaknad av sådana globala resurser tenderar de nuvarande möjligheterna att vara inriktade på slutna miljöer. Här granskar vi forskning om steg II, III och V, med början i de senare två, som är mer av en sluten värld natur. I den för närvarande etablerade akademiska processen är peer review av skrivna verk beroende av lämplig uppgift till flera experter för sin granskning. Att identifiera den lämpligaste uppsättningen granskare för en given inlämnad uppsats är en tidskrävande och icke-trivial uppgift för konferensordförande och tidskriftsredaktörer-för att inte nämna finansiering program chefer, som förlitar sig på peer review för finansieringsbeslut. Här bryter vi ner problem med granskningsuppdraget i dess matchnings- och begränsningskomponenter och diskuterar möjligheter till beräkningsstöd. Formellt, med tanke på en uppsättning P papper med P på P = p och en uppsättning R av granskare med R= r, är målet med papperstilldelning att hitta en binär matris A r×p sådan att A i j = 1 indikerar att i-th granskaren har tilldelats j-th papper, och A i j = 0 annars. Uppdragsmatrisen bör uppfylla olika begränsningar, varav de mest typiska är: varje papper granskas av minst c granskare (vanligtvis c = 3), varje granskare tilldelas inte mer än m papper, där m = O (pc / r); och granskare bör inte tilldelas i ett stort kuvert, och skicka dem till programordföranden för konferensen, med hänsyn till att internationell post skulle ta 3-5 dagar att komma fram. I slutet av programmet skulle programordföranden ta emot alla dessa kuvert, tilldela dokumenten till de olika medlemmarna i programkommittén, och skicka ut dem för granskning per post i ett annat parti stora kuvert. Granskningarna skulle göras för hand på papper och postas tillbaka eller föras till programkommitténs möte. Slutligen skulle meddelanden och recensioner skickas tillbaka av programordföranden till författarna per post. Inlagor till tidskrifter skulle följa en liknande process. Det är tydligt att vi har gått ganska långt från denna pappersbaserade process, många av de steg som vi beskriver här skulle tyckas vara perversa för våra yngre läsare. Dessa dagar skickas dokument och recensioner online i något konferenshanteringssystem (CMS), och all kommunikation sker via e-post eller via diskussionsforum på CMS med alla metadata om personer och dokument som lagras i ett databasgränssnitt. Man skulle kunna hävda att detta har gjort processen mycket mer effektiv, i den mån vi nu anger tidsfristen för inlämning fram till den andra i en viss tidszon (i stället för ungefär som den sista postrundan vid programordförandens institution), och kan skicka ut hundratals om inte tusentals meddelanden med en knapptryckning. Dataforskare har studerat automatiserat beräkningsstöd för inlämning av konferenspapper sedan pionjärarbete på 1990-talet. 14 En rad olika metoder har använts för att minska den mänskliga ansträngningen att fördela papper, vanligtvis i syfte att producera uppdrag som liknar den "guldstandard" manuella processen. 9, 13, 16, 18, 30, 34, 37 Trots många publikationer om detta ämne under de mellanliggande åren har forskningsresultat i pappersuppgift gjort relativt få insteg i vanliga CMS-verktyg och vardagliga peer review praxis. Därför verkar det vi har uppnått under de senaste 25 åren vara en strömlinjeformad process snarare än en i grunden förbättrad. Vi anser att det skulle vara svårt att argumentera för att de beslut som fattas av programkommittéer i dag är betydligt bättre jämfört med den pappersbaserade processen. Men detta betyder inte att möjligheter att förbättra processen inte existerar - tvärtom, det finns, som vi visar i denna artikel, stort utrymme för att använda just de tekniker som forskare inom maskininlärning och artificiell intelligens har utvecklats under åren. I den bifogade tabellen erinras om de viktigaste stegen i peer review-processen och framhävs de nuvarande och framtida möjligheterna att förbättra den genom avancerat beräkningsstöd. När man diskuterar dessa frågor kommer det att vara till hjälp att skilja mellan stängda och öppna miljöer. I en sluten kronologisk sammanfattning av de viktigaste aktiviteterna inom peer review, med möjligheter att förbättra processen genom beräkningsstöd. ).............................................................................................. Eftersom detta problem är underspecificerat, kommer vi att anta att ytterligare information finns tillgänglig i form av en poängmatris M r×p uttrycker för varje pappersgranskare par hur väl de matchas med hjälp av ett icke-negativt tal (högre innebär en bättre matchning). Den bästa tilldelningen är då den som maximerar element-wise matrisen produkt i j A i j M i j samtidigt uppfylla alla begränsningar. Aktör Denna endimensionella definition av "bästa" garanterar inte den bästa uppsättningen granskare om ett papper täcker flera ämnen, till exempel ett papper om maskininlärning och optimering skulle kunna tilldelas tre granskare som är maskininlärning experter men ingen som är optimering experter. Denna brist kan åtgärdas genom att ersätta R med uppsättningen R c så att varje c-tuple R c representerar en eventuell tilldelning av c granskare. 24, 25, 42 De senaste verken lägger till tydliga begränsningar för ämnestäckning för att införliva flera dimensioner i definitionen av bästa tilldelning. 26, 31, 40 Andra typer av begränsningar har också beaktats, inklusive geografisk fördelning och rättvisa uppdrag, liksom alternativa begränsningslösaralgoritmer. 3, 19, 20, 43 Poängmatrisen kan komma från olika källor, möjligen en kombination. Här granskar vi tre möjliga källor: funktionsbaserad matchning, profilbaserad matchning och budgivning. En funktionsbaserad matchning. För att underlätta tilldelningen av inlämnade dokument till granskare krävs ofta en kort lista över ämnesord av vanliga CMS-verktyg som en del av inlämningsprocessen, antingen från en kontrollerad vokabulär, såsom ACM Computing Classification System (CCS), a eller som en fritext "folksonomi". Förutom att samla in nyckelord för de inlämnade dokumenten, tar ytterligare ett steg att också begära ämnesord från kroppen av potentiella granskare gör CMS-verktyg för att göra en enkel match mellan papper och granskare baserat på en räkning av antalet nyckelord de har gemensamt. För varje papper granskarna kan sedan rankas i ordning efter antalet matchande sökord. Om antalet nyckelord som förknippas med varje papper och varje granskare inte är fast kan jämförelsen normaliseras av CMS för att undvika alltför gynna längre listor med nyckelord. Om den övergripande vokabulär från vilken nyckelord väljs är liten så kommer de begrepp de representerar med nödvändighet att vara breda och sannolikt resultera i fler matchningar. Omvänt, om ordförrådet är stort, som i fallet med fritext eller ACM CCS, då begrepp som representeras kommer att finare korn, men antalet matcher är mer sannolikt att vara liten eller till och med obefintlig. Att manuellt tilldela nyckelord för att definiera ämnet skriftligt material är också subjektivt. På det medicinska området, där taxonomiska klassificeringssystem är vanliga, har det visat sig att olika experter, eller till och med samma expert över tiden, kan vara inkonsekventa i valet av nyckelord. 6, 7 När ett par nyckelord inte bokstavligen matchar, trots att man har valt att hänvisa till samma underliggande koncept, är en teknik som ofta används för att förbättra matchning också att matcha deras synonymer eller syntaktiska varianter som definieras i en tesaurus eller lexikon av förkortningar, till exempel att behandla "kodkontroll" och "walkthrough" som likvärdiga; likaså för "SVM" och "stödvektormaskin" eller "λ-calculus" och "lambda calculus". Om sådana enkla likvärdighetsklasser inte är tillräckliga för att fånga upp viktiga skillnader mellan ämnen – till exempel om skillnaden mellan "kodkontroll" och "genomgång" är betydande – då är en alternativ teknik att utnyttja den hierarkiska strukturen hos ett begrepp taxonomi för att representera avståndet mellan begreppen. I denna inställning kan en match baseras på de gemensamma förfäderna till begrepp-antingen räkna antalet delade förfäder eller beräkna någon kant traversal avstånd mellan ett par koncept, till exempel den tidigare ACM CCS-begreppet "D.1.6 Logisk programmering" har förfäderna "D.1 Programmeringsteknik" och "D. Programvara, som båda delas av begreppet 'D.1.5 Objektorienterad programmering', vilket innebär att D.1.5 och D.1.6 har en icke-noll likhet eftersom de har gemensamma förfäder. Att få en användbar representation av begreppet likhet från en taxonomi är utmanande eftersom åtgärderna tenderar att anta enhetlig täckning av begreppet utrymme så att hierarkin är ett balanserat träd. Tillvägagångssättet är ytterligare komplicerat eftersom det är vanligt att vissa begrepp visas på flera ställen i en hierarki, det vill säga taxonomier kan vara grafer snarare än bara träd, och följaktligen kan det finnas flera vägar mellan ett par begrepp. Situationen blir ännu värre om olika taxonomier används för att beskriva ämnet skrivna verk från olika källor eftersom det krävs en kartläggning mellan taxonomierna. Det är därför inte förvånande att ett av de vanligaste fynden i litteraturen om ontologiteknik är att ontologier, däribland taxonomier, tesaurier och ordböcker, är svåra att utveckla, underhålla och använda. 12 Så även med bra CMS-stöd kräver nyckelordsbaserad matchning fortfarande manuell ansträngning och subjektiva beslut från författare, granskare och, ibland, ontologiingenjörer. En användbar aspekt av funktionsbaserade matchning med nyckelord är att det gör att vi kan vända ett heterogent matchande problem (papper mot granskare) till en homogen (papper sökord mot granskare nyckelord). Sådana nyckelord är alltså ett enkelt exempel på profiler som används för att beskriva relevanta enheter (papper och granskare). Därefter tar vi idén om profilbaserad matchning ett steg längre genom att använda en mer allmän uppfattning om profil som innehåller icke-feature-baserade representationer såsom påsar med ord. Automatisk funktionskonstruktion med profilbaserad matchning. Den huvudsakliga idén med profilbaserad matchning är att automatiskt skapa representationer av semantiskt relevanta aspekter av både papper och granskare för att underlätta konstruktionen av en poängmatris. Ett självklart val av en sådan representation för papper är som en viktad påse-of-words (se "The Vector Space Model" sidebar). Vi måste sedan bygga upp liknande profiler av granskare. För detta ändamål kan vi representera en granskare genom insamling av alla deras författare eller medförfattare papper, som indexeras av vissa online arkiv såsom DBLP 29 eller Google Scholar. Denna samling kan omvandlas till en profil på flera sätt, bland annat: bygga upp profilen från ett enda dokument eller en webbsida som innehåller de bibliografiska detaljerna i granskarens publikationer (se översiktsartiklar om nyckelord). Antalet möjliga termer i en profil kan dock vara enormt och system som TPMS använder automatisk ämnesextraktion som en form av dimensionalitetsreduktion, vilket resulterar i profiler med termer som valts från ett begränsat antal nyckelord (ämnen). Som en användbar biprodukt av profilering kännetecknas varje papper och varje granskare av en lista över termer som kan ses som automatiskt konstruerade funktioner som kan utnyttjas ytterligare, till exempel att tilldela accepterade papper till sessioner eller att klargöra det relativa bidraget från enskilda termer till en likhetspoäng (se "SubSift och MLj Matcher" sidomenyn). Budgivning. En relativt ny trend är att överföra en del av papperstilldelningsuppgiften nedströms till granskarna själva, ge dem tillgång till alla inlämnade dokument och be dem att lägga bud på papper som de skulle vilja se över. Befintliga CMS-verktyg erbjuder stöd för olika anbudsförfarande, bland annat: tilldelning av ett fast antal "poäng" i ett godtyckligt antal papper, urval av toppk-papper, riskvärderingsvilja att granska papper enligt budstyrka, samt kombinationer av dessa. Därför kan budgivning ses som ett alternativt sätt att komma fram till en poängmatris som krävs för papperstilldelningsprocessen. Det finns också möjlighet att registrera intressekonflikter, om en granskares förhållande till upphovsmännen till ett visst dokument är sådant att granskaren inte är en lämplig granskare för det dokumentet. Även om det ligger i en granskares egenintresse att lägga bud, kommer alltid inte alla granskare att göra det, i vilket fall de dokument som de tilldelas för granskning kan mycket väl inte vara en bra matchning för deras expertis och intressen. Detta kan vara irriterande för granskaren, men är särskilt frustrerande för författarna till de berörda tidningarna. Avsaknaden av bud från vissa granskare kan också minska rättvisa tilldelningsalgoritmer i CMS-verktyg. 19 Standardalternativ i budgivningsprocessen kan inte lindra detta: om standardvärdet är "Jag kan inte se över detta" är granskaren effektivt utesluten från tilldelningsprocessen, medan om standardvärdet är att indikera någon minimal villighet att granska ett papper granskaren används effektivt som ett jokertecken och kommer att få de papper som är svårast att fördela. En hybrid av profilbaserad matchning och manuell budgivning utforskades för "SubSift och MLj-Matcher" sidebar), eller hämta eller låta granskaren ladda upp fulltext av (valda) papper, som sedan individuellt omvandlas till den erforderliga representationen och kollektivt medelvärdes för att bilda profilen (se "Toronto Paper Matching System" (TPMS) sidebar). När både papper och recensenter har profilerats kan poängmatrisen M fyllas med cosinuslikheten mellan termerna viktvektorer för varje pappersgranskarpar. Profilbaserade metoder för att matcha artiklar med granskare utnyttjar den intuitiva idén att de publicerade verken av granskare på något sätt beskriver deras specifika forskningsintressen och expertis. Genom att analysera dessa publicerade verk i förhållande till kroppen som helhet, kan diskriminerande profiler produceras som effektivt karakterisera granskare expertis från innehållet i befintliga heterogena dokument som sträcker sig från traditionella akademiska papper till webbplatser, blogginlägg och sociala medier. Sådana profiler har ansökningar i sig men kan också användas för att jämföra ett dokument med ett annat, rangordna godtyckliga kombinationer av dokument och, genom ombud, individer genom deras likhet med varandra. Ur ett maskininlärningsperspektiv skiljer sig profilbaserad matchning från funktionsbaserad matchning genom att profilerna är konstruerade på ett datadrivet sätt utan behov av att komma med ett The Toronto Paper Matching System TPMS (papermatching.cs.toronto.edu) har sitt ursprung som en fristående papperstilldelningsrekommendation för NIPS 2010-konferensen och har därefter löst integrerats med Microsofts Conference Management Toolkit (CMT) för att effektivisera tillgången till pappersinlagor för ICML 2012. TPMS kräver att granskare laddar upp ett urval av sina egna papper, rapporter och andra självvalda textdokument, som sedan analyseras för att producera deras granskningsprofil. Detta placerar kontroll över omfattningen av profilen i händerna på granskarna själva så att de behöver bara inkludera publikationer om ämnen som de är beredda att granska. När TPMS väl har laddats upp, kvarstår dokumenten och den resulterande profilen utanför ramen för en enda konferens, vilket gör det möjligt för granskare att återanvända samma profil för framtida konferenser, kurera sin egen uppsättning av karakteristiska dokument som de anser lämpligt. Den poängsättningsmodell som används liknar vektor-rymd-modellen men tar en Bayesian strategi. Dessutom kan profiler i TPMS uttryckas över en uppsättning hypotetiska ämnen snarare än råa termer. Ämnen är modellerade som dolda variabler som kan uppskattas med hjälp av tekniker som Latent Dirichlet Allocation. 4, 8 Denna ökade expressivitet kommer till priset av att kräva mer träningsdata för att avvärja risken för översittning. EP-Veckan Nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, jag, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, KOMMUNIKATIONER FRÅN ACM 75 översiktsartiklar ACM SIGKDD International Conference on Knowledge Discovery and Data Mining 2009. Vid budgivningstidpunkten presenterades granskarna med inledande bud som erhållits genom att matcha recensentens publikationsposter på DBLP med pappersabstracts (se "Experience from SIG-KDD'09" sidebar för detaljer) som utgångspunkt. Flera PC-medlemmar rapporterade att de ansåg att dessa anbud var tillräckligt bra för att befria dem från frestelsen att ändra dem, även om vi anser att det finns stort utrymme för att förbättra både kvaliteten på rekommendationer och användargränssnittet i framtida arbete. ICML 2012 undersökte vidare användningen av en hybridmodell och en förteckning över föreslagna anbud. b TPMS-programvaran som används på ICML 2012 erbjuder andra poängsättningsmodeller för att kombinera anbud med profilbaserad expertbedömning. 8, 9 Effektiv automatisk initiering av bud skulle ta itu med det ovannämnda problemet som orsakas av icke-budderande granskare. Om man antar att en papperstilldelning av hög kvalitet har uppnåtts med hjälp av en av de metoder som beskrivits tidigare, uppmanas granskarna nu att ärligt bedöma kvaliteten och nyheten i ett papper och dess lämplighet för den valda platsen (konferens eller tidskrift). Det finns olika sätt på vilka denna bedömning kan uttryckas: från ett enkelt ja/nej svar på frågan: "Om det helt och hållet var upp till dig, skulle du acceptera denna uppsats?" Genom ett betygsatt svar på en mer vanlig fem- eller sjupunktsskala (t.ex., Stark Acceptera (3); Acceptera (2); Svag Accept (1); Neutral (0); Svag Avvisa (-1); Avvisa (-2); Stark Avslag (-3)), att sortera svar på en uppsättning frågor som syftar till att karakterisera olika aspekter av papperet såsom nyhet, effekt, teknisk kvalitet och så vidare. Sådana svar kräver noggrann tolkning av minst två skäl. Den första är att granskare, och även område stolar, inte har fullständig information om hela uppsättningen inlämnade papper. Detta är viktigt i en situation där det totala antalet papper som kan godtas är begränsat, som i de flesta konferenser (det är mindre av ett nummer för tidskrifter). Huvudorsaken till att råa recensenter poäng är problematiska är att olika recensenter tenderar att använda den(a) skala(er) inblandade på olika sätt. Till exempel, b ICML 2012 översyn; http://hunch.net/?p=2407 vissa granskare tenderar att stanna i centrum av skalan medan andra tenderar att gå mer för ytterligheter. I detta fall skulle det vara tillrådligt att normalisera poängen, till exempel genom att ersätta dem med zscores. Detta korrigerar för skillnader i både medelvärden och standardavvikelser bland granskare och är ett enkelt exempel på kalibrering av granskningsresultat. För att uppskatta en granskares användning av dessa verktyg initierades varje granskares anbud med hjälp av en viktad summa av cosinus likhet mellan papperets abstrakt och granskarens publikationstitlar enligt DBLP data science online bibliografi, 30 och antalet delade ämnesområden (nyckelord). De kombinerade likhetspoängen diskretiserades till fyra bins med hjälp av manuellt valda trösklar, med den första bin är en 0 (no-bid) och de andra tre är bud med ökande styrka: 1 (vid en nypa), 2 (willing) och 3 (eager). Dessa ursprungliga bud exporterades från SubSift och importerades till konferenshanteringsverktyget (Microsoft CMT, cmt.research.microsoft.com). Baserat på samma likhetsinformation skickades varje granskare ett e-postmeddelande med en länk till en personlig SubSift genererad webbsida lista detaljer av alla 537 papper som beställts genom inledande bud tilldelning eller av någon av dess två komponenter: sökordsmatcher eller likhet med sina egna publicerade verk. På sidan listas också nyckelorden som hämtats från granskarens egna publikationer och de från vart och ett av de inskickade dokumenten. Guided by this personalized perspective, plus de vanliga titlarna och abstracts, recensenter bekräftade eller reviderade sina bud som registrerats i konferenshanteringsverktyget. För att kvantitativt utvärdera prestandan hos SubSift-verktygen ansågs de anbud som lämnats av granskare vara de "korrekta uppdrag" mot vilka SubSifts automatiserade uppdrag jämfördes. Om man bortser från anbudsnivån, inkluderades därefter en median på 88,2 % av de papper som SubSift rekommenderade i granskarens egna anbud (precision). Dessutom var en median på 80,0 % av de papper som granskarna bjöd på de som ursprungligen rekommenderades av SubSift (återkallande). Dessa resultat tyder på att tidningarna som så småningom bjöds på av granskare till stor del drogs från dem som tilldelades icke-noll bud av SubSift. Dessa resultat på verkliga data i en praktisk miljö är jämförbara med andra publicerade resultat med hjälp av språkmodeller. SubSift, kort för "submission sifting", utvecklades ursprungligen för att stödja pappersuppdrag på SIGKDD'09 och därefter generaliserades till en familj av webbtjänster och återanvändbara webbverktyg (www.subsift.com). Appliceringsverktyget består av flera SubSift-webbtjänster till ett arbetsflöde som drivs av ett guideliknande användargränssnitt som tar programstolen genom en serie webbformer av en pappersgranskare profilerings- och matchningsprocess. På det första formuläret skrivs en lista över PC-medlemsnamn in. SubSift slår upp dessa namn på DBLP och föreslår författare sidor som, efter alla nödvändiga disambiguation, används som dokument för att profilera PC-medlemmar. Bakom kulisserna, från en lista med bokmärken (urls), SubSifts skördarrobot hämtar en eller flera DBLP-sidor per författare, extraherar alla publikationstitlar från varje sida och aggregerar dem till ett enda dokument per författare. I nästa form, konferenspapper abstracts laddas upp som en CSV-fil och deras text används för att profilera papper. Efter att ha matchat PC-medlemsprofiler mot pappersprofiler, producerar SubSift rapporter med rangordnade listor över papper per granskare, och rangordnade listor över granskare per papper. Alternativt kan en CSV-fil laddas ner med inledande anbudsuppgifter för uppladdning till en CMS genom att man manuellt anger tröskelvärden för likhetspoäng eller genom att ange absoluta mängder. För redaktören för en tidskrift kan uppgiften att tilldela en ledamot av redaktionen ett papper för deras granskning ses som ett specialfall av problemet med inlämning av konferenspapper (utan budgivning), där tonvikten ligger på att hitta den bästa matchningen för en eller några papper. Vi byggde ett alternativt användargränssnitt till SubSift som stöder papperstilldelning för tidskrifter. Känd som MLj Matcher i sin ursprungliga inkarnation, har detta verktyg använts sedan 2010 för att stödja papper uppdrag för Machine Learning tidskriften samt andra tidskrifter. se över artiklarna val- och representationsmekanism. Den nuvarande generationen av CMS erbjuder inte beräkningsstöd för bildandet av en balanserad programkommitté; de antar tidigare existens av listan över potentiella granskare och istället koncentrera sig på att stödja det administrativa arbetsflödet att utfärda och acceptera inbjudningar. SubSift och MLj-Matcher Expertfynd. Denna brist på verktygsstöd är förvånande med tanke på det relevanta arbetet inom det sedan länge etablerade expertområdet. 2, 11, 15, 34, 47 Under åren sedan den första textinsamlingskonferensen 1992 har uppgiften att hitta experter på ett visst ämne regelbundet tagits upp i denna långa konferensserie och är nu en aktiv del av den bredare textinsamlingsdisciplinen. Expertfynd har en viss överlappning med områdena bibliometri, kvantitativ analys av akademiska publikationer och annan forskningsrelaterad litteratur, 21,38 och scientometri, vilket utvidgar tillämpningsområdet till att omfatta bidrag, patent, upptäckter, datautgångar och, i Storbritannien, mer abstrakta begrepp som "impact". 5 Expertsökning tenderar att vara mer profilbaserad (t.ex. baserad på dokumentens text) än länkbaserad (t.ex. baserad på korsreferenser mellan dokument) även om innehållsanalys är ett aktivt område för bibliometri i synnerhet och har använts i kombination med citeringsegenskaper för att länka forskningsämnen till specifika författare. 11 Även om scientometri i jämförelse med bibliometri omfattar ytterligare åtgärder, är i praktiken det dominerande synsättet inom båda områdena citeringsanalys av akademisk litteratur. Citationsanalys mäter egenskaperna hos nätverk av citering bland publikationer och har mycket gemensamt med hyperlänkanalys på webben, där dessa åtgärder använder liknande grafteoretiska metoder utformade för att modellera rykte, med anmärkningsvärda exempel inklusive Hubs och Myndigheter, och PageRank. Citationsgrafanalys, med hjälp av en partikelvarm algoritm, har använts för att föreslå potentiella granskare för ett papper på premissen att ämnet för ett papper kännetecknas av de författare det citerar. få partiskhet ( tenderar de att fela på den accepterande sidan eller snarare på den avvisande sidan?) och sprida ( tenderar de att göra poäng mer eller mindre självsäkert?) Vi behöver ett representativt urval av papper med en rimlig kvalitetsfördelning. Detta är ofta problematiskt för enstaka hänvisningar eftersom antalet dokument m som granskas av en enda granskare är för litet för att vara representativt, och det kan finnas avsevärda skillnader i kvaliteten på papper mellan olika partier som inte bör tillskrivas granskare. Det är dock möjligt att få mer information om granskarens partiskhet och förtroende genom att utnyttja det faktum att dokument granskas av flera granskare. För SIGKDD'09 använde vi en generativ probabilistisk modell som föreslogs av kollegor på Microsoft Research Cambridge med latenta (oobserverade) variabler som kan härledas genom meddelandepasserande tekniker såsom Förväntning Förökning. 35 De latenta variablerna inkluderar den verkliga papperskvaliteten, den numeriska poäng som tillskrivs av granskaren, och de tröskelvärden som denna särskilde granskare använder för att omvandla den numeriska poängen till den observerade rekommendationen på sjupunktsskalan. Kalibreringsprocessen beskrivs mer i detalj i Flach et al. 18 En intressant manifestation av recensent varians kom fram genom ett experiment med NIPS granskning 2014. 27 PC-ordförandena beslutade att en tiondel (166) av de inlämnade dokumenten skulle granskas två gånger, var och en av tre granskare och en områdesordförande. Det visade sig att de två områdesordförandenas accepterade/avvisade rekommendationer skilde sig åt i ungefär en fjärdedel av fallen (43). Med tanke på den totala acceptansfrekvensen på 22,5 % godtogs ungefär 38 av de 166 dubbelgranskade dokumenten efter rekommendationen från en av ordförandena. Ungefär 22 av dessa skulle ha förkastats om rekommendationen från den andra områdesordföranden hade följts i stället (förutsatt att meningsskiljaktigheterna fördelades enhetligt över de två möjligheterna), vilket tyder på att mer än hälften (57 %) av de godkända dokumenten inte skulle ha kommit till konferensen om de hade setts över en andra gång. Vad man kan dra för slutsats av vad som kom att kallas "NIPS experiment" utöver dessa grundläggande siffror är upp för debatt. Det är värt att påpeka att även om peer review processen så småningom leder till ett binärt acceptera / avvisa beslut, papperskvalitet definitivt inte: medan en viss del av papper helt klart förtjänar att accepteras, och en annan bråkdel tydligt förtjänar att avvisas, de återstående papper har för- och nackdelar som kan vägas upp på olika sätt. Så om två granskare tilldelar olika poäng till papper detta betyder inte att en av dem är fel, men snarare de plockas upp på olika aspekter av papperet på olika sätt. Vi föreslår en bra väg framåt är att tänka på granskarens jobb som att "profilera" dokumentet i termer av dess starka och svaga punkter, och skilja den översyn jobb korrekt från det slutliga acceptera / avvisa beslut. Man kan föreställa sig en situation där ett inlämnat papper kan gå till ett antal arenor (inklusive "null"-platsen), och granskningsuppgiften är att hjälpa till att avgöra vilken av dessa arenor som är lämpligast. Detta skulle göra peer review-processen till en matchningsprocess, där publiceringsarenor har en tydlig profil (vare sig de accepterar teoretiska eller tillämpade papper, vare sig det sätter större värde på nyhet eller på tekniskt djup, bland annat) som ska matchas av inlämningsprofilen som bestäms av peer review-processen. Vissa konferenser har redan ett separat tidskriftsspår som innebär någon form av granskningsprocess för att avgöra vilken plats som är mest lämplig. Bildandet av en grupp granskare, vare sig det gäller konferenser, tidskrifter eller finansieringstävlingar, är en icke-trivial process som syftar till att balansera en rad objektiva och subjektiva faktorer. I praktiken, den faktiska processen genom vilken en programordförande monterar en programkommitté varierar från, på en extrem, inbjudan vänner och medförfattare plus deras vänner och medförfattare, till den andra ytterligheten av en formaliserad Det finns en mängd offentligt tillgängliga data om expertisen hos forskare som i princip skulle kunna användas för att profilera programkommittémedlemmar (utan att kräva att de väljer nyckelord eller uppladdningspapper) eller för att föreslå en rankad lista av kandidatinbjudningar för någon viss uppsättning ämnen. Uppenbara datakällor inkluderar akademiska hemsidor, onlinebibliografier, stipendier, jobbtitlar, forskargruppsmedlemskap, evenemang som närvarar samt medlemskap i yrkesorganisationer och andra granskarpooler. Trots att sådana uppgifter finns tillgängliga finns det ett antal problem med att använda dem för att hitta en expert på ett visst ämne. Om uppgifterna ska lokaliseras och användas automatiskt är det nödvändigt att identifiera den eller de individer som beskrivs i uppgifterna. Tyvärr är en persons namn inte garanterat att vara en unik identifierare (UID): ofta inte vara globalt unik i första hand, de kan också ändras genom titel, val, äktenskap, och så vidare. Saker och ting förvärras, eftersom många akademiska referensstilar använder förkortade former av ett namn med hjälp av initialer. Internationella variationer i ordbeställning, teckenuppsättningar och alternativa stavningar gör namnupplösningen ännu mer utmanande för ett peer review-verktyg. Problemet med disambikering av upphovsmän är i själva verket tillräckligt utmanande för att ha fört med sig stora forskningsansträngningar under årens lopp, vilket i sin tur har lett till praktisk utveckling av verktyg på områden med liknande krav på att hitta potentiella peer reviewers. Profiler RNS stödjer till exempel att hitta forskare med specifik expertis och inkluderar en författare Disambiguation Engine med hjälp av faktorer som namn permutationer, e-postadress, institutionstillhörigheter, kända medförfattare, tidskriftstitlar, ämnesområden och nyckelord. För att ta itu med dessa problem i sina egna skivsystem har förlag och bibliografiska databaser som DBLP och Google Scholar utvecklat egna egenutvecklade UID-system för att identifiera bidragslämnare till publicerade verk. Det finns dock nu en betydande drivkraft bakom den icke-proprietära Open Researcher och Bidragande ID (ORCID) e och förlag kartlägger i allt högre grad sina egna UID på ORCID UIDs. Ett subtilt problem kvarstår för peer review verktyg när man associerar data, särskilt akademiska publikationer, med en enskild forskare eftersom en hel del akademiskt arbete tillskrivs flera bidragslämnare. Hoppet om att lösa enskilda bidrag kommer från en samlad insats för att bättre dokumentera alla resultat av forskning, inklusive inte bara papper utan även webbplatser, dataset och programvara, genom rikare metadatabeskrivningar av forskningsobjekt. Balans och täckning. Att hitta sökande granskare är bara en del av en programordförandes uppgift att bilda en kommitté-attention måste också betalas till täckning och balans. Det är viktigt att se till att mer populära områden får proportionellt mer täckning än mindre populära områden, samtidigt som man inte utesluter mindre kända men potentiellt viktiga nya områden. Således finns det ett subjektivt element för att balansera och täckning som inte helt fångas av poängmatrisen. Den senaste tidens arbete syftar till att ta itu med detta för konferenser genom att förfina kluster, beräknade från en poängmatris, med hjälp av en form av crowdsourcing från programkommittén och från e http://orcid.org Vi föreslår ett bra sätt är att tänka på en granskares jobb att "profilera" tidningen i termer av dess starka och svaga punkter, och skilja den översyn jobb korrekt från den slutliga acceptera / avvisa beslut. granska artiklar ily lösas när vi har en poäng matris bedöma för varje pappersgranskare par hur väl de matchas. f Vi har beskrivit en rad tekniker från informationshämtning och maskininlärning som kan producera en sådan poängmatris. Begreppet profiler (av granskare och papper) är användbart här eftersom det förvandlar ett heterogent matchningsproblem till ett homogent. Sådana profiler kan formuleras mot ett fast ordförråd (bag-of-words) eller mot en liten uppsättning ämnen. Även om det är fashionabla i maskininlärning att behandla sådana ämnen som latenta variabler som kan läras från data, har vi hittat stabilitetsproblem med latenta ämnesmodeller (dvs lägga till några dokument till en samling kan helt ändra de inlärda ämnena) och har börjat experimentera med handgjorda ämnen (till exempel uppslagsverk eller Wikipedia poster) som utökar nyckelord genom att tillåta sina egna påse-of-word representationer. Ett kanske mindre allmänt studerat område där framsteg ändå har gjorts gäller tolkningen och kalibreringen av den mellanliggande produktionen i peer review-processen: de aspekter av översynerna som bidrar till beslutsprocessen. I sin enklaste form är dessa poäng på en ordinal skala som ofta helt enkelt är genomsnittliga. Emellertid är genomsnittsbedömningar från olika bedömare-som är vanligt inom andra områden också, till exempel, betygsättning kursarbete-är full av svårigheter eftersom det gör det orealistiska antagandet att varje bedömare poäng i samma skala. Det är möjligt att justera för skillnader mellan enskilda granskare, särskilt när en granskningshistorik finns tillgänglig som spänner över flera konferenser. Ett sådant globalt granskningssystem som bygger upp permanenta granskare (och författare) profiler är något som vi stöder i princip, även om många detaljer måste utarbetas innan detta är genomförbart. Vi anser också att det skulle vara fördelaktigt om de enskilda granskarnas roll flyttades bort från att vara en ersatzdomare som försöker svara på quesf Detta gäller för den enkla versionen som nämndes tidigare, men ytterligare begränsningar kan komplicera problemet med tilldelning. författare till godkända papper. 1 Ett annat exempel på beräkningsstöd för att samla en balanserad uppsättning granskare kommer inte från konferenser utan från en amerikansk finansiär, National Science Foundation (NSF). Den NSF presiderar över en budget på över 7,7 miljarder dollar (FY 2016) och får 40 000 förslag per år, med stora tävlingar locka 500-1,500 förslag; peer review är en del av NSF: s kärnverksamhet. För ungefär ett decennium sedan utvecklade NSF Revaide, ett datamining verktyg för att hjälpa dem att hitta förslagsgranskare och att bygga paneler med expertis som är lämplig för de ämnen som tas emot förslag. 22 Vid uppbyggnaden av profiler av potentiella granskare beslutade NSF att inte använda bibliografiska databaser som Citeseer eller Google Scholar, av samma skäl som vi diskuterade tidigare. I stället valde de en sluten världsstrategi genom att begränsa antalet potentiella granskare till författare av tidigare (en enda författare) förslag som hade bedömts som "funderbara" av granskningsprocessen. Detta säkrade tillgången till ett UID för varje upphovsman och tillförlitliga metadata, inklusive upphovsmannens namn och institution, vilket underlättade upptäckten av intressekonflikter. Granskare profiler är konstruerade från texten i deras tidigare förslag dokument (inklusive referenser och CV) som en vektor av de 20 topptermer med de högsta tf-idf poäng. Sådana dokument var kända för att vara alla av liknande längd och stil, vilket förbättrade relevansen av den resulterande tf-idf poäng. Samma sak gäller för de förslag som skall ses över, och därför har profiler av samma typ konstruerats för dessa. För en maskininlärningsforskare skulle ett självklart nästa steg mot att bilda paneler med lämplig täckning för ämnena i bidragen vara att samla ihop de mottagna förslagens profiler och använda de resulterande klustren som grund för paneler, till exempel att matcha potentiella granskare mot en prototypisk medlem av klustret. Före Revaide hade NSF faktiskt experimenterat med användningen av automatiserad klusterbildning för panelbildning, men dessa försök hade visat sig misslyckade av ett antal skäl: storleken på kluster tenderade att vara ojämn; kluster uppvisade dålig stabilitet när nya förslag kom gradvis; det fanns en brist på anpassning av paneler till NSF organisationsstruktur; och, på liknande sätt, ingen anpassning till specifika konkurrensmål, såsom ökat deltagande av underrepresenterade grupper eller skapa resultat av intresse för industrin. Så, eschewing kluster, Revaide stödde istället den etablerade manuella processen genom att kommentera varje förslag med sina 20 bästa termer som ett praktiskt alternativ till manuellt levererade sökord. Andra idéer för verktygsstöd i panelformation övervägdes. Inspirerad av konferens peer review, NSF experimenterade med budgivning men fann att granskare hade starka preferenser mot välkända forskare och detta tillvägagångssätt misslyckades med att säkerställa att det fanns granskare från alla bidragande discipliner av ett tvärvetenskapligt förslag-en särskild oro för NSF. Återigen, manuella processer vann ut. Revaide fann dock en värdefull roll för klusterteknik som ett sätt att kontrollera manuella tilldelningar av förslag till paneler. För att göra detta beräknade Revaide en "genomsnittlig" vektor för varje panel, genom att ta den centrala punkten i vektorerna för sina panelmedlemmar, och sedan jämföra varje förslag vektor mot varje panel. Om ett förslags tilldelade panel inte är dess närmaste panel då programregissören varnas. Med hjälp av denna metod föreslog Revaide bättre uppdrag för 5 % av alla förslag. Med samma representation användes Revaide också för att klassificera övergivna förslag, vilket föreslog en lämplig panel. Även om klassificeringen bara var 80% korrekt, vilket uppenbarligen inte är tillräckligt bra för ett helt automatiserat uppdrag, spelade den en värdefull roll i NSF arbetsflödet: så i stället för att varje programchef måste sålla igenom, låt oss säga, 1000 övergivna förslag fick de ett första uppdrag av, låt oss säga, 100 av vilka de skulle behöva omplacera runt 20 till andra paneler. Vi har visat att toppmoderna verktyg från maskininlärning och artificiell intelligens gör intrång för att automatisera och förbättra delar av peer review processen. Att tilldela granskare dokument (eller bidragsförslag) är ett område där stora framsteg har gjorts. Den kombinatoriska allokeringsproblem kan eas- granska artiklartion "Skulle du acceptera detta papper om det var helt upp till dig?" Mot en mer konstruktiv roll att karakterisera och faktiskt profilera det dokument som läggs fram. Lägga annorlunda, förutom förslag till förbättring till författarna, granskarna försöker samla metadata om det papper som används längre ner i pipeline för att bestämma den mest lämpliga publiceringsplats. I princip skulle detta göra det möjligt att frikoppla granskningsprocessen från enskilda arenor, vilket också skulle möjliggöra bättre lastbalansering och skalning. 46 I ett sådant system, författare och granskare skulle vara medlemmar i någon central organisation, som har befogenhet att tilldela papper till flera publiceringsställen-ett futuristiskt scenario, kanske, men det är värt att tänka på de speciella begränsningar som vårt nuvarande konferens-och tidskriftsdrivna system ställer, och som tydligt leder till en suboptimal situation i många avseenden. De beräkningsmetoder som vi beskrev i denna artikel har använts för att stödja andra akademiska processer utanför peer review, inklusive en personlig konferensplaneringsapp för delegater, g en organisatorisk profiler 36 och en personlig kursrekommendation för studenter baserat på deras akademiska profil. 41 I den bifogade tabellen presenteras några andra möjliga framtida riktlinjer för beräkningsstöd för akademisk peer review i sig. Vi hoppas att de tillsammans med denna artikel stimulerar våra läsare att tänka på hur den akademiska peer review processen-den här konstiga dansen där vi alla deltar på ett eller annat sätt-kan framtidssäkras på ett hållbart och skalbart sätt. | Ref gjorde en grundlig undersökning av de olika metoderna för beräkningsstöd till peer review-systemet. | 1,994,256 | Computational support for academic peer review: a perspective from artificial intelligence | {'venue': 'CACM', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,381 |
Neural maskinöversättning (NMT) modeller fungerar vanligtvis med ett fast ordförråd, men översättning är ett open-vokabulary problem. Tidigare arbete tar upp översättning av ord utanför ordförrådet genom att backa upp ett lexikon. I detta dokument introducerar vi ett enklare och effektivare tillvägagångssätt, vilket gör NMT-modellen kapabel till open-vokabulary översättning genom att koda sällsynta och okända ord som sekvenser av underord enheter. Detta baseras på intuitionen att olika ordklasser kan översättas via mindre enheter än ord, till exempel namn (via teckenkopiering eller translitterering), föreningar (via kompositionsöversättning) och kognater och låneord (via fonologiska och morfologiska omvandlingar). Vi diskuterar lämpligheten av olika ordsegmentering tekniker, inklusive enkla tecken ngram modeller och en segmentering baserad på byte par kodning kompression algoritm, och empiriskt visar att subword modeller förbättra över en back-off ordbok baslinje för WMT 15 översättningsuppgifter engelska→Tyska och engelska→Ryska med upp till 1,1 respektive 1,3 BLEU, respektive. | På liknande sätt, byte-par komprimeringsalgoritm har använts för att identifiera morphemes för neural maskin översättning uppgifter REF. | 1,114,678 | Neural Machine Translation of Rare Words with Subword Units | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 9,382 |
Under de senaste åren har djupa neurala nätverk gett enorma framgångar när det gäller taligenkänning, datorseende och behandling av naturligt språk. Utforskningen av djupa neurala nätverk på recommender system har dock fått relativt mindre granskning. I detta arbete strävar vi efter att utveckla tekniker baserade på neurala nätverk för att ta itu med det centrala problemet i rekommendationen - kollaborativ filtrering - på grundval av implicit återkoppling. Även om vissa arbeten nyligen har använt djupinlärning som rekommendation, använde de den i första hand för att modellera hjälpinformation, till exempel textbeskrivningar av föremål och akustiska egenskaper hos musik. När det gäller att modellera den viktigaste faktorn i samverkan filtrering - interaktionen mellan användare och objekt funktioner, de fortfarande tillgrep matris factorization och tillämpade en inre produkt på latenta funktioner hos användare och objekt. Genom att ersätta den inre produkten med en neural arkitektur som kan lära sig en godtycklig funktion från data, presenterar vi en allmän ram som heter NCF, kort för Neurala nätverk baserade Collaborative Filtering. NCF är generisk och kan uttrycka och generalisera matris factorization under sitt ramverk. För att supercharge NCF modellering med icke-linjära, föreslår vi att utnyttja en multi-lager perceptron för att lära sig användar-punkt interaktionsfunktionen. Omfattande experiment på två verkliga datauppsättningar visar på betydande förbättringar av vårt föreslagna NCF-ramverk jämfört med de senaste metoderna. Empiriska bevis visar att genom att använda djupare lager av neurala nätverk erbjuder bättre rekommendation prestanda. | Till exempel, Neural Collaborative Filtering (NCF) REF generaliserar matris factorization till en icke-linjär inställning, där användare, objekt och preferenser modelleras genom en enkel flerskikts perceptron nätverk som utnyttjar latent faktor transformationer. | 13,907,106 | Neural Collaborative Filtering | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 9,383 |
Abstract-ZigBee, en unik kommunikationsstandard utformad för trådlösa nätverk med låg kapacitet, har extremt låg komplexitet, kostnad och strömförbrukning för trådlös anslutning i billiga, bärbara och mobila enheter. Bland de välkända ZigBee topologier, ZigBee kluster-träd är särskilt lämplig för låg effekt och låg kostnad trådlösa sensornätverk eftersom det stöder effektbesparande verksamhet och lättvikt routing. I ett konstruerat trådlöst sensornätverk kan informationen om ett visst intresseområde kräva ytterligare utredning så att mer trafik skapas. Emellertid, den begränsade routing av en ZigBee klustertree nätverk kanske inte kan ge tillräcklig bandbredd för den ökade trafikbelastningen, så den ytterligare informationen kanske inte levereras framgångsrikt. I den här artikeln presenterar vi en adoptiv-förälder-baserad ram för en ZigBee kluster-tree nätverk för att öka bandbredden utnyttjande utan att generera någon extra meddelandeutbyte. För att optimera genomströmningen i ramverket modellerar vi processen som ett vertex-konstraint maximalt flödesproblem, och utvecklar en distribuerad algoritm som är fullt kompatibel med ZigBee-standarden. Algoritmens optimala egenskaper och konvergensegenskaper bevisas teoretiskt. Slutligen visar resultaten av simuleringsförsöken den betydande prestandaförbättring som uppnåtts genom det föreslagna ramverket och algoritmen i förhållande till befintliga metoder. | Och Huang et al. I Ref föreslogs en adoptiv-förälder-baserad ram för ZigBee-nätverk, för att öka bandbredden mellan källan och sjunknoder. | 2,735,357 | Distributed Throughput Optimization for ZigBee Cluster-Tree Networks | {'venue': 'IEEE Transactions on Parallel and Distributed Systems', 'journal': 'IEEE Transactions on Parallel and Distributed Systems', 'mag_field_of_study': ['Computer Science']} | 9,384 |
Sammanfattning I detta dokument föreslår vi en metod för realtidshorisontsspårning (dvs. separationslinje mellan himmel och hav) i ett sjöfartssammanhang. Vi presenterar fusionen av en bildbehandlingsalgoritm med data från tröghetsmätningsenheten (IMU). Det ursprungliga syftet är att filtrera bort miljöförhållanden med hjälp av tröghetsinformation för att kombinera en videoström med elektroniska sjökort ombord. Detta uppnås genom upptäckt av horisonten med en bildbehandlingsalgoritm i ett område som definieras av IMU. Därefter presenterar vi en utvärdering av algoritmen med avseende på graden av upptäckt av horisonten och bildupplösningens inverkan på beräkningstiden. Syftet med att utveckla denna metod är att skapa en förstärkt verklighet sjöverksamhet. Vi kombinerar videoströmmen med elektroniska sjökort i en enda display. Vi använder positionen för horisonten i bilden för att dela upp displayen i olika områden. Sedan använder vi transparens för att visa videon, de elektroniska diagrammen eller båda. | När en tröghetsmätningsenhet (IMU) är tillgänglig, kan dess data användas som en initial innan man begränsar bildanalysen på ett reducerat område av bilden REF. | 11,863,190 | Real-time infinite horizon tracking with data fusion for augmented reality in a maritime operations context | {'venue': 'Virtual Reality', 'journal': 'Virtual Reality', 'mag_field_of_study': ['Computer Science']} | 9,385 |
Vi introducerar vår metod och system för ansiktsigenkänning med hjälp av flera pose-medvetna djupt lärande modeller. I vår representation, en ansiktsbild bearbetas av flera posespecifika djupt konvolutionella neurala nätverk (CNN) modeller för att generera flera pose-specifika funktioner. 3D rendering används för att generera flera ansikte poser från inmatningsbilden. Känsligheten hos igenkänningssystemet för att skapa variationer minskar eftersom vi använder en ensemble av pose-specifika CNN-funktioner. Papperet presenterar omfattande experimentella resultat om effekten av landmärkesdetektering, CNN lagerval och posera modellval på utförandet av igenkänning pipeline. Vår nya representation ger bättre resultat än toppmoderna resultat på IARPA:s CS2 och NIST:s IJB-A i både verifiering och identifiering (dvs. sök-) uppgifter. | Wael AbdAlmageed m.fl. REF använder flera pose specifika djupa konvolution neurala nätverk (CNN) modeller för att generera flera pose-specifika funktioner. | 15,801,276 | Face recognition using deep multi-pose representations | {'venue': '2016 IEEE Winter Conference on Applications of Computer Vision (WACV)', 'journal': '2016 IEEE Winter Conference on Applications of Computer Vision (WACV)', 'mag_field_of_study': ['Computer Science']} | 9,386 |
Mekaniserat resonemang använder datorer för att verifiera bevis och för att hjälpa till att upptäcka nya teorem. Dataforskare har tillämpat mekaniserat resonemang på ekonomiska problem, men - hittills - detta arbete har ännu inte presenterats korrekt i ekonomiska tidskrifter. Vi introducerar mekaniserat resonemang för ekonomer på tre sätt. För det första introducerar vi mekaniserat resonemang i allmänhet, som beskriver både teknikerna och deras framgångsrika tillämpningar. För det andra förklarar vi hur mekaniserat resonemang har tillämpats på ekonomiska problem, med fokus på de två områden som har fått mest uppmärksamhet: social valteori och auktionsteori. Slutligen presenterar vi ett detaljerat exempel på mekaniserat resonemang i praktiken med hjälp av ett bevis på Vickreys välkända teorem på andraprisauktioner. | Tillämpningen av teorematiska bevis i nationalekonomi diskuteras i REF, med fokus på två områden: social valteori och auktionsteori. | 16,662,862 | An Introduction to Mechanized Reasoning | {'venue': 'Mathematical Economics 66, pp. 26-39. Elsevier, October 2016', 'journal': None, 'mag_field_of_study': ['Economics', 'Computer Science']} | 9,387 |
Abstrakt. Det riktade lagerproblemet (DLP) löser ett steg i den allmänt använda lagerbaserade metoden för att automatiskt rita riktade acykliska grafer. För att tillgodose cykliska grafer används vanligtvis ett förbehandlingssteg som löser problemet med Feedback Arc Set (FASP) för att göra grafen acyklisk innan en skiktning bestäms. Här presenterar vi det Generalized Layering Problem (GLP), som löser kombinationen av DLP och FASP samtidigt, vilket tillåter allmänna grafer som ingång. Vi presenterar ett heltal programmering modell och en heuristic för att lösa NP-fullständig GLP och utföra noggranna utvärderingar på olika uppsättningar grafer och med olika implementationer för stegen i den skiktbaserade metoden. Vi observerar att GLP minskar antalet overksamma noder avsevärt, kan producera mer kompakta ritningar, och förbättrar på grafer där DLP ger dåliga proportioner. | Rüegg m.fl. REF integrerar de två första faserna i tillvägagångssättet Sugiyama för att tillåta godtyckliga grafer som indata genom att minimera en viktad summa av antalet omvända bågar och antalet overksamma hörn. | 18,715,500 | A Generalization of the Directed Graph Layering Problem | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 9,388 |
Med tanke på en nite uppsättning S punkter (dvs. stationer av ett radionät) på en d-dimensionell Euclidean utrymme och ett positivt heltal 1 h jSj? 1, Min dd h-Range-uppdraget problemet består i att tilldela överföringsområden till stationerna för att minimera den totala strömförbrukningen, förutsatt att överföringsområdena för stationerna ser till att kommunikationen beween några par stationer i de flesta h humle. Två huvudfrågor som rör detta problem behandlas i detta dokument: handel-o mellan energiförbrukningen och antalet humle, beräkningskomplexet för problemet med Mind h-Range-uppdraget. När det gäller den första frågan, ger vi en lägre gräns på den minsta effektförbrukningen för stationer på planet för konstant h. Den nedre gränsen är en funktion av jSj, h och den minsta avståndet över alla par av stationer i S. Sedan får vi en konstruktiv övre gräns som en funktion av jSj, h och den maximala avståndet över alla par av stationer i S (dvs. diametern på S). Det visar sig att när det minsta avståndet mellan två stationer är \ inte för liten" (dvs. väl spridda fall) den övre gränsen matchar den nedre gränsen. Tidigare resultat för detta problem var kända endast för mycket speciella 1-dimensionella konverger (dvs. när punkter arrangeras på en linje på enhetlig avstånd) Kirousis, Kranakis, Krizanc, Pelc 1997]. När det gäller den andra frågan, observerar vi att tätheten i vår övre gräns innebär att Min 2d h-Range Uppdrag begränsad till väl spridda fall medger en polynom tid approximation algoritm. Sedan visar vi också att samma approximativa resultat kan erhållas för slumpmässiga fall. Å andra sidan bevisar vi att för h = jSj? 1 (dvs. det obundna fallet) Min 2d h-Range-uppdraget är NP-hard och Min 3d h-Range-uppdraget är APX-komplett. | Området tilldelning problem är NP-hård i alla dimensioner d ≥ 2 för alla värden på avstånd-effekt gradient p REF. | 9,486,599 | On the Power Assignment Problem in Radio Networks | {'venue': 'Electronic Colloquium on Computational Complexity (ECCC', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 9,389 |
Vi anser säkerhet egenskaper kryptografiska protokoll som kan modelleras med hjälp av begreppet spår ekvivalens. Begreppet likvärdighet är avgörande när man specificerar integritetsliknande egenskaper, såsom anonymitet, rösträttsprivacy och olänkbarhet. I den här artikeln ger vi en kalkyl som ligger nära den tillämpade pi-kalkylen och som gör att man kan fånga de flesta befintliga protokoll som är beroende av klassiska kryptografiska primitiver. För det första föreslår vi en symbolisk semantik för vår analys som bygger på begränsade system för att representera oändliga uppsättningar av möjliga spår, och vi minskar möjligheten att bestämma spårlikvärdighet till att besluta om en uppfattning om symbolisk ekvivalens mellan uppsättningar av restriktionssystem. För det andra utvecklar vi en algoritm som gör det möjligt för oss att avgöra om två uppsättningar av begränsningssystem är i symbolisk ekvivalens eller inte. Sammantaget ger detta det första avgörande resultatet av spårlikvärdighet för en allmän klass av processer som kan omfatta andra grenar och/eller privata kanaler (för ett begränsat antal sessioner). | Ett verktyg utvecklas för att bevisa spårlikvärdighet mellan två processer för ett begränsat antal sessioner, baserat på beslutsförfarandet för REF. | 3,256,448 | Trace equivalence decision: negative tests and non-determinism | {'venue': "CCS '11", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,390 |
Vi presenterar en nästan linjär tid algoritm som producerar högkvalitativa sparifierare av viktade grafer. Eftersom vi anger en viktad graf G = (V, E, w) och en parameter > 0, producerar vi en viktad delgraf H = (V, på, w) av G sådan att O(n log n/ 2 ) och för alla vektorer Detta förbättrar på sparifierarna konstruerade av Spielman och Teng, som hade O(n log c n) kanter för några stora konstant c, och på dem av Benczúr och Karger, som endast tillfredsställde (1) för x {0, 1} V. Vi konjecture förekomsten av sparsifierare med O (n) kanter, notera att dessa skulle generalisera begreppet expander grafer, som är konstant grad sparifierare för den fullständiga grafen. En viktig ingrediens i vår algoritm är en subrutin av oberoende intresse: en nästan linjär tidsalgoritm som bygger en datastruktur från vilken vi kan ifrågasätta det ungefärliga effektiva motståndet mellan två hörn i en graf i O(log n) tid. | Ett mycket förenklat och starkare resultat gavs i REF, fortfarande med en nästan linjär tid algoritm. | 8,001,711 | Graph sparsification by effective resistances | {'venue': "STOC '08", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 9,391 |
ABSTRACT Motivering: Genetiska nätverk beskrivs ofta statistiskt med hjälp av grafiska modeller (t.ex. Bayesiska nätverk). Att härleda nätverksstrukturen innebär dock en allvarlig utmaning i mikroarrayanalys där provstorleken är liten jämfört med antalet bedömda gener. Detta innebär att många standardalgoritmer för grafiska modeller inte är tillämpliga och att genetiska nätverk kan härledas till ett "tillfälligt" inverst problem. Metoder: Vi introducerar ett nytt ramverk för små prover på grafiska modeller från genuttrycksdata. Speciellt fokuserar vi på de så kallade grafiska Gaussian-modellerna (GGMs) som nu ofta används för att beskriva genföreningsnätverk och för att upptäcka villkorligt beroende gener. Vår nya metod är baserad på (1) förbättrad (regulariserad) liten provpunkt uppskattningar av partiell korrelation, (2) en exakt test av kant inkludering med adaptiv uppskattning av graden av frihet och (3) en heuristisk nätverkssökning baserad på falska upptäcktsfrekvens multipel testning. Steg 2 och 3 motsvarar en empirisk uppskattning av nätverkets topologi. Resultat: Med hjälp av datorsimuleringar undersöker vi känsligheten (kraft) och specificiteten (sann negativ hastighet) i det föreslagna ramverket för att uppskatta GGM från mikroarraydata. Detta visar att det är möjligt att återställa den sanna nätverk topologi med hög noggrannhet även för små urval dataset. Därefter analyserar vi genuttrycksdata från en tumörstudie av bröstcancer och illustrerar vårt tillvägagångssätt genom att härleda ett motsvarande storskaligt genföreningsnätverk för 3883 gener. Tillgänglighet: Upphovsmännen har genomfört metoden i R-paketet "GenetS" som är fritt tillgänglig från http://www.stat. Uni-muenchen.de/-strimmer/genets/, från R-arkivet (CRAN) och från Bioconductors webbplats. | Bland dem är arbetet med REF som introducerar en ny genetisk rekonstruktionsteknik baserad på partiella korrelationskoefficienter mest lik den föreslagna PLS-baserade metoden. | 14,698,273 | An empirical Bayes approach to inferring large-scale gene association networks | {'venue': 'Bioinformatics', 'journal': 'Bioinformatics', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 9,392 |
Refaktoring är en utbredd praxis som hjälper utvecklare att förbättra underhållbarhet och läsbarhet av sin kod. Det finns dock ett begränsat antal studier som empiriskt undersöker de faktiska motiven bakom specifika refaktorverksamhet som tillämpas av utvecklare. För att fylla denna lucka, vi övervakade Java projekt värd på GitHub för att upptäcka nyligen tillämpade refaktorings, och bad utvecklarna att förklara orsakerna bakom deras beslut att refaktor koden. Genom att tillämpa tematisk analys på de insamlade svaren sammanställde vi en katalog med 44 olika motiv för 12 välkända refaktortyper. Vi fann att refaktorverksamhet främst drivs av förändringar i kraven och mycket mindre av kodlukter. Extract Method är den mest mångsidiga refaktorn för 11 olika ändamål. Slutligen fann vi bevis för att den IDE som används av utvecklarna påverkar antagandet av automatiserade refaktoringsverktyg. | Silva m.fl. REF övervakade en stor uppsättning Java-projekt för att identifiera de refaktoringsåtgärder som tillämpas av utvecklare, och sedan bad de utvecklarna att förklara orsakerna bakom sitt beslut att refaktor koden. | 1,619,822 | Why we refactor? confessions of GitHub contributors | {'venue': 'FSE 2016', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,393 |
Modellkomprimering är en kritisk teknik för att effektivt distribuera neurala nätverksmodeller på mobila enheter som har begränsade beräkningsresurser och snäva effektbudgetar. Konventionella modellkompression tekniker förlitar sig på handgjorda heuristik och regelbaserade policyer som kräver domän experter för att utforska den stora design utrymme handel utanför bland modellstorlek, hastighet, och noggrannhet, som vanligtvis är suboptimal och tidskrävande. I detta dokument föreslår vi AutoML för modellkompression (AMC) som utnyttjar förstärkande lärande för att tillhandahålla modellen kompression politik. Denna inlärningsbaserade kompressionspolicy överträffar konventionell regelbaserad kompressionspolitik genom att ha högre kompressionsförhållande, bättre bevara noggrannheten och befria mänskligt arbete. Under 4× FLOPs minskning, uppnådde vi 2,7% bättre noggrannhet än handgjorda modellen komprimering politik för VGG-16 på ImageNet. Vi tillämpade denna automatiserade, push-the-knappen kompression pipeline till MobileNet och uppnådde 1,81× hastighet upp av uppmätt inference latency på en Android-telefon och 1,43× speedup på Titan XP GPU, med endast 0,1% förlust av ImageNet Top-1 noggrannhet. Reward= -Error*log(FLOP) Agent: DDPG Action: Komprimera med sparty ratio vid (t.ex. 50%) Embedding st=[N,C,H,W,i...] Miljö: Kanalbeskärning Layer t-1 Layer t Layer t+1 Critic Actor Embedding Original NN Modell Kompression av människa: Arbetskonsumption, Suboptimal Modell Kompression av AI: Automatiserad, Högre Kompressionshastighet, Snabbare komprimerad NN AMC Engine Original NN Compressed NN 30% 50%? % | Automatic Model Compression (AMC) REF utforskar beskärningsstrategin genom att automatiskt lära sig komprimeringsförhållandet för varje lager genom förstärkt inlärning (RL). | 52,048,008 | AMC: AutoML for Model Compression and Acceleration on Mobile Devices | {'venue': 'ECCV', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,394 |
Abstract-Robust mänskliga gångigenkänning är utmanande på grund av förekomsten av kovariata faktorer som bär tillstånd, kläder, gångyta, etc. I detta dokument modellerar vi effekten av kovariater som ett okänt partiellt korruptionsproblem. Eftersom platserna för korruption kan skilja sig åt för olika frågeställningar, kan relevanta funktioner bli irrelevanta när gångtillståndet ändras. I detta fall är det svårt att utbilda en fast klassificeringsapparat som är robust för ett stort antal olika kovariater. För att ta itu med detta problem föreslår vi en klassificeringsmetod som bygger på slumpmässig subrymdsnethod (RSM) och majoritetsomröstning (MV). Dess teoretiska grund antyder att det är okänsligt för platser av korrumperade funktioner, och därmed kan generalisera väl till ett stort antal kovariater. Vi utvidgar också denna metod genom att föreslå två strategier, det vill säga lokal förbättring (LE) och hybrida beslutsnivå fusion (HDF) för att undertrycka förhållandet mellan falska röster och verkliga röster (före MV). Prestandan i vår strategi är konkurrenskraftig mot de mest utmanande kovariaterna som kläder, gångyta och förfluten tid. Vi utvärderar vår metod på USF-datauppsättningen och OU-ISIR-B-datauppsättningen, och den har mycket högre prestanda än andra toppmoderna algoritmer. | Guan m.fl. I REF föreslogs en klassificeringsmetod för ensemblen baserad på slumpmässig subrymdsmetod och majoritetsomröstning. | 364,124 | On Reducing the Effect of Covariate Factors in Gait Recognition: A Classifier Ensemble Method | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 9,395 |
Abstrakt. Vi presenterar en teknik för modellering och automatisk verifiering av nätverksprotokoll, baserat på grafomvandling. Den är lämplig för protokoll med ett potentiellt obegränsat antal noder, där nätverkets struktur och topologi är en central aspekt, såsom routingprotokoll för ad hoc-nätverk. Säkerhetsegenskaper anges som en uppsättning oönskade globala konfigurationer. Vi verifierar att det inte finns någon oönskad konfiguration som kan nås från en initial konfiguration, med hjälp av symbolisk bakåtåtkomlig analys. I allmänhet går det inte att avgöra om det är möjligt att nå problemet. Vi implementerar tekniken i ett graf grammatikanalysverktyg, och verifierar automatiskt flera intressanta icke-triviala exempel. Framför allt visar vi oss vara fria från slingor för DYMO:s ad hoc routingprotokoll. DYMO är för närvarande på IETF standard spår, att potentiellt bli en Internet standard. | I REF Saksena m.fl. Definiera ett eventuellt icke-avslutande symboliskt förfarande baserat på graftransformationer för att verifiera routingprotokoll för Ad Hoc Networks. | 8,090,488 | Graph grammar modeling and verification of ad hoc routing protocols | {'venue': 'Lecture Notes in Computer Science', 'journal': 'Lecture Notes in Computer Science', 'mag_field_of_study': ['Computer Science']} | 9,396 |
Abstrakt. Dagens informationssystem registrerar realtidsinformation om affärsprocesser. Detta gör det möjligt att övervaka företagens begränsningar i drift. I detta dokument presenterar vi en ny ram för runtime-verifiering baserad på linjär tidslogik och färgad automata. Ramen kontrollerar kontinuerligt överensstämmelse med en fördefinierad begränsningsmodell. Vårt tillvägagångssätt kan ge meningsfull diagnostik även efter att ett tvång har överträtts. Detta är viktigt eftersom människor och organisationer i verkligheten kommer att avvika och i många situationer är det inte önskvärt eller ens omöjligt att kringgå tvångsöverträdelser. Som framgår av detta dokument finns det flera metoder för att återhämta sig efter den första begränsningsöverträdelsen. Traditionella metoder som helt enkelt kontrollerar begränsningar kan inte återhämta sig efter den första överträdelsen och fortfarande förutse (oförutsebara) framtida överträdelser. Ramen har implementerats i processbrytningsverktyget ProM. | Författarna till REF fokuserar på att övervaka företagens begränsningar vid körning med hjälp av tidslogik och färgad automata. | 8,049,699 | Monitoring Business Constraints with Linear Temporal Logic: An Approach Based on Colored Automata | {'venue': 'In Proc. of BPM, LNCS', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 9,397 |
I detta dokument introducerar vi en ny, allmän metod för snabbare provtagning av noder över ett socialt nätverk på nätet. Till skillnad från traditionell slumpmässig gång som väntar på konvergens av provtagning distribution till en förutbestämd målfördelning - en väntande process som ådrar sig en hög frågekostnad - utvecklar vi WALK-ESTIMATE, som börjar med en mycket kortare slumpmässig gång, och sedan proaktivt uppskatta provtagnings sannolikheten för noden tas innan man använder acceptans-avvisning provtagning för att justera provtagnings sannolikheten till den förutbestämda målfördelningen. Vi presenterar en ny bakåtvänd slumpmässig gångteknik som ger bevisligen opartiska uppskattningar för provtagningsannolikheten, och visar WALK-ESTIMATEs överlägsenhet över traditionella slumpmässiga promenader genom teoretisk analys och omfattande experiment över verkliga online sociala nätverk. | Walk-skattning som föreslås i REF syftade till att minska overhead-in-perioden genom att överväga korta slumpmässiga promenader och sedan använda acceptans-avvisningsprov för att justera provtagnings sannolikheten för en nod med avseende på dess stationära fördelning. | 14,487,343 | Walk, Not Wait: Faster Sampling Over Online Social Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Physics']} | 9,398 |
Vänster, en Super-Helix. Mellan och höger, dynamisk simulering av naturligt hår av olika typer: vågigt, lockigt, rakt. Dessa frisyrer animerades med N = 5 helikala element per guidesträng. Simulera människohår är erkänd som en av de svåraste uppgifterna i datoranimering. I detta papper visar vi att Kirchhoff ekvationer för dynamiska, oåtkomliga elastiska stavar kan användas för att exakt förutsäga hårets rörelse. Dessa ekvationer står fullt ut för det ickelinjära beteendet hos hårstrån med avseende på böjning och vridning. Vi introducerar en ny deformerbar modell för att lösa dem: varje strand representeras av en Super-Helix, d.v.s. en bitvis helisk stav som animeras enligt Lagrangians mekanikers principer. Detta resulterar i en realistisk och stabil simulering, vilket möjliggör stora tidssteg. Vårt andra bidrag är en fördjupad validering av Super-Helix-modellen, som genomförs genom en serie experiment baserade på jämförelse av verkliga och simulerade hårrörelser. Vi visar att vår modell effektivt hanterar ett brett utbud av hårtyper med en hög nivå av realism. | REF förlängde Kirchhoff modellen till hår, modellera lockar med en bitvis spiralstruktur. | 13,917,080 | Super-helices for predicting the dynamics of natural hair | {'venue': "SIGGRAPH '06", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,399 |
En utmaning med att införa talade dialogsystem för långsiktigt samspel är hur man anpassar dialogen i takt med att användare och system blir mer bekanta. Vi anser att denna utmaning inkluderar evoking och signalerande aspekter av långsiktiga relationer såsom relation. För handledningssystem, kan detta dessutom kräva att veta hur relationer signaleras bland icke-vuxna användare. Vi undersöker därför samtalsstrategier som används av tonåringar i kamrathandledning dialoger, och hur dessa strategier fungerar olika bland vänner eller främlingar. I synnerhet använder vi kommenterade och automatiskt extraherade språkliga enheter för att förutsäga oartighet och positivitet i nästa omgång. För att ta hänsyn till dessa egenskapers glesa natur i verkliga data använder vi modeller som Lasso, åsskattning och elastiskt nät. Vi utvärderar den prediktiva kraften hos våra modeller under olika inställningar och jämför våra glesa modeller med vanliga icke-sparse-lösningar. Våra experiment visar att våra modeller är mer exakta än icke-sparse modeller kvantitativt, och att tonåringar använder oväntade typer av språk för att göra relationsarbete såsom signalerande relation, men vänner och främlingar, handledare och tutees, utför detta arbete på helt olika sätt från varandra. | REF jämför lasso, ås och elastiska nät modeller för att förutsäga oartighet beteenden i tonårssamtal. | 11,149,335 | Love ya, jerkface: Using Sparse Log-Linear Models to Build Positive and Impolite Relationships with Teens | {'venue': 'Proceedings of the 13th Annual Meeting of the Special Interest Group on Discourse and Dialogue', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,400 |
Abstract-The webbplats fingeravtryck attack syftar till att identifiera innehållet (dvs, en webbsida som en klient) av krypterade och anonymiserade anslutningar genom att observera mönster av dataflöden såsom paketstorlek och riktning. Denna attack kan utföras av en lokal passiv tjuvlyssnare - en av de svagaste motståndare i angriparmodellen av anonymisering nätverk som Tor. I den här artikeln presenterar vi en ny webbplats för fingeravtrycksattack. Baserat på en enkel och begriplig idé överträffar vår strategi alla toppmoderna metoder när det gäller klassificeringsnoggrannhet samtidigt som den är dramatiskt effektivare. För att utvärdera allvaret i webbplatsen fingeravtryck attack i verkligheten, samlade vi den mest representativa dataset som någonsin har byggts, där vi undviker förenklade antaganden som gjorts i det relaterade arbetet med urval och typ av webbsidor och storleken på universum. Med hjälp av dessa data utforskar vi de praktiska gränserna för att ta fingeravtryck på Internet. Även om vårt nya tillvägagångssätt är enligt magnituden mer effektivt och överlägset i fråga om detektionsnoggrannhet, visar vi för första gången att ingen befintlig metod - inklusive våra egna - skala när den tillämpas i realistiska miljöer. Med vår analys undersöker vi försummade aspekter av attacken och undersöker den realistiska sannolikheten för framgång för olika strategier en verklig motståndare kan följa. | I REF, författarna härleda funktioner baserat på paketstorlekar för att utföra webbplats fingeravtryck attacker mot krypterad trafik. | 15,302,617 | Website Fingerprinting at Internet Scale | {'venue': 'NDSS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,401 |
Nya genombrott i Neural Architectural Search (NAS) har uppnått toppmodern prestanda i många uppgifter såsom bildklassificering och språkförståelse. De flesta befintliga verk optimerar dock endast för modellnoggrannhet och ignorerar i stor utsträckning andra viktiga faktorer som införts av den underliggande hårdvaran och enheter, såsom latens och energi, när man gör slutledning. I det här dokumentet introducerar vi först problemet med NAS och ger en enkät om de senaste verken. Sedan djupdyker vi i två senaste framsteg när det gäller att utöka NAS-enheten till flera objektiva ramar: MONAS [19] och DPP-Net [10]. Både MONAS och DPP-Net kan optimera noggrannhet och andra mål som åläggs av enheter, söker efter neurala arkitekturer som bäst kan användas på ett brett spektrum av enheter: från inbyggda system och mobila enheter till arbetsstationer. Experimentella resultat är redo att visa att arkitekturer som finns av MONAS och DPP-Net uppnår Pareto optimalitet w.r.t de givna målen för olika enheter. | Ett annat arbete REF diskuterade enhetsmedveten sökning av neural arkitektur genom att utöka NAS-enheten till ett flerobjektivt problem. | 52,124,879 | Searching toward pareto-optimal device-aware neural architectures | {'venue': "ICCAD '18", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 9,402 |
Opportunistiska schemaläggnings- och strålformningssystem föreslås för multianvändare MIMO-SDMA-nedlänksystem med linjär kombination i detta arbete. Signaler som tas emot från alla antenner i varje mobil terminal (MT) kombineras linjärt för att förbättra de effektiva signal-till-brus-interferens förhållande (SINR). Genom att utnyttja begränsad feedback på de effektiva SINR-värdena schemalägger basstationen (BS) samtidig dataöverföring på flera balkar till MT:erna med de största effektiva SINR:erna. Med hjälp av den extrema värdeteorin kan vi härleda asymptotiska systemgenomgångar och skalningslagar för de föreslagna schemaläggnings- och strålformningssystemen med olika linjära kombinationstekniker. Datorsimuleringar bekräftar att de föreslagna systemen avsevärt kan förbättra systemets genomströmning. Multiple-input multiple-output (MIMO) teknik som använder flera sändnings- och mottagningsantenner har dykt upp som en av de mest lovande teknikerna för bredbandsdataöverföringar i trådlösa kommunikationssystem [1]. I synnerhet har nyligen genomförda studier visat att MIMO avsevärt kan öka den sammanlagda kapaciteten i ett nedlänkssystem där en basstation (BS) kommunicerar samtidigt med flera mobila terminaler (MT) [2]. Kapaciteten att uppnå strategi med hjälp av smutsiga papper kodning inte bara medför hög computational komplexitet men kräver också perfekt kanal tillståndsinformation tillgänglig för BS [2]. För att kringgå dessa hinder har opportunistisk strålformning med proportionell rättvis schemaläggning (OB-PFS) föreslagits [3] som ett effektivt sätt att uppnå den asymmetriska summan kapacitet genom att utnyttja multianvändarmångfald med begränsad återkoppling från kanalen. I OB-PFS är nedlänkens sändningstid uppdelad i ankomst- och avgångstider som består av minislots. Användarnas kanaler antas vara ungefär invarianta under en kortplats men kan variera från en plats till en annan. I början av varje kortplats sänder BS ut en pilotsymbol viktad av en slumpmässigt genererad komplex vektor (även kallad den slumpmässiga strålen). Därefter utvärderar varje MT signal-brusförhållandet (SNR) genom att utnyttja pilotsignalen och återför SNR-informationen till BS. Med hänsyn till rättvisan schemalägger BS dataöverföringen till MT med bästa normaliserade ögonblickliga kanaltillstånd under resten av ankomst- och avgångstider. Nyligen har vissa utökningar av [3] med flera balkar utvecklats [4, 5]. Oavsett antalet bjälkar som används under [3] [4] [5], dessa opportunistiska schema bara en MT i varje kortplats, och så kan i allmänhet betraktas som tidsdelning schemaläggning (TS-SS). Däremot [6] har man föreslagit en opportunistisk rymddelning med flera tillträdesbaserade schemaläggningssystem (OSDMA-SS) som använder flera ortonormala balkar för att betjäna flera MT samtidigt i varje kortplats. Anteckna av M och N antalet sändnings- och mottagningsantenner, respektive. Det har nyligen visat sig att summan av OSDMA-SS växer linjärt med M, medan TS-SS endast ökar linjärt med min(M, N ) [7]. Utöver den allt snabbare växande skallagen är OSDMA-SS särskilt attraktivt för praktiska system med stränga latenskrav eftersom flera användare kan betjänas under varje ankomst- och avgångstider. I OSDMA-SS sänder BS ut pilotsignaler viktade av flera ortonormala strålar i början av varje tidsrymd [6]. För varje singelantenn MT utvärderar den förhållandet mellan signal och interferens/brus (SINR) på varje stråle och matar tillbaka information om dess önskade stråle med högsta SINR. Förutsatt att varje stråle begärs av minst en MT, ger BS varje stråle till MT med högst motsvarande SINR bland alla MT. För MTs med flera mottagningsantenner, [6] föreslår att låta varje antenn tävla om sin önskade strål som om det vore en individuell MT. Som ett resultat av detta tilldelas varje strål till en specifik mottagningsantenn av en vald MT. Eftersom signaler som tas emot från de icke angivna antennerna på en vald MT kastas, [6] innebär ineffektivt utnyttjande av flera mottagningsantenner. I detta arbete föreslår vi opportunistiska strålformnings- och schemaläggningssystem med olika linjära kombinationsmetoder för MIMO-SDMA-nedlänksystem. I motsats till [6] utnyttjas signaler från alla antenner av ett valt MT gemensamt för att förbättra det effektiva SINR genom användning av linjär kombinationsteknik med låg komplexitet. Därefter återförs de M-effektiva SINR-värdena till BS och används som schemaläggningsmått. Med hjälp av den extrema värdeteorin visar vi att de kumulativa fördelningsfunktionerna (CDF) i de effektiva signal-till-interferens-förhållanden (SIR) som erhålls med olika linjära kombinationstekniker konvergerar asymptotiskt till de Frechet-typ begränsande fördelningarna. Baserat på de begränsande fördelningarna, härleder vi den asymptotiska genomströmningen och sluten form skalning lagar för de föreslagna opportunistiska strålformning och schemaläggning. Anmärkning: Vektorer och matriser betecknas med fetstil. · representerar den euklideiska normen för den medföljande vektorn. I N är N × N-identitetsmatrisen. [a] jag anger vektorns ith-ingång a. Vi använder E {·}, (·) T och (·) H för förväntningar, införlivande och hermitiskt införlivande. Slutligen, logaritmer och ln är logaritmer till basen 2 och e, respektive, och påvisar på varandra följande amplituden av den medföljande komplexa-värderade kvantiteten. | I REF använde författarna Extreme Value Theory (EVT) för att härleda skallagarna för schemaläggningssystem med hjälp av strålformning och linjär kombination. | 14,025,789 | Opportunistic Scheduling and Beamforming for MIMO-SDMA Downlink Systems with Linear Combining | {'venue': '2007 IEEE 18th International Symposium on Personal, Indoor and Mobile Radio Communications', 'journal': '2007 IEEE 18th International Symposium on Personal, Indoor and Mobile Radio Communications', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 9,403 |
Abstract-Depth uppskattning från enstaka monokulära bilder är en viktig komponent i scen förståelse. De flesta befintliga algoritmer formulerar djupuppskattning som ett regressionsproblem på grund av den kontinuerliga egenskapen djup. Indatans djupvärde kan dock knappast regresseras exakt till mark-sanningens värde. I detta dokument föreslår vi att man formulerar djupuppskattning som en pixelvis klassificeringsuppgift. Specifikt, vi först diskretisera de kontinuerliga mark-sanning djup i flera behållare och märka behållarna enligt deras djupintervall. Sedan löser vi problemet med djupuppskattning som klassning genom att träna ett fullständigt konvolutionellt djupt resterande nätverk. Jämfört med att uppskatta det exakta djupet av en enda punkt, är det lättare att uppskatta dess djupområde. Ännu viktigare, genom att utföra djupklassificering istället för regression, kan vi lätt få förtroende för en djup förutsägelse i form av sannolikhetsfördelning. Med detta förtroende kan vi tillämpa en informationsförlust för att utnyttja de förutsägelser som är nära mark-sanning under utbildningen, samt fullt anslutna villkorade slumpmässiga fält för efterbehandling för att ytterligare förbättra prestanda. Vi testar vår föreslagna metod på både inomhus och utomhus referens RGB-Depth dataset och uppnå toppmodern prestanda. | Djupuppskattning som klassificering: Nära släkt med vårt arbete, Cao et al. REF formulerar djupuppskattning som ett klassificeringsproblem i flera klasser och använder mjuka mål för att träna modellen. | 14,811,066 | Estimating Depth From Monocular Images as Classification Using Deep Fully Convolutional Residual Networks | {'venue': 'IEEE Transactions on Circuits and Systems for Video Technology', 'journal': 'IEEE Transactions on Circuits and Systems for Video Technology', 'mag_field_of_study': ['Computer Science']} | 9,404 |
Att ge omedelbara svar på produktfrågor på e-handelswebbplatser kan avsevärt förbättra tillfredsställelsen hos potentiella konsumenter. Vi föreslår ett nytt ramverk för att automatiskt besvara produktfrågor som nyligen ställts av användare genom att utnyttja befintliga QA-samlingar och granska samlingar på ett samordnat sätt. Vårt ramverk kan returnera en rankad lista över snippets som fungerar som det automatiska svaret för en given fråga, där varje snippet kan vara en mening från recensioner eller ett befintligt frågesvar par. En viktig deluppgift i vårt ramverk är rangordningen av frågebaserade svar. Inlärning för svar översyn ranking är utmanande eftersom det inte finns någon märkt svar översyn tillgängliga. Insamlingen av befintliga QA-par utnyttjas som fjärrövervakning för att lära sig rangordna svar. Med det föreslagna fjärrövervakningsparadigmet använder sig den inlärda svarsrankningsmodellen av kunskaperna i QA-paren och motsvarande återvunna granskningslistor. Omfattande experiment på dataset som samlats in från en kommersiell e-handelsplats i verkligheten visar hur effektivt vårt föreslagna ramverk är. | Med hjälp av Amazon data utvecklar REF ett ramverk som returnerar en rangordnad lista över meningar från recensioner eller befintliga frågesvar par för en given fråga. | 52,011,507 | Responding E-commerce Product Questions via Exploiting QA Collections and Reviews | {'venue': 'COLING', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,405 |
Vi presenterar en metod för att anpassa ord i en bitext som kombinerar element i en traditionell statistisk metod med språkkunskaper. Vi demonstrerar detta tillvägagångssätt för arabisk-engelska, med hjälp av en anpassningslexikon producerad av en statistisk ordjusterare, samt språkliga resurser som sträcker sig från en engelsk tolkning till heuristiska anpassningsregler för funktionsord. Dessa språkliga heuristiker har generaliserats från en utvecklings corpus på 100 parallella meningar. Vår anpassare, UALIGN, överträffar både den allmänt använda GIZA++-anpassaren och toppmodern LEAF-anpassaren på F-mätning och producerar överlägsna poäng i end-to-end statistisk maskinöversättning, +1,3 BLEU poäng över GIZA+++, och +0,7 över LEAF. | I REF inkorporerades parseträd och några frasomordningar av heuristik efter att ha använt den anpassningslexikon som genererats av en statistisk ordsjusterare. | 11,853,100 | Improved Word Alignment with Statistics and Linguistic Heuristics | {'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,406 |
Finkorniga metoder för opinionsanalys använder sig ofta av språkliga särdrag, men tar vanligtvis inte hänsyn till samspelet mellan åsikterna. I denna artikel beskrivs en rad experiment som visar att relationsegenskaper, främst härrör från beroendesyntaktiska och semantiska rollstrukturer, avsevärt kan förbättra funktionen hos automatiska system för ett antal finkorniga opinionsanalyser: att markera opinionsuttryck, hitta opinionsbildare och bestämma hur polara opinionsuttrycken är. Dessa funktioner gör det möjligt att modellera det sätt på vilket åsikter som uttrycks i naturligt språklig diskurs interagerar i en mening över godtyckliga avstånd. Användningen av relationer kräver att vi tar hänsyn till flera åsikter samtidigt, vilket gör sökandet efter den optimala analysen intractable. En omklassare kan dock användas som en tillräckligt exakt och effektiv approximation. Ett antal funktionsuppsättningar och maskininlärningsmetoder för omklassarna utvärderas. För uppgiften som yttrande uttryck extrahering, den bästa modellen visar en 10-punkts absolut förbättring i mjuk recall på MPQA corpus över en konventionell sekvens märkning baserad på lokala kontextuella funktioner, medan precision minskar endast något. Betydande förbättringar ses också för de utökade uppgifter där innehavare och polariteter beaktas: 10 respektive 7 poäng i återkallande, respektive. Dessutom överträffar systemen tidigare publicerade resultat för omärkta (6 F-mätpunkter) och polaritetsmärkta (10-15 poäng) åsiktsuttryck. Slutligen, som en extrinistisk utvärdering, används de extraherade yttrandena i MPQA-stil i praktiska yttranden gruvuppgifter. I alla scenarier som beaktas leder maskininlärningsegenskaperna från yttrandena till statistiskt signifikanta förbättringar. | REF bygger en uppsättning klassificeringar och omvärderingar för identifiering av opinionsbildare, opinionsuttryck och deras polaritet i MPQA corpus. | 8,525,297 | Relational Features in Fine-Grained Opinion Analysis | {'venue': 'Computational Linguistics', 'journal': 'Computational Linguistics', 'mag_field_of_study': ['Computer Science']} | 9,407 |
Abstract-Vi presenterar en algoritm för snabb elastisk multidimensionell intensitetsbaserad bildregistrering med en parametrisk modell av deformationen. Den är helt automatisk i sitt standardläge. När det gäller svåra verkliga problem kan den acceptera experttips i form av mjuka landmärkesbegränsningar. Mycket färre landmärken behövs och resultaten är långt bättre än ren och skär registrering. Särskild uppmärksamhet har ägnats åt de faktorer som påverkar hastigheten på denna algoritm. Modellen B-spline deformation visas vara beräkningsmässigt effektivare än andra alternativ. Algoritmen har framgångsrikt använts för flera tvådimensionella (2-D) och tredimensionella (3-D) registreringsuppgifter inom den medicinska domänen, inklusive MRI, SPECT, CT, och ultraljud bildsätt. Vi presenterar också experiment i en kontrollerad miljö, vilket möjliggör en exakt utvärdering av registreringsnoggrannheten. Provningsdeformationer genereras automatiskt med hjälp av en slumpmässig hierarkisk fraktionerad wavelet-baserad generator. | Jan Kybic och Michael Unser tillsammans sätta fram en strategi för snabb elastisk multidimensionell intensitet-baserad bildregistrering med en parametrisk modell av deformation i REF. | 16,446,224 | Fast parametric elastic image registration | {'venue': 'IEEE Transactions on Image Processing', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Medicine', 'Computer Science']} | 9,408 |
Abstract-Internet of Things (IoT) är ett framväxande system som omfattar många tekniker från olika områden. I detta dokument presenterar vi genomförandet av sakernas internet i en jordbruksindustri, särskilt när det gäller övervakning av ett automatiserat bevattningssystem. Övervakningssystemet består av ett webbaserat system, ett automatiskt bevattningssystem och ett kommunikationsnät. Huvudfokus för detta dokument ligger på det webbaserade systemet där data från SQLite-databasen används i web-GUI för att visa parametrar som status för vattennivån, flödeskonditionen för ventiler och rör samt den övergripande driften av automatiserat fertigationssystem. I tidningen beskrivs också hur jordbrukare kan komma åt webbplatsen, ställa in gödslingsschemat och bestämma gödningsmedlets formulering. Detta system skiljer sig från andra system och är utrustat med nödläge för att stoppa besprutningssystemet som kan styras direkt från webbplatsen. Vår metod använder en mikroprocessor för att hantera databaserna, webb-GUI och styra kommunikationen mellan fertigeringssystemet och det webbaserade systemet. Detta system kommer att göra det lättare för jordbrukarna att hantera sina automatiserade gödslingssystem praktiskt taget med hjälp av sina mobila enheter. | Implementeringen av en automatiserad fertigation webbaserad övervakning: En IoT-applikation utvecklades av Abidin och Ibrahim REF. | 35,499,054 | Web-based monitoring of an automated fertigation system: An IoT application | {'venue': '2015 IEEE 12th Malaysia International Conference on Communications (MICC)', 'journal': '2015 IEEE 12th Malaysia International Conference on Communications (MICC)', 'mag_field_of_study': ['Computer Science']} | 9,409 |
Abstract-I detta dokument föreslår vi ett nytt system för effektiv innehållsbaserad medicinsk bildsökning, formaliserat enligt PAtterns för nästa generations DAtabase system (PANDA) ram för mönster representation och hantering. Det föreslagna systemet omfattar blockbaserad lågnivåfunktionsextrahering från bilder följt av klusterering av funktionsutrymmet för att bilda högre, semantiskt meningsfulla mönster. Klustret av funktionen utrymme realiseras av en förväntan-maximering algoritm som använder en iterativ metod för att automatiskt bestämma antalet kluster. Därefter utnyttjas PANDA: likheten mellan två kluster uppskattas som en funktion av likheten mellan deras strukturer och måttkomponenterna. Experiment utfördes på en stor uppsättning av referensradiografiska bilder, med hjälp av olika typer av funktioner för att koda lågnivå bildinnehåll. Genom detta experiment visas att det föreslagna systemet kan tillämpas effektivt och effektivt för medicinsk bildsökning från stora databaser, vilket ger en oövervakad semantisk tolkning av resultaten, som kan utvidgas ytterligare genom metoder för kunskapsrepresentation. Index Terms-Content-baserad bildsökning (CBIR), funktionsextraktion, mönster, mönsterlikhet, semantik. | I en annan studie REF, förväntade-maximering algoritm användes för att generera kluster av block-baserade låg nivå funktioner extraherade från radiografiska bilder. | 14,553,098 | A Pattern Similarity Scheme for Medical Image Retrieval | {'venue': 'IEEE Transactions on Information Technology in Biomedicine', 'journal': 'IEEE Transactions on Information Technology in Biomedicine', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 9,410 |
Ontologier används i allt högre grad för att bygga applikationer som utnyttjar domänspecifika kunskaper. I detta dokument behandlas problemet med att stödja ontologibaserad semantisk matchning i RDBMS. I synnerhet 1) En uppsättning SQL-operatörer, nämligen Ont_RELATERAT, Ont_EXPAND, Ont_DISTANCE och Ont_PATH, införs för att utföra ontologibaserad semantisk matchning, 2) Ett nytt indexeringssystem Ont_INDEXTYPE införs för att påskynda ontologibaserade semantiska matchningsoperationer, och 3) Systemdefinierade tabeller tillhandahålls för lagring av ontologier som anges i OWL. Vårt tillvägagångssätt gör det möjligt för användare att referera ontologidata direkt från SQL med hjälp av semantiska matchningsoperatörer, vilket öppnar upp möjligheter att kombinera med andra verksamheter som t.ex. att ansluta sig samt att göra de ontologidrivna applikationerna enkla att utveckla och effektiva. Andra metoder använder däremot endast RDBMS för lagring av ontologier och förfrågan av ontologidata görs vanligtvis via API:er. I detta dokument presenteras den ontologi-relaterade funktionaliteten inklusive inferencing, diskuterar hur den genomförs på toppen av Oracle RDBMS, och illustrerar användningen med flera databasapplikationer. | Das m.fl. I REF föreslogs en metod för att stödja ontologibaserad semantisk matchning i RDBMS med användning av SQL direkt. | 2,702,343 | Supporting Ontology-based Semantic Matching in RDBMS | {'venue': 'ICDE', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,411 |
Basfunktioner som härrör från en oriktad graf som förbinder närliggande prover från en Markov-beslutsprocess (MDP) har visat sig användbara för att approximera värdefunktioner. Framgången med denna teknik tillskrivs att basfunktionerna är smidiga med avseende på tillståndets rymdgeometri. Detta papper utforskar egenskaperna hos baser som skapats från riktade grafer som är en mer naturlig passform för att uttrycka tillstånd anslutning. Digrafer fångar effekten av icke-reversibla MDP vars värdefunktioner kanske inte är jämna över angränsande stater. Vi tillhandahåller en analys med hjälp av Dirichlet summan av den riktade grafen Laplacian för att visa hur smidigheten i basfunktionerna påverkas av grafens invariant distribution. Experiment i diskreta och kontinuerliga MDP med icke reversibla åtgärder visar en betydande förbättring av de policyer som man lärt sig med hjälp av riktade grafbaser. | REF konstaterade att optimala värdefunktioner är smidiga med hänsyn till miljöns dynamik, vilket kan bevisas med vår formalism. | 7,925,291 | Constructing basis functions from directed graphs for value function approximation | {'venue': "ICML '07", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,412 |
Detta dokument introducerar säker nätverks härkomst (SNP), en ny teknik som gör det möjligt för nätverksanslutna system att förklara för sina operatörer varför de befinner sig i ett visst tillstånd - t.ex. varför en misstänkt routing tabellpost finns på en viss router, eller där en viss cachepost har sitt ursprung. SNP tillhandahåller nätverk kriminalteknik kapacitet genom att tillåta operatörer att spåra felaktiga eller felande noder, och att bedöma den skada sådana noder kan ha orsakat för resten av systemet. SNP är utformad för kontradiktoriska inställningar och är robust för att manipulera; dess manipuleringsklara egenskaper säkerställer att operatörerna kan upptäcka när komprometterade noder ligger eller felaktigt implicerar korrekta noder. Vi presenterar även designen av SNooPy, ett generellt SNP-system. För att visa att SNooPy är praktiskt tillämpar vi det på tre exempeltillämpningar: Quagga BGP-demonen, ett deklarativt genomförande av Chord och Hadoop MapReduce. Våra resultat visar att SNooPy effektivt kan förklara tillståndet i en kontradiktorisk miljö, att det kan tillämpas med minimal ansträngning, och att dess kostnader är tillräckligt låga för att vara praktiska. | Zhou m.fl. REF införde säker nätverks härkomst (SNP), en teknik som ger rättsmedicinsk kapacitet till ett opålitligt nätverkssystem, där en delmängd av noder kan äventyras helt. | 8,280,841 | Secure network provenance | {'venue': "SOSP '11", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,413 |
Även om traditionella frågesvarssystem som är anpassade till TREC QA-uppgiften fungerar relativt bra för enkla frågor, räcker de inte för att svara på verkliga frågor. De samhällsbaserade QA-systemen erbjuder denna tjänst väl, eftersom de innehåller stora arkiv av sådana frågor där manuellt utformade svar är direkt tillgängliga. Att hitta liknande frågor i QA-arkivet är dock inte trivialt. I detta dokument föreslår vi en ny hämtningsram baserad på syntaktisk trädstruktur för att ta itu med det liknande problemet med att matcha frågor. Vi bygger en marksanning från Yahoo! Svar, och experimentella resultat visar att vår metod överträffar traditionella bag-of-word eller trädkärnbaserade metoder med 8,3% i genomsnitt precision. Det uppnår ytterligare upp till 50 % förbättring genom att införliva semantiska funktioner samt matcha potentiella svar. Vår modell förlitar sig inte på träning, och det är visat sig vara robust mot grammatiska fel också. | REF antog convolution trädkärna för att ta reda på liknande frågor från Yahoo Svar datauppsättning. | 419,321 | A syntactic tree matching approach to finding similar questions in community-based qa services | {'venue': 'SIGIR', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,414 |
Att hitta mänskliga ansikten automatiskt i en bild är ett svårt men ändå viktigt steg till ett helt automatiskt ansiktsigenkänningssystem. I detta dokument presenteras ett exempelbaserat tillvägagångssätt för att lokalisera oavslutade synvinklar på mänskliga ansikten i komplexa scener. Tekniken representerar utrymmet för mänskliga ansikten med hjälp av några vybaserade \face" och \non-face" mönster prototyper. På varje bildplats, ett 2-värdes avstånd m e asure i s c omputed b etween det lokala bildmönstret och varje prototyp. A t r accented classi er bestämmer, baserat på uppsättningen av avstånd m e asurements, om ett mänskligt ansikte e x i s t s a t t t h e aktuell bild plats. Vi visar empiriskt att vårt avståndsmått är avgörande för vårt systems framgång. | Sung och Poggio Ref rapporterar en exempelbaserad inlärningsmetod för att lokalisera vertikala frontalvyer av mänskliga ansikten. | 7,164,794 | Example-based learning for view-based human face detection | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,415 |
Även om analys av användarbeteende inom enskilda samhällen är en aktiv och rik forskningsdomän, människor vanligtvis interagerar med flera samhällen både on-and off-line. Hur agerar användarna i sådana multi-community miljöer? Även om det finns en mängd intressanta aspekter på denna fråga, har den fått mycket mindre uppmärksamhet i forskarsamhället jämfört med fallet inom gemenskapen. I detta dokument undersöker vi tre aspekter av multicommunity engagemang: sekvensen av samhällen som användare postar till, det språk som användarna använder i dessa samhällen, och den feedback som användarna får, med hjälp av longitudinella utstationering beteende på Reddit som vår huvudsakliga datakälla, och DBLP för hjälpexperiment. Vi visar också effektiviteten hos funktioner som hämtats från dessa aspekter när det gäller att förutsäga användarnas framtida aktivitetsnivå. Man kan förvänta sig att en användares bana imiterar "avvecklingsprocessen" i det verkliga livet: en inledande undersökning av subkommuniteter innan man slår sig ner i några få nischer. Men vi finner att användarna i våra data ständigt postar i nya samhällen; dessutom, allteftersom tiden går, de postar allt mer jämnt bland en mer varierande uppsättning av mindre samhällen. Intressant nog verkar det som om användare som så småningom lämnar samhället är "destinerade" för att göra det redan från början, i betydelsen att visa betydligt annorlunda "gånde" mönster mycket tidigt i sina banor; detta fynd har potentiellt viktiga designkonsekvenser för samhällets utvecklare. Vårt multi-community perspektiv gör också att vi kan undersöka "situation vs. personlighet" debatten från språkanvändning i olika samhällen. | Tan och Al. REF undersökte användarnas beteende i Reddit och fann att användare kontinuerligt postar i nya samhällen. | 15,391,427 | All Who Wander: On the Prevalence and Characteristics of Multi-community Engagement | {'venue': "WWW '15", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics']} | 9,416 |
Vi föreslår en dubbel väg, 11-lager djup, tredimensionell Convolutional Neural Network för den utmanande uppgiften för hjärnlesion segmentering. Den utformade arkitekturen är resultatet av en djupgående analys av begränsningarna i de nuvarande nätverk som föreslås för liknande tillämpningar. För att övervinna beräkningsbördan av behandling av 3D-medicinska skanningar har vi utarbetat ett effektivt och tätt utbildningsprogram som förenar bearbetningen av intilliggande bildlappar till ett pass genom nätverket samtidigt som vi automatiskt anpassar oss till den inneboende klassobalansen som finns i data. Vidare analyserar vi utvecklingen av djupare, därmed mer diskriminerande 3D CNNs. För att införliva både lokal och större kontextuell information använder vi en arkitektur med dubbla vägar som behandlar indatabilder på flera skalor samtidigt. För efterbehandling av nätverkets mjuka segmentering använder vi ett 3D-kompatibelt Villkorligt Random Field som effektivt tar bort falska positiva. Vår pipeline utvärderas ingående på tre utmanande uppgifter av lesion segmentering i multi-channel MRI patientdata med traumatiska hjärnskador, hjärntumörer, och ischemisk stroke. Vi förbättrar state-of-the-art för alla tre applikationer, med topprankning prestanda på de offentliga riktmärken BRATS 2015 och ISLES 2015. Vår metod är beräkningseffektiv, vilket gör att den kan antas i en mängd olika forsknings- och kliniska miljöer. Källkoden för vårt genomförande görs allmänt tillgänglig. | Referensreferensreferensen föreslog en dubbelriktad CNN för hjärnlesionssegmentering. | 148,067 | Efficient multi‐scale 3D CNN with fully connected CRF for accurate brain lesion segmentation | {'venue': None, 'journal': 'Medical Image Analysis', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 9,417 |
Låt G vara en ansluten graf, och låt V och V ′ två n-element undergrupper av dess vertex set V (G). Tänk dig att vi placerar ett chip på varje del av V och vi vill flytta dem till positionerna V ′ (V och V ′ kan ha gemensamma element). Ett drag definieras som att flytta ett chip från v 1 till v 2 (v 1, v 2 V (G)) på en väg som bildas av kanter av G så att inga mellanliggande hörn är upptagna. Vi ger övre och nedre gränser på antalet drag som är nödvändiga, och analysera den beräkningsmässiga komplexiteten av detta problem under olika antaganden: märkta kontra omärkta marker, godtyckliga grafer jämfört med fallet när grafen är rektangulära (infinita) planar rutnät, etc. Vi bevisar hårdhet och omätbarhet resultat för flera varianter av problemet. Vi ger också en linjär tid algoritm som utför ett optimalt (minimum) antal drag för den omärkta versionen i ett träd, och en konstant-ratio approximation algoritm för den omärkta versionen i en graf. Grafalgoritmen använder trädalgoritmen som subrutin. | Den omärkta versionen av problemet har också studerats i litteraturen REF. | 15,112,769 | Reconfigurations in graphs and grids | {'venue': 'in: Proc. LATIN ’06 (Latin American Theoretical INformatics conference), Lecture Notes in Computer Science 3887', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 9,418 |
Detta arbete tar upp ett nytt och utmanande problem med att uppskatta hela 3D-handformen och posera från en enda RGB-bild. De flesta nuvarande metoder i 3D-handanalys från monokulära RGB-bilder fokuserar bara på att uppskatta 3D platser av hand keypoints, som inte helt kan uttrycka 3D form av hand. Däremot föreslår vi en Graph Convolutional Neural Network (Graph CNN) baserad metod för att rekonstruera en full 3D mesh av handytan som innehåller rikare information om både 3D handform och pose. För att utbilda nätverk med full övervakning skapar vi ett storskaligt syntetiskt dataset som innehåller både marksanning 3D-maskor och 3D-poser. När vi finjusterar nätverken på verkliga dataset utan 3D-grundsanning föreslår vi ett svagt övervakat tillvägagångssätt genom att utnyttja djupkartan som en svag övervakning av utbildningen. Genom omfattande utvärderingar av våra föreslagna nya dataset och två offentliga dataset, visar vi att vår föreslagna metod kan producera exakt och rimlig 3D hand mesh, och kan uppnå överlägsen 3D hand pos estimering noggrannhet jämfört med state-of-the-art metoder. | REF använder en graf CNN för att återställa handens yta från en monokulär RGB-bild av handen. | 67,855,274 | 3D Hand Shape and Pose Estimation From a Single RGB Image | {'venue': '2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 9,419 |
Abstrakt. Detta dokument presenterar en ny metod för att spåra människor i flera kameror. Ett mål spåras inte bara i varje kamera utan också i markplanet av enskilda partikelfilter. Dessa partikelfilter samarbetar på två olika sätt. För det första skickar partikelfiltren i varje kamera meddelanden till dem i markplanet där multikamerainformationen integreras genom att man skär målens huvudaxlar. Detta minskar till stor del beroendet av exakta fotpositioner när man kartlägger mål från bilder till markplanet med hjälp av homografer. För det andra införlivas sedan fusionsresultaten i markplanet av varje kamera som förbättrade förslagsfunktioner. En blandningsförslagfunktion består för varje spårare i en kamera genom att kombinera en oberoende övergångskärna och den förstärkta förslagsfunktionen. Experiment visar att vårt arbetssätt uppnår mer tillförlitliga resultat med mindre beräkningsresurser än konventionella metoder. | Du och Paiter REF arbetade med samverkande partikelfilter och i deras tillvägagångssätt, mål spåras inte bara i varje kamera utan också i markplanet av enskilda partikelfilter. | 8,432,554 | Multi-camera People Tracking by Collaborative Particle Filters and Principal Axis-Based Integration | {'venue': 'ACCV', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,420 |
Abstract-djupa neurala nätverk (DNNs) möjliggör innovativa tillämpningar av maskininlärning som bildigenkänning, maskinöversättning, eller malware upptäckt. Men djupt lärande kritiseras ofta för dess brist på robusthet i kontradiktoriska miljöer (t.ex. sårbarhet för kontradiktoriska ingångar) och allmän oförmåga att rationalisera sina förutsägelser. I detta arbete utnyttjar vi strukturen för djupt lärande för att möjliggöra nya lärandebaserade slutsatser och beslutsstrategier som uppnår önskvärda egenskaper såsom robusthet och tolkningsbarhet. Vi tar ett första steg i denna riktning och introducerar Deep k-Nearest Grannarna (DkNN). Denna hybrid classifier kombinerar k-nearest grannar algoritm med representationer av de data som lärts av varje skikt av DNN: en testingång jämförs med dess angränsande träningspunkter enligt det avstånd som skiljer dem i representationerna. Vi visar etiketterna på dessa närliggande punkter ger förtroende uppskattningar för indata utanför modellens utbildningsgrenrör, inklusive på skadliga indata som kontradiktoriska exempel och däri ger skydd mot indata som är utanför modellerna förståelse. Detta beror på att de närmaste grannarna kan användas för att uppskatta den bristande överensstämmelsen av, dvs. bristen på stöd för, en förutsägelse i träningsdata. Grannarna utgör också mänskliga-tolkbara förklaringar av förutsägelser. Vi utvärderar DkNN-algoritmen på flera datauppsättningar, och visar förtroendeuppskattningarna exakt identifiera indata utanför modellen, och att de förklaringar som ges av närmaste grannar är intuitiva och användbara för att förstå modellfel. | Vår modell är mer lik den djupa k-nearest granne (k-NN) modell infördes i REF. | 3,882,460 | Deep k-Nearest Neighbors: Towards Confident, Interpretable and Robust Deep Learning | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 9,421 |
Abstrakt. Vi ger en detaljerad redogörelse för en algoritm för effektiv taktisk generation från underspecificerad logisk form semantik, med hjälp av en bred coverage grammatik och en corpus av verkliga mål uttalanden. Några tidigare påståenden om kartförverkligande granskas kritiskt och korrigeras i ljuset av en serie praktiska experiment. Förutom en uppsättning algoritmiska finesser presenterar vi två nya tekniker: integrering av subkonsumtionsbaserad lokal tvetydighet factoring, och ett förfarande för att selektivt packa upp generationsskogen enligt en sannolikhetsfördelning som ges av en villkorlig, diskriminerande modell. | För HPSG, REF ) presentera en nedifrån-och-upp, lexikalist, ytinsekter som använder en diagrambaserad strategi, subkonsumtion-baserad lokal tvetydighet factoring och ett förfarande för att selektivt packa upp generationsskogen enligt en sannolikhetsfördelning som ges av en villkorlig, diskriminerande modell. | 5,754,132 | High Efficiency Realization for a Wide-Coverage Unification Grammar | {'venue': 'Second International Joint Conference on Natural Language Processing: Full Papers', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,422 |
Abstract-Det finns mer än tjugo olika programvarutekniska uppgifter som behandlas med textsökning (TR) tekniker, såsom, spårbarhet länk återvinning, funktionen plats, refaktoring, återanvändning, etc. En vanlig fråga med alla TR-tillämpningar är att resultaten av hämtningen till stor del beror på kvaliteten på frågan. När en fråga fungerar dåligt, måste den omformuleras och detta är en svår uppgift för någon som hade svårt att skriva en bra fråga i första hand. Vi föreslår en rekommendation (kallas Refoqus) baserad på maskininlärning, som tränas med ett urval av frågor och relevanta resultat. Sedan, för en given fråga, rekommenderar den automatiskt en omformuleringsstrategi som bör förbättra dess prestanda, baserat på egenskaperna hos frågan. Vi utvärderade Refoqus empiriskt mot fyra utgångspunkter som används i naturligt språk dokument hämtning. De data som används för utvärderingen motsvarar ändringar från fem system med öppen källkod i Java och C++ och används i samband med TR-baserad konceptplats i källkod. Refoqus överträffade utgångsvärdena och dess rekommendationer ledde till bättre eller bättre resultat i 84 % av fallen (i genomsnitt). | Ett tillvägagångssätt som kallas Refoqus rekommenderar omformuleringsstrategin för en textfråga som används i program för textsökning inom programvaruteknik REF. | 8,969,778 | Automatic query reformulations for text retrieval in software engineering | {'venue': "ICSE '13", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,423 |
Utvecklingen av system för att upptäcka intrång (IDS) som är anpassade för att göra det möjligt för routers och nätförsvarssystem att upptäcka skadlig nätverkstrafik maskerad som nätverksprotokoll eller normal åtkomst är en kritisk utmaning. I detta dokument föreslås en ny metod som kallas SCDNN, som kombinerar spektralkluster (SC) och djupa neurala nätverk (DNN) algoritmer. För det första är datasetet indelat i k-undergrupper baserade på provlikviditet med hjälp av klustercenter, som i SC. Därefter mäts avståndet mellan datapunkter i ett testset och träningssetet baserat på likhetsegenskaper och matas in i den djupa neurala nätverksalgoritmen för intrångsdetektering. Sex KDD-Cup99- och NSL-KDD-dataset och en sensornätverksdataset användes för att testa modellens prestanda. Dessa experimentella resultat indikerar att SCDNN klassificerare inte bara presterar bättre än backpropagation neurala nätverk (BPN), stöd vektor maskin (SVM), slumpmässiga skog (RF) och Bayes träd modeller i detektion noggrannhet och de typer av onormala attacker som hittats. Det är också ett effektivt verktyg för att studera och analysera intrångsdetektering i stora nätverk. | Mamma och Al. REF kombinerar spektralkluster med ett djupt neuralt nätverk för att upptäcka attacker. | 2,262,661 | A Hybrid Spectral Clustering and Deep Neural Network Ensemble Algorithm for Intrusion Detection in Sensor Networks | {'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Medicine', 'Computer Science']} | 9,424 |
En mekanism för att släppa information om en statistisk databas med känsliga uppgifter måste lösa en avvägning mellan nytta och integritet. Publishing helt korrekt information maximerar nyttan samtidigt minimera integritet, medan publicering slumpmässiga buller åstadkommer motsatsen. Sekretess kan noggrant kvantifieras med hjälp av ramen för differentiell integritet, vilket kräver att en mekanisms utdatadistribution är nästan densamma oavsett om en viss databasrad ingår eller inte. Målet med detta papper är stark och allmänna nyttogarantier, med förbehåll för olika privatliv. Vi strävar efter mekanismer som garanterar nästan optimal nytta för varje potentiell användare, oberoende av dess sidoinformation (utformas som en tidigare distribution över frågeresultat) och preferenser (utformas via en förlustfunktion). Vårt huvudsakliga resultat är: för varje fast räkningsfråga och differential sekretessnivå finns det en geometrisk mekanism M * -en diskret variant av den enkla och välstuderade Laplace-mekanismen -som samtidigt förväntas förlustminimera för varje möjlig användare, med förbehåll för den differentiala integritetsbegränsningen. Detta är en extremt stark nyttogaranti: varje potentiell användare u, oavsett vad dess sida information och preferenser, härrör lika mycket nytta från M * som från att interagera med en differentialt privat mekanism Mu som är optimalt skräddarsydd för u. Mer exakt, för varje användare u finns det en optimal mekanism Mu för det att faktorer i en användaroberoende del (den geometriska mekanismen M * ) följt av användarspecifik efterbehandling som kan delegeras till användaren själv. Den första delen av vårt bevis på detta resultat kännetecknar den optimala differentialt privata mekanismen för en fast men godtycklig användare i termer av en viss grundläggande genomförbar lösning till ett linjärt program med begränsningar som kodar differential pri * 978-1-60558-506-09-05...$5.00. Vanessa. Den andra delen visar att alla relevanta hörn av denna polytop (som sträcker sig över alla möjliga användare) kan härledas från den geometriska mekanismen genom lämpliga omdaningar av sitt sortiment. | Ghosh m.fl. REF utforma en differentialt privat metod som ger det optimala svaret (i termer av nytta) för en enda räkning fråga. | 347,048 | Universally utility-maximizing privacy mechanisms | {'venue': "STOC '09", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,425 |
Abstrakt. I den här artikeln undersöker vi relationen mellan nätverkskapacitet och topologi för Bluetooth-spridare. Vi börjar med att överväga de inneboende kapacitetsgränserna för en scatternätsstruktur, och vi visar att begränsande kapacitet kan uppnås för mycket lokal trafik och under särskilda förhållanden på scatternetstrukturen. Sedan ger vi en beskrivning av den prestanda som kan uppnås med två grundläggande scatternät konfigurationer, nämligen stjärna och slutna loop topologier, och visar den roll som spelas av inter-piconet störningar i valet av effektiva konfigurationer. Slutligen presenterar vi några effektiva topologier, baserade på Platonic solids struktur. | I dokumentet i REF undersöks sambandet mellan nätverkskapacitet och topologi. | 7,887,405 | On Efficient Topologies for Bluetooth Scatternets | {'venue': 'PWC', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,426 |
Trådlösa Sensornätverk (WSN) består av små noder med avkänning, beräkning och trådlös kommunikation. Många routing-, power management- och dataspridningsprotokoll har utformats särskilt för WSN där energimedvetenhet är en viktig designfråga. Fokus har dock lagts på routingprotokollen som kan skilja sig åt beroende på applikation och nätverksarkitektur. I detta dokument presenterar vi en undersökning av de senaste routingteknikerna i WSN. Vi beskriver först designutmaningarna för routing protokoll i WSNs följt av en omfattande undersökning av olika routing tekniker. På det hela taget klassificeras routingteknikerna i tre kategorier baserade på den underliggande nätverksstrukturen: platt, hierarkisk och platsbaserad routing. Dessutom kan dessa protokoll klassificeras i multipatbaserade, frågebaserade, förhandlingsbaserade, QoS-baserade och sammanhängande baserade beroende på protokolldriften. Vi studerar designen kompromisser mellan energi och kommunikation overhead besparingar i varje routing paradigm. Vi lyfter också fram fördelarna och prestandafrågorna med varje routingteknik. Dokumentet avslutas med möjliga framtida forskningsområden. | Tidigare studier om detta problem kan delas in i tre kategorier baserade på olika routingprotokoll antagna REF: flat-based routing, hierarkisk-based routing, och plats-based routing. | 1,236,072 | Routing Techniques in Wireless Sensor Networks: A Survey | {'venue': 'IEEE Wireless Communications', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,427 |
Abstract-This paper tar upp en allvarlig SDN-specifik attack, dvs. data-till-kontroll plan mättnad attack, som överbelastar infrastrukturen i SDN-nätverk. I denna attack, en angripare kan producera en stor mängd tabell-miss packet_in meddelanden för att konsumera resurser i både kontrollplan och dataplan. För att minska detta säkerhetshot inför vi ett effektivt, lättviktigt och protokolloberoende försvarsramverk för SDN-nätverk. Vår lösning, kallad FLOODGUARD, innehåller två nya tekniker/moduler: proaktiv flödesregelanalysator och paketmigrering. För att bevara nätpolicyn, proaktiv flödesregelanalysator dynamiskt härleder proaktiva flödesregler genom att resonera körtidslogiken hos SDN/OpenFlow controller och dess tillämpningar. För att skydda regulatorn från överbelastning, paket migration tillfälligt cammar översvämningspaketen och skickar dem till OpenFlow controller med hjälp av hastighetsgräns och round-robin schemaläggning. Vi utvärderar FLOODGUARD genom en prototypimplementering testad i både programvaru- och hårdvarumiljöer. Resultaten visar att FLOODGUARD är effektivt med att lägga till endast mindre overhead i hela SDN/OpenFlow-infrastrukturen. | Till exempel tillhandahåller FLOOD-GUARD REF två moduler: proaktiv flödesregelanalysator och paketmigrering för att bevara nätpolicyn och skydda styrenheten från att överbelastas. | 8,203,656 | FloodGuard: A DoS Attack Prevention Extension in Software-Defined Networks | {'venue': '2015 45th Annual IEEE/IFIP International Conference on Dependable Systems and Networks', 'journal': '2015 45th Annual IEEE/IFIP International Conference on Dependable Systems and Networks', 'mag_field_of_study': ['Computer Science']} | 9,428 |
I detta dokument anser vi att ett massivt MIMO-aktiverat multi-way förstärka-och-framåt relänätverk med kanalåldring, där flera användare ömsesidigt utbyter information via ett mellanrelä utrustat med massiva antenner. För detta system föreslår vi ett energieffektivt energiallokeringssystem för optimering av energieffektivitet (EE). I synnerhet härleder vi först korrekta slutna formuttryck av systemsammanfattningen med gammal kanalstatsinformation (CSI) och förutsagd CSI. För det andra, baserat på de härledda analysresultaten, är en enhetlig energiallokeringsoptimering problem med åldrad/förutsedd CSI formulerat för att maximera systemet EE. För att lösa detta utmanande problem, den successiva konvex approximation teknik åberopas för att omvandla den ursprungliga optimeringsproblem till en dragbar konkava fraktionerat programmeringsproblem. Därefter, Dinkelbach algoritm och Lagrangian dubbel metod används för att hitta den optimala lösningen. Dessutom, för att hitta en balans mellan beräknings komplexitet och optimalitet, EE maximering problem med hjälp av lika effekt tilldelningsschema löses med extrem värde teorem, vilket leder till en sluten form optimal lösning. Numeriska resultat visar exaktheten i våra analysresultat och effektiviteten hos de föreslagna algoritmerna. Dessutom illustreras inverkan av flera viktiga systemparametrar på systemets prestanda som uppnås genom de föreslagna algoritmerna. | EE maximization har studerats i många verk, till exempel, REF föreslog låg komplexitet effektallokering för att maximera EE baserat på exakta slutna form uttryck av systemet summera med kanal åldrande. | 52,094,606 | Energy-efficient power allocation for massive MIMO-enabled multi-way AF relay networks with channel aging | {'venue': None, 'journal': 'EURASIP Journal on Wireless Communications and Networking', 'mag_field_of_study': ['Computer Science']} | 9,429 |
Vi tar itu med problemet med att automatiskt anpassa meningar i naturligt språk till motsvarande videosegment utan någon direkt övervakning. De flesta befintliga algoritmer för att integrera språk med videor förlitar sig på handanpassade parallella data, där varje mening i naturligt språk är manuellt i linje med dess motsvarande bild- eller videosegment. Nyligen, helt oövervakad anpassning av text med video har visat sig vara genomförbart med hjälp av hierarkiska generativa modeller. I motsats till de tidigare generativa modellerna föreslår vi tre latent-variable discriminativa modeller för den oövervakade anpassningsuppgiften. De föreslagna diskriminerande modellerna kan införliva domänkunskap genom att lägga till olika och överlappande funktioner. Resultaten visar att discriminativa modeller överträffar de generativa modellerna när det gäller anpassningsnoggrannhet. | REF använder latent-variable baserade discriminativa modeller (CRF, Structured Perceptron) för oövervakad anpassning. | 9,280,734 | Discriminative Unsupervised Alignment of Natural Language Instructions with Corresponding Video Segments | {'venue': 'HLT-NAACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,430 |
Detta papper introducerar en ny modell för semantisk rollmärkning som använder sig av neural sekvens modellering tekniker. Vår strategi är motiverad av iakttagelsen att komplexa syntaktiska strukturer och relaterade fenomen, såsom nästlade subordinationer och nominella predikat, inte hanteras väl av befintliga modeller. Vår modell behandlar sådana fall som undersekvenser av lexikaliserade beroendevägar och lär sig lämpliga inbäddade representationer. Vi visar experimentellt att sådana inbäddningar kan förbättra resultaten jämfört med tidigare toppmoderna semantiska rolletiketter, och visa upp kvalitativa förbättringar som erhållits genom vår metod. | REF använder beroendet pathencoding LSTMs för semantisk rollmärkning (SRL). | 5,779,419 | Neural Semantic Role Labeling with Dependency Path Embeddings | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 9,431 |
Abstract-This paper presenterar en säkerhetsanalys av den manuella åsidosättande funktionen hos Nokē smart lås. Nokē gör det möjligt för användaren att använda, övervaka och till och med dela sitt smarta lås med andra via en smartphone. För att motverka risken för att inte kunna öppna låset när smarttelefonen inte är tillgänglig, ger den en överordnad mekanism. Nokē implementerar denna spärrfunktion med hjälp av ett snabbklickssystem, där användaren kan välja en sekvens av åtta till sexton korta och långa bojor pressar (liknande en morsekod). För att undersöka säkerhetskonsekvenserna av denna funktion har vi genomfört en studie som samlar in mänskliga snabbklickskoder från 100 deltagare, och analyserat och modellerat den resulterande datauppsättningen. Vår analys visar att mekanismen för förbiseende, åtminstone i det nuvarande genomförandet, ger en betydande möjlighet till framgångsrika gissningsattacker. Vi visar detta genom att bygga en mekanisk brute kraft verktyg som i genomsnitt kan testa en snabbklick kod i under tre sekunder. Vi drar slutsatsen att denna hastighet, tillsammans med den låga entropin hos mänskliga-genererade lösenord, gör denna manuella åsidosättning till en av de viktigaste svagheterna i systemet och utgör en lovande attackvektor. Vi avslöjade på ett ansvarsfullt sätt våra resultat för tillverkaren Nokē. Vi tillhandahåller också en lista över möjliga motåtgärder som kan bidra till att hantera denna risk. Vi tror att alternativa autentiseringsmetoder som snabbklickskoder kommer att bli allt populärare i allt fler Internet of Things-enheter, så de svagheter och motåtgärder som diskuteras i detta dokument är aktuella och relevanta, eftersom de också kan tillämpas på andra enheter och säkerhetssystem som förlitar sig på okonventionella användargenererade autentiseringskoder. | Ett exempel på det senare är ett dokument om Nokē smart lock REF. | 10,599,998 | Earworms Make Bad Passwords: An Analysis of the Nokē Smart Lock Manual Override | {'venue': '2017 International Workshop on Secure Internet of Things (SIoT)', 'journal': '2017 International Workshop on Secure Internet of Things (SIoT)', 'mag_field_of_study': ['Computer Science']} | 9,432 |
Detta dokument fokuserar på att identifiera, extrahera och utvärdera funktioner relaterade till syntaktisk komplexitet av spontana talade svar som en del av ett försök att utöka den nuvarande funktionen i ett automatiserat tal scoring system för att täcka ytterligare aspekter som anses viktiga i byggandet av kommunikativ kompetens. Vårt mål är att hitta effektiva funktioner, utvalda från en stor uppsättning funktioner som föreslagits tidigare och några nya funktioner utformade på liknande sätt ur ett syntaktiskt komplexitetsperspektiv som korrelerar väl med mänskliga betyg av samma talade svar, och att bygga automatiska scoring modeller baserat på de mest lovande funktioner genom att använda maskininlärningsmetoder. På mänskliga transkriptioner med manuellt kommenterade klausuler och meningsgränser, uppnår vår bästa poängmodell en total Pearson korrelation med mänskliga taxer poäng på r=0,49 på en osynlig testuppsättning, medan korrelationer av modeller som använder mening eller klausul gränser från automatiserade klassiatorer är runt r=0.2. | Dessutom utforskade REF fenomen relaterade till grammatisk komplexitet i ett automatiserat talscoringsystem. | 6,441,666 | Computing and Evaluating Syntactic Complexity Features for Automated Scoring of Spontaneous Non-Native Speech | {'venue': 'Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,433 |
I den här artikeln presenterar vi en enkel men ändå snabb och robust algoritm som utnyttjar det spatio-temporala sammanhanget för visuell spårning. Vår strategi formulerar de spatio-temporala sambanden mellan objektet av intresse och dess lokala sammanhang baserat på en Bayesian ram, som modellerar den statistiska korrelationen mellan den låga nivån egenskaper (dvs. bildintensitet och position) från målet och dess omgivande regioner. Spårning problemet uppstår genom att beräkna en förtroende karta, och få den bästa målplatsen genom att maximera en objekt plats sannolikhet funktion. Snabb Fourier Transform används för snabb inlärning och upptäckt i detta arbete. Implementeras i MATLAB utan kodoptimering, den föreslagna tracker körs på 350 ramar per sekund på en i7-maskin. Omfattande experimentella resultat visar att den föreslagna algoritmen presterar gynnsamt mot toppmoderna metoder när det gäller effektivitet, noggrannhet och robusthet. Objekt spårning, spatio-temporal sammanhang lärande, Fast Fourier Transform (FFT). | I REF, Zhang et al. föreslog en metod baserad på spatio-temporal sammanhang och Bayesian ram för visuell spårning. | 7,805,658 | Fast Tracking via Spatio-Temporal Context Learning | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 9,434 |
Abstract-I detta dokument utvecklar vi en energieffektiv, feltolerant strategi för samverkande signal- och informationsbehandling (CSIP) bland flera sensornoder med hjälp av en mobilagentbaserad datormodell. I denna modell, istället för varje sensornod som skickar lokal information till ett processcenter för integration, som är typiskt i en klient / server-baserad dator, är integrationskoden flyttas till sensorn noder genom mobila agenter. Energieffektivitetsmålet och feltoleransmålet står alltid i konflikt med varandra och utgör en unik utmaning för utformningen av CSIP-algoritmer. I allmänhet, energieffektiva metoder försöker begränsa redundansen i algoritmen så att minsta mängd energi krävs för att utföra en viss uppgift. Å andra sidan behövs redundans för att ge feltolerans, eftersom sensorer kan vara felaktiga, defekta eller till och med skadliga. Man måste hitta en balans mellan dessa två mål. Vi diskuterar potentialen av mobil-agent-baserad samarbetsbehandling för att ge progressiv noggrannhet samtidigt som viss grad av feltolerans bibehålls. Vi utvärderar dess prestanda jämfört med klient/server-baserat samarbete från perspektiv av energiförbrukning och utförandetid genom både simulering och analysstudie. Slutligen tar vi gemensam målklassificering som ett exempel på tillämpning för att visa hur effektivt det föreslagna tillvägagångssättet är. Index Termer-energieffektivitet, feltolerans, samarbetssignal och informationsbehandling, mobil-agent-baserad databehandling | I REF föreslås en fallstudie baserad på Sensor-nätverk för att utvärdera klientens/serversystemets och mobilagentsystemets prestanda. | 12,392,458 | Mobile-agent-based Collaborative Signal and Information Processing in Sensor Networks | {'venue': 'Proceedings of the IEEE', 'journal': None, 'mag_field_of_study': ['Engineering']} | 9,435 |
Sociala medier behandlar alla användare lika: betrodd vän eller total främling, med lite eller ingenting däremellan. I verkligheten faller relationer överallt längs detta spektrum, ett ämne samhällsvetenskap har undersökt i årtionden under temat slipsstyrka. Vårt arbete överbryggar denna klyfta mellan teori och praktik. I den här artikeln presenterar vi en prediktiv modell som kartlägger data från sociala medier för att knyta styrka. Modellen bygger på en datauppsättning på över 2.000 sociala medier och fungerar ganska bra, vilket skiljer mellan starka och svaga band med över 85% noggrannhet. Vi kompletterar dessa kvantitativa resultat med intervjuer som packar upp de relationer vi inte kunde förutsäga. Dokumentet avslutas med att illustrera hur modellering knyt styrka kan förbättra sociala medier designelement, inklusive integritetskontroller, meddelande routing, vän introduktioner och informationsprioritering. | Eric Gilbert m.fl. REF presenterade en prediktiv modell som kartlägger data från sociala medier för att knyta styrka. | 6,096,102 | Predicting tie strength with social media | {'venue': 'CHI', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,436 |
Detta dokument beskriver ett evolutionärt tillvägagångssätt för oövervakad bildsegmentering i gråskala som automatiskt delar in en bild i dess beståndsdelar. Syftet med denna algoritm är att producera exakt segmentering av bilder med hjälp av intensitetsinformation tillsammans med grannrelationer. I detta papper, fuzzy c-means clustring hjälper till att generera populationen av genetisk algoritm som där automatiskt segmentera bilden. Denna teknik är en kraftfull metod för bildsegmentering och fungerar för både enkel- och multifunktionsdata med rumslig information. Validitetsindex har använts för att introducera en robust teknik för att hitta antalet komponenter i en bild. Experimentella resultat visade att algoritmen genererar en segmenterad bild av god kvalitet. | Halder m.fl. REF beskrev en GA-baserad metod för gråskalans bildsegmentering som automatiskt delar in en bild i dess beståndsdelar. | 7,137,962 | Dynamic Image Segmentation using Fuzzy C-Means based Genetic Algorithm | {'venue': None, 'journal': 'International Journal of Computer Applications', 'mag_field_of_study': ['Computer Science']} | 9,437 |
Abstract-Med användning av energiskörd teknik kan livslängden för ett trådlöst sensornätverk (WSN) förlängas avsevärt. Till skillnad från en traditionell WSN som drivs av batterier som inte kan laddas upp, måste energihanteringspolitiken för en energiupptagning WSN ta hänsyn till energipåfyllningsprocessen. I detta dokument studerar vi energitilldelningen för avkänning och överföring i en energiupptagningssensor nod med ett uppladdningsbart batteri och en ändlig databuffert. Sensorn noden syftar till att maximera den totala genomströmningen i en ändlig horisont som är föremål för tidsvariation energi skörd, energitillgång i batteriet, och kanal blekning. Vi formulerar energiallokeringsproblemet som ett sekventiellt beslutsproblem och föreslår en optimal energialgoritm (OEA) med dynamisk programmering. Vi utför simuleringar för att jämföra prestandan mellan vår föreslagna OEA-algoritm och den kanalmedvetna energialgoritmen (CAEA) från [1]. Simuleringsresultat visar att OEA-algoritmen uppnår en högre genomströmning än CAEA-algoritmen under olika inställningar. | I arbetet i REF studeras problemet med energiallokering för avkänning och överföring för att maximera genomströmningen i ett trådlöst sensornät för energiupptagning. | 461,667 | An optimal energy allocation algorithm for energy harvesting wireless sensor networks | {'venue': '2012 IEEE International Conference on Communications (ICC)', 'journal': '2012 IEEE International Conference on Communications (ICC)', 'mag_field_of_study': ['Computer Science']} | 9,438 |
I mobila ad hoc-nätverk, noderna rör sig ofta och hålla på ändra sin topologi. Datapaket kan vidarebefordras från en nod till en annan på begäran. För att öka data tillgänglighet data replikeras vid noder och görs som sharable till andra noder. Förutsatt att alla mobila värdkooperativ delar sitt minne och tillåter vidarebefordrande av datapaket. Men i verkligheten delar inte alla noder resurserna till förmån för andra. Dessa noder kan agera själviskt för att dela med sig av minnet och vidarebefordra datapaketen. Detta dokument fokuserar på själviskhet mobila noder i replika allokering och routing protokoll baserat på Ant koloni algoritm för att förbättra effektiviteten. Antkolonialgoritmen används för att minska omkostnaderna i det mobila nätverket, så att det är effektivare att få tillgång till data än med andra routingprotokoll. Detta resultat visar effektiviteten hos myrbaserad routingalgoritm i replikeringsalgoritmen. | Nandhini m.fl. REF införde en effektiv myrbaserad routingalgoritm för att minska omkostnaderna i ett mobilt nätverk. | 44,208,149 | Effective Ant Based Routing Algorithm for Data Replication in Manets | {'venue': 'ICTACT Journal on Communication Technology', 'journal': 'ICTACT Journal on Communication Technology', 'mag_field_of_study': ['Computer Science']} | 9,439 |
Sarkasmdetektion har modellerats som en binär dokumentklassificering uppgift, med rika funktioner som definieras manuellt över inmatningsdokument. Traditionella modeller använder diskreta manuella funktioner för att hantera uppgiften, med mycket forskning effekt ägnas åt utformningen av effektiva funktionsmallar. Vi undersöker användningen av neurala nätverk för tweet sarkasm detektion, och jämföra effekterna av de kontinuerliga automatiska funktioner med diskreta manuella funktioner. I synnerhet använder vi en dubbelriktad gated återkommande neurala nätverk för att fånga syntaktisk och semantisk information över tweets lokalt, och en pooling neurala nätverk för att extrahera kontextuella funktioner automatiskt från historia tweets. Resultat visar att neurala funktioner ger förbättrad noggrannhet för sarkasmdetektion, med olika felfördelningar jämfört med diskreta manuella funktioner. | I en annan studie, REF, dubbelriktad LSTM används för att fånga syntaktisk och semantisk information över tweets, tillsammans med en pooling neurala nätverk för att extrahera kontextuella funktioner automatiskt från historie tweets. | 2,434,935 | Tweet Sarcasm Detection Using Deep Neural Network | {'venue': 'COLING', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,440 |
Abstrakt. Vi presenterar QuickSpec, ett verktyg som automatiskt genererar algebraiska specifikationer för uppsättningar av rena funktioner. Verktyget är baserat på testning, snarare än statisk analys eller teorem som bevisar. Den största utmaningen QuickSpec ansikten är att hålla antalet genererade ekvationer till ett minimum samtidigt som fullständighet. Vi visar hur QuickSpec kan förbättra förståelsen för en programmodul genom att utforska de lagar som genereras med hjälp av två fallstudier: ett högbibliotek för Haskell och ett aritmetiskt bibliotek för Erlang. | QUICKSPEC REF är en annan slutsats verktyg som bygger på testning och kan användas för att generera lagar som ett Haskell program uppfyller. | 17,747,930 | QuickSpec: Guessing formal specifications using testing | {'venue': 'In Tests and Proofs, Fourth International Conference, TAP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,441 |
Abstract Meta modellering är en bred teknik för att definiera visuella språk, med UML är den mest framträdande. Trots flera fördelar med metamodellering, såsom användarvänlighet, har metamodellering en nackdel: det är inte konstruktivt, dvs. det erbjuder inte ett direkt sätt att generera instanser av språket. Denna nackdel innebär en allvarlig begränsning för vissa ansökningar. När man till exempel utvecklar modellomvandlingar är det önskvärt att ha tillräckligt med giltiga exempelmodeller tillgängliga för storskaliga tester. Att framställa en sådan stor uppsättning för hand är långtråkigt. I det relaterade problemet med kompilator testning, en sträng grammatik tillsammans med en enkel generation algoritm används vanligtvis för att producera ord i språket automatiskt. I det här dokumentet introducerar vi exempelgenererande graf grammatik för att skapa exempel på metamodeller och därmed övervinna det största underskottet i metamodellering för att definiera språk. | I REF, Ehrig et al. omvandla en metamodell till en graf grammatik som används för att producera fall. | 7,185,022 | Generating instance models from meta models | {'venue': 'Software & Systems Modeling', 'journal': 'Software & Systems Modeling', 'mag_field_of_study': ['Computer Science']} | 9,442 |
Detta dokument undersöker designfrågor och energibesparingar fördelarna med tjänsteprioritering i multi-tier webbserverkluster. I många tjänster, kan klasser av kunder naturligt tilldelas olika prioriteringar baserat på deras prestanda krav. Vi visar att om hela multitier-systemet prioriteras effektivt kan ytterligare kraft- och energibesparingar realiseras samtidigt som man behåller en befintlig klusteromfattande energihanteringsteknik, genom att utnyttja de olika prestandakraven för separata tjänsteklasser. Vi finner ett enkelt prioriteringsschema vara mycket effektivt utan att kräva påträngande ändringar i systemet. För att kvantifiera dess fördelar utför vi en omfattande experimentell utvärdering på en riktig testbädd. Det visas att systemet avsevärt förbättrar både den totala energibesparingen i systemet och energieffektiviteten, samtidigt som det förbättrar genomströmningen och gör det möjligt för systemet att uppfylla prestandakraven per klass. | I REF, Horvath et al. uppfann ett tjänsteprioriteringssystem för multi-tier webbserverkluster, som tilldelade olika prioriteringar baserat på deras prestandakrav. | 2,146,367 | Enhancing Energy Efficiency in Multi-tier Web Server Clusters via Prioritization | {'venue': '2007 IEEE International Parallel and Distributed Processing Symposium', 'journal': '2007 IEEE International Parallel and Distributed Processing Symposium', 'mag_field_of_study': ['Computer Science']} | 9,443 |
Abstract-The överföringsområde som uppnår den mest ekonomiska användningen av energi i trådlösa ad hoc-nät studeras för jämnt fördelade nätverk noder. Genom att anta existensen av vidarebefordrande grannar och kunskapen om deras platser, den genomsnittliga per-hop paket framsteg för ett överföringsområde som är universellt för alla noder härleds. Detta framsteg används sedan för att identifiera det optimala per-hop-överföringsområdet som ger maximal energieffektivitet. Utrustad med detta analytiska resultat undersöks numeriskt förhållandet mellan det mest energi-ekonomiska överföringsområdet och nodens densitet, liksom den väg-förlust-exponenten. Det observeras att när banförlust exponenten är hög (t.ex. fyra), är det optimala överföringsområdet nästan identiskt inom det område av nodtätheter som vi studerade. Men när den väg-förlust exponenten är bara två, den optimala överföringsområdet minskar märkbart när nodtätheten ökar. Simuleringsresultat bekräftar också optimaliteten i det per-hop-överföringsområde som vi fann analytiskt. Index Terms-Energi effektivitet, optimal överföringsområde, trådlösa ad hoc-nätverk. | Det optimala länkavståndet som maximerar energieffektiviteten har tidigare undersökts i REF för olika nodtätheter och banförluster exponenter. | 9,950,992 | Optimal Transmission Range for Wireless Ad Hoc Networks Based on Energy Efficiency | {'venue': 'IEEE Transactions on Communications', 'journal': 'IEEE Transactions on Communications', 'mag_field_of_study': ['Computer Science']} | 9,444 |
Samtidig översättning är en metod för att minska latensen av kommunikation genom maskinöversättning (MT) genom att dela indata i korta segment innan du utför översättning. Korta segment utgör dock problem för syntaxbaserade översättningsmetoder, eftersom det är svårt att generera exakta parsträd för subsentiella segment. I denna uppsats utför vi de första experimenten med syntaxbaserad SMT till samtidig översättning, och föreslår två metoder för att förhindra försämringar i noggrannhet: en metod för att förutsäga osynliga syntaktiska komponenter som hjälper till att generera kompletta parsträd, och en metod som väntar på mer input när det aktuella uttalandet inte är tillräckligt för att generera en flytande översättning. Experiment på engelsk-japansk översättning visar att de föreslagna metoderna gör det möjligt att förbättra noggrannheten, särskilt när det gäller ordföljden i målmeningarna. | REF föreslår en metod för att förutsäga de framtida syntaktiska beståndsdelarna och använda den för att generera kompletta parsträd som hjälper till att hitta en bra punkt för att binda översättningen. | 17,272,416 | Syntax-based Simultaneous Translation through Prediction of Unseen Syntactic Constituents | {'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,445 |
I detta dokument studeras problemet med resurshantering för ett nätverk av trådlösa virtuella verkligheter (VR) användare som kommunicerar över små cellnätverk (SCN). För att fånga VR-användarnas servicekvalitet (QoS) i SCN föreslås en ny VR-modell, baserad på multiattribut-nyttoteori. Modellen står tillsammans för VR-mått, som t.ex. spårningsnoggrannhet, bearbetningsfördröjning och överföringsfördröjning. I denna modell fungerar de små basstationerna (SBS) som de VR-kontrollcentraler som samlar in spårningsinformation från VR-användare över den cellulära upplänken. När denna information har samlats in skickar SBS-enheterna 3D-avbildningarna och tillhörande ljud till VR-användarna via nedlänken. Därför måste resursfördelningsproblemet i VR:s trådlösa nätverk tillsammans ta hänsyn till både upplänken och nedlänken. Detta problem formuleras sedan som ett icke-kooperativt spel och en distribuerad algoritm baserad på maskininlärning ramar eko statliga nätverk (ESNs) föreslås för att hitta lösningen på detta spel. Den föreslagna ESN-algoritmen gör det möjligt för SBS att förutsäga VR QoS för varje SBS och är garanterad att konvergera till blandad Nash-jämvikt. Analysresultatet visar att varje användares VR QoS gemensamt beror på både VR-spårningsnoggrannhet och trådlös resursallokering. Simuleringsresultat visar att den föreslagna algoritmen ger betydande vinster, när det gäller VR QoS-verktyget, som når upp till 22,2 % respektive 37,5 % jämfört med Q-learning och en proportionerligt rättvis grundalgoritm. Resultaten visar också att den föreslagna algoritmen har en snabbare konvergenstid än Q-learning och kan garantera låga förseningar för VR-tjänster. | En distribuerad algoritm baserad på maskininlärning ramen för eko statliga nätverk föreslogs för att lösa resurs tilldelning problem REF. | 2,600,739 | Virtual Reality Over Wireless Networks: Quality-of-Service Model and Learning-Based Resource Management | {'venue': 'IEEE Transactions on Communications', 'journal': 'IEEE Transactions on Communications', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 9,446 |
Sammanfattning av denna webbsida: Inomhuspositioneringssystem (IPS) som använder Bluetooth Low Energy (BLE) håller för närvarande på att bli verkliga och tillgängliga, vilket har fått dem att växa i popularitet och användning. Det finns dock fortfarande många utmaningar relaterade till denna teknik, särskilt när det gäller Received Signal Strength Indicator (RSSI) fluktuationer på grund av beteendet hos kanalerna och multipateffekten, som leder till dålig precision. För att mildra dessa effekter föreslår och inför vi i detta dokument ett verkligt inomhuspositioneringssystem baserat på Bluetooth Low Energy, som förbättrar noggrannheten samtidigt som vi minskar strömförbrukningen och kostnaderna. De tre huvudförslagen är: frekvensmångfald, Kalmanfiltrering och en trilaterationsmetod vad vi har betecknat som "viktad trilateration". Analysen av resultaten visar att alla förslag förbättrar precisionen i systemet, som går upp till 1,82 m 90% av tiden för en anordning som rör sig i ett mellanrum och 0,7 m för statiska enheter. Dessutom har vi visat att systemet är skalbart och effektivt i fråga om kostnad och energiförbrukning. Det implementerade tillvägagångssättet gör det möjligt att använda en mycket enkel enhet (som en SensorTag) på objekten för att lokalisera. Systemet möjliggör en mycket låg densitet av ankarpunkter eller referenser och med en precision bättre än befintliga lösningar. | Dessutom använde Canton Paterna REF frekvensmångfald, Kalman-filtret och en trilaterationsmetod för att förbättra precisionen i BLE-systemet. | 195,668,098 | A Bluetooth Low Energy Indoor Positioning System with Channel Diversity, Weighted Trilateration and Kalman Filtering | {'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Medicine']} | 9,447 |
De dominerande sekvenstransduktionsmodellerna är baserade på komplexa återkommande eller konvolutionella neurala nätverk som inkluderar en kodare och en dekoder. De bäst presterande modellerna kopplar också samman kodaren och dekodern genom en uppmärksamhetsmekanism. Vi föreslår en ny enkel nätverksarkitektur, Transformer, baserad enbart på uppmärksamhetsmekanismer, dispensering med upprepningar och konvolutioner helt och hållet. Experiment på två maskinöversättningsuppgifter visar att dessa modeller är överlägsna i kvalitet samtidigt som de är mer parallelliserbara och kräver betydligt mindre tid att träna. Vår modell uppnår 28,4 BLEU på WMT 2014 engelska till tyska översättning uppgift, förbättra över de befintliga bästa resultaten, inklusive ensembler, med över 2 BLEU. På WMT 2014 engelska-till-franska översättning uppgift, vår modell etablerar en ny enda modell state-of-the-art BLEU poäng på 41.0 efter utbildning i 3,5 dagar på åtta GPUs, en liten bråkdel av utbildningskostnaderna för de bästa modellerna från litteraturen. Vi visar att Transformer generaliserar väl till andra uppgifter genom att tillämpa det framgångsrikt till engelska valkrets tolkar både med stora och begränsade utbildningsdata. | Dispensering med upprepning och konvolutioner helt och enbart förlitar sig på uppmärksamhet mekanism, Transformer REF ) uppnår överlägsen prestanda i maskinöversättning uppgifter. | 13,756,489 | Attention Is All You Need | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 9,448 |
På grund av sin komplexitet exponerar moderna system många konfigurationsparametrar som användarna måste justera för att maximera prestandan. Auto-tuning har dykt upp som ett alternativ där en svart-box optimerar iterativt utvärderar konfigurationer för att hitta effektiva. Tyvärr, för många system, såsom distribuerade system, att utvärdera prestanda tar för lång tid och utrymmet för konfigurationer är för stort för optimizern att konvergera inom en rimlig tid. Vi presenterar BOAT, ett ramverk som gör det möjligt för utvecklare att bygga effektiva skräddarsydda auto-tuners för sitt system, i situationer där generiska auto-tuners misslyckas. Vid BOAT's kärna är strukturerad Bayesian optimering (SBO), en ny förlängning av Bayesian optimering algoritm. SBO utnyttjar kontextuell information som tillhandahålls av systemutvecklare, i form av en probabilistisk modell av systemets beteende, för att fatta välgrundade beslut om vilka konfigurationer som ska utvärderas. I en fallstudie, justerar vi schemaläggningen av en neural nätverk beräkning på en heterogen kluster. Vår autotuner konvergerar inom tio iterationer. De optimerade konfigurationer överträffar de som finns av generiska auto-tuners i trettio iterationer med upp till 2×. | BOAT är ett strukturerat Bayesian Optimization-baserat ramverk för automatisk inställning av systemprestanda som utnyttjar kontextuell information REF. | 6,758,736 | BOAT: Building Auto-Tuners with Structured Bayesian Optimization | {'venue': 'WWW', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,449 |
På grund av populariteten och heterogeniteten hos inbyggda system, problemet med programvarukomponent (SW-komponent) allokering i sådana system får ökad uppmärksamhet. Att ta itu med detta problem med hjälp av ett grafiskt modelleringsspråk som Ecore kommer att göra det möjligt för systemdesigners att bättre och enklare fördela sina komponenter. De befintliga Ecore-modellerna tar dock inte upp problemet med tilldelning av SW-komponenter i heterogena inbyggda system. På grund av Ecore informella semantik, Ecore modeller kan inte analyseras med hjälp av matematiska verktyg. Å andra sidan föreslogs ett tillvägagångssätt baserat på färgade Petri-nät (CPN) för modellering och analys av problemet med tilldelning av programvarukomponenter. Metoden visade sig vara tillämplig på området inte bara när det gäller problemet med kostnadsoptimering, utan också eftersom den tar hänsyn till icke-funktionella krav. I detta dokument föreslår vi en strategi för automatisk omvandling av en Ecore-modell till en likvärdig CPN-modell, som kommer att hjälpa modelleraren att använda kraften i ett formellt modelleringsspråk genom att endast modellera systemet med hjälp av ett enkelt Ecore-baserat modelleringsspråk. | I Ref föreslår författarna en metod för automatisk omvandling från en Ecore-baserad modell av ett komponentfördelningsproblem till en likvärdig CPN-modell. | 43,504,846 | Model-to-Model based Approach for Software Component Allocation in Embedded Systems | {'venue': 'MODELSWARD', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,450 |
I detta arbete beskriver vi ett Convolutional Neural Network (CNN) för att exakt förutsäga scenens belysning. Med bildlappar som inmatning fungerar CNN i den rumsliga domänen utan att använda handgjorda funktioner som används av de flesta tidigare metoder. Nätverket består av ett konvolutionslager med max pooling, ett helt uppkopplat lager och tre utgångsnoder. Inom nätverksstrukturen integreras funktionsinlärning och regression i en optimeringsprocess, vilket leder till en mer effektiv modell för att uppskatta scenbelysning. Detta tillvägagångssätt uppnår toppmoderna resultat på standarddatauppsättningar av RAW-avbildningar. Preliminära experiment på bilder med rumsligt varierande belysning visar stabiliteten i den lokala ljusuppskattningsförmågan hos vårt CNN. 81 978-1-4673-6759-215/$31.00 ©2015 IEEE | Bianco m.fl. I REF föreslogs en belysningsbaserad skattningsmetod baserad på ett CNN bestående av ett konvolutionsskikt, ett helt uppkopplat neuralt nätverksskikt och tre utgångsnoder. | 8,877,975 | Color constancy using CNNs | {'venue': '2015 IEEE Conference on Computer Vision and Pattern Recognition Workshops (CVPRW)', 'journal': '2015 IEEE Conference on Computer Vision and Pattern Recognition Workshops (CVPRW)', 'mag_field_of_study': ['Computer Science']} | 9,451 |
Numera spelar neurala nätverk en viktig roll i uppgiften att relationsklassificering. I detta dokument föreslår vi en ny uppmärksamhetsbaserad konvolutionell neural nätverksstruktur för denna uppgift. Vår modell utnyttjar ordet inbäddning, del-av-tal tag inbäddning och position inbäddning information. Uppmärksamhetsmekanismen på ordnivå kan bättre avgöra vilka delar av domen som är mest inflytelserika med avseende på de två enheterna av intresse. Denna arkitektur gör det möjligt att lära sig några viktiga funktioner från uppgiftsspecifika märkta data, vilket innebär att man avstår från behovet av extern kunskap som explicita beroendestrukturer. Experiment på SemEval-2010 Task 8 Benchmark dataset visar att vår modell uppnår bättre prestanda än flera toppmoderna neurala nätverksmodeller och kan uppnå en konkurrenskraftig prestanda bara med minimal funktionsteknik. | Shen och Huang föreslog uppmärksamhetsbaserad CNN med hjälp av ordnivå uppmärksamhetsmekanism som bättre kan avgöra vilka delar av meningen är mer inflytelserika REF. | 14,234,178 | Attention-Based Convolutional Neural Network for Semantic Relation Extraction | {'venue': 'COLING', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,452 |
Neurala nätverk är både beräkningsintensiva och minnesintensiva, vilket gör dem svåra att distribuera på inbyggda system med begränsade hårdvaruresurser. För att ta itu med denna begränsning, introducerar vi "djup kompression", en trestegs pipeline: beskärning, utbildad kvantisering och Huffman kodning, som arbetar tillsammans för att minska lagringskravet för neurala nätverk med 35× till 49× utan att påverka deras noggrannhet. Vår metod först beskär nätverket genom att lära sig bara viktiga anslutningar. Därefter kvantifierar vi vikterna för att tvinga fram viktdelning, slutligen använder vi Huffman-kodning. Efter de två första stegen tränar vi om nätverket för att finjustera de återstående anslutningarna och de kvantiserade centroiderna. Beskärning, minskar antalet anslutningar med 9× till 13×; Kvantisering minskar sedan antalet bitar som representerar varje anslutning från 32 till 5. På ImageNet dataset, vår metod minskade lagring som krävs av AlexNet med 35×, från 240MB till 6,9MB, utan förlust av noggrannhet. Vår metod minskade storleken på VGG-16 med 49× från 552MB till 11,3MB, igen utan förlust av noggrannhet. Detta gör det möjligt att montera modellen i on-chip SRAM cache snarare än off-chip DRAM minne. Vår komprimeringsmetod underlättar också användningen av komplexa neurala nätverk i mobila applikationer där applikationens storlek och nedladdningsbandbredd begränsas. Benchmarked på CPU, GPU och mobil GPU, komprimerat nätverk har 3× till 4× lagervis speedup och 3× till 7× bättre energieffektivitet. | Djupkompression REF introducerade trestegs utbildning av beskärning, tränad kvantisering och Huffman-kodning och visade att viktbeskärning och viktkvantisering kan arbeta tillsammans för högre kompression. | 2,134,321 | Deep Compression: Compressing Deep Neural Networks with Pruning, Trained Quantization and Huffman Coding | {'venue': 'ICLR 2016', 'journal': 'arXiv: Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 9,453 |
Vi anser den klass av förpackning heltal program (PIPs) som är kolumn sparse, där det finns en specificerad övre gräns k på antalet begränsningar som varje variabel visas i. Vi ger en förbättrad (ek + o(k))-tillnärmningsalgoritm för k-kolumn sparse PIPs. Vår algoritm är baserad på en linjär programmeringsavkoppling, och innebär randomiserad avrundning i kombination med förändring. Vi visar också att integrality gapet i vår LP avkoppling är minst 2k − 1; det är känt att även speciella fall av k-kolumn sparse PIPs är och k log k )-hård till ungefärlig. Vi generaliserar vårt resultat till fallet med maximering monotona submodulära funktioner över kcolumn sparse förpackning begränsningar, och få en e 2 k e‐1 + o(k) - approximation algoritm. När vi får detta resultat, bevisar vi en ny egenskap hos submodulära funktioner som generaliserar den fraktionerat subadditiva egenskapen, som kan vara av oberoende intresse. När kapaciteten för alla begränsningar är stor i förhållande till storlekarna, får vi betydligt bättre garantier för dessa k-kolumn sparse förpackningsproblem; återigen vårt resultat är tight (upp till konstanta faktorer) i förhållande till den naturliga LP avslappning. | Bansal m.fl. REF utarbetade en deterministisk 8k-uppskattning och en randomiserad (ek + o(k))-uppskattning för det mer allmänna problemet med att approximera k-kolumn-sparse paketering heltalsprogram. | 15,478,280 | On k-Column Sparse Packing Programs | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 9,454 |
Volymen av mobil trafik exploderar, drivs av en mångfald av anslutna enheter. Den höga bandbredd som multimediatillämpningar kräver sträcker sig kraftigt över det tillgängliga trådlösa spektrumet. Konsumenterna påverkas av fast tillgång bredbandstjänster förväntar sig nästan omedelbar filuppladdning/nedladdningar och överföringar mellan terminaler (laptops, surfplattor och smarta TV-apparater), IPTV och HD-video. Utmaningen för tjänsteleverantörerna är därför att utöka kapaciteten för trådlös åtkomst för att bibehålla prestandaegenskaperna vid övergången till huvudsakligen trådlösa tjänster. Nöjesindustrin kommer bara att vara den första att driva och inspirera andra futuristiska scenarier i sammankopplad hälsa, social och samhällelig interaktion, och utbildning. 60 GHz-bandet, med upp till fyra 2,16 GHz-kanaler, stöder snabba kortdistanssändningar (LOS) med hög datahastighet. Millimetervåg (mmWave) kommunikationsteknik som IEEE 802.15.3c-2009 [1] och IEEE 802.11ad [2] är unikt placerade på grund av deras förmåga att leverera den gigabit per sekund som planeras för den femte generationen (5G). Trots de negativa spridningsegenskaperna hos mmWave-teknik (ett resultat av hög spridningsförlust på grund av syreabsorption och atmosfärisk dämpning), gör det faktum att vågorna är instängda i väggar det idealiska för personlig kommunikation: att främja säkerhet och integritet. Detta främjar också effektivare frekvensåteranvändning, vilket skapar mycket hög bandbredd nav som är idealiska för leverans av gigabitper-second applikationer. En viktig fråga är dock hur man kan bekämpa effekterna av blockeringen av LOS-länken genom mänsklig skuggning eller hinder, som allvarligt påverkar överföringen. För att stödja den höga volymen tjänster av hög kvalitet krävs en optimerad resursfördelning. Att optimera resurstilldelningen i ett multianvändarscenario för multimedia gigabit innebär intressanta utmaningar. De flesta traditionella optimeringstekniker har använts för att lösa problem med konvex optimering. Multimediaapplikationer i realtid introducerar dock icke-konvexa allmännyttiga funktioner där den kvalitet som användaren upplever inte ökar graciöst med en ökning av genomströmningen. I detta sammanhang är det nödvändigt med en ny syn på tekniker för resursfördelningsoptimering. Relativt nya metoder, såsom partikel svärm optimering (PSO), är idealiska kandidater för att lösa icke-konvexa problem. Vårt förslag jämför PSO med andra tekniker och presenterar kanaltidstilldelning PSO (CTA-PSO) som en lösning för att optimera kanaltidstilldelning (resurs) även när blockering sker i mmWave-nätverket. IEEE 802.15.3c [1] och IEEE 802.11ad [2] tillhandahåller mekanismer för att tilldela flera användare resurser (i form av kanalåtkomsttid). En tvisteperiod gör det möjligt för olika terminaler att begära åtkomsttid medan tilldelade kanaltider ger särskild dataöverföringstid. Fördelen med planerad tillgång är att tillhandahålla en särskild tid för kommunikation, vilket stöder garanterad kvalitet på tjänsten (QoS) för en ansökan. Denna garanti är inte möjlig när alla nätverksenheter konkurrerar om bandbredd med hjälp av slumpmässiga åtkomsttekniker. Tilldelningsprocessen beskrivs här och illustreras i bild. 1................................................................ ENABLING MMWAVE TEKNIK 5G-nätinfrastrukturen drivs av utvecklingen av dagens mest krävande applikationer. Multimedia applikationer som on-demand HD-video och IPTV kräver redan gigabit per sekund genomströmning och låg fördröjning, medan framtida teknik inkluderar ultra HDTV och maskin-till-maskin kommunikation. Mm-Wave-teknik som IEEE 802.15.3c och IEEE 802.11ad är idealiska kandidater för att leverera hög genomströmning till flera användare som kräver differentierad QoS. Optimering används ofta som en metod för att möta genomströmnings- och fördröjningsbegränsningar. Traditionella optimeringsmetoder är dock inte lämpade för en blandad uppsättning multimediatillämpningar. Partikelsvärmoptimering (PSO) visas som en lovande teknik i detta sammanhang. Kanaltidstilldelning PSO (CTA-PSO) visas här med framgång för att fördela resurser även i scenarier där blockering av 60 GHz-signalen innebär betydande utmaningar. Ett 802.15.3c-nätverk, eller piconet, är ett trådlöst ad hoc-datakommunikationssystem där ett antal oberoende enheter kommunicerar med varandra på ett peer-to-peer-sätt [1]. I 802.15.3c-protokollet styrs medelåtkomsten av en piconet-regulator (PNC). Denna roll innehas vanligtvis av den första medlemmen i nätverket. Superdatorn initieras av en fyr från PNC. För att uppnå det önskade signalområdet vid 60 GHz används en riktningssignal, men för att nå alla potentiella grannar måste signalen sändas i alla riktningar. En kvasi-omni-fyr används därför. Området runt PNC är indelat i sektorer, och PNC sänder en riktningsstrålkastare sektor för sektor tills alla sektorer har täckts. En tvistegångsperiod (CAP) följer beacon-fasen. S-CAP är sektorsvis, så i föreningen S-CAP, alla enheter i en sektor har möjlighet att kämpa för att skicka föreningsförfrågan kommandon och för PNC att skicka omedelbara erkännanden. Den vanliga S-CAP och CAP är sedan tillgängliga för kommando- och datautbyte. Den gemensamma jordbrukspolitiken är en transportörs sense multiple access med kollisionsundvikande fas (CSMA/CA). I CSMA/CA känner en enhet först av kanalen före överföringen. Om kanalen är fri, överför enheten sin ram. Annars, om kanalen är upptaget, genererar enheten en slumpmässig backoff räknare och skjuter upp sin överföring tills backoff räknaren löper ut. I 802.15.3c konkurrerar enheter under den gemensamma jordbrukspolitiken om att skicka en begäran om särskild kanaltid under vilken applikationsdata kan överföras. Enhetens tidstilldelning kallas en kanaltidstilldelning (CTA) och sker under kanaltidstilldelningsperioden (CTAP), som följer den gemensamma jordbrukspolitiken. CTAP fungerar med tidsdelning av flera åtkomster (TDMA). I denna fas tilldelas en tidsslot/CTA till alla enheter som har begärt en tillträdesperiod, förutsatt att tiden är tillgänglig. För att förbättra MAC-effektiviteten stöds ramaggregation och blockackreditering av standarden. Dessa tekniker illustreras också i bild. 1................................................................ Frame aggregering innebär att mappa MAC-tjänstedataenheter (MSDU) till flera delframe nyttolaster. Detta ökar förhållandet mellan data och rubrik i ramen vilket ökar genomströmningen. En blockbekräftelse (Blk-Ack) skickas för den aggregerade ramen. Fördelarna med dessa mekanismer är förbättrad effektivitet genom att minska ram/Ack overhead. Att anpassa begränsningarna för mmWave-frekvensbandet och stödja kraven för applikationer med hög datahastighet, IEEE 802.11ad-tillägg och utökar tidigare versioner av IEEE 802.11 MAC. Den fungerar på ett liknande sätt som 802.15.3c med perioder av tvistebaserad och schemalagd tillgång. Fördelningen av dessa överföringsperioder skiljer sig dock från 802.15.3c-metoden, som illustreras i figuren. 1................................................................ Kanalens åtkomsttid i IEEE 802.11ad är uppdelad i fyra intervaller (BI). Varje BI består av signalöverföringsintervallet (BTI), utbildning i föreningsstråleformning (A-BFT), utropsöverföringsintervallet (ATI) och dataöverföringsintervallet (DTI). Under BTI överför styr-/accesspunkten riktningssignaler till varje sektor av det sektorsbaserade nätet. Begäran-respons-baserad överföringstilldelning av reguljära tjänstgöringsperioder (SP) och tvistebaserade tillträdesperioder (CBAP) äger rum i ATI. Slutligen består DTI av en serie SPs och CBAPs under vilka program dataöverföringar sker. Betydelsen av förenligheten mellan IEEE 802.11ad och äldre 802.11 standarder är tydlig. En övergång kommer att vara möjlig mellan det lägre frekvensbandet (2,4/5 GHz) för långdistanskommunikation och det högre frekvensbandet (60 GHz) för kortdistanskommunikation [3]. Det är denna heterogena nätverksstil som kommer att ligga till grund för 5G-infrastrukturen. Båda protokollen som beskrivs här kombinerar CSMA/CA för innehållsbaserad mediumåtkomst och TDMA för regelbunden tjänst, men de skiljer sig åt i fördelningsordningen. I IEEE 802.15.3c skickas CTA-förfrågningarna under en inledande tvistebaserad period (CAP), och CTAP konsumerar merparten av superdatorn med individuella tidsluckor (CTA) som tilldelas för överföring av applikationsdata. Däremot är innehållsbaserade tillträdesperioder (CBAP) och reguljära tjänstgöringsperioder (SP) alternerade i IEEE 802.11ad för att stödja kompatibilitet med äldre 802.11 standarder. Målet med båda metoderna är att maximera nätverksgenomströmningen. Optimering av resursallokering är nyckeln till att maximera nätverksgenomströmningen. En metod för resurstilldelning för flera program är tilldelning av paket till köer, där varje kö har en prioritetsnivå för åtkomst till det trådlösa mediet. Till exempel skulle paketen med en ansökan i realtid med låg latens få högsta prioritet när det gäller att få tillgång till den tillgängliga bandbredden. Dock, även om detta uppnår prioritering mellan programtyper, det tar inte hänsyn till de specifika (och rörliga) kraven för enskilda enheter inom en applikationstyp och hur throughput/QoS kan optimeras genom lämplig schemaläggning av dessa sändningar. Vi anser att både ansökans typ och de specifika individuella tillämpningskraven måste beaktas för optimal resursfördelning. I vårt övervägande av problemet med kanaltidstilldelningsoptimering utnyttjar vi MAC-lagrets struktur av IEEE 802.15.3c och IEEE 802.11ad. Tvisteperioderna används för utbyte av meddelanden om begäran om ankomst- och avgångstider. De tvistfria/planerade serviceperioderna är avsedda för överföring av applikationsdata med definierad QoS. Optimering innebär att hitta den bästa lösningen på ett problem. Matematiskt innebär detta maximering/minimering av en objektiv/nyttofunktion, som kan vara okonstruerad eller underkastad vissa begränsningar på funktionens variabel(er). Typen av nyttofunktionen för multimediaapplikationer bestämmer typen av optimeringsproblem [4]. Klassiskt, resurshanteringslösningar hanterar video som en isolerad applikation i nätverket, vilket löser ett konvext optimeringsproblem. Till exempel, ju högre datahastighet med vilken videon kan överföras, desto bättre kvalitet uppfattas av användaren och därmed högre nytta för användaren. I ett praktiskt nätverk måste dock blandade multimedietillämpningar (t.ex. IPTV, VoIP) serveras tillsammans med video. Verktygsfunktionerna för att beskriva sådana tillämpningar är inte konvexa. Den icke-konvexitet uppstår från oelasticitet i realtid tillämpningar, vilket innebär att ansökan inte förbättrar eller försämrar graciöst som svar på en ökning eller en minskning av tilldelade överföringshastighet [5]. En minskning av datahastigheten under ett visst tröskelvärde leder snarare till en betydande minskning av QoS. Utmaningen för 5G är därför en kombination av att lösa problemet med icke-konvex optimering (från flera applikationer) inom ramen för mmWave-nätverkets begränsningar. Detta inkluderar den praktiska bedömningen av algoritmens utförandetid. Framing resursallokering som ett nätverk verktyg maximization (NUM) problem, implementationen av fyra populära optimeringstekniker jämförs här för deras lösningspotential. Tekniker som lämpar sig för konvexa optimeringsproblem ingår endast för att illustrera skillnaden i attribut för varje teknik, särskilt med avseende på hastigheten för genomförandet av algoritmen. Problemet definieras i Eq. 1. Vad är det för fel på dig? 1 )............................................................................................................ | En korrekt beskrivning och jämförande analys av båda protokollen finns i REF. | 13,412 | Multimedia resource allocation in mmwave 5G networks | {'venue': 'IEEE Communications Magazine', 'journal': 'IEEE Communications Magazine', 'mag_field_of_study': ['Computer Science']} | 9,455 |
Abstrakt. Vi föreslår en ny övervakad inlärningsteknik för att sammanfatta videor genom att automatiskt välja nyckelramar eller viktiga subshots. Att kasta problemet som ett strukturerat förutsägelseproblem på sekventiella data, är vår huvudidé att använda Long Short-Term Memory (LSTM), en speciell typ av återkommande neurala nätverk för att modellera de beroenden av variabelt område som ingår i uppgiften videosammanfattning. Våra inlärningsmodeller uppnår de senaste resultaten på två referensvideodatauppsättningar. Detaljerad analys motiverar utformningen av modellerna. Vi visar särskilt att det är viktigt att ta hänsyn till de sekventiella strukturerna i videor och modellera dem. Förutom framsteg inom modelleringsteknik introducerar vi tekniker för att ta itu med behovet av ett stort antal kommenterade data för utbildning av komplexa inlärningsmodeller. Där är vår huvudidé att utnyttja existensen av kompletterande kommenterade videodataset, om än heterogena i visuella stilar och innehåll. Speciellt visar vi domänanpassningstekniker kan förbättra summeringen genom att minska skillnaderna i statistiska egenskaper mellan dessa datauppsättningar. | Videoanalys och klassificering -Zhang et al. REF föreslår en övervakad inlärningsteknik för att sammanfatta videor genom att automatiskt välja nyckelramar. | 1,305,215 | Video Summarization with Long Short-term Memory | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 9,456 |
Abstract-Samling och analys av olika loggar (t.ex., processloggar, nätverksloggar) är grundläggande aktiviteter inom dator kriminalteknik. Det är därför mycket viktigt att se till att aktivitetsloggarna är säkra för att säkerställa tillförlitliga rättsmedicinska undersökningar. Men på grund av molnens svarta-box natur och flyktighet och sam-ming av molndata, ger molnloggar till utredare samtidigt bevara användarnas integritet och integritet av loggar är utmanande. De nuvarande säkra loggsystem, som anser loggern som betrodd kan inte tillämpas i moln eftersom det finns en chans att molnleverantörer (logger) kollludera med skadliga användare eller utredare att ändra loggarna. I den här artikeln analyserar vi hoten mot molnanvändares aktivitetsloggar med tanke på samverkan mellan molnanvändare, leverantörer och utredare. Baserat på hotmodellen föreslår vi Secure-Llogging-as-a-Service (SecLaaS), som bevarar olika loggar som genereras för aktiviteten hos virtuella maskiner som körs i moln och säkerställer sekretess och integritet för sådana loggar. Undersökare eller domstolsmyndigheten kan endast komma åt dessa loggar genom de RESTful API:er som tillhandahålls av SecLaaS, vilket garanterar sekretess för loggar. Integriteten hos loggarna säkerställs genom hash-chain system och bevis på tidigare loggar publiceras regelbundet av molnleverantörer. I tidigare forskning använde vi två ackumulatorsystem Bloom filter och RSA ackumulator för att bygga bevis på tidigare loggar. I detta dokument föreslår vi ett nytt ackumulatorsystem – Bloom-Tree, som fungerar bättre än de två andra ackumulatorerna när det gäller tids- och rymdbehov. | Ytterligare strategier fokuserar på integriteten av loggar och säkerställa deras integritet genom hash-chain system och bevis på tidigare loggar publiceras regelbundet av molnleverantörerna REF. | 11,878,445 | Towards Building Forensics Enabled Cloud Through Secure Logging-as-a-Service | {'venue': 'IEEE Transactions on Dependable and Secure Computing', 'journal': 'IEEE Transactions on Dependable and Secure Computing', 'mag_field_of_study': ['Computer Science']} | 9,457 |
Uppifrån-och-ned visuell uppmärksamhet mekanismer har använts i stor utsträckning i bildtextning och visuell frågesvar (VQA) för att möjliggöra djupare bildförståelse genom finkornig analys och även flera steg av resonemang. I detta arbete föreslår vi en kombinerad nedifrån-och-upp-övervakningsmekanism som gör det möjligt att beräkna uppmärksamheten på objektnivå och andra framträdande bildregioner. Detta är den naturliga grunden för att man skall kunna ta hänsyn till uppmärksamheten. Inom vår strategi föreslår bottom-up-mekanismen (baserad på Snabbare R-CNN) bildregioner, var och en med en tillhörande vektor, medan top-down-mekanismen bestämmer funktionsviktningar. Genom att tillämpa denna metod för bildtextning skapar våra resultat på MSCOCO:s testserver ett nytt toppmodernt resultat för uppgiften, vilket förbättrar det bäst publicerade resultatet när det gäller CIDER-poäng från 114.7 till 117.9 och BLEU-4 från 35,2 till 36,9. Påvisar den breda tillämpligheten av metoden, tillämpa samma strategi för VQA vi får första plats i 2017 VQA Challenge. | REF visar en nedifrån-och-upp-upp-seende för bildtextning och visuell frågesvar. | 3,753,452 | Bottom-Up and Top-Down Attention for Image Captioning and Visual Question Answering | {'venue': None, 'journal': 'arXiv: Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 9,458 |
Loop transformationer såsom tiling, parallellisering eller vektorisering är viktiga verktyg i sökandet efter högpresterande program exekvering. Exakt databeroende analys krävs för att avgöra om kompilatorn kan tillämpa en transformation eller inte. I synnerhet, aktuella statiska analyser misslyckas normalt med att ge tillräckligt exakt beroendeinformation när koden innehåller indirekta minnesåtkomster eller polynom subscript funktioner index matriser. är leder till att överväga super mödosamma maj-beroenden mellan instruktioner som förhindrar många loop transformationer som ska tillämpas. I detta arbete presenterar vi en ny hybrid (statisk/dynamisk) ram som gör det möjligt att övervinna flera begränsningar av rent statiska beroendeanalyser: För en given loopomvandling genererar vi statiskt ett test som ska utvärderas i körtid. Testet gör det möjligt att avgöra om omvandlingen är giltig och i så fall utlöser verkställandet av den omvandlade koden och återgår till den ursprungliga koden på annat sätt. Sådana tester, ursprungligen konstruerade som en loopbaserad kod med O (n 2 ) iterationer (n är antalet iterationer av den ursprungliga loop-nest), reduceras till en loop-fri test av O (1) komplexitet tack vare ett nytt kvanti er elimineringsschema som vi inför i detta dokument. E precision och låga omkostnader av vår metod demonstreras över 25 kärnor. •Computing metodik →Symbolic och algebraic algoritmer; •Så ware och dess konstruktion →Compilers; | Mycket nyligen, Sampaio et al. I REF föreslogs att man skulle använda en komplex hybridram (statisk och dynamisk) för att övervinna begränsningarna med rent statiska beroendeanalyser. | 10,626,730 | Simplification and runtime resolution of data dependence constraints for loop transformations | {'venue': "ICS '17", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,459 |
Vi föreslår en variation av SO-PMI algoritm för japanska, för användning i Weblog Opinion Mining. SO-PMI är en oövervakad metod som föreslagits av Turney som har visat sig fungera bra för engelska. Vi använde först SO-PMI algoritmen på japanska på ett sätt som mycket liknar Turneys ursprungliga idé. Resultatet av denna prövning var starkt inriktat på positiva uppfattningar. Vi utvidgade sedan referensorden till att vara uppsättningar av ord, försökte införa en balanserande faktor och upptäcka neutrala uttryck. Efter dessa ändringar uppnådde vi ett välbalanserat resultat: både positiv och negativ noggrannhet översteg 70 procent. Detta visar att vårt föreslagna tillvägagångssätt inte bara anpassade SO-PMI för japanska, utan också modifierade det för att analysera japanska åsikter mer effektivt. | Wang och Araki REF föreslog en variant av Semantic Orientation-PMI algoritm för japanska för gruv åsikt i webbloggar. | 9,639,365 | Modifying SO-PMI for Japanese Weblog Opinion Mining by Using a Balancing Factor and Detecting Neutral Expressions | {'venue': 'Human Language Technologies 2007: The Conference of the North American Chapter of the Association for Computational Linguistics; Companion Volume, Short Papers', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,460 |
Ett avgörande steg mot målet att automatiskt ta fram propositionsinformation från naturlig språktext är identifieringen av semantiska relationer mellan beståndsdelar i meningar. Vi undersöker problemet med att skilja mellan sju relationstyper som kan uppstå mellan enheterna "behandling" och "sjukdom" i biovetenskap text, och problemet med att identifiera sådana enheter. Vi jämför fem generativa grafiska modeller och ett neuralt nätverk, med hjälp av lexical, syntaktic, och semantiska funktioner, finner att den senare bidrar till att uppnå hög klassificering noggrannhet. | Rosario och Hearst använder neurala nätverk med hjälp av lexikala, syntaktiska och semantiska egenskaper för att skilja sju relationer mellan enheter "sjukdom" och "behandling" REF. | 270,818 | Classifying Semantic Relations In Bioscience Texts | {'venue': 'Annual Meeting Of The Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,461 |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.