src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
Abstract-This paper handlar om att bedöma den inverkan som schemaläggning kan ha på prestanda halvledare wafer fabricering anläggningar. Den prestandamått som beaktas här är den genomsnittliga genomströmningstiden (ibland kallad cykeltid, vändningstid eller tillverkningsintervall) för en hel del plattor. En mängd regler för indatakontroll och sekvensering utvärderas med hjälp av en simuleringsmodell av en representativ men fiktiv halvledare wafer fab. Vissa av dessa schemaläggningsregler härleds genom att begränsa uppmärksamheten till den delmängd av stationer som är kraftigt utnyttjade, och med hjälp av en Brownsk nätverksmodell, som approximerar en flerklassig könätverksmodell med dynamisk kontrollkapacitet. Tre versioner av wafer fab modellen studeras, som skiljer sig endast med antalet servrar som finns på vissa stationer. De tre versionerna har en, två och fyra stationer, respektive, som är kraftigt utnyttjade (nära 90-procent utnyttjande). Simuleringsresultaten visar att schemaläggningen har en betydande inverkan på genomsnittlig genomströmningstid, med större förbättringar som härrör från diskretionär indatakontroll än från partisekvensering. De effekter som specifika sekvenseringsregler har beror i hög grad på både vilken typ av inmatningskontroll som används och antalet flaskhalsstationer i fab.
Tekniker som används för jobb schemaläggning har en betydande inverkan på prestanda halvledare wafer fabricering REF.
13,948,402
Scheduling semiconductor wafer fabrication
{'venue': None, 'journal': 'IEEE Transactions on Semiconductor Manufacturing', 'mag_field_of_study': ['Engineering']}
1,940
Problemet med personsökning är att bestämma vilka sidor som ska behållas i ett minne av k-sidor för att minimera antalet sidfel. Vi utvecklar märkningsalgoritmen, en randomiserad onlinealgoritm för personsökningsproblemet. Vi bevisar att dess förväntade kostnad på någon sekvens av förfrågningar ligger inom en faktor på 2H k av optimal. (Där H k är den kth harmoniska tal, vilket är ungefär ln k.) Den bästa sådan faktor som kan uppnås är H k. Detta är i motsats till deterministiska algoritmer, som inte kan garanteras att vara inom en faktor mindre än k av optimal. Ett alternativ till att jämföra en online-algoritm med den optimala offline-algoritmen är att jämföra den med flera andra online-algoritmer. Vi har uppnått resultat i denna riktning för problemet med personsökning. Med tanke på en uppsättning online-algoritmer och en uppsättning lämpliga konstanter beskriver vi ett sätt att konstruera en annan online-algoritm vars prestanda ligger inom den lämpliga konstanta faktorn för varje algoritm i uppsättningen.
Fiat m.fl. REF visade att randomiserade ersättningsalgoritmer är minst H k - kompetitiva, där H k är kth harmoniska tal.
3,260,905
Competitive Paging Algorithms
{'venue': 'Journal of Algorithms 12:685-699 (1991)', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,941
Kodgenerering kartlägger en programbeskrivning till körbar källkod på ett programmeringsspråk. Befintliga metoder är huvudsakligen beroende av ett återkommande neuralt nätverk (RNN) som dekoder. Vi finner dock att ett program innehåller betydligt fler polletter än ett naturligt språk mening, och därmed kan det vara olämpligt för RNN att fånga en sådan lång sekvens. I detta dokument föreslår vi ett grammatikbaserat strukturellt konvolutionellt neuralt nätverk (CNN) för kodgenerering. Vår modell genererar ett program genom att förutsäga grammatiska regler för programmeringsspråket; vi utformar flera CNN-moduler, inklusive den trädbaserade konvolutionen och pre-order konvolutionen, vars information ytterligare aggregeras genom dedikerade uppmärksamma poolning lager. Experimentella resultat på HearthStone-riktmärkesdata visar att vår CNN-kodgenerator avsevärt överträffar den tidigare toppmoderna metoden med 5 procentenheter; ytterligare experiment på flera semantiska tolkningsuppgifter visar att vår modell är robust. Vi utför också djupgående ablationstest för att bättre förstå varje komponent i vår modell.
Ref hävdade att traditionella RNN kanske inte skulle klara av det långa beroendeproblemet, och de föreslog ett grammatikbaserat strukturellt CNN.
53,670,269
A Grammar-Based Structural CNN Decoder for Code Generation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
1,942
Detektion av intrång i nätet är problemet med att upptäcka onormala nätverksanslutningar som orsakas av påträngande aktiviteter. Många system för att upptäcka intrång som föreslagits innan man använder både normal- och intrångsdata för att bygga sina klassificeringar. Intrångsdata är dock vanligtvis knappa och svåra att samla in. Vi föreslår att man löser detta problem med hjälp av en ny detekteringsmetod. Framför allt föreslår vi en icke-parametrisk metod för att beräkna densiteten baserad på uppgifter från Cup 1999. Vårt system jämförs positivt med KDD Cup-vinnaren som bygger på en ensemble av beslutsträd med påsade booster, eftersom vårt system inte använder några intrångsdata alls och mycket mindre normal data för träning.
REF observerade en icke-parametrisk uppskattning av densiteten, baserad på skattningar av parzenfönster med Gaussiska kärnor.
8,888,994
Parzen-window network intrusion detectors
{'venue': 'Object recognition supported by user interaction for service robots', 'journal': 'Object recognition supported by user interaction for service robots', 'mag_field_of_study': ['Computer Science']}
1,943
Den kritiska karaktären hos många komplexa mjukvaruintensiva system kräver formella, rigorösa arkitekturbeskrivningar som ett sätt att stödja automatisk verifiering och upprätthållande av arkitektoniska egenskaper och begränsningar. Modellkontroll har varit en av de mest använda teknikerna för att automatiskt verifiera programvaruarkitekturer med avseende på tillfredsställelsen av arkitektoniska egenskaper. Men en sådan teknik leder till en uttömmande undersökning av alla möjliga tillstånd i systemet, ett problem som blir svårare när verifiera dynamiska mjukvarusystem på grund av deras typiska icke-deterministiska körtid beteende och oförutsägbara driftsförhållanden. För att ta itu med dessa frågor föreslår vi att man använder statistisk modellkontroll (SMC) för att stödja verifieringen av dynamiska programvaruarkitekturer, samtidigt som man strävar efter att minska de beräkningsresurser och den tid som krävs för denna uppgift. I detta dokument introducerar vi en ny notation till formellt uttrycka arkitektoniska egenskaper samt en SMC-baserad verktygskedja för att verifiera dynamiska programvaruarkitekturer som beskrivs i π-ADL, ett formellt arkitekturbeskrivningsspråk. Vi använder ett system för övervakning av översvämningar för att visa hur man uttrycker relevanta egenskaper som ska verifieras. Vi rapporterar också resultaten av vissa beräkningsförsök som utförts för att bedöma effektiviteten i vårt tillvägagångssätt.
För kontroll av överensstämmelsen hos en dynamisk programvaruarkitektur, Cavalcante et al. I REF föreslås en statistisk modellkontroll (SMC).
31,993,084
Statistical Model Checking of Dynamic Software Architectures
{'venue': 'ECSA', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,944
Abstrakt. Intrång upptäckt är ett övervakningsproblem av praktisk import som är väl lämpad för trådlösa sensornätverk. I detta dokument studerar vi tillämpningen av sensornätverk på problemet med intrångsdetektering och de relaterade problemen med att klassificera och spåra mål. Vårt tillvägagångssätt bygger på ett tätt, distribuerat, trådlöst nätverk av multimodala resursfattiga sensorer kombinerade i löst sammanhängande sensorsystem som utför in situ-detektering, uppskattning, komprimering och exfiltration. Vi grundar vår studie i ett säkerhetsscenario kallat "A Line in the Sand" och definierar därmed mål, system, miljö och felmodeller. Baserat på prestandakraven i scenariot och sensornätverkets avkänning, kommunikation, energi och beräkningsförmåga utforskar vi designutrymmet för sensorer, signalbehandlingsalgoritmer, kommunikation, nätverk och mellanprogram. Vi introducerar influensfältet, som kan uppskattas från ett nätverk av binära sensorer, som grund för en ny klassificering. Ett bidrag av vårt arbete är att vi inte antar ett pålitligt nätverk; tvärtom analyserar vi kvantitativt effekterna av nätverkets otillförlitlighet på applikationens prestanda. Vårt arbete omfattar flera experimentella utplaceringar av över 90 sensorer noder vid MacDill Air Force Base i Tampa, Florida, samt andra fältexperiment av jämförbar skala. Baserat på dessa erfarenheter, identifierar vi en uppsättning nyckellektioner och artikulera några av de utmaningar som står inför extrem skalning till tiotusentals eller hundratusentals sensornoder.
I REF, Arora et al. studerade problem med att upptäcka och spåra föremål med hjälp av trådlösa sensornätverk.
6,279,302
A line in the sand: A wireless sensor network for target detection, classification, and tracking
{'venue': 'Computer Networks', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,945
Vi är intresserade av mekanismer som maximerar den sociala välfärden. Under [1] undersöktes detta problem för auktioner för flera enheter med budgivare för enhetsefterfrågan och för det offentliga projektproblemet, och i varje enskilt fall identifierades mekanismer för social välfärd i den klass av genomförbara och incitamentskompatibla mekanismer. Ett sätt att förbättra dessa optimala resultat är genom att tillåta spelarna att röra sig sekventiellt. Med detta i åtanke studerar vi här sekventiella versioner av två genomförbara Groves mekanismer som används för enstaka objekt auktioner: Vickrey auktionen och Bailey-Cavallo mekanismen. På grund av avsaknaden av dominerande strategier i detta sekventiella sammanhang fokuserar vi på ett svagare koncept för en optimal strategi. För varje mekanism introducerar vi naturliga optimala strategier och observerar att dessa strategier uppvisar olika beteenden i varje mekanism. Men vi visar sedan att bland alla optimala strategier, den som vi introducerar för varje mekanism maximerar den sociala välfärden när varje spelare följer den. Den sociala välfärden kan bli större än den som uppnås samtidigt. Slutligen visar vi att vid tolkningen av båda mekanismerna som samtidiga, vektorer av de föreslagna strategierna bildar en Pareto optimal Nash jämvikt i klassen av optimala strategier.
Slutligen genomförde vi i ett nyligen utfört arbete, REF, en liknande analys för två genomförbara Groves-mekanismer som används för auktioner med en enda post: Vickrey-auktionen och Bailey-Cavallo-mekanismen.
16,389,886
Optimal Strategies in Sequential Bidding
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
1,946
Guldstandardmetoden för tredimensionell rekonstruktion och kameralokalisering från en uppsättning bilder är känd för att vara Bundle Adjustment (BA). Även om BA i åratal betraktades som en kostsam metod begränsad till offline-domänen, blomstrade flera realtidsalgoritmer baserade på BA under det senaste årtiondet. Dessa algoritmer var dock begränsade till att utföra SLAM i små scener eller endast Visual Odometrie. I detta arbete byggde vi på utmärkta algoritmer från de senaste åren för att designa från grunden ett monokulärt SLAM-system som fungerar i realtid, i små och stora, inomhus- och utomhusmiljöer, med möjlighet till bred utgångsslinga stängning och omlokalisering, inklusive fullständig automatisk initiering. Vår överlevnad av den starkaste metoden att välja punkter och nyckelramar för återuppbyggnaden genererar en kompakt och spårbar karta som bara växer om scenens innehåll ändras, förbättra livslång drift. Vi presenterar en uttömmande utvärdering i 27 sekvenser från de mest populära dataset som uppnår oöverträffad prestanda med en typisk lokalisering noggrannhet från 0,2% till 1% av banan dimension i scener från ett skrivbord till flera stadsblock. Vi offentliggör ett ROS genomförande.
Mur-Artal m.fl. REF föreslog ett funktionsbaserat monokulärt ORB-SLAM-system, som valde poäng och nyckelramar för rekonstruktion och fick en utmärkt prestanda.
206,775,100
ORB-SLAM: a Versatile and Accurate Monocular SLAM System
{'venue': 'IEEE Transactions on Robotics', 'journal': 'IEEE Transactions on Robotics', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
1,947
Abstract-The distorsion i steganografi som vanligtvis kommer från modifieringen eller omkodning på omslaget bilden under inbäddningsprocessen lämnar steganalyzer med möjlighet att diskriminera. Inför en sådan risk föreslår vi generativ steganografi med Kerckhoffs princip (GSK) i detta brev. I GSK genereras de hemliga meddelandena av en omslagsbild med hjälp av en generator snarare än inbäddad i omslaget, vilket resulterar i inga ändringar i omslaget. För att säkerställa säkerheten utbildas generatorerna för att uppfylla Kerckhoffs princip baserad på generativa kontradiktoriska nätverk (GAN). Allt om GSK-systemet, förutom extraktionsnyckeln, är allmän kunskap för mottagarna. De hemliga meddelandena kan matas ut av generatorn om och endast om utdragsnyckeln och omslagsbilden båda matas in. I generatorutbildningsprocedurerna finns två GAN, Message-Gan och Cover-Gan, utformade för att gemensamt arbeta med att göra de genererade resultaten under kontroll av extraktionsnyckeln och omslagsbilden. Vi ger experimentella resultat på utbildningsprocessen och ger ett exempel på arbetsprocessen genom att anta en generator utbildad på MNIST, som visar att GSK kan använda en omslagsbild utan någon ändring för att generera meddelanden, och utan extraktionsnyckeln eller omslagsbilden, skulle endast meningslösa resultat uppnås.
- Ke et al. - Vad är det? Ref föreslog först en generativ steganografimetod som kallas GSK, där de hemliga meddelandena är inbäddade i en genererad omslagsbild snarare än ett befintligt omslag, vilket resulterar i inga ändringar i omslaget.
1,690,568
Generative Steganography with Kerckhoffs' Principle based on Generative Adversarial Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
1,948
Det har alltid varit svårt att genomföra kostnads-nyttoanalyser av arkitektoniska attribut som säkerhet, eftersom fördelarna är svåra att bedöma. Specialister fattar vanligtvis säkerhetsbeslut, men programchefer lämnas undrar om deras investering i säkerhet är väl spenderade. I detta dokument sammanfattas resultaten av att använda en kostnads-nyttoanalysmetod kallad SAEM för att jämföra alternativa säkerhetskonstruktioner i ett finansiellt informationssystem. Den fallstudie som presenteras i detta dokument inleds med en multiattributriskbedömning som resulterar i en prioriterad risklista. Säkerhetsspecialister uppskattar fördelarna med motåtgärder och hur organisationens risker minskas. Med hjälp av SAEM jämförs säkerhetsdesignalternativ med organisationens nuvarande val av säkerhetsteknik för att se om en mer kostnadseffektiv lösning är möjlig. Målet med att använda SAEM är att hjälpa intressenterna i informationssystemet att avgöra om deras säkerhetsinvesteringar är förenliga med de förväntade riskerna. IT-chefer är motiverade att minimera säkerhetskostnaderna men maximera säkerhetsvinsterna. Det är betydligt enklare att jämföra kostnader mellan alternativa säkerhetsarkitekturer än att jämföra fördelar, eftersom beprövade finansiella analysverktyg mer exakt kan uppskatta kostnaderna. Fördelarna grundar sig däremot på osäkra händelser och ofullständig kunskap. Även om ingen exakt kan förutsäga hur ofta en attack kommer att inträffa och hur effektivt säkerheten kommer att minska skadorna, erfarna säkerhetsansvariga intuitivt, och implicit, uppskatta risken och effektiviteten i deras riskreducerande strategier. Nyckeln till säkerhetskostnads-nyttoanalyser är att göra dessa intuitioner explicita. Förutom svårigheterna med att uppskatta risken är det svårt att jämföra alternativa konstruktioner eftersom konstruktionens styrka är beroende av en avspänd anslutning till säkerhetstekniska designprinciper. Till exempel, säkerhets chefer brukar anta en försiktighetsstrategi för säkerhetsteknik. Säkerhetsarkitekturer som har minst en begränsningsstrategi för varje risk är vanligtvis att föredra framför de som lämnar luckor för sällan förväntade attacker. Förenklade kostnads-nyttoanalyser kommer att ha svårt att visa ekonomiska skäl för sällsynta händelser. I detta dokument presenteras metoden Security Attribut Evaluation Method (SAEM) och resultaten av att använda denna metod för att jämföra alternativa säkerhetsutformningar för en ideell organisations finansiella och redovisningssystem. SAEM är en kostnads-nyttoanalysprocess för att analysera beslut om säkerhetsutformning som omfattar fyra steg: 1) en bedömning av säkerhetsteknikens nytta, 2) en utvärdering av säkerhetsteknikens effekt för att minska riskerna, 3) en täckningsbedömning och 4) en kostnadsanalys. Steg 3 och 4 kan göras parallellt. SAEM bygger på en kvantitativ risk- och nyttabedömning där en analytiker eller utredare genomför strukturerade intervjuer med IT- och säkerhetsansvariga för att få fram de ursprungliga uppgifterna. Organisationen granskar noggrant resultaten av varje steg innan den fortsätter till nästa steg. Om resultaten inte verkar representera chefernas oro eller erfarenhet, då cheferna kan revidera de ursprungliga indata och antaganden. Strategier för att minska riskerna omfattar förfaranden och säkerhetsteknik. Som presenteras i detta dokument utvärderar SAEM endast valet av teknikdesign, inte riskreducerande förfaranden. Även om SAEM kunde utvidgas till att omfatta förfaranden som en del av bedömningen, tenderar dessa förfaranden att vara organisation 232 specifika och SAEM ursprungligen utformades för att användas över organisationer. För närvarande utvecklar jag SAEM i samarbete med säkerhetsansvariga för verkliga system. Förutom ekonomi- och redovisningssystemet använder jag också SAEM för att utvärdera ett statligt e-handelssystem och ett Department of Defense web-baserat logistiksystem. I avsnitt 2 bedöms den nuvarande praxisen för utveckling av säkerhetsarkitektur. I avsnitt 3 läggs grunden för metoden för utvärdering av säkerhetsattribut med en riskbedömning med flera attribut. I avsnittet presenteras en kort beskrivning av multiattributriskbedömningsmetoden, som användes för att prioritera organisationens risker baserat på säkerhetschefens uppskattning av anfallsfrekvenser och potentiella utfall. I avsnitt 4 beskrivs SAEM och presenteras ett exempel på hur SAEM skulle kunna användas för att välja den mest kostnadseffektiva säkerhetstekniken bland tre alternativ. I avsnitt 5 visas resultaten av känslighetsanalysen av de första resultaten och i avsnitt 6 rapporter om återkopplingen från fallstudieklienter. Slutligen diskuteras det framtida arbetet i avsnitt 7. SAEM är beroende av en riskbedömning och en inledande bedömning av säkerhetsteknikens effektivitet. Dessa bedömningar beror på flera antaganden, såsom: att organisationen har etablerat säkerhetsprinciper och förfaranden som är tillräckliga och robusta för verksamheten; att säkerhetsprodukter har installerats korrekt, konfigurerats och underhållits; Att attacker resulterar i förutsägbara utfall och avvikelser. Dessa bedömningar kommer att variera mellan säkerhetsansvariga baserat på deras erfarenhet, expertis och informationssystemmiljö [7]. SAEM tillhandahåller en ram för att analysera hur deras antaganden påverkar designbeslut och en mekanism för att avgöra hur känsliga dessa beslut är för antagandena. Även om man kan argumentera med de uppskattningar som presenteras i detta dokument, de representerar en erfaren säkerhetsansvarigs bästa uppskattningar. Utveckla och
Butler REF föreslår en SAEM-metod som är en kostnads-nyttoanalysprocess för att analysera beslut om säkerhetsdesign utifrån en jämförelse av ett "hotindex".
195,861,036
Security attribute evaluation method: a cost-benefit approach
{'venue': 'Proceedings of the 24th International Conference on Software Engineering. ICSE 2002', 'journal': 'Proceedings of the 24th International Conference on Software Engineering. ICSE 2002', 'mag_field_of_study': ['Computer Science']}
1,949
Nya framsteg i djupa neurala nätverk för grafstrukturerade data har lett till state-of-the-art prestanda på rekommendationssystem riktmärken. Men att göra dessa metoder praktiska och skalbara till webscale rekommendation uppgifter med miljarder objekt och hundratals miljoner användare är fortfarande en utmaning. Här beskriver vi en storskalig djuprekommendationsmotor som vi utvecklade och använde på Pinterest. Vi utvecklar en dataeffektiv Graph Convolutional Network (GCN) algoritm PinSage, som kombinerar effektiva slumpmässiga promenader och grafkonvolutioner för att generera inbäddningar av noder (dvs. objekt) som innehåller både grafstruktur samt nodfunktionsinformation. Jämfört med tidigare GCN-strategier utvecklar vi en ny metod baserad på högeffektiva slumpmässiga promenader för att strukturera konvolutionerna och utforma en ny utbildningsstrategi som bygger på hårdare och hårdare utbildningsexempel för att förbättra modellens robusthet och konvergens. Vi distribuerar PinSage på Pinterest och utbildar det på 7,5 miljarder exempel på en graf med 3 miljarder noder som representerar stift och brädor, och 18 miljarder kanter. Enligt offline-mått, användarstudier och A/B-tester genererar PinSage rekommendationer av högre kvalitet än jämförbara djupinlärningsalternativ och grafbaserade alternativ. Enligt vår kunskap är detta den största tillämpningen av djup graf inbäddningar hittills och banar väg för en ny generation av web-scale recommender system baserade på graf convolutional arkitekturer.
Detta beslut träder i kraft dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. I REF infördes grafkonvolution till webscale-rekommendation.
46,949,657
Graph Convolutional Neural Networks for Web-Scale Recommender Systems
{'venue': None, 'journal': 'Proceedings of the 24th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
1,950
Maskininlärning modeller är sårbara för kontradiktoriska exempel, indata illvilligt störd för att vilseleda modellen. Dessa ingångar överför mellan modeller, vilket möjliggör Black-box attacker mot utplacerade modeller. Motståndsträning ökar robustheten mot attacker genom att ge kontradiktoriska exempel på träningsdata. Förvånansvärt nog finner vi att även om de kontradiktoriskt utbildade modellerna uppvisar en stark robusthet i vissa white-box-attacker (dvs. med kunskap om modellparametrarna), är de fortfarande mycket sårbara för överförda kontradiktoriska exempel gjorda på andra modeller. Vi visar att orsaken till denna sårbarhet är modellens beslutsyta som uppvisar skarp krökning i närheten av datapunkterna, vilket hindrar attacker baserade på första ordningens approximationer av modellens förlust, men tillåter svart-box attacker som använder kontradiktoriska exempel överförs från en annan modell. Vi utnyttjar denna observation på två sätt: För det första föreslår vi en enkel men kraftfull ny attack som först tillämpar en liten slumpmässig perturbation på en ingång, innan vi hittar den optimala perturbationen under en första ordningen approximation. Vår attack överträffar tidigare "enstegs" attacker på modeller tränade med eller utan kontradiktorisk träning. För det andra föreslår vi Ensemble Adversarial Training, en förlängning av den kontradiktoriska utbildningen som dessutom utökar träningsdata med perturbed-ingångar som överförs från ett antal fasta förtränade modeller. På MNIST och ImageNet förbättrar ensembleträningen avsevärt robustheten mot attacker i svarta boxar.
Ensemble adversarial training REF utökar träningsdata med kontradiktoriska exempel som genereras på andra förtränade modeller.
21,946,795
Ensemble Adversarial Training: Attacks and Defenses
{'venue': 'International Conference on Learning Representations (ICLR) 2018', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
1,951
Sammanfattning av denna webbsida: Fjärranalysbilder har använts inom många områden, såsom stadsplanering, militär och miljöövervakning, men korruption genom stripebuller begränsar dess efterföljande tillämpningar. De flesta befintliga randbuller borttagning (detriping) metoder syftar till att direkt uppskatta de tydliga bilderna från rand bilder utan att ta hänsyn till de inneboende egenskaperna hos rand buller, vilket orsakar bildstrukturen förstörd. I detta dokument föreslår vi en ny destrieringsmetod ur bildnedbrytningsperspektivet, som tar hänsyn till de inneboende egenskaperna hos stripebuller och bildegenskaper. Den föreslagna metoden integrerar enkelriktad total variation (TV) regularisering, grupp sparity regularization, och TV regularisering tillsammans i en bild sönderdelning ram. De två första termerna används för att utnyttja stripe buller egenskaper genom att genomföra statistisk analys, och TV legalisering antas för att utforska den rumsliga bitvis slät struktur randfri bild. Dessutom är ett effektivt alternerande minimeringssystem utformat för att lösa den föreslagna modellen. Omfattande experiment på simulerade och verkliga data visar att vår metod överträffar flera befintliga state-of-the-art destriping metoder i termer av både kvantitativa och kvalitativa bedömningar.
Genom att ta hänsyn till de inneboende egenskaperna hos randens buller och bildegenskaper, integrerade Chen Ref den enkelriktade TV-reglering, grupp gleshet legalisering, och TV-reglering tillsammans i en bild sönderdelning ram och tog bort randen buller genom sin statistiska analys.
32,726,847
Stripe noise removal of remote sensing images by total variation regularization and group sparsity constraint
{'venue': 'Remote Sensing', 'journal': 'Remote Sensing', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
1,952
Ett växande arbete har lyft fram utmaningarna med att identifiera en talares inställning till ett visst ämne, en uppgift som innebär att identifiera en holistisk subjektiv läggning. Vi undersöker positionsklassificering på en corpus av 4873 inlägg över 14 ämnen på ConvinceMe.net, allt från lekfulla till ideologiska. Vi visar att ideologiska debatter har en större andel motposter, och att motposter är betydligt svårare att klassificera för ställningstagande, för både människor och utbildade klassifierare. Vi visar också att antalet subjektiva uttryck varierar mellan debatterna, ett faktum som korrelerar med prestandan hos system som är känsliga för känslosamma termer. Vi presenterar resultat för att identifiera motbevis med 63% noggrannhet, och för att identifiera positioner per ämne som varierar från 54% till 69%, jämfört med unigram baslinjer som varierar mellan 49% och 60%. Våra resultat tyder på att metoder som tar hänsyn till den dialogiska kontexten för sådana tjänster kan vara givande.
REF klassificerat ställningstagande för ett antal tjänster inom ett brett spektrum av ämnen.
2,300,698
Cats Rule and Dogs Drool!: Classifying Stance in Online Debate
{'venue': 'Proceedings of the 2nd Workshop on Computational Approaches to Subjectivity and Sentiment Analysis (WASSA 2.011)', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,953
Abstract-This paper studys a wireless-energy-transfer (WET) enabled massiv multi-input-multiple-output (MIMO) system (MM) bestående av en hybrid data-and energy access point (H-AP) och flera singelantenn användare. I WET-MM systemet är H-AP utrustad med ett stort antal M antenner och funktioner som en konventionell AP för att ta emot data från användare, men dessutom levererar trådlös kraft till användarna. Vi överväger rambaserade sändningar. Varje ram är uppdelad i tre faser: upplänkkanalens estimeringsfas (CE), nedlänkens WET-fas samt upplänkens trådlösa informationsöverföringsfas (WIT). För det första använder användarna en bråkdel av den tidigare avverkade energin för att skicka piloter, medan H-AP uppskattar upplänkskanalerna och får nedlänkskanalerna genom att utnyttja kanalens ömsesidighet. Därefter använder H-AP kanalen uppskattningar som just erhållits för att överföra trådlös energi till alla användare i nedlänken via energi strålformning. Slutligen använder användarna en del av den skördade energin för att skicka data till H-AP samtidigt i upplänken (reservera viss skördad energi för att skicka piloter i nästa ram). För att optimera genomströmningen och säkerställa rättvisa priser, anser vi att problemet med att maximera minimihastigheten bland alla användare. I den stora M-regimen får vi de asymptotiskt optimala lösningarna och några intressanta insikter för optimal design av WET-MM-systemet.
Trådlös energiöverföring med hjälp av massiv MIMO ansågs i REF, där upplänk kanaler uppskattades och upplänkhastigheten för den värsta användaren var maximerad.
17,737,815
Throughput Optimization for Massive MIMO Systems Powered by Wireless Energy Transfer
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
1,954
En distribuerad gemensam routing- och spektrumdelningsalgoritm för videoströmningstillämpningar över kognitiva ad hoc-nätverk föreslås i denna artikel. Det föreslagna kontrollsystemet över lager fördelar dynamiskt rutter, spektrum och kraft för att maximera nätgenomströmningen under de begränsningar som uppstår till följd av fördröjningskänsliga videoapplikationer. Algoritmen utvärderar den förväntade fördröjningen av konkurrerande flöden i enhops- och tvåhopsnätverk med tanke på tidsvariationerna i spektrumets tillstånd och beläggning, trafikegenskaper och köernas tillstånd vid mellanliggande noder. Simuleringsresultat visar att den föreslagna algoritmen avsevärt minskar paketförlusten och förbättrar det genomsnittliga förhållandet mellan toppsignal och buller (PSNR) för de mottagna videoströmmarna.
I REF föreslås en algoritm för att utvärdera den förväntade fördröjningen av konkurrerande flöden i en-hop-nätverk och två-hop-nätverk med beaktande av det tidsvarierande spektrumets tillstånd och beläggning, trafikegenskaper och köernas tillstånd vid mellanliggande noder.
1,702,540
Distributed Spectrum Sharing for Video Streaming in Cognitive Radio Ad Hoc Networks
{'venue': 'ADHOCNETS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,955
Språkligt lärande gör att vi kan använda utbildningsdata från ett språk för att bygga modeller för ett annat språk. Många tillvägagångssätt till tvåspråkigt lärande kräver att vi har ord-nivå anpassning av meningar från parallell corpora. I detta arbete utforskar vi användningen av autoencoder-baserade metoder för språköverskridande inlärning av vektoriska ord representationer som är i linje mellan två språk, utan att förlita sig på ordnivå anpassningar. Vi visar att vi genom att helt enkelt lära oss att rekonstruera bag-of-words representationer av anpassade meningar, inom och mellan språk, faktiskt kan lära oss högkvalitativa representationer och göra utan ord anpassningar. Eftersom utbildningen autokodare på ordobservationer presenterar vissa beräkningsfrågor, föreslår och jämför vi olika variationer anpassade till denna inställning. Vi föreslår också en explicit korrelation maximera regularizer som leder till betydande förbättringar i prestanda. Vi undersöker empiriskt framgången med vår strategi när det gäller problemet med gränsöverskridande testklassificering, där en klassiator som är utbildad på ett visst språk (t.ex. engelska) måste lära sig att generalisera till ett annat språk (t.ex. tyska). Dessa experiment visar att våra strategier är konkurrenskraftiga med den senaste tekniken och att vi uppnår upp till 10-14 procentenheters förbättringar jämfört med de bästa rapporterade resultaten av denna uppgift.
Till exempel, autoencoder utvidgas till en tvåspråkig version BAE i REF som lär vektoriska ord representationer från anpassade meningar.
217,774
An Autoencoder Approach to Learning Bilingual Word Representations
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
1,956
Abstrakt. Dynamiskt maskinskrivna objektorienterade språk gör det möjligt för programmerare att skriva eleganta, återanvändbara och extensible program. Med den nuvarande metoden för programverifiering skapar dock avsaknaden av statisk typinformation betydande omkostnader. Vårt förslag är tvåfaldigt: För det första föreslår vi en abstraktion som döljer komplexiteten i dynamisk maskinskrivning när den förses med tillräcklig typinformation. Eftersom detta i huvudsak skapar illusionen att verifiera ett statiskt-typat program, är den ansträngning som krävs likvärdig med det statiskt-typade fallet. För det andra visar vi hur den begärda typinformationen effektivt kan härledas för alla typsäkra program genom att integrera en type inference algoritm i Hoare logik, vilket ger en semi-automatisk procedur så att användaren kan fokusera på de skrivproblem som verkligen kräver hans uppmärksamhet. Samtidigt som det är en väletablerad metod att tillämpa typinferens på dynamiskt maskinskrivna program, kompletterar vårt tillvägagångssätt konventionella mjuka maskinskrivningssystem genom att erbjuda formella bevis som ett tredje alternativ förutom att ändra programmet (statisk maskinskrivning) och acceptera förekomsten av körtidsfel (dynamisk maskinskrivning).
Dessutom utvecklade författarna i tidigare arbete REF en teknik för att minska arbetet med att verifiera ett dynamiskt typat program till nivån för att verifiera en likvärdig statiskt typad program.
14,422,834
Closing the Gap -- Formally Verifying Dynamically Typed Programs like Statically Typed Ones Using Hoare Logic -- Extended Version --
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
1,957
Tekniska framsteg inom mikroelektronik och telekommunikation möjliggör existensen av små datorenheter, mycket små och mer effektiva. Inom ramen för dessa nya tekniker har trådlösa Sensor Networks (WSN) dykt upp. Det huvudsakliga forskningsmålet inom WSN-området är utveckling av algoritmer och protokoll som säkerställer minimal energiförbrukning. De flesta föreslagna lösningar är baserade på en lager stack modell. Nyligen har andra verk en tendens att utnyttja många lager tillsammans för att optimera energiförbrukningen. I detta dokument föreslår vi en Cross-Layer Medium Access Control (CL-MAC) protokoll med hjälp av två angränsande skikt (MAC och Network) för att spara energi för WSN. Den grundläggande idén bakom vårt protokoll är att väcka upp endast noder som tillhör en routing väg från källan till basstationen (Sink) genom att utnyttja routing information medan andra noder lämnar upprätthålls så lång tid som möjligt i ett viloläge. Protokollet är modellerat med hjälp av en tid Petri nät och valideras av TiNA verktyg. Simuleringsresultaten visar hur effektivt vårt förslag är när det gäller energiförbrukning och latens.
I REF föreslås ett adaptivt MAC-protokoll för WSN när det gäller energieffektivitet.
5,886,004
Energy efficient cross-layer MAC protocol for wireless sensor networks
{'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,958
I videokompression, de flesta av de befintliga djupinlärning närmar sig koncentrera sig på den visuella kvaliteten på en enda ram, samtidigt som man ignorerar användbara tidigare såväl som temporal information av angränsande ramar. I detta dokument föreslår vi ett flerramsstyrt uppmärksamhetsnätverk (MGANet) för att förbättra kvaliteten på komprimerade videor. Vårt nätverk består av en temporal kodare som upptäcker interframe relationer, en guidad kodare-dekoder subnet som kodar och förbättrar de visuella mönster mål-ram, och en multi-övervakad rekonstruktion komponent som aggregerar information för att förutsäga detaljer. Vi designar en dubbelriktad resterande konvolutionell LSTM-enhet för att implicit upptäcka ramar variationer över tid med avseende på målramen. Samtidigt föreslås den guidade kartan för att vägleda vårt nätverk att koncentrera sig mer på blockgränsen. Vår strategi drar nytta av intra-frame tidigare information och inter-frame information för att förbättra kvaliteten på komprimerad video. Experimentella resultat visar den föreslagna metodens robusthet och överlägsna prestanda.Koden finns på https://github.com/mengab/MGANet
Under tiden, Meng et al. REF utformade ett flerramsstyrt uppmärksamhetsnätverk genom att dra nytta av informationen i förväg och informationen i flera ramar för att förbättra kvaliteten på HEVC:s komprimerade video.
53,720,273
MGANet: A Robust Model for Quality Enhancement of Compressed Video
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
1,959
Abstract-De framsteg i distribuerade interfordons kommunikationsnät har stimulerat en fruktbar linje av forskning inom kooperativ adaptiv kryssningskontroll (CACC). I CACC ska enskilda fordon, grupperade i plutoner, automatiskt justera sin egen hastighet med hjälp av fordonsbaserade sensorer och kommunikation med det föregående fordonet för att upprätthålla ett säkert avstånd mellan fordonen. En avgörande begränsning av tekniken i detta kontrollsystem är dock att plutonsträngens stabilitet endast kan bevisas när fordonen i pluton har identisk drivlina dynamik och perfekt motorprestanda (homogen pluton), och möjligen en idealisk kommunikationskanal. I detta dokument föreslås en ny CACC-strategi som övervinner homogenitetsantagandet och som kan anpassa sitt agerande och uppnå strängstabilitet även för osäkra heterogena plutoner. Dessutom, för att hantera de oundvikliga kommunikationsförlusterna, formulerar vi en utökad genomsnittlig vilotid ram och utforma en adaptiv switchad kontroll strategi, som aktiverar en förstärkt CACC eller en förstärkt adaptive cruise control strategi beroende på kommunikationens tillförlitlighet. Stabiliteten bevisas analytiskt och simuleringar görs för att validera den teoretiska analysen. Index Terms-Adaptive control, kooperativ adaptive cruise control (CACC), heterogen pluton, nätverksanslutna styrsystem, switchad control.
I REF, Harfouch et al. föreslog en samarbetsstrategi för adaptive cruise control (CACC) för att uppnå strängstabilitet i heterogena platoner och formulerade en ram för att utvärdera plutonernas stabilitet.
52,300,725
An Adaptive Switched Control Approach to Heterogeneous Platooning With Intervehicle Communication Losses
{'venue': 'IEEE Transactions on Control of Network Systems', 'journal': 'IEEE Transactions on Control of Network Systems', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
1,960
Den rumsliga upplösningen av bildsensorer har ökat dramatiskt under de senaste åren, och det har också de utmaningar som är förknippade med att extrahera meningsfull information från sina dataprodukter. Objektbaserad bildanalys (OBIA) blir allt populärare inom fjärranalysvetenskap som ett sätt att överbrygga bilder med mycket hög rumslig upplösning (VHSR) och GIS. Multiskalar bildsegmentering är ett grundläggande steg i OBIA, men det finns för närvarande inget verktyg för att objektivt styra valet av lämpliga skalor för segmentering. Vi presenterar en teknik för att uppskatta skalparametern i bildsegmentering av fjärravkännade data med Definiens Utvecklare. Graden av heterogenitet inom ett bildobjekt styrs av ett subjektivt mått som kallas "skalaparametern", som implementeras i den nämnda programvaran. Vi föreslår ett verktyg, kallad uppskattning av skalparameter (ESP), som bygger på idén om lokal varians (LV) av objekt heterogenitet inom en scen. ESP-verktyget genererar iterativt bildobjekt på flera skalnivåer i en nedifrån-och-upp-strategi och beräknar LV för varje skala. Variation i heterogenitet undersöks genom att utvärdera LV ritas mot motsvarande skala. Tröskelvärdena för förändringstakten för LV (ROC-LV) anger de skalnivåer på vilka bilden kan segmenteras på det lämpligaste sättet, i förhållande till dataegenskaperna på scennivå. Våra tester på olika typer av bilder indikerade snabba bearbetningstider och korrekta resultat. Det enkla men robusta ESP-verktyget möjliggör snabb och objektiv parametrisering när du utför bildsegmentering och har stor potential för OBIA-applikationer.
REF föreslog en metod som baserades på den lokala variationen av objektets heterogenitet inom en scen.
10,296,432
ESP: a tool to estimate scale parameter for multiresolution image segmentation of remotely sensed data
{'venue': None, 'journal': 'International Journal of Geographical Information Science', 'mag_field_of_study': ['Computer Science']}
1,961
Vi studerar sociala nätverk online där relationer kan vara antingen positiva (vägledande relationer som vänskap) eller negativa (vägledande relationer som opposition eller antagonism). En sådan blandning av positiva och negativa länkar uppstår i en mängd olika online-inställningar; vi studerar datauppsättningar från Epinions, Slashdot och Wikipedia. Vi finner att tecken på länkar i de underliggande sociala nätverken kan förutsägas med hög noggrannhet, med hjälp av modeller som generaliserar över detta olika utbud av webbplatser. Dessa modeller ger insikt i några av de grundläggande principer som driver bildandet av signerade länkar i nätverk, kastar ljus över teorier om balans och status från socialpsykologi; de föreslår också sociala datortillämpningar genom vilka en användares inställning till en annan kan beräknas utifrån bevis som tillhandahålls av deras relationer med andra medlemmar i det omgivande sociala nätverket. ACM 978-1-60558-799-8/10/04. Den grundläggande frågan är då följande: Hur samverkar tecknet på en given länk med mönstret av länkskyltar i sin lokala närhet, eller mer allmänt i hela nätverket? Dessutom, vilka är de rimliga konfigurationerna av länkskyltar i verkliga sociala nätverk? Svar på dessa frågor kan hjälpa oss att resonera om hur negativa relationer används i online-system, och svar som generaliseras över flera domäner kan hjälpa till att belysa några av de underliggande principerna. Effektiva svar på sådana frågor kan också bidra till att informera utformningen av sociala datortillämpningar där vi försöker dra slutsatsen (oobserved) attityd av en användare mot en annan, med hjälp av de positiva och negativa relationer som har observerats i närheten av denna användare. En gemensam uppgift i nätgemenskaper är att föreslå nya relationer till en användare genom att föreslå att man skapar länkar till andra användare med vilka man delar vänner, intressen eller andra egenskaper. Utmaningen här är att användarna mycket väl kan ha redan befintliga attityder och åsikter - både positiva och negativa - gentemot andra som de delar vissa egenskaper med, och därmed innan de godtyckligt ger sådana förslag till användare, är det viktigt att kunna uppskatta dessa attityder från befintliga bevis i nätverket. Om A till exempel är känt för att ogilla människor som B tycker om, kan detta mycket väl ge bevis för A:s inställning till B. Förutsägelse av kanttecken. Med detta i åtanke, vi börjar med att formulera en konkret underliggande uppgift - kanten tecken förutsägelse problem - som vi kan direkt utvärdera och jämföra olika tillvägagångssätt. Kantteckens förutsägelseproblem definieras enligt följande. Antag att vi får ett socialt nätverk med tecken på alla dess kanter, men tecknet på kanten från node u till node v, betecknad s(u, v), har varit "dold". Hur tillförlitligt kan vi härleda detta tecken s (u, v) med hjälp av den information som tillhandahålls av resten av nätverket? Observera att detta problem är både en konkret formulering av våra grundläggande frågor om de typiska mönster av länktecken, och också ett sätt att närma sig vår motiverande tillämpning av sluta oobserverade attityder bland användare av sociala datorer webbplatser. Det finns en analogi här med länken förutsägelse problem för sociala nätverk [16]; på samma sätt som länk förutsägelse används för att dra slutsatser latenta relationer som är närvarande men inte registreras genom explicita länkar, kan tecken förutsägelse problem användas för att uppskatta känslan av individer mot varandra, med tanke på information om andra känslor i nätverket. När vi studerar problemet med teckenprognoser följer vi ett experimentellt ramverk som formulerats av Guha et al. i sina studier av tillit och misstro mot epinioner [8]. Vi utvidgar deras tillvägagångssätt i ett antal riktningar. För det första, där deras mål var att utvärdera spridningsalgoritmer baserade på exponentiering adjacency-matrisen, närmar vi oss problemet med hjälp av en maskininlärning ram som gör det möjligt för oss att utvärdera vilka av en rad strukturella funktioner som är mest informativa för förutsägelsen uppgift. Med hjälp av denna ram får vi också betydligt bättre resultat på själva uppgiften.
Leskovec m.fl. REF använder en logistisk regressionsmodell för att förutsäga positiva och negativa kopplingar, där de positiva länkarna indikerar relationer som vänskap, medan negativa länkar tyder på motstånd.
7,119,014
Predicting positive and negative links in online social networks
{'venue': "WWW '10", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science', 'Physics']}
1,962
Forskning och utveckling om nätverkens överlevnadsförmåga har till stor del inriktats på allmänt kopplade telenät och höghastighetsnät med liten uppmärksamhet på möjligheten att få tillgång till trådlösa accessnät som stöder mobil- och PCS-kommunikation. I den här artikeln diskuteras effekterna av fel och överlevnadsproblem i PCS-nätverk med tonvikt på de unika svårigheter som användarens rörlighet och den trådlösa kanalmiljön innebär. En simuleringsmodell för att studera en mängd olika felscenarier på ett PCS-nätverk beskrivs, och resultaten visar att användarens rörlighet avsevärt försämrar nätverksprestandan efter fel, eftersom frånkopplade användare rör sig bland angränsande celler och försöker återansluta till nätverket. Således, överlevnadsstrategier måste utformas för att kämpa med rumsliga såväl som temporal nätverk beteende. Ett flerskiktsramverk för studien av PCS-nätverkens överlevnadsförmåga presenteras. Metrisk för kvantifiering av nätverkets överlevnadsförmåga identifieras vid varje lager. Möjliga överlevnadsstrategier och restaureringsmetoder för varje skikt i ramen diskuteras också.
I REF behandlades effekterna av misslyckanden på användarnas rörlighet och överlevnadsproblem i telefon-/personkommunikationsnätverk i en trådlös miljö.
62,553,283
Providing fault tolerance in wireless access networks
{'venue': None, 'journal': 'IEEE Communications Magazine', 'mag_field_of_study': ['Computer Science']}
1,963
Vi utvecklar en beteendebaserad anomali detektionsmetod som upptäcker nätverksanomalier genom att jämföra den nuvarande nätverkstrafiken mot en basal distribution. Maximum Entropy-tekniken ger en flexibel och snabb metod för att uppskatta basaldistributionen, vilket också ger nätverksadministratören en flerdimensionell bild av nätverkstrafiken. Genom att beräkna en åtgärd som rör den relativa entropin i nätverkstrafiken under observation med avseende på basaldistributionen, kan vi urskilja avvikelser som ändrar trafiken antingen abrupt eller långsamt. Dessutom ger vår metod information om vilken typ av anomali som upptäcks. Det kräver ett konstant minne och en beräkningstid som är proportionell mot trafikhastigheten.
Yu m.fl. utvecklat beteendebaserade anomali detektionsmetoder som detekterar nätverksanomalier genom att jämföra den nuvarande nätverkstrafiken med en basal distribution med hjälp av maximal entropi REF.
9,897,393
Detecting anomalies in network traffic using maximum entropy estimation
{'venue': "IMC '05", 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,964
Detta dokument presenterar ett transduktivt tillvägagångssätt för att lära sig rankning funktioner för extraherande multi-dokument summering. I det första skedet identifieras ämnesteman i en dokumentsamling, som bidrar till att identifiera två uppsättningar relevanta och irrelevanta meningar i en fråga. Det sedan iterativt tränar en rankning funktion över dessa två uppsättningar meningar genom att optimera en rankning förlust och montera en tidigare modell byggd på nyckelord. Utmatningen av funktionen används för att hitta ytterligare relevanta och irrelevanta meningar. Denna process upprepas tills ett önskat stoppkriterium är uppfyllt.
Amini och Usunier REF presenterar en transduktiv metod som lär sig rankningsfunktionen över meningar i hämtade dokument med hjälp av märkta instanser.
5,395,260
Incorporating prior knowledge into a transductive ranking algorithm for multi-document summarization
{'venue': 'SIGIR', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,965
Abstrakt. Arbetsbelastningsplacering på servrar har traditionellt drivits av främst prestandamål. I detta arbete undersöker vi design, implementering och utvärdering av en power-aware applikationsplaceringscontroller i samband med en miljö med heterogena virtualiserade serverkluster. Placeringskomponenten i applikationshanteringen middleware tar hänsyn till energi- och migreringskostnaderna utöver prestandavinsten samtidigt som applikationsbehållaren placeras på de fysiska servrarna. Bidraget från detta arbete är tvåfaldigt: för det första presenterar vi flera sätt att fånga upp problemet med kostnadsmedveten applikationsplacering som kan tillämpas på olika inställningar. För varje formulering ger vi detaljer om vilken typ av information som krävs för att lösa problemen, modellantagandena och hur praktiska antagandena är på riktiga servrar. I den andra delen av vår studie presenterar vi pMapper arkitektur och placering algoritmer för att lösa en praktisk formulering av problemet: minimering kraft som omfattas av ett fast prestandakrav. Vi presenterar omfattande teoretiska och experimentella bevis för att fastställa effekten av pMapper.
Makt och migration-medveten programplacering i virtualiserade serverkluster togs först upp i vårt tidigare arbete som kallas pMapper REF.
7,674,151
pMapper: power and migration cost aware application placement in virtualized systems
{'venue': 'Middleware', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,966
De grundläggande principerna för Genetisk Algoritm föreslogs först av Holland [4]. Det är inspirerat av mekanismen för naturligt urval där starkare individer sannolikt skulle vara vinnarna i en konkurrerande miljö. Här använder GA en direkt analogi av en sådan naturlig utveckling. Den förutsätter att en potentiell lösning av ett problem är en individ och kan representeras av en uppsättning parametrar. Dessa parametrar, som betraktas som gener i en kromosom, kan struktureras av en sträng av värden i binär form. Ett positivt värde, känt som fitness värde, används för att återspegla graden av "godhet" av kromosomen, som i allmänhet korreleras med den objektiva funktionen av problemet. Genom en genetisk evolution har monterkromosomen en tendens att ge avkomma av god kvalitet, vilket innebär en bättre lösning på problemet. I en praktisk tillämpning av GA, en population pool av kromosomer måste installeras och de kan slumpmässigt ställas in initialt. I varje cykel av genetisk evolution, skapas en efterföljande generation från kromosomerna i den nuvarande populationen. Detta kan endast uppnås om en grupp av dessa kromosomer, som i allmänhet kallas "föräldrarna", eller en samlingsterm "mating pool" väljs via en särskild urvalsrutin med proportionell urvalsmekanism. Föräldrarnas gener ska blandas och rekombineras för produktion av avkomma i nästa generation via crossover operation. Dessa avkomma utsätts för mutation som en annan naturlig process. Det förväntas från denna utvecklingsprocess (manipulering av gener) att en "bättre" kromosom kommer att skapa ett större antal avkomma, vilket i slutändan säkerställer en högre chans att överleva i den efterföljande generationen. Denna process emulerar överlevnad-av-passande-test mekanism i naturen. Evolutionscykeln upprepas tills ett önskat avslutningskriterium har uppnåtts. Detta kriterium kan fastställas genom antalet utvecklingscykler (beräkningskörningar) eller antalet variationer mellan olika generationer, eller ett fördefinierat värde av lämplighet. Genom att göra så, generationspoolen kommer att slås samman där den slutliga kromosomen fram som lösningen på problemet av oro. För dess användning inom kontrollsystemteknik kan GA tillämpas på ett antal kontrollmetoder för att förbättra systemets övergripande prestanda. I de flesta av regulatorns konstruktioner krävs att vissa parametrar optimeras för att ge en bättre övergripande kontrollprestanda. Dessutom kan regulatorns konfiguration eller ordning optimeras för att minska systemets komplexitet. Vid klassiskt PID-kontrollproblem bör de nödvändiga treterm-parametrarna, som kallas proportionell, integral och derivatvinst, bestämmas optimalt. Trots metoden av Ziegler-Nichols (ZN) ultimate-cycle tuning schema, dessa parametrar kan optimalt erhållas via GA. Framgångsrika implementeringar finns i pH-neutraliseringsprocessen [12], och värmeväxlarsystemet [8].
Alla agentbeteenden optimerades med hjälp av en genetisk algoritm (GA) REF.
15,630,213
Genetic Algorithms : Concepts and Designs
{'venue': 'Assembly Automation', 'journal': 'Assembly Automation', 'mag_field_of_study': ['Computer Science']}
1,967
Datadriven karaktär animation baserad på rörelse fånga kan producera mycket naturalistiska beteenden och, i kombination med fysik simulering, kan ge naturliga procedurmässiga svar på fysiska störningar, miljöförändringar, och morfologiska avvikelser. Motion fånga är fortfarande den mest populära källan till rörelsedata, men att samla in mocap data kräver vanligtvis tungt instrumenterade miljöer och aktörer. I detta dokument föreslår vi en metod som gör det möjligt för fysiskt simulerade tecken att lära sig färdigheter från video (SFV). Vår strategi, baserad på djup pose uppskattning och djup förstärkning lärande, tillåter datadriven animation för att utnyttja mängden allmänt tillgängliga videoklipp från webben, såsom de från YouTube. Detta har potential att möjliggöra snabb och enkel design av karaktärskontroller helt enkelt genom att fråga efter videoinspelningar av önskat beteende. De resulterande regulatorerna är robusta för perturbationer, kan anpassas till nya inställningar, kan utföra grundläggande objektinteraktioner, och kan omriktas till nya morfologier via förstärkningslärande. Vi visar vidare att vår metod kan förutsäga potentiella mänskliga rörelser från stillbilder, genom framåt simulering av lärda styrenheter initierade från den observerade pose. Vårt ramverk kan lära sig ett brett spektrum av dynamiska färdigheter, inklusive rörelse, akrobatik och kampsporter. (Video 1)...........................................................................................................
Peng m.fl. REF utnyttjade djup förstärkning lärande (RL) för att regenerera åtgärder inklusive locomotion, akrobatik, och kampsporter från videon.
52,937,281
SFV: Reinforcement Learning of Physical Skills from Videos
{'venue': "SIGGRAPH Asia '18", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
1,968
Befintliga datalagringssystem erbjuder ett brett spektrum av funktioner för att tillgodose ett lika varierat utbud av tillämpningar. Emellertid har nya klasser av applikationer dykt upp, t.ex. blockchain och samarbetsanalys, med dataversioner, gaffel semantik, manipulering-bevisning eller någon kombination av dessa. De ger nya möjligheter för lagringssystem att effektivt stödja sådana tillämpningar genom att inbädda ovanstående krav i lagringen. I detta papper presenterar vi ForkBase, en lagring motor avsedd för blockchain och gaffelbara applikationer. Genom att integrera centrala applikationsegenskaper i lagringen ger ForkBase inte bara hög prestanda utan minskar också utvecklingsarbetet. Lagringen hanterar multiversionsdata och stöder två varianter av gaffelsemantik som möjliggör olika gaffelarbetsflöden. ForkBase är snabbt och utrymmeseffektivt, på grund av en ny indexklass som stöder effektiva frågor samt effektiv upptäckt av duplicerat innehåll över dataobjekt, grenar och versioner. Vi demonstrerar ForkBases prestanda med hjälp av tre applikationer: en blockchain-plattform, en wiki-motor och en samverkande analysapplikation. Vi genomför en omfattande experimentell utvärdering mot respektive toppmoderna lösningar. Resultaten visar att ForkBase uppnår överlägsen prestanda samtidigt som utvecklingsarbetet minskar betydligt. Referensformat för PVLDB:
Forkbase REF är den första lagringen avsedd för blockkedjor.
3,632,473
ForkBase: An Efficient Storage Engine for Blockchain and Forkable Applications
{'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']}
1,969
Abstract-Det är en vanlig berättelse att blockchains är oföränderliga och så det är tekniskt omöjligt att radera data som lagras på dem. Av juridiska och etiska skäl kan dock individer och organisationer tvingas att radera lokalt lagrade data, vare sig det är kodat på en blockkedja eller inte. Det gemensamma antagandet för blockchain nätverk som Bitcoin är att tvinga noder att radera data som finns på blockchain är lika med permanent begränsa dem från att delta i systemet i en full-node roll. Genom att utmana denna övertygelse föreslår och demonstrerar vi i detta dokument ett pragmatiskt förhållningssätt till funktionsbevarande lokal radering (FPLE). FPLE gör det möjligt för hela noder att radera intrång eller oönskade data samtidigt som de fortsätter att lagra och validera större delen av blockkedjan. Vi beskriver en allmän FPLE-strategi för UTXO-baserade (dvs. Bitcoin-liknande) kryptovalutaer och presenterar ett lättviktigt konceptverktyg för att säkert radera transaktionsdata från den lokala lagringen av Bitcoin Core noder. Radering noder fortsätter att fungera i linje med nätverket även när raderade transaktionsutgångar blir relevanta för att validera efterföljande block. Med bara vår grundläggande proof-of-concept implementering, vi redan kan säkert uppfylla en betydligt större utbud av radering förfrågningar än, så vitt vi vet, någon annan full nod operatör hittills.
Florian m.fl. I REF föreslogs en metod för att bevara lokal radering (FPLE) som kan radera data från den lokala noden.
120,435,720
Erasing Data from Blockchain Nodes
{'venue': '2019 IEEE European Symposium on Security and Privacy Workshops (EuroS&PW)', 'journal': '2019 IEEE European Symposium on Security and Privacy Workshops (EuroS&PW)', 'mag_field_of_study': ['Computer Science']}
1,970
Att bygga allmänna samtalsagenter är en mycket utmanande uppgift, men nödvändig på vägen mot intelligenta agenter som kan interagera med människor i naturligt språk. Neural konversation modeller - rent datadrivna system utbildade end-to-end på dialog corpora - har visat stora löften nyligen, men de producerar ofta korta och generiska svar. I detta arbete presenteras nya utbildnings- och avkodningsmetoder som förbättrar kvaliteten, samstämmigheten och mångfalden av de långa svar som genereras med hjälp av sekvens-till-sekvens-modeller. Vårt tillvägagångssätt tillför självuppmärksamhet till dekodern för att bibehålla samstämmigheten i längre svar, och vi föreslår ett praktiskt tillvägagångssätt, som kallas glimtmodellen, för skalning till stora datauppsättningar. Vi introducerar en stokastisk strålesökningsalgoritm med segment-för-segment-rerankning som låter oss injicera mångfald tidigare i generationsprocessen. Vi tränade på en kombinerad datamängd på över 2.3B konversationsmeddelanden mined från webben. I människautvärderingsstudier producerar vår metod längre svar totalt, med en högre andel klassas som acceptabel och utmärkt som längd ökar, jämfört med baslinje sekvens-till-sekvens modeller med explicit längd-marknadsföring. En backoff-strategi ger bättre svar på det hela taget, i hela spektrumet av längder.
REF har på ett heuritiskt sätt omvärderat svarssegmentet per segment för att ge upphov till mångfald tidigare i avkodningsprocessen.
17,431,796
Generating Long and Diverse Responses with Neural Conversation Models
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
1,971
De feed-forward-arkitekturerna i nyligen föreslagna djupa superupplösningsnätverk lär sig representationer av lågupplösta ingångar och den icke-linjära kartläggningen från dessa till högupplösta utgångar. Detta tillvägagångssätt tar dock inte helt itu med det ömsesidiga beroendet av bilder med låg och hög upplösning. Vi föreslår Deep Back-Projection Networks (DBPN), som utnyttjar iterativa upp- och nedsampling lager, ger en fel feedback mekanism för projektionsfel i varje steg. Vi konstruerar ömsesidigt sammankopplade upp- och nedsamplingsstadier som var och en representerar olika typer av bildnedbrytning och komponenter med hög upplösning. Vi visar att utöka denna idé för att tillåta konkatering av funktioner över upp-och nedsampling stadier (Dense DBPN) gör att vi kan rekonstruera ytterligare förbättra super-upplösning, vilket ger överlägsna resultat och i synnerhet etablera nya state of the art resultat för stora skalningsfaktorer såsom 8× över flera datamängder.
Andra än ovan nämnda feedforward-nätstrukturer, ett djupgående back-projection-nätverk (DBPN) REF som föreslagits av Haris et al. utnyttjar iterativa upp- och nedsamplingsskikt, vilket ger en felåterkopplingsmekanism för projektionsfel i varje steg.
3,739,626
Deep Back-Projection Networks for Super-Resolution
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
1,972
Bakgrund: Parvis sekvens anpassningsmetoder används i stor utsträckning i biologisk forskning. Det ökande antalet sekvenser uppfattas som en av de kommande utmaningarna för sekvensanpassningsmetoder inom närmaste framtid. För att övervinna denna utmaning har flera GPU (Grafics Processing Unit) datormetoder föreslagits nyligen. Dessa lösningar visar en stor potential för en GPU-plattform men i de flesta fall ta itu med problemet med sekvensdatabas skanning och beräkning endast anpassning poäng medan anpassningen själv utelämnas. Således uppstod behovet av att genomföra den globala och semiglobala Needleman-Wunsch, och Smith-Waterman algoritmer med en backtracking förfarande som behövs för att konstruera anpassningen. Resultat: I detta dokument presenterar vi den lösning som utför anpassningen av varje given sekvenspar, vilket är ett nödvändigt steg för progressiva flera sekvensanpassningsmetoder, samt för DNA-igenkänning på DNA-monteringsstadiet. Utförda tester visar att genomförandet, med prestanda upp till 6.3 GCUPS på en enda GPU för affin gap sanktioner, är mycket effektiv i jämförelse med andra CPU och GPU-baserade lösningar. Dessutom gör flera GPU-stöd med lastbalansering applikationen mycket skalbar. Slutsatser: Artikeln visar att backtracking-proceduren för sekvensjusteringsalgoritmer kan utformas för att passa in i GPU-arkitekturen. Därför kan vår algoritm, förutom poäng, beräkna parvisa justeringar. Detta öppnar ett brett spektrum av nya möjligheter, vilket gör det möjligt för andra metoder från molekylärbiologins område att dra nytta av den nya beräkningsarkitekturen. Utförda tester visar att effektiviteten i genomförandet är utmärkt. Dessutom kan hastigheten hos våra GPU-baserade algoritmer ökas nästan linjärt vid användning av mer än ett grafikkort.
Blazewicz m.fl. främst fokuserad på hur man kan förbättra backtracking förfarandet för Smith-Waterman algoritm REF.
586,004
Protein alignment algorithms with an efficient backtracking routine on multiple GPUs
{'venue': 'BMC Bioinformatics', 'journal': 'BMC Bioinformatics', 'mag_field_of_study': ['Medicine', 'Computer Science']}
1,973
Abstrakt. I den klassiska Markov-beslutsprocessen (MDP)-teorin söker vi efter en policy som säger minimerar den förväntade oändliga horisonten diskonterade kostnader. Förväntningen är naturligtvis en riskneutral åtgärd, som inte gör det i många tillämpningar, särskilt inom finansiering. Vi ersätter förväntningarna med en allmän riskfunktion och kallar sådana modeller riskmedvetna MDP-modeller. Vi anser att minimering av sådana riskfunktioner i två fall, den förväntade nyttoramen, och villkorligt Value-at-Risk, en populär sammanhängande riskmått. Senare överväger vi riskmedvetna MDP:er där risken uttrycks i begränsningarna. Detta inkluderar stokastisk dominans begränsningar, och de klassiska slump-konstruerade optimeringsproblem. I varje enskilt fall utvecklar vi ett konvext analytiskt tillvägagångssätt för att lösa sådana riskmedvetna MDP. I de flesta fall visar vi att problemet kan formuleras som ett oändligt dimensionellt linjärt program i ockupationsåtgärder när vi utökar statsrymden. Vi tillhandahåller en diskretiseringsmetod och finita approximationer för att lösa de resulterande LPs. Ett slående resultat är att det slumpbetonade MDP-problemet kan ses som ett linjärt program via den konvexa analysmetoden.
REF generalisera dessa studier till en bredare klass av riskåtgärder med hjälp av en konvex analytisk metod.
6,333,720
A Convex Analytic Approach to Risk-Aware Markov Decision Processes
{'venue': 'SIAM J. Control and Optimization', 'journal': 'SIAM J. Control and Optimization', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
1,974
Abstract-Rapid tillväxt av efterfrågan på beräkningskraft av vetenskapliga, affärs- och webbapplikationer har lett till skapandet av storskaliga datacenter som förbrukar enorma mängder elkraft. Vi föreslår ett energieffektivt resurshanteringssystem för virtualiserade molndatacenter som minskar driftskostnaderna och ger nödvändig servicekvalitet (QoS). Energibesparingar uppnås genom kontinuerlig konsolidering av virtuella maskiner enligt nuvarande utnyttjande av resurser, virtuella nätverkstopologier etablerade mellan virtuella maskiner och termiskt tillstånd av datornoder. Vi presenterar de första resultaten av simuleringsdriven utvärdering av heuristik för dynamisk omfördelning av virtuella maskiner med hjälp av livemigrering enligt aktuella krav för CPU-prestanda. Resultaten visar att den föreslagna tekniken ger betydande energibesparingar, samtidigt som tillförlitlig QoS säkerställs. Detta motiverar ytterligare utredning och utveckling av det föreslagna resursförvaltningssystemet.
Beloglazov och Buyya REF presenterade resultaten av en simuleringsdriven utvärdering av heuristik för dynamisk omfördelning av virtuella maskiner med levande migration enligt gällande krav för CPU-prestanda.
1,423,368
Energy Efficient Resource Management in Virtualized Cloud Data Centers
{'venue': '2010 10th IEEE/ACM International Conference on Cluster, Cloud and Grid Computing', 'journal': '2010 10th IEEE/ACM International Conference on Cluster, Cloud and Grid Computing', 'mag_field_of_study': ['Computer Science']}
1,975
Den senaste tidens snabba utveckling av informationsteknik, såsom avkänningsteknik, kommunikationsteknik och databas, gör det möjligt för oss att använda simuleringsexperiment för att analysera allvarliga olyckor orsakade av farliga kemikalier. På grund av farliga kemikaliers toxicitet och spridning leder dessa olyckor ofta inte bara till allvarliga konsekvenser och ekonomiska förluster, utan också till trafikstockningar på samma gång. Nödutrymning efter farliga kemiska olyckor är ett effektivt sätt att minska förlusten av liv och egendom och att smidigt återuppta transportnätet så snart som möjligt. I detta dokument behandlas de dynamiska förändringarna av de farliga kemikaliernas koncentration efter läckaget och diffusionsprocessen simuleras. Baserat på egenskaperna hos nödutrymning av farliga kemiska olyckor bygger vi en blandad programmeringsmodell och utformar en heuristisk algoritm med hjälp av nätverksoptimering och diffusionssimulering (nedan kallad NODS). Vi verifierar sedan giltigheten och genomförbarheten av algoritmen med Jinan, Kina, som ett beräkningsexempel. I slutändan jämför vi resultaten från olika scenarier för att undersöka de nyckelfaktorer som påverkar evakueringsprocessens effektivitet.
På samma sätt, Zhang, Liu REF designa en mixed-integer programmering modell och en heuristisk algoritm med hjälp av nätverksoptimering och diffusion simulering för nödutrymning.
51,603,661
Emergency Evacuation of Hazardous Chemical Accidents Based on Diffusion Simulation
{'venue': 'Complexity', 'journal': 'Complexity', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
1,976
Vi presenterar en konceptuellt enkel, flexibel och allmän ram för få shot-inlärning, där en klassificerare måste lära sig att känna igen nya klasser som ges bara några få exempel från varje. Vår metod, som kallas Relation Network (RN), är tränad från början till slut. Under meta-learning lär den sig att lära sig ett långt avståndsmått för att jämföra ett litet antal bilder inom avsnitt, som var och en är utformad för att simulera den få-shot-inställningen. En gång tränad, en RN kan klassificera bilder av nya klasser genom att beräkna relation poäng mellan frågebilder och några exempel på varje ny klass utan att ytterligare uppdatera nätverket. Förutom att ge bättre resultat på få shot-inlärning är vårt ramverk enkelt att utöka till noll shot-inlärning. Omfattande experiment på fem riktmärken visar att vårt enkla tillvägagångssätt ger en enhetlig och effektiv strategi för båda dessa två uppgifter.
För bättre metrisk inlärningsförmåga, Sung et al. REF lade till en relationsmodul för att beräkna relationspoängen mellan frågebilder och exemplen i stöduppsättningen.
4,412,459
Learning to Compare: Relation Network for Few-Shot Learning
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
1,977
Abstract-A key problem i framträdande objektdetektion är hur man effektivt modellerar de semantiska egenskaperna hos framträdande objekt på ett datadrivet sätt. I detta dokument föreslår vi en multi-task djup Saliency modell baserad på en helt konvolutional neurala nätverk med global input (hela råa bilder) och global utdata (hel Saliency kartor). I princip utgår den föreslagna lönemodellen från en datadriven strategi för kodning av den underliggande informationen om ersättning i förväg, och därefter inrättas ett system för lärande med flera uppgifter för att undersöka de inneboende sambanden mellan detektering av styrka och semantisk bildsegmentering. Genom samverkande funktioner lärande från sådana två korrelerade uppgifter, de delade helt konvolutionella skikten producerar effektiva funktioner för objektuppfattning. Dessutom är den kapabel att fånga den semantiska informationen om framträdande objekt över olika nivåer med hjälp av de helt konvolutionella skikten, som undersöker funktionen-delning egenskaper av framträdande objektdetektion med en stor minskning av funktion redundans. Slutligen presenterar vi en graf Laplacian regularized icke-linjär regression modell för saliency förfining. Experimentella resultat visar hur effektiv vår strategi är i jämförelse med den senaste tekniken.
Li REF utformar en multi-task djup Saliency-modell baserad på ett fullständigt konvolutionellt neuralt nätverk med global ingång och global utgång, som tar en datadriven strategi för kodning av underliggande Saliency föregående information och sätter upp en multi-task lärande system för att utforska de inneboende sambanden mellan Saliency detektion och semantisk bild segmentering.
99,982
DeepSaliency: Multi-Task Deep Neural Network Model for Salient Object Detection
{'venue': 'IEEE Transactions on Image Processing', 'journal': 'IEEE Transactions on Image Processing', 'mag_field_of_study': ['Computer Science', 'Medicine']}
1,978
Verksamhetsigenkänning har visat sig vara värdefull för omfattande datortillämpningar, men mindre arbete har fokuserat på tekniker för att förutsäga den framtida förekomsten av aktiviteter. Vi presenterar en aktivitet prognosmetod för att förutsäga den tid som kommer att förflyta tills en målaktivitet inträffar. Denna metod genererar en aktivitetsprognos med hjälp av en regressionsträd klassificerare och erbjuder en fördel jämfört med sekvens förutsägelse metoder på så sätt att den kan förutsäga förväntad tid tills en aktivitet inträffar. Vi utvärderar denna algoritm på verkliga smarta hemdataset och ger bevis för att vårt föreslagna tillvägagångssätt är mest effektivt när det gäller att förutsäga aktivitetstider. Nyckelord aktivitetsprognos; aktivitetsigenkänning; regressionsträd; smarta hem Introduktion En viktig komponent i alla smarta hjälpmedel teknik är förmågan att förutsäga framtida händelser av en användares aktiviteter baserat på nuvarande och tidigare sammanhang. Förmågan hos ett system att förutse vilka aktiviteter användaren kommer att utföra i framtiden gör det möjligt för systemet att vidta förebyggande åtgärder för att hjälpa användaren att slutföra dessa aktiviteter. Verksamhetsförutsägelse kan på så sätt omvandla sammanhangsmedvetna system till aktivitetsprediktiva system. En typ av system som kan dra nytta av användningen av en aktivitetsförutsägelse algoritm är den smarta miljön. En smart miljö är en fysisk miljö som är utrustad för att känna av invånarnas tillstånd och deras omgivning för att förbättra invånarnas och miljöns välbefinnande [1,2]. Smarta miljöer använder en mängd olika sensorer för att övervaka sina invånare och ge impulser och andra åtgärder för att hjälpa till att slutföra dessa aktiviteter och sörja för invånarnas säkerhet. I aktivitetsförutsägelse vill vi skapa ett system som kan förutsäga antalet tidsenheter (det må vara sekunder, timmar eller dagar) tills framtida aktiviteter inträffar. Utmaningen ligger i att optimalt använda insamlade sensordata för att informera aktivitetsprognoser utan mänsklig inblandning. Även om data kan ge en mängd information om användaraktiviteter, kan det vara svårt att extrahera användbara attribut att använda i prognosmodeller. Förhållandet mellan sensordata och framtida aktiviteter är komplext och ickelinjärt. Tidigare metoder bygger på användarinmatning och fördefinierade regler, vilket begränsar deras räckvidd och flexibilitet för användning i olika tillämpningar. En effektiv aktivitetsförutsägare måste kunna upptäcka och utnyttja djupare aktivitetskomplex och modellera dem på lämpligt sätt. I den här artikeln introducerar vi en aktivitetsprognosalgoritm som förutsäger framtida aktivitetshändelser. Vår algoritm, som vi kallar AF, förutspår antalet tidsenheter som kommer att förflyta tills nästa händelse av en viss aktivitet baserat på aktuella och tidigare sensorhändelser. AF använder information om de senaste sensorhändelserna för att generera både diskreta och provtagningsbaserade funktioner för att ge förbättrad förutsägelsenoggrannhet. Dessa funktioner kan sedan användas med vanliga maskininlärning modeller för att lära sig de komplexa sambanden mellan sensordata och
Beslut träd har använts för att förutsäga den tid en viss verksamhet skulle hända REF.
32,893,583
Forecasting occurrences of activities
{'venue': 'Pervasive and mobile computing', 'journal': 'Pervasive and mobile computing', 'mag_field_of_study': ['Computer Science', 'Medicine']}
1,979
Det har visat sig att motorisk samordning av samverkan mellan människor spelar en avgörande roll för det sociala utbytets framgång. Onormala rörelser har rapporterats vid interpersonella interaktioner mellan patienter som lider av schizofreni och ett motoriskt koordinationsavbrott kan förklara detta sociala interaktionsunderskott, som är ett av de viktigaste och tidigaste dragen i sjukdomen. Med hjälp av den dynamiska systemramen var målet för den aktuella studien i) att undersöka om social motorisk koordination är nedsatt vid schizofreni och ii) att bestämma de underliggande perceptuella eller kognitiva processer som kan påverkas. Vi undersökte avsiktlig och oavsiktlig social motorisk koordination hos deltagare som oscillerade handhållna pendeln från handleden. Kontrollgruppen bestod av tjugo friska deltagarpar medan den experimentella gruppen bestod av tjugo deltagarpar som inkluderade en deltagare som led av schizofreni. Resultaten visade att oavsiktlig social motorisk samordning bevarades medan avsiktlig social motorisk samordning försämrades. Vid avsiktlig samordning uppvisade schizofrenigruppen samordningsmönster som hade lägre stabilitet och där patienten aldrig ledde koordinationen. En kopplad oscillatormodell tyder på att koordinationsmönstret för schizofrenigruppen berodde på en minskning av mängden tillgänglig information tillsammans med en fördröjning i informationsöverföringen. I vår studie identifierades således relationella motoriska signaturer av schizofreni och öppnar nya perspektiv för att upptäcka sjukdomen och förbättra sociala interaktioner mellan patienter.
Resultaten visade att patienternas avsiktliga motoriska koordination ändrades medan deras oavsiktliga låga motoriska koordination behölls vilket innebär att oavsiktlig och avsiktlig samordning inte ingår i samma process REF.
189,375
Impairments of Social Motor Coordination in Schizophrenia
{'venue': 'PLoS ONE', 'journal': 'PLoS ONE', 'mag_field_of_study': ['Biology', 'Medicine']}
1,980
Abstract-Data replikationer är en typisk strategi för att förbättra åtkomstprestanda och datatillgänglighet i Data Grid-system. Nuvarande arbeten med datareplikation i Grid-system fokuserar på infrastrukturen för datareplikation och mekanismen för skapande och radering av repliker. Det viktiga problemet med att välja lämpliga platser för att placera repliker i Data Grids har inte studerats fullt ut. Detta dokument behandlar replika placeringsproblem i Data Grids när det ges en sekvens av prioritetslistor som anger vidarebefordringspolicyer för dataförfrågningar. Vi föreslår en prioriteringslista för att ta itu med två frågor. För det första kan en användare ha begränsad behörighet att få tillgång till resurserna, och därför bör hans/hennes begäran om uppgifter förbjudas från att få tillgång till vissa av webbplatserna. För det andra får en statisk policy inte uppfylla en begäran om uppgifter med särskilda krav (t.ex. Krav på tjänsternas kvalitet. I denna prioritetslista-baserade modell föreslår vi en placeringsalgoritm som finner optimala platser för repliker så att arbetsbelastningen bland replikerna balanseras. Vi föreslår också en algoritm som bestämmer det minsta antalet repliker när maximal arbetsbelastning kapacitet för varje replika ges. a)
Lin m.fl. REF föreslog en annan metod för att använda prioriteringslistan-baserat koncept för optimal replika placering.
14,004,519
A List-Based Strategy for Optimal Replica Placement in Data Grid Systems
{'venue': '2008 37th International Conference on Parallel Processing', 'journal': '2008 37th International Conference on Parallel Processing', 'mag_field_of_study': ['Computer Science']}
1,981
Abstract-Estimera placeringen av en mobil enhet eller en robot från trådlös signalstyrka har blivit ett område för mycket aktiv forskning. Det viktigaste problemet i detta sammanhang beror på komplexiteten i hur signaler sprids genom rymden, särskilt i närvaro av hinder som byggnader, murar eller människor. I detta dokument visar vi hur Gaussianska processer kan användas för att generera en sannolikhetsmodell för signalstyrkasmätningar. Vi visar också hur parametrar av modellen, såsom signalbuller och rumslig korrelation mellan mätningar, kan läras från data via hyperparameteruppskattning. Experiment med WiFi-indoor data och GSM-mobilanslutning visar den överlägsna prestandan i vårt tillvägagångssätt.
Ferris m.fl. REF tillämpade Gaussianska processer för att lokalisera en mobil robot från trådlös signalstyrka.
10,075,506
Gaussian Processes for Signal Strength-Based Location Estimation
{'venue': 'In Proc. of Robotics Science and Systems', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,982
Abstract-Reliability är allmänt identifierad som en allt mer relevant fråga i heterogen service-orienterade system eftersom 7 processorfel påverkar kvaliteten på tjänsten för användarna. Replication-baserad feltolerans är en vanlig metod för att uppfylla tillämpningens 8 tillförlitlighetskrav. Denna studie löser problemet med att minimera redundans för att uppfylla tillförlitlighetskravet för en riktad acyklisk 9-graf (DAG)-baserad parallellapplikation på heterogena serviceorienterade system. Vi föreslår först tillräckligt med replikering för 10 redundansminimering (ERRM) algoritm för att uppfylla ansökans tillförlitlighetskrav, och sedan föreslå heuristisk replikering för 11 redundansminimering (HRRM) för att uppfylla ansökans tillförlitlighetskrav med låg tids komplexitet. Experimentella resultat på verkliga 12 och slumpmässigt genererade parallella applikationer på olika skalor, parallellism och heterogenitet verifierar att ERRM kan generera minst 13 redundans följt av HRRM, och den toppmoderna MaxRe och RR algoritm. Dessutom genomför HRRM ca 14 minimal redundans med en kort beräkningstid. Index Terms-Fault-tolerance, heterogen service-orienterade system, kvalitet på tjänsten, tillförlitlighet krav, replikering ansökan kan inte vara 100 procent tillförlitlig i praktiken. För det första, om en ansökan kan uppfylla sitt angivna tillförlitlighetskrav 61 (även kallat tillförlitlighetsmål eller tillförlitlighet assur-62 i vissa studier), anses ansökan vara tillförlitlig. Anta till exempel att ansökans tillförlitlighet 64 krav är 0,9, endast om ansökans tillförlitlighet 65 överstiger 0,9, kommer ansökan att vara tillförlitlig. Särskilt gäller följande:
I REF använder författarna replikeringsbaserad feltolerans för att lösa problemet med att minimera redundans för att uppfylla tillförlitlighetskravet.
7,192,688
Minimizing Redundancy to Satisfy Reliability Requirement for a Parallel Application on Heterogeneous Service-oriented Systems
{'venue': None, 'journal': 'IEEE Transactions on Services Computing', 'mag_field_of_study': ['Computer Science']}
1,983
Monte Carlo Tree Search (MCTS) metoder har visat sig kraftfull i planeringen för sekventiella beslutsproblem som Go och videospel, men deras prestanda kan vara dålig när planering djup och provtagning banor är begränsade eller när belöningarna är glesa. Vi presenterar en anpassning av PGRD (policy-gradient för belöningdesign) för att lära en belöning-bonus funktion för att förbättra UCT (en MCTS algoritm). Till skillnad från tidigare tillämpningar av PGRD där utrymmet för belöning-bonus funktioner var begränsad till linjära funktioner av handkodade tillstånd-action-funktioner, använder vi PGRD med en flerlagers konvolutionella neurala nätverk för att automatiskt lära funktioner från rå perception samt att anpassa de icke-linjära belöning-bonus funktionsparametrar. Vi använder också en variansreducerande gradientmetod för att förbättra PGRD:s prestanda. Den nya metoden förbättrar UCT: s prestanda på flera ATARI-spel jämfört med UCT utan belöningsbonus. Att kombinera PGRD och Deep Learning på detta sätt bör göra anpassningsvinsterna för MCTS-algoritmer mycket mer omfattande och praktiskt tillämpliga än tidigare.
I REF, Monte Carlo Tree Search (MCTS) Metoder och djupt lärande används för belöning design.
298,414
Deep Learning for Reward Design to Improve Monte Carlo Tree Search in ATARI Games
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
1,984
I ett försök att förstå hur akademiska forskare söker information relevant för sin forskning i dagens miljö av allestädes närvarande elektronisk åtkomst, byggs ett korrelationsramverk och regressionsanalys tillämpas på undersökningsresultat från 2 063 akademiska forskare inom naturvetenskap, ingenjörsvetenskap och medicinsk vetenskap vid fem forskningsuniversitet i USA. Tidigare arbeten har rapporterat beskrivande statistik om dessa forskares informationssökande beteende.Denna studie utökar det arbetet för att undersöka relationer mellan forskares informationssökande beteenden och deras personliga och miljömässiga faktorer. Flera regressionsmodeller, inklusive Poisson-modellen, loggmodellen och den beställda loggmodellen, är byggda för att tolka korrelationen mellan forskarnas beteenden. Dessutom används explorativ faktoranalys för datareduktion. På det hela taget befanns många faktorer påverka forskarnas specifika informationssökande beteenden, inklusive demografiska, psykologiska, rollrelaterade och miljörelaterade faktorer. Av de faktorer som har en effekt, akademisk position var den viktigaste avgörande för informationsbeteende. Tillkomsten av olika elektroniska resurser, bland annat e-tidskrifter, online-databaser och digitala bibliotek, har avsevärt förändrat det sätt på vilket vetenskaplig kommunikation äger rum. Nuförtiden har akademiska forskare bekväm och enkel tillgång till en aldrig tidigare skådad mängd elektroniska vetenskapliga resurser samtidigt som de också står inför ett svindlande utbud av olika typer av innehållsleverans, inklusive böcker, tidskrifter, webbsidor och online-databaser. I ett försök att förstå hur forskare anpassar sig till den ökade användningen av elektronisk vetenskaplig kommunikation och vilken effekt detta har på deras informationssökande beteenden, har NeoRef forskargruppen (http://neoref.ils.unc.edu/) vid University of North Carolina i Chapel Hill genomfört en nationell undersökning av 2 063 akademiska forskare från fem forskningsuniversitet Fokus för denna artikel är att förstå, för akademiska forskare som ägnar sig åt vetenskaplig informationssökning, samspelet mellan användarens egenskaper, deras miljökontext och deras informationssökande beteende. En undersökande analys med regressionsteknik utfördes för att identifiera korrelationerna mellan informationssökande beteenden. Poisson regression, logit regression, och beställda logit regressionsanalyser tillämpas för att identifiera de specifika kopplingarna mellan kontextuella faktorer och informationssökning och använda beteenden. En ram föreslås för att förstå samspelet. Målet är att upptäcka samband mellan faktorer och beteenden och att kunna förutsäga specifika beteenden när ämnes- och miljösammanhang är kända. Bakgrundsarbete med anknytning till informationssökande beteende för akademiker och undersökningsmetoden beskrivs i en tidigare publikation som beskriver den nationella studien (Niu et al., 2010). Detta avsnitt beskriver tidigare forskningsresultat och metoder som har undersökt korrelerande faktorer för förklaringar av informationssökande beteenden, vilka är relevanta för de analyser som utförs i denna artikel. Dessutom görs hänvisningar i resultatavsnittet för att göra jämförelser mellan resultaten av denna studie och tidigare experiment. En betydande mängd forskning under de senaste 10 åren har fokuserat på hur akademiker har reagerat på övergången från tryck till elektronisk vetenskaplig kommunikation. Denna forskning har visat en trend där forskare blir mer accepterande av elektroniska resurser och alltmer utnyttja dem som sina primära källor (t.ex., se de utmärkta studier som omfattar flera universitet som spänner över stora tidsperioder av Tenopir och King, inklusive King, Tenopir,
I en uppföljningsstudie rapporterade Niu och Hemminger REF flera faktorer som påverkar forskarnas informationssökande beteende, inklusive demografi, psykologiska aspekter, akademisk ställning och disciplin.
10,749,765
A study of factors that affect the information-seeking behavior of academic scientists
{'venue': 'J. Assoc. Inf. Sci. Technol.', 'journal': 'J. Assoc. Inf. Sci. Technol.', 'mag_field_of_study': ['Computer Science']}
1,985
Upptäckten av föreningsregler har visat sig vara användbar i många tillämpningar. I tidigare arbete, alla objekt i n a b asket databasen t r ätas enhetligt. Vi generaliserar detta till fallet där objekt ges vikter för att reektera deras betydelse för användaren. Vikterna kan motsvara särskilda säljfrämjande åtgärder för vissa produkter, eller möjligheten att använda olika produkter. Vi kan bryta de viktade föreningsreglerna med vikter. Den nedåtriktade stängningen av stödåtgärden i den oviktade c-asen existerar inte längre och tidigare algoritmer kan inte tillämpas. I detta dokument kommer två nya algoritmer att införas för att hantera detta problem. I dessa algoritmer använder vi oss av ett mått som kallas k-stöd som är bundet i gruvprocessen. Experimentella resultat visar att algoritmerna för stora databaser är eektiva.
Användningen av k-stöd som är bundet i REF för att beskära söksfären kan dock kosta tiden.
6,736,143
Mining association rules with weighted items
{'venue': "Proceedings. IDEAS'98. International Database Engineering and Applications Symposium (Cat. No.98EX156)", 'journal': "Proceedings. IDEAS'98. International Database Engineering and Applications Symposium (Cat. No.98EX156)", 'mag_field_of_study': ['Computer Science']}
1,986
Vi presenterar en metod för att lösa implicita (faktoriserade) Markov beslutsprocesser (MDP) med mycket stora tillstånd utrymmen. Vi inkorporerar en egenskap hos statliga rymdpartitioner som vi kallar f-homogenitet. Intuitivt, en f-homogena partition grupper tillsammans påstår att beter sig ungefär samma under alla eller någon del av policyer. Lån från det senaste arbetet på modellminimering i datorstödd programvara verification, presenterar vi en algoritm som tar en faktoriserad representation av en MDP och en 0 f I och beräknar en faktoriserad f-homogen partion av tillståndet utrymme. Denna partition definierar en familj av relaterade MOP-de MOP:er med tillståndsutrymme som är lika med blocken i partitionen, och övergångssannolikheterna "tillämpa:X:imalt" som för alla (ursprungligt MDP) tillstånd i källblocket. För att formellt studera sådana familjer av MDP introducerar vi det nya begreppet "bounded parameter MDP" (BMDP), som är en familj av (traditionella) MOPs som definieras genom specificering av övre och nedre gränser på övergångssannolikheterna och belöningarna. Vi beskriver algoritmer som fungerar på BMDPs för att hitta policyer som är ungefär optimala med avseende på den ursprungliga MDP. I kombination, vår metod för att minska en stor implicit MDP till en möjligen mycket mindre BMDP med hjälp av en f-homogen partion, och våra metoder för att välja åtgärder i BMDP: s utgör en ny metod för en lysing stora implicita MOP: s. Bland sina synpunkter ger detta nya tillvägagångssätt insikt i befintliga algoritmer för att lösa implicita MDPs, ger användbara kopplingar för att arbeta i automata teori och modellminimering, och föreslår metoder, som innebär att variera f, att handel tid och utrymme (särskilt i termer av storleken på motsvarande tillstånd utrymme) för lösningskvalitet. Markov beslutsprocesser (MDP) ger en formell ba sis för att representera planeringsproblem som involverar uncertainty [Boutilier et al., 1995a]. Det finns algoritmer för att lösa MDPs som är polynom i storleken på tillståndet utrymme [Pureman, 1994]. I detta dokument är vi intresserade av MOP där staterna specifieras implicit med hjälp av en uppsättning tillståndsvariabler. Dessa MDP har explicita tillståndsutrymmen som är exponentiella i antalet tillståndsvariabler, och är vanligtvis inte möjliga att styra lösningen med traditionella metoder på grund av storleken på det explicita tillståndsutrymmet. Det är möjligt att representera vissa MOP:er med hjälp av rymdpolylog i storleken på tillståndsutrymmet genom att faktorisera fördelningen av tillstånd och belöningsfunktionen i uppsättningar av mindre funktioner. Tyvärr behöver denna effektivitet i representationen inte översättas till ett effektivt sätt att använda datalösningar. I vissa fall, dock beroendeinformation implicit i fac tored representation kan användas för att påskynda computation av en optimal politik [Boutilier och Dearden, 1994, Boutilier et al., 1995b, Lin och Dean, 1995. Den resulterande beräkningsbesparingar kan förklaras i termer av att hitta en homogen partition av tillståndet utrymme-en partition sådan att stater i samma block övergång med samma sannolikhet till var och en av de andra blocken. En sådan partition inducerar en mindre, ex plicit MDP vars tillstånd är blocken i partitionen; den mindre MDP, eller reducerad modell är likvärdig med den ursprungliga MOP i en väl definierad betydelse. Det är möjligt att ta en MDP i faktoriserad form och hitta sin lilla est reducerade modell med hjälp av ett antal "partition splitting" operationer polynom i storleken på den resulterande modellen; dock, dessa uppdelning operationer är i gen eral proposition logik operationer som är NP-hård och därmed bara heuristically effektiv. Tillstånden i den reducerade processen motsvarar grupper av stater (i den ursprungliga processen) som beter sig likadant inom alla politikområden. De ursprungliga och reducerade processerna är likvärdiga i den meningen att de ger samma lösningar, d.v.s. samma optimala policy och statsvärden. Grundidén med att beräkna ekvivalent minskade pro-
REF introducerade begreppet ε-homogena partitioner och analyserade dess egenskaper, men utan att ge uttryckliga förlustgränser.
7,207,500
Model Reduction Techniques for Computing Approximately Optimal Solutions for Markov Decision Processes
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
1,987
I multi-armad bandit problem, måste en spelare bestämma vilken arm av K icke-identiska spelautomater att spela i en sekvens av prövningar för att maximera sin belöning. Detta klassiska problem har fått stor uppmärksamhet på grund av den enkla modell det ger av kompromissen mellan prospektering (försöka ut varje arm för att hitta den bästa) och exploatering (spelar armen tros ge den bästa utdelningen). Tidigare lösningar för bandit problemet har nästan alltid förlitat sig på antaganden om statistiken över spelautomater. I detta arbete gör vi inga statistiska antaganden alls om karaktären av processen som genererar utbetalningar av spelautomater. Vi ger en lösning på banditproblemet där en motståndare, snarare än en väluppfostrad stokastisk process, har fullständig kontroll över belöningarna. I en sekvens av T pjäser, visar vi att den förväntade per-round payoff av vår algoritm närmar sig den bästa armen med hastigheten O(T-'I3), och vi ger en förbättrad konvergens när den bästa armen har ganska låg payoff. Vi överväger också en miljö där spelaren har ett team av "experter" som ger honom råd om vilken arm att spela; här ger vi en strategi som garanterar förväntad vinst nära den bästa expertens. Slutligen, Vi tillämpar vårt resultat på problemet med att lära sig att spela en okänd upprepad matris spel mot en allsmäktig motståndare.
Inom banditlitteraturen införde det berömda REF en icke-stationär miljö där belöningsprocessen styrs av en motståndare.
8,963,242
Gambling in a rigged casino: The adversarial multi-armed bandit problem
{'venue': 'Proceedings of IEEE 36th Annual Foundations of Computer Science', 'journal': 'Proceedings of IEEE 36th Annual Foundations of Computer Science', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
1,988
Nätverksinbäddning är att lära sig lågdimensionella vektor representationer för noder i ett nätverk. Det har visat sig vara effektivt i en mängd olika uppgifter som nodklassificering och länkförutsägelse. Medan inbäddning algoritmer på rena nätverk har studerats intensivt, i många verkliga tillämpningar, noder ofta åtföljs av en rik uppsättning attribut eller funktioner, alias tilldelade nätverk. Det har observerats att nätverkstopologisk struktur och nodattribut ofta är starkt korrelerade med varandra. Att modellera och införliva nodattributet närhet till nätverket inbäddning kan vara potentiellt användbart, även om icke-trivial, för att lära sig bättre vektor representationer. Samtidigt innehåller verkliga nätverk ofta ett stort antal noder och funktioner, som ställer krav på skalbarheten av inbäddade algoritmer. För att överbrygga klyftan, i detta dokument, föreslår vi en accelererad tilldelad nätverk inbäddning algoritm AANE, som gör det möjligt att göra den gemensamma inlärningsprocessen på ett distribuerat sätt genom att sönderdela den komplexa modellering och optimering i många sub-problem. Experimentella resultat på flera verkliga datauppsättningar visar hur effektiv och ändamålsenlig den föreslagna algoritmen är.
En tilldelad nätverksinbäddningsteknik AANE föreslås i REF.
19,908,368
Accelerated Attributed Network Embedding.
{'venue': 'SDM', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,989
Abstrakt. Vi presenterar en omväxlande riktning metod baserad på en förstärkt Lagrangian ram för att lösa semidefinite programmering (SDP) problem i standardform. Vid varje iteration, algoritmen, även känd som en tvådelad schema, minimerar den dubbla förstärkta Lagrangian funktionen sekventiellt med avseende på Lagrange multiplikatorer som motsvarar de linjära begränsningarna, sedan de dubbla slack variabler och slutligen de primära variablerna, medan i varje minimization hålla de andra variablerna fast. Konvergensen bevisas med hjälp av ett fast punktargument. En multisplitting algoritm föreslås sedan att hantera SDPs med ojämlikhet begränsningar och positivitet begränsningar direkt utan att omvandla dem till jämlikhet begränsningar i standardform. Slutligen presenteras numeriska resultat för frekvenstilldelning, maximal stabil uppsättning och binära heltal quadratic programmeringsproblem för att visa robustheten och effektiviteten i vår algoritm.
Dessutom har alternativa riktningsmetoder föreslagits för att lösa SDPs REF.
14,200,090
Alternating direction augmented lagrangian methods for semidefinite programming
{'venue': 'Math Program Comput', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
1,990
Abstract-Traumatisk hjärnskada (TBI) är erkänd som en viktig orsak till död och funktionsnedsättning efter en olycka. Tillgången till ett verktyg för tidig diagnos av hjärndysfunktion kan avsevärt förbättra livskvaliteten för personer som drabbats av TBI och till och med förhindra dödsfall. Papperets bidrag är en process som omfattar flera metoder för automatisk bearbetning av uppgifter om elektroencefalografi (EEG) för att ge en snabb och tillförlitlig diagnos av TBI. Integrerad i ett portabelt beslutsstödsystem kallat EmerEEG, erhålls TBI-diagnosen med hjälp av diskriminantanalys baserad på kvantitativa EEG-funktioner (qEEG) som extraherats från datainspelningar efter automatisk borttagning av artefakter. Den föreslagna algoritmen beräknar TBI-diagnosen på grundval av en modell som extraherats från kliniskt märkta EEG-poster. Systemutvärderingarna har bekräftat hastigheten och tillförlitligheten hos processalgoritmerna samt systemets förmåga att leverera korrekt diagnos. De utvecklade algoritmerna har uppnått 79,1% noggrannhet i att ta bort artefakter, och 87,85% noggrannhet i TBI diagnos. Därför möjliggör det utvecklade systemet en kort svarstid i nödsituationer och tillhandahåller ett verktyg som räddningstjänsten kan basera sitt beslut på, vilket förhindrar eventuella feldiagnostiserade skador. Index TermsArtifact borttagning, Diagnos, Elektroencefalografi (EEG), Portable Medical System, Traumatisk hjärnskada (TBI).
Vågetanalys REF används för att utföra en diagnos av traumatisk hjärnskada (TBI) med kvantitativa EEG-data (qEEG) och uppnå 87.85 % noggrannhet.
17,133,902
Automatic EEG processing for the early diagnosis of Traumatic Brain Injury
{'venue': '2016 World Automation Congress (WAC)', 'journal': '2016 World Automation Congress (WAC)', 'mag_field_of_study': ['Computer Science']}
1,991
Abstract-Effektiviteten hos klusterbaserade distribuerade sensornätverk beror till stor del på den täckning som sensorns distribution ger. Vi föreslår en virtuell kraftalgoritm (VFA) som en strategi för distribution av sensorer för att förbättra täckningen efter en första slumpmässig placering av sensorer. För ett givet antal sensorer försöker VFA-algoritmen maximera sensorns fälttäckning. En omdömesgill kombination av attraktiva och motbjudande krafter används för att bestämma virtuella rörelsevägar och rörelsehastigheten för de slumpmässigt placerade sensorerna. När de effektiva sensorpositionerna har identifierats utförs en engångsrörelse med energiövervägande, dvs. sensorerna omplaceras till dessa positioner. Vi föreslår också en ny probabilistisk mållokaliseringsalgoritm som utförs av klusterhuvudet. Lokaliseringsresultaten används av klusterhuvudet för att fråga endast ett fåtal sensorer (av dem som rapporterar förekomsten av ett mål) för mer detaljerad information. Simuleringsresultaten presenteras för att visa hur effektivt det föreslagna tillvägagångssättet är. Index Terms-Sensor täckning, distribuerade sensornätverk, sensorplacering, virtuell kraft, lokalisering.
I REF presenterade författarna en annan virtuell kraftbaserad sensorrörelsestrategi för att förbättra nätverkstäckningen efter en första slumpmässig placering av sensorer.
1,146,819
Sensor deployment and target localization based on virtual forces
{'venue': 'IEEE INFOCOM 2003. Twenty-second Annual Joint Conference of the IEEE Computer and Communications Societies (IEEE Cat. No.03CH37428)', 'journal': 'IEEE INFOCOM 2003. Twenty-second Annual Joint Conference of the IEEE Computer and Communications Societies (IEEE Cat. No.03CH37428)', 'mag_field_of_study': ['Computer Science']}
1,992
Automatisk neural arkitektur har visat sin potential att upptäcka kraftfulla neurala nätverksarkitekturer. Befintliga metoder, oavsett om de är baserade på förstärkande inlärning eller evolutionära algoritmer (EA), genomför arkitektursökning i ett diskret utrymme, vilket är mycket ineffektivt. I detta papper föreslår vi en enkel och effektiv metod för automatisk neural arkitektur design baserad på kontinuerlig optimering. Vi kallar denna nya metod neural arkitektur optimering (NAO). Det finns tre viktiga komponenter i vårt föreslagna tillvägagångssätt: (1) En kodare bäddar / kartor neurala nätverk arkitekturer i ett kontinuerligt utrymme. (2) En prediktor tar kontinuerlig representation av ett nätverk som ingång och förutspår dess noggrannhet. (3) En avkodare kartlägger en kontinuerlig representation av ett nätverk tillbaka till sin arkitektur. Prestandaprediktorn och kodaren gör det möjligt för oss att utföra gradientbaserad optimering i det kontinuerliga utrymmet för att hitta inbäddningen av en ny arkitektur med potentiellt bättre noggrannhet. En sådan bättre inbäddning avkodas sedan till ett nätverk av kodaren. Experiment visar att arkitekturen som upptäckts med vår metod är mycket konkurrenskraftig för bildklassificeringsuppgift på CIFAR-10 och språkmodellering uppgift på PTB, outperforming eller i par med de bästa resultaten av tidigare arkitektursökmetoder med en betydande minskning av beräkningsresurser. Speciellt får vi 2,11% testuppsättning felfrekvens för CIFAR-10 bildklassificering uppgift och 56,0 testuppsättning perplexitet av PTB språkmodellering uppgift. De mest upptäckta arkitekturerna för båda uppgifterna överförs framgångsrikt till andra uppgifter som CIFAR-100 och WikiText-2. I kombination med den nyligen föreslagna viktdelningsmekanismen upptäcker vi dessutom kraftfull arkitektur på CIFAR-10 (med felfrekvens 3,53 %) och på PTB (med testuppsättning perplexitet 56,6), med mycket begränsade beräkningsresurser (mindre än 10 GPU-timmar) för båda uppgifterna.
REF använde dock kodaren, prediktorn och avkodaren för arkitektursökning, vilket är ett helt annat ramverk.
52,071,151
Neural Architecture Optimization
{'venue': 'NeurIPS', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
1,993
Objektsegmentering på institutionsnivå är en viktig men underexploaterad uppgift. De flesta av de senaste metoderna bygger på regionala förslagsmetoder för att extrahera kandidatsegment och sedan använda objektklassificering för att producera slutliga resultat. Att skapa tillförlitliga regionförslag i sig är dock en ganska utmanande och olöst uppgift. I detta arbete, föreslår vi ett förslag-fri nätverk (PFN) för att ta itu med instans-nivå objekt segmentering problem, som ger antalet fall av olika kategorier och pixel-nivå information om i) koordinaterna för instans avgränsande rutan varje pixel tillhör, och ii) förtroenden för olika kategorier för varje pixel, baserat på pixel-till-pixel djupa konvolutionella neurala nätverk. Alla utgångar tillsammans, genom att använda någon off-the-shälf klustering metod för enkel efterbehandling, kan naturligt generera den ultimata instans-nivå objekt segmentering resultat. Hela PFN kan enkelt tränas utan krav på en förslagsgenereringsfas. Omfattande utvärderingar av det utmanande riktmärket PASCAL VOC 2012 för semantisk segmentering visar hur effektiv den föreslagna PFN-lösningen är utan att förlita sig på några förslagsgenereringsmetoder.
Det förslagsfria nätet (PFN) REF är ett CNN som ger en pixel-nivå semantisk märkning, antalet instanser i scenen, och för varje pixel parametrarna för en motsvarande instans avgränsande rutan.
206,768,798
Proposal-Free Network for Instance-Level Object Segmentation
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
1,994
AbstractVid visning av tusentals flygplansbanor på en skärm förstörs visualiseringen av en trassel av stigar. Den visuella analysen är därför svår, särskilt om en viss klass av banor i en felaktig datauppsättning måste studeras. Vi designade FromDaDy, en bana visualisering verktyg som tar itu med svårigheterna att utforska visualisering av flera spår. Denna flerdimensionella dataprospektering är baserad på scatterplots, borstning, pick and drop, juxtaposed vyer och snabb visuell design. Användare kan organisera arbetsytan består av flera juxtaposed vyer. De kan definiera vyernas visuella konfiguration genom att koppla datamåtten från datasetet till Bertins visuella variabler. De kan sedan borsta banor, och med en pick and drop operation kan de sprida den borstad information över vyer. De kan sedan upprepa dessa interaktioner, tills de extraherar en uppsättning relevanta data, vilket formulerar komplexa frågor. Genom två verkliga scenarier, visar vi hur FromDaDy stöder iterativa frågor och utvinning av banor i en datauppsättning som innehåller upp till 5 miljoner data. Index Termsvisualisering, iterativ undersökning, direkt manipulering, banor. Inom flygkontrollområdet (ATC) kräver analys av trafik eller utveckling av nya sätt att hantera luftrummet banor. En luftfartygsbana är ett register över ett luftfartygs positioner i ett visst luftrum (3D+tid plus annan information såsom identifierare, hastighet etc.). Som sådan är banor flerdimensionella data. Flygtrafikens andelsägare analyserar regelbundet trafiken för att: förstå tidigare konflikter och sedan förbättra säkerheten med lämpliga utvecklingar, bedöma nya ombord- och marksäkerhetssystem och de resulterande flygspåren, utforma nya luftrymdsorganisation och förfaranden för att hantera trafikökningar, jämföra spår med miljöhänsyn (bränsleförbrukning, buller, vertikal profiljämförelse), studera lönsamhet ur affärsmässig synvinkel (antal luftfartyg på en specifik flygväg per dag, antal flygplan som faktiskt landade på en viss flygplats), filtrera och extrahera trajectories för att återanvända dem (denna uppgift kommer senare att illustreras i detta dokument i avsnittet om banutvinning för flygledare utbildning). Formulera frågor över banor på ett deklarativt, textspråk baserat sätt, såsom en SQL, är svårt. Även om det är möjligt att välja banor som flyter över specifika platser, är det mycket svårt att ange funktioner som utvalda banor där denna del av banan är rak eller där denna del har en konstant klättringshastighet Således är visuell analys det enda sättet att upptäcka relevanta banor funktioner effektivt. Trajectories är många och trassel: en dag trafik över Frankrike till exempel, representerar cirka 20000 banor ( Bild. 1 )............................................................................................................... När det gäller banor måste användarna utföra dynamiska förfrågningar (svarstid < 100 ms [15]) på en enorm flerdimensionell datauppsättning (>1 miljon data). Förutom problemet med datastorlek måste användarna hantera en datauppsättning som innehåller många fel och osäkerheter: registrering sker regelbundet (i vår databas: en radarplot per flygplan var 4:e minut), men en plott kan missas, eller ha felaktiga värden på grund av fysiska problem som inträffade vid tidpunkten för registreringen. Det problem som vi tar itu med i detta dokument är att hitta ett sätt att uttrycka dessa frågor, enkelt och exakt, med tanke på begränsningarna i fråga om datamängdernas storlek och osäkerhet. Vi har utvecklat FromDaDy (som står för FRAN DATA till DisplaY), ett visualiseringsverktyg som tar itu med utmaningen att representera, och interagera med, många banor med osäkerhet. FromDaDy använder ett enkelt paradigm för att utforska multidimensionell data baserad på scatterplots, borstning, pick and drop, juxtaposed vyer och snabb visuell konfiguration. Den grundläggande nya aspekten av FromDaDy jämfört med befintliga visualiseringssystem, är att göra det möjligt för användare att sprida data över vyer. Tillsammans med en finjusterad blandning mellan designanpassning och enkel interaktion kan användare filtrera, ta bort och lägga till banor på ett itererat sätt tills de extraherar en uppsättning relevanta data och därmed formulerar komplexa frågor. Resten av detta dokument är organiserat enligt följande. För det första presenterar vi relevant relaterat arbete. Sedan listar vi designkraven för att uppfylla banan analys uppgift. Därefter beskriver vi FromDaDy funktioner och motiverar våra implementation val. Slutligen beskriver vi styrkan hos FromDaDy med två specifika dataextraheringsscenarier.
Det finns därför inga dubbleringar av banor för en flygenhet, utan banorna är utspridda över vyer REF.
3,180,835
FromDaDy: Spreading Aircraft Trajectories Across Views to Support Iterative Queries
{'venue': 'IEEE Transactions on Visualization and Computer Graphics', 'journal': 'IEEE Transactions on Visualization and Computer Graphics', 'mag_field_of_study': ['Computer Science', 'Medicine']}
1,995
I detta dokument överväger vi den slutliga distributionen av eldningsolja från ett lager till en uppsättning bensinstationer som ett oljebolag står inför, som måste besluta om den veckovisa påfyllningsplanen för varje station, och bestämma bensinstationens besökssekvenser (fordonsrutter) för varje dag i veckan, förutsatt att en flotta av homogena fordon (tankbilar). Syftet är att minimera det totala avstånd som tankfartygen tillryggalägger under veckan, samtidigt som de lastar tankfartyg som eventuellt ligger nära deras kapacitet för att maximera resursutnyttjandet. Problemet är modellerat som en generalisering av Periodic Vehicle Routing Problem (PVRP). På grund av den stora storleken på de verkliga instanser som företaget måste ta itu med, löser vi problemet heuritiskt. Vi föreslår en hybridgenetisk algoritm som framgångsrikt tar itu med problemet inspirerat till en känd hybridgenetisk algoritm från litteraturen för PVRP. Den föreslagna algoritmen antar dock vissa tekniker och egenskaper som är skräddarsydda för det särskilda problemet med distribution av eldningsolja, och den är särskilt utformad för att hantera verkliga fall som härrör från distributionen av eldningsolja i ett europeiskt sammanhang som skiljer sig mycket från de PVRP-fall som finns tillgängliga i litteraturen. Den föreslagna algoritmen utvärderas på en uppsättning verkliga fallstudier och på en uppsättning slumpmässigt genererade fall som har samma egenskaper hos den förra.
Det periodiska VRP för distribution av bränsleoljor som studerats av Carotenuto et al. REF, en hybrid genetisk algoritm utvecklades för att lösa det på en uppsättning verkliga fallstudier och på en uppsättning slumpmässigt genererade fall.
108,560,978
Periodic Capacitated Vehicle Routing for Retail Distribution of Fuel Oils
{'venue': None, 'journal': 'Transportation research procedia', 'mag_field_of_study': ['Engineering']}
1,996
Automatiskt uppskatta en användares socioekonomiska profil från deras språkanvändning i sociala medier kan avsevärt hjälpa samhällsvetenskap forskning och olika nedströms applikationer som sträcker sig från företag till politik. I det aktuella dokumentet presenteras den första studien där användarens kognitiva struktur används för att bygga en prediktiv inkomstmodell. Framför allt utvecklar vi först en klassificerare med hjälp av en svagt övervakad inlärningsram för att automatiskt märka tweets som tidigare, nuvarande eller framtida. Vi kvantifierar en användares övergripande tidsorientering baserat på deras distribution av tweets, och använder den för att bygga en prediktiv inkomstmodell. Vår analys avslöjar ett samband mellan framtida tidsorientering och inkomst. Slutligen mäter vi den prediktiva kraften i framtida tidsorientering på inkomst genom att utföra regression.
REF är den första att använda användarens kognitiva struktur i termer av användarens övergripande tidsorientering för att förutsäga inkomst som avslöjar ett samband mellan framtida tidsorientering och inkomst.
29,655,432
Temporal Orientation of Tweets for Predicting Income of Users
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,997
I de senaste förslagen till programvarutransaktionsminne är det en tvistehanterare som ansvarar för att systemet som helhet gör framsteg. Ett antal algoritmer för stridsledare har föreslagits och utvärderats empiriskt. I detta dokument lägger vi en del grunder för en teori om tvistehantering. Vi presenterar den giriga tvistehanteraren, den första som kombinerar icke-triviala bevisbara egenskaper med god praktisk prestation. I en modell där transaktionsförseningar är ändliga garanterar den girige chefen att varje transaktion begår inom en begränsad tid, och tiden för att slutföra n samtidiga transaktioner som delar objekt ligger inom en faktor av s (s + 1)/2 av den tid som skulle ha tagits av en optimal offline lista schemaläggare. Ingen tvistehandläggare granskad i litteraturen uppfyller båda fastigheterna. Riktmärkena visar att vi hävdar att den girige managern är praktisk.
Guerraoui m.fl. REF tillhandahöll den första teoretiska analysen av tvistehanterare, som visar att Greedys tvistehanterare är O(s 2 ) konkurrenskraftig i förhållande till en optimal offline schemaläggare, där s är antalet delade dataobjekt.
5,461,923
Toward a theory of transactional contention managers
{'venue': "PODC '05", 'journal': None, 'mag_field_of_study': ['Computer Science']}
1,998
Den dynamiska rumsliga omfördelning av individer är en viktig drivkraft för olika spatiotemporala fenomen på geografiska skalor. Det kan synkronisera populationer av samverkande arter, stabilisera dem och diversifiera genpooler [1] [2] [3]. Människors resor är till exempel ansvariga för den geografiska spridningen av infektionssjukdomar hos människor [4] [5] [6] [7] [8] [9]. Mot bakgrund av den ökande internationella handeln, den ökade rörligheten för människor och det överhängande hotet om en influensa A-epidemi 10 är kunskapen om dynamiska och statistiska egenskaper hos resor till människor av grundläggande betydelse. Trots sin avgörande roll är en kvantitativ bedömning av dessa egenskaper på geografiska skalor fortfarande svårfångad, och antagandet att människor dispergerar diffust råder fortfarande i modeller. Här rapporterar vi om en solid och kvantitativ bedömning av human resestatistik genom att analysera spridningen av sedlar i Förenta staterna. Med hjälp av en omfattande datamängd på över en miljon individuella förskjutningar, finner vi att spridning är avvikande på två sätt. För det första förfaller fördelningen av resavstånd som en maktlag, vilket tyder på att banor av sedlar påminner om skalan fria slumpmässiga promenader som kallas Lévy flygningar. För det andra är sannolikheten att stanna kvar i en liten, rumsligt begränsad region under en tid T domineras av algebraiskt långa svansar som dämpar den superdiffusiva spridningen. Vi visar att mänskligt resande kan beskrivas matematiskt på många spatiotemporala skalor genom en tvåparameters slumpmässig gångmodell med en överraskande exakthet, och drar slutsatsen att mänskligt resande på geografiska skalor är en ambivalent och effektivt superdiffusiv process. Kvantitativa aspekter av spridning i ekologi bygger på spridningskurvan, som kvantifierar den relativa frekvensen av resor avstånd för individer som en funktion av geografiskt avstånd 11. En stor klass av spridningskurvor (t.ex. exponentiellt, gaussiskt, sträckt exponentiellt) gör det möjligt att identifiera en typisk längdskala med variansen av förskjutningens längd eller motsvarande storheter. När det tolkas som sannolikheten P(r) att hitta en förskjutning av längden r på kort tid dt, motiverar förekomsten av en typisk längdskala ofta beskrivningen av spridning i termer av diffusionsekvationer på stora spatiotemporala skalor. Om, dock, P(r) saknar en typisk längdskala, det vill säga P(r), r 2(12) b) med b, 2, diffusions approximationen misslyckas. I fysiken kallas slumpmässiga processer med en sådan enstegsfördelning Lévyflygningar [12] [13] [14] [15] [16] (se kompletterande information). Nyligen har det relaterade begreppet långdistansspridning (LDD) etablerats i spridningsekologi 17, med beaktande av observationen att spridningskurvor för ett antal arter visar makt-lag svansar på grund av långdistansrörelser [18] [19] [20] [21]. (I ekologisk litteratur används ofta termen "spridning" i samband med den rumsliga förskjutningen av individer av en art mellan deras geografiska ursprung och platsen för deras första häckningsplats. Här använder vi termen spridning för att hänvisa till geografiska förskjutningar som inträffar på mycket kortare tidsskala, det vill säga på grund av resor med olika transportmedel.) I dag färdas människor på många rumsliga skalor, från några få till tusentals kilometer under korta tidsperioder. Den direkta kvantitativa bedömningen av mänskliga rörelser är dock svår, och det finns ingen statistiskt tillförlitlig uppskattning av mänsklig spridning som omfattar alla rumsliga skalor. Det centrala syftet med detta arbete är att använda data som samlas in på nätet faktura-tracking webbplatser (som övervakar den globala spridningen av ett stort antal enskilda sedlar) för att dra slutsatsen de statistiska egenskaperna hos mänsklig spridning med mycket hög spatiotemporal precision. Vår analys av mänskliga rörelser är baserad på banor av 464,670 dollar sedlar som erhållits från Bill-tracking systemet www.wheresgeorge.com. Vi analyserade spridningen av sedlar i USA, exklusive Alaska och Hawaii. Kärndata består av 1 033 095 rapporter till Bill-tracking webbplats. Från dessa rapporter beräknade vi de geografiska förskjutningarna r 1⁄4 jx 2 2 x 1 j mellan en första (x 1 ) och sekundär (x 2 ) rapportera plats för en banksedel och förfluten tid T mellan på varandra följande rapporter. För att illustrera de kvalitativa egenskaperna hos banksedlar, bild. 1b skildrar korta banor (T, 14 dagar) från tre större städer i USA: Seattle, New York och Jacksonville. Efter deras första inträde i spårningssystemet, de flesta sedlar nästa rapporteras i närheten av den ursprungliga inträdesplats, det vill säga jx 2 2 x 1 j # 10 km (Seattle, 52,7%; New York, 57,7%; Jacksonville, 71,4%). En liten men betydande andel rapporteras dock längre än 800 km (Seattle, 7,8 %; New York, 7,4 %; Jacksonville, 2,9 %). Från totalt 20,540 korta banor med ursprung i USA, mätte vi sannolikheten P(r) för att passera ett avstånd r i ett tidsintervall dT på 1-4 dagar (Fig. 1c)........................................................................................................... Totalt 14,730 (dvs. ett bråk Q 1⁄4 0,71) inträffade sekundära rapporter utanför en kort räckvidd radie L min 1⁄4 10 km. Mellan L min och den ungefärliga genomsnittliga öst-väst-utvidgningen av USA, L max < 3200 km, visar kärnan power-law beteende P(r), r 2(12) b) med en exponent b 1⁄4 0.59^0.02. För r, L min, P (r) ökar linjärt med r, vilket innebär att förskjutningar fördelas jämnt inuti skivan jx 2 2 x 1 j # L min. Vi mätte P(r) för tre klasser av första inträdesplatser: högbefolkade storstadsområden (191 platser, lokalbefolkningen N loc. 120.000), städer av mellanstorlek (1.544 områden, lokalbefolkningen 120.000. Nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, jag, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, 22 000) och småstäder (23 640 platser, lokalbefolkningen N loc, 22 000), varav 35,7 %, 29,1 % respektive 25,2 % av hela befolkningen i Förenta staterna. Infällningen i bild. 1c visar P(r) för dessa klasser. Trots systematiska avvikelser för korta avstånd, alla distributioner visar en algebraisk svans med samma exponent b < 0.6, som bekräftar att den observerade makt-lagen är en inneboende och universell egenskap av spridning. Situationen är emellertid mer komplicerad. Om vi antar att spridningen av sedlar kan beskrivas av en Lévy flygning med en kort tids sannolikhetsfördelning P(r), kan vi uppskatta tiden T eq för en initialt lokaliserad ensemble av sedlar för att nå den stationära fördelningen 22 (kartor i Bild. 1a), erhålla ett värde av T eq < 68 dagar (se Kompletterande information). Efter 2-3 månader borde alltså sedlarna ha nått jämviktsfördelningen. Förvånansvärt nog återspeglar de långvariga spridningsuppgifterna inte en avkoppling inom detta LETTERS
Baserat på över en miljon rapporter om sedelutgivning i USA, Brockmann et al. förklarade den mänskliga rörligheten som kombinationen av en skala-fri hopp och en tung-tailed vänta, och föreslog en slumpmässig-walk modell för att karakterisera dessa resultat REF.
4,330,122
The scaling laws of human travel
{'venue': 'Nature', 'journal': 'Nature', 'mag_field_of_study': ['Geography', 'Physics', 'Medicine']}
1,999
Vi beskriver en allmän teknik som ger de första statistiska frågorna lägre gränser för en rad grundläggande högdimensionella inlärningsproblem som involverar Gaussiska distributioner. Våra huvudsakliga resultat är för problemen med (1) lärande Gaussian blandning modeller (GMMs), och (2) robust (agnostic) lärande av en enda okänd Gaussian distribution. För vart och ett av dessa problem visar vi ett super-polynomiskt gap mellan den (information-teoretiska) prov komplexiteten och den beräkningsmässiga komplexiteten hos någon statistisk frågesalgoritm för problemet. Statistiska Query-algoritmer (SQ) är en klass av algoritmer som endast får ifrågasätta förväntningar på distributionens funktioner snarare än få direkt tillgång till prover. Denna klass av algoritmer är ganska bred: ett brett spektrum av kända algoritmiska tekniker i maskininlärning är kända för att vara genomförbar med SQs. Dessutom, för de oövervakade inlärningsproblem som studeras i denna uppsats, alla kända algoritmer med icke-triviala prestanda garantier är SQ eller är lätt att implementera med SQs. Vår SQ lägre gräns för problem (1) matchas kvalitativt av kända inlärningsalgoritmer för GMMs. På en konceptuell nivå innebär detta resultat att – när det gäller SQ-algoritmer – den beräkningsmässiga komplexiteten hos lärande GMMs är i sig exponentiellt i dimensionen av det latenta rummet – även om det inte finns någon sådan informationsteoretisk barriär. Vår lägre gräns för problem (2) innebär att noggrannheten hos den robusta inlärningsalgoritmen i [29] är i huvudsak bästa möjliga bland alla polynom-tid SQ algoritmer. På den positiva sidan ger vi också en ny (SQ) inlärningsalgoritm för problem (2) att uppnå informationsteoretisk optimal noggrannhet, upp till en konstant faktor, vars körtid i huvudsak matchar vår lägre gräns. Vår algoritm bygger på en filtreringsteknik som generaliserar [29] som tar bort avvikelser baserade på högorder tensorer. Våra SQ nedre gränser uppnås genom en enhetlig momentmatching teknik som är användbar i andra sammanhang och kan vara av större intresse. Vår teknik ger nästan åtstramande lägre gränser för ett antal relaterade oövervakade skattningsproblem. Specifikt, för problemen med (3) robust kovariansuppskattning i spektral norm, och (4) robust gles medeluppskattning, etablerar vi en kvadratisk statistisk beräkningsavräkning för SQ-algoritmer, som matchar kända övre gränser. Slutligen kan vår teknik användas för att få tighta prov komplexitet lägre gränser för högdimensionella testproblem. Särskilt när det gäller det klassiska problemet med att kraftfullt testa ett okänt medelvärde (känd kovarians) Gaussian, innebär vår teknik ett informationsteoretiskt prov lägre bundet som skalar linjärt i dimensionen. Vårt urval lägre bundet matchar provet komplexiteten i motsvarande robust inlärningsproblem och separerar provet komplexitet robust testning från standard (non-robust) testning. Denna separation är förvånande, eftersom en sådan klyfta inte existerar för motsvarande inlärningsproblem.
Se REF för de senaste resultaten av beräkningskomplexa inlärningsblandningar av Gaussians.
3,426,809
Statistical Query Lower Bounds for Robust Estimation of High-Dimensional Gaussians and Gaussian Mixtures
{'venue': '2017 IEEE 58th Annual Symposium on Foundations of Computer Science (FOCS)', 'journal': '2017 IEEE 58th Annual Symposium on Foundations of Computer Science (FOCS)', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
2,000
Abstract -I detta papper presenterar vi IDAMN, ett distribuerat system vars huvudsakliga funktionalitet är att spåra och upptäcka mobila inkräktare i realtid. IDAMN omfattar två algoritmer som modellerar användarnas beteende både när det gäller telefoniaktivitet och migreringsmönster. Den viktigaste nyheten med vår arkitektur är dess förmåga att utföra intrångsdetektering i den besökta platsen och inom loppet av ett typiskt samtal i motsats till befintliga konstruktioner som kräver rapportering av alla samtalsdata till hemplatsen för att utföra den faktiska upptäckten. Algoritmerna och komponenterna i IDAMN har utformats för att minimera de omkostnader som uppstår i den fasta delen av det cellulära nätverket.
I REF, Samfat et al. föreslagna IDAMN (Intrusion Detection Architecture for Mobile Networks) som innehåller två algoritmer för att modellera användarnas beteende både när det gäller telefoniaktivitet och migreringsmönster.
7,660,016
Idamn: An intrusion detection architecture for mobile networks
{'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,001
Abstract-This paper studerar relästrategier och den ungefärliga kapaciteten hos den klassiska trenode Gaussiska reläkanalen, men där ljuden vid reläet och på destinationen är korrelerade. Det visas att kapaciteten hos en sådan reläkanal kan uppnås inom ett konstant mellanrum på 1 2 log 2 3 = 0.7925 bitar med hjälp av en modifierad version av den bullriga nätkodningsstrategin, där kvantifieringsnivån vid reläet sätts på ett korrelationsberoende sätt. Som en följd av detta fastställs i denna skrivelse att det konventionella systemet med kompress och framåt också uppnår en konstant kapacitetsklyfta. Däremot kan avkoda-och-framåt och en-tap förstärka-och-framåt relästrategier ha en oändlig lucka till kapacitet i regimen där ljuden vid reläet och på destinationen är mycket korrelerade, och vinsten av relä-till-destination länk går till oändlighet.
För SISO Gaussian reläkanal med brus korrelation, REF visar att komprimera-och-framåt uppnår kapaciteten att inom en konstant additiv lucka.
17,733,926
Capacity of the Gaussian Relay Channel with Correlated Noises to Within a Constant Gap
{'venue': 'IEEE Communications Letters', 'journal': 'IEEE Communications Letters', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
2,002
Abstrakt. Modelleringen av rumsliga diskontinuiteter för problem som ytåterställning, segmentering, bildrekonstruktion och optiskt flöde har studerats intensivt i datorseendet. Även om "line-process" modeller av diskontinuiteter har fått en hel del uppmärksamhet, har det på senare tid funnits intresse för att använda robusta statistiska tekniker för att redovisa diskontinuiteter. Detta dokument förenar de två tillvägagångssätten. För att uppnå detta generaliserar vi begreppet "line process" till en analog "outlier process" och visar hur ett problem formulerat i termer av outlier processer kan ses i termer av robust statistik. Vi karakteriserar också en klass av robusta statistiska problem för vilka det finns en likvärdig outlier-process formulering och ger en enkel metod för att omvandla en robust uppskattning problem till en outlier-process formulering. Vi visar hur förutfattade antaganden om ytterliggares rumsliga struktur kan uttryckas som begränsningar i de återvunna analoga outlierprocesserna och hur traditionella fortsättningsmetoder kan utvidgas till den explicita outlier-processens formulering. Dessa resultat tyder på att den outlier-processen ger en allmän ram som subsumerar de traditionella linjeprocesserna och en bred klass av robusta skattningsproblem. Exempel på ytrekonstruktion, bildsegmentering och optiskt flöde presenteras för att illustrera användningen av yttre processer och för att visa hur förhållandet mellan yttre processer och robust statistik kan utnyttjas. En bilaga ger en katalog av gemensamma robusta felnormer och deras likvärdiga outlier-process formuleringar.
Senare i REF ses linjeprocessen som ett sätt att avvisa avvikelser som ger en ekvivalens med robusta estimatorer.
7,510,079
On the unification of line processes, outlier rejection, and robust statistics with applications in early vision
{'venue': 'International Journal of Computer Vision', 'journal': 'International Journal of Computer Vision', 'mag_field_of_study': ['Computer Science']}
2,003
En effektiv strategi för energibesparing i trådlösa sensornätverk är att schemalägga vilointervaller för främmande noder, medan de återstående noderna förblir aktiva för att tillhandahålla kontinuerlig service. För att sensornätverket ska fungera framgångsrikt måste de aktiva noderna upprätthålla både sensortäckning och nätverksanslutning. Dessutom måste nätverket kunna konfigurera sig till alla tänkbara nivåer av täckning och konnektivitet för att stödja olika tillämpningar och miljöer med olika krav. I detta dokument presenteras utformningen och analysen av nya protokoll som dynamiskt kan konfigurera ett nätverk för att uppnå garanterad grad av täckning och konnektivitet. Detta arbete skiljer sig från befintliga konnektivitets- eller täckningsunderhåll protokoll på flera viktiga sätt: 1) Vi presenterar en Coverage Configuration Protocol (CCP) som kan ge olika grader av täckning begärs av applikationer. Denna flexibilitet gör det möjligt för nätverket att självkonfigurera för ett brett spektrum av tillämpningar och (eventuellt dynamiska) miljöer. 2) Vi tillhandahåller en geometrisk analys av förhållandet mellan täckning och konnektivitet. Denna analys ger viktiga insikter för att behandla täckning och konnektivitet inom en enhetlig ram: detta står i skarp kontrast till flera befintliga metoder som hanterar de två problemen isolerat. 3) Slutligen integrerar vi CCP med SPAN för att ge både täckning och konnektivitetsgarantier. Vi demonstrerar våra protokolls förmåga att ge garanterad täckning och konnektivitetskonfigurationer, både genom geometrisk analys och omfattande simuleringar.
Täckning Configuration Protocol (CCP) är en annan täckning kontroll protokoll föreslås i REF.
269,391
Integrated coverage and connectivity configuration in wireless sensor networks
{'venue': "SenSys '03", 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,004
Flera maskininlärning modeller, inklusive neurala nätverk, konsekvent felklassificera adversariala exempel-ingångar bildas genom att tillämpa små men avsiktligt värsta fall perturbations till exempel från datasetet, så att den perturbed input resulterar i modellen som ger ett felaktigt svar med hög tillförlitlighet. Tidiga försök att förklara detta fenomen fokuserade på icke-linjäritet och översittande. Vi argumenterar istället för att den primära orsaken till neurala nätverks sårbarhet för kontradiktorisk perturbation är deras linjära natur. Denna förklaring stöds av nya kvantitativa resultat samtidigt som den ger den första förklaringen till de mest spännande fakta om dem: deras generalisering över arkitekturer och utbildningsset. Dessutom ger denna uppfattning en enkel och snabb metod för att generera kontradiktoriska exempel. Med hjälp av detta tillvägagångssätt för att ge exempel på kontradiktorisk utbildning, minskar vi testuppsättningsfelet för ett maxout-nätverk på MNIST-datasetet.
Normen för perturbation (alltid i ∞ norm REF ) är betecknad.
6,706,414
Explaining and Harnessing Adversarial Examples
{'venue': 'ICLR 2015', 'journal': 'arXiv: Machine Learning', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
2,005
Abstrakt. Spatial pyramid pooling modul eller kod-dekoder struktur används i djupa neurala nätverk för semantiska segmentering uppgift. De tidigare nätverken kan koda flerskalig kontextuell information genom att undersöka inkommande funktioner med filter eller poolning i flera hastigheter och flera effektiva synfält, medan de senare nätverken kan fånga skarpare objektgränser genom att gradvis återställa den rumsliga informationen. I detta arbete föreslår vi att fördelarna med båda metoderna kombineras. Speciellt vår föreslagna modell, DeepLabv3+, utökar DeepLabv3 genom att lägga till en enkel men effektiv dekodermodul för att förfina segmenteringsresultaten, särskilt längs objektgränser. Vi utforskar vidare Xception-modellen och tillämpar djupvis separerbar konvolution på både Atrous Spatial Pyramid Pooling- och dekodermoduler, vilket resulterar i ett snabbare och starkare encoder-dekoder-nätverk. Vi demonstrerar effektiviteten hos den föreslagna modellen på PASCAL VOC 2012 och Cityscapes datauppsättningar, vilket ger en prestanda på 89,0% och 82,1% utan någon efterbehandling. Vårt dokument åtföljs av ett offentligt tillgängligt referensgenomförande av de föreslagna modellerna i Tensorflow på https: // github.com/ tensorflow/modeller/tree/master/research/deeplab.
Deeplabv3+ REF lägger till en enkel dekodermodul för att fånga lokala sammanhang, förfina segmenteringsresultaten.
3,638,670
Encoder-Decoder with Atrous Separable Convolution for Semantic Image Segmentation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
2,006
I denna not föreslår vi en metod baserad på artificiella neurala nätverk för att studera övergången mellan stater som styrs av stokastiska processer. I synnerhet siktar vi på numeriska system för committor-funktionen, det centrala objektet för övergångsbana teori, som uppfyller en högdimensionell Fokker-Planck ekvation. Genom att arbeta med variationsformuleringen av en sådan partiell differentialekvation och parameterisera committorfunktionen i termer av ett neuralt nätverk, approximationer kan erhållas via optimera neurala nätverksvikter med hjälp av stokastiska algoritmer. De numeriska exemplen visar att måttlig noggrannhet kan uppnås för högdimensionella problem.
I REF, en committer funktion parameteriseras av en neural neurala nätverk vars vikter erhålls genom att optimera variationsformuleringen av motsvarande PDE.
3,637,630
Solving for high dimensional committor functions using artificial neural networks
{'venue': None, 'journal': 'Research in the Mathematical Sciences', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
2,007
Abstract-optimering moln spelupplevelse är ingen enkel uppgift på grund av den komplexa kompromissen mellan gamer kvalitet erfarenhet (QoE) och leverantörens nettovinst. Vi tar itu med utmaningen och studerar ett optimeringsproblem för att maximera molnspelsleverantörens totala vinst samtidigt som vi uppnår just-good-enough QoE. Vi genomför mätstudier för att härleda QoE och prestandamodeller. Vi formulerar och löser problemet på bästa sätt. Optimeringsproblemet har exponentiell drifttid och vi utvecklar en effektiv heuristisk algoritm. Vi presenterar också en alternativ formulering och algoritmer för slutna moln gaming tjänster med dedikerad infrastruktur, där vinsten inte är ett problem och övergripande spel QoE behöver maximeras. Vi presenterar ett prototypsystem och testbäddar med hjälp av off-the-shelf-virtualiseringsprogram för att visa hur praktiska och effektiva våra algoritmer är. Vår erfarenhet av att inse testbädden kastar lite ljus över hur molnspelsleverantörer kan bygga upp sina egna lönsamma tjänster. Sist gör vi omfattande spårdrivna simuleringar för att utvärdera våra föreslagna algoritmer. Simuleringsresultaten visar att de föreslagna heuristiska algoritmerna: (i) producera nära-optimala lösningar, (ii) skala till stora molnspeltjänster med 20 000 servrar och 40 000 spelare, och (iii) överträffa den toppmoderna placering heuristiska, t.ex., med upp till 3,5 gånger i termer av nettovinster.
Hong m.fl. REF löser optimeringsproblemet med VM-placering.
14,336,125
Placing Virtual Machines to Optimize Cloud Gaming Experience
{'venue': 'IEEE Transactions on Cloud Computing', 'journal': 'IEEE Transactions on Cloud Computing', 'mag_field_of_study': ['Computer Science']}
2,008
Abstrakt-Den förnybara energiproduktionen som sol och vind kommer att utgöra en viktig del av nästa generations elnät. Eftersom variationerna i förnybara energikällor kanske inte motsvarar tidsfördelningen för belastning, är energilagring av avgörande betydelse för nätets stabilitet. Tillsammans med energilagring undersöker vi möjligheten att integrera solcellspaneler (PV) och vindkraftverk i elnätet. För att hantera fluktuationen i både kraftproduktion och efterfrågan lånar vi idéerna från stokastisk nätkalkyl och bygger en stokastisk modell för strömförsörjningens tillförlitlighet med olika förnybara energikonfigurationer. För att illustrera modellens giltighet genomför vi en fallstudie för integrering av förnybara energikällor i kraftsystemet på en ö utanför södra Kaliforniens kust. Prestanda hos det undersökta hybridsystemet bedöms genom användning av den stokastiska modellen, t.ex. med en uppsättning systemkonfigurationer, den långsiktiga förväntade tidsfraction som energi som inte serveras (FTNS) för en given period kan erhållas.
I REF-nätskalkylkoncept används för att gemensamt storleksanpassa lagring, solceller och vindkraftverk för en specifik förlust av sannolikheten för strömförsörjning.
14,953,819
How stochastic network calculus concepts help green the power grid
{'venue': '2011 IEEE International Conference on Smart Grid Communications (SmartGridComm)', 'journal': '2011 IEEE International Conference on Smart Grid Communications (SmartGridComm)', 'mag_field_of_study': ['Engineering', 'Computer Science']}
2,009
I detta papper studeras energieffektiv gemensam överföring och strålformning i flercelliga flercelliga system med flera ingångar. Vi anser att konventionella nät energieffektivitet metriska där användarna kan ta emot unicasting strömmar utöver de gruppspecifika gemensamma multicasting strömmar som har vissa hastighetsbegränsningar. Målet är att använda överföringsresurserna mer effektivt för att förbättra energieffektiviteten när användarna är utrustade med flera antenner. Numeriska resultat visar de uppnådda energieffektivitetsvinsterna genom att använda de ytterligare graderna av frihet för multicasting överföring till privat meddelande unicasting. Index Terms-Beamforming, minsta genomsnittliga kvadrat fel, energieffektivitet, successiv konvex approximation, delprogrammering, kretskraft, unicasting, multicasting.
Tervo m.fl. REF studerade energieffektiv gemensam överföring och tar emot strålformning i ett flercelligt MIMO-system där användarna kan ta emot unicast-meddelanden utöver de gruppspecifika multisändningsmeddelandena på samma gång.
26,715,023
Energy-efficient joint unicast and multicast beamforming with multi-antenna user terminals
{'venue': '2017 IEEE 18th International Workshop on Signal Processing Advances in Wireless Communications (SPAWC)', 'journal': '2017 IEEE 18th International Workshop on Signal Processing Advances in Wireless Communications (SPAWC)', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
2,010
Djupa neurala nätverk är state of the art metoder för många inlärningsuppgifter på grund av deras förmåga att extrahera allt bättre funktioner på varje nätverk lager. Den förbättrade prestandan för ytterligare skikt i ett djupt nätverk kommer dock till priset av ökad latens och energianvändning i feedforward-slutsatsen. När nätverken fortsätter att bli djupare och större blir dessa kostnader mer oöverkomliga för realtids- och energikänsliga tillämpningar. För att ta itu med detta problem, presenterar vi BranchyNet, en ny djup nätverk arkitektur som utökas med ytterligare sidogren klassificerare. Arkitekturen gör det möjligt att förutsäga resultat för en stor del av proverna att lämna nätverket tidigt via dessa grenar när prover redan kan härledas med stort förtroende. BranchyNet utnyttjar observationen att funktioner som lärts på ett tidigt skikt av ett nätverk ofta kan vara tillräckligt för klassificering av många datapunkter. För svårare prover, som förväntas mindre ofta, kommer BranchyNet att använda ytterligare eller alla nätverkslager för att ge den bästa sannolikheten för korrekt förutsägelse. Vi studerar BranchyNet arkitektur med hjälp av flera välkända nätverk (LeNet, AlexNet, ResNet) och dataset (MNIST, CIFAR10) och visar att det både kan förbättra noggrannheten och avsevärt minska inference tiden i nätverket. 978-1-5090-4847-2/16/$31.00 ©2016 IEEE
BranchyNet REF utökade CNNs med ytterligare filial klassificerare för att tvinga en stor del av ingångar för att lämna dessa filialer för att möta resurskraven.
2,916,466
BranchyNet: Fast inference via early exiting from deep neural networks
{'venue': '2016 23rd International Conference on Pattern Recognition (ICPR)', 'journal': '2016 23rd International Conference on Pattern Recognition (ICPR)', 'mag_field_of_study': ['Computer Science']}
2,011
I den här artikeln beskriver vi en snabb algoritm för att anpassa meningar till deras översättningar i en tvåspråkig corpus. Befintliga effektiva algoritmer ignorerar ordidentiteter och endast överväga meningslängd (Brown el al., 1991b; Gale och Church, 1991). Vår algoritm konstruerar en enkel statistisk översättningsmodell från ord till ord i farten under anpassning. Vi hittar den anpassning som maximerar sannolikheten för att generera corpus med denna översättningsmodell. Vi har uppnått en felfrekvens på ungefär 0,4 procent på kanadensiska Hansarddata, vilket är en betydande förbättring jämfört med tidigare resultat. Algoritmen är språkoberoende.
Chen REF beskriver en algoritm som konstruerar en enkel statistisk översättningsmodell ord-till-ord i farten under mening anpassning.
15,369,413
Aligning Sentences In Bilingual Corpora Using Lexical Information
{'venue': 'Annual Meeting Of The Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,012
Detta papper utvecklar övre och nedre gränser för sannolikheten för Booleska funktioner genom att behandla flera förekomster av variabler som oberoende och tilldela dem nya individuella sannolikheter. Vi kallar detta tillvägagångssätt dissociation och ger en exakt karakterisering av optimala omedvetna gränser, d.v.s. När de nya sannolikheterna väljs oberoende av sannolikheten för alla andra variabler. Vår motivation kommer från den viktade modellen räkna problem (eller, motsvarande, problemet med att beräkna sannolikheten för en Boolesk funktion), som är #P-hård i allmänhet. Genom att utföra flera dissociationer, kan man omvandla en Boolesk formel vars sannolikhet är svår att beräkna, till en vars sannolikhet är lätt att beräkna, och som garanterat ger en övre eller nedre gräns för sannolikheten för den ursprungliga formeln genom att välja lämpliga sannolikheter för de dissocierade variablerna. Våra nya gränser kastar ljus över kopplingen mellan tidigare avkopplingsbaserade och modellbaserade approximationer och förenar dem som konkreta val i ett större designutrymme. Vi visar också hur vår teori tillåter en standard relational database management system (DBMS) till både övre och nedre bundet hårda probabilistiska frågor i garanterad polynom tid.
Teoretiska övre och nedre gränser för dissociation av Booleska formler, inklusive Theorem 8, visades i REF.
15,129,356
Oblivious Bounds on the Probability of Boolean Functions
{'venue': 'Pre-print for ACM Transactions on Database Systems, January 2014, Vol 39, No 1, Article 5', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,013
Valet av ungefärlig bakre fördelning är ett av huvudproblemen i variationsläran. De flesta tillämpningar av variationsinferens använder enkla familjer av bakre approximationer för att möjliggöra en effektiv slutledning, med fokus på medelfält eller andra enkla strukturerade approximationer. Denna begränsning har en betydande inverkan på kvaliteten på de slutsatser som görs med hjälp av olika metoder. Vi inför ett nytt tillvägagångssätt för att specificera flexibla, godtyckligt komplexa och skalbara ungefärliga bakre fördelningar. Våra approximationer är distributioner konstruerade genom ett normaliserande flöde, där en enkel initial densitet omvandlas till en mer komplex en genom att tillämpa en sekvens av inverterbara omvandlingar tills en önskad nivå av komplexitet uppnås. Vi använder denna syn på normaliserade flöden för att utveckla kategorier av finita och oändligt små flöden och ger en enhetlig syn på tillvägagångssätt för att bygga rika bakåtriktade approximationer. Vi visar att de teoretiska fördelarna med att ha bakdelar som bättre matchar den verkliga bakre, i kombination med skalbarheten av avkortade variationsmetoder, ger en tydlig förbättring av prestanda och tillämplighet av variationsinferens.
Användningen av normaliserade flöden REF förbättrar flexibiliteten i fordonslarmsystemets ungefärliga bakre del.
12,554,042
Variational Inference with Normalizing Flows
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
2,014
Abstract-This paper försöker besvara grundläggande frågor om avvägningar mellan statiska och dynamiska säkerhetsanalyser. Det har tidigare visats att flödeskänslig statisk informationsflödesanalys är en naturlig generalisering av flödesinkänslig statisk analys, vilket gör det möjligt att acceptera säkrare program. Det har också visat sig att en sund, rent dynamisk tillämpning av informationsflödet är mer släpphänt än en statisk analys i det flödesokänsliga fallet. Vi hävdar att steget från flödesokänsligt till flödeskänsligt i grunden är begränsat för rent dynamiska informationsflödeskontroller. Vi visar att det är omöjligt för en ljuddynamisk informationsflödesmonitor som accepterar program certifierade av en klassisk flödeskänslig statisk analys. En sidoinverkan är omöjligheten av släpphänta dynamiska instrumenterade säkerhetssemantik för informationsflödet, vilket vägleder oss att avslöja en osund semantik från litteraturen. Vi presenterar en allmän ram för hybridmekanismer som är parameteriserade i den statiska delen och i reaktionsmetoden för verkställighet (stopp, undertrycka, eller skriva om) och ger säkerhetsgarantier med avseende på uppsägning okänslig icke-interferens för ett enkelt språk med utgång.
En unsoundness relaterad till inverkan av flödeskänslighet på informationsflödet har nyligen avslöjats REF.
704,822
Dynamic vs. Static Flow-Sensitive Security Analysis
{'venue': '2010 23rd IEEE Computer Security Foundations Symposium', 'journal': '2010 23rd IEEE Computer Security Foundations Symposium', 'mag_field_of_study': ['Computer Science']}
2,015
Abstract-Idag datakällor är genomträngande och deras antal växer enormt. De nuvarande verktygen är inte beredda att utnyttja denna oöverträffade mängd information och hantera denna mycket heterogena, autonoma och dynamiska miljö. I detta dokument föreslår vi en ny semantisk nätarkitektur för överlagring, PARIS, som syftar till att ta itu med dessa frågor. I PARIS ger kombinationen av decentraliserad semantisk dataintegration med skvallerbaserad (ostrukturerad) overlay topologihantering och (strukturerad) distribuerad hashtabeller den nödvändiga nivån av flexibilitet, anpassningsförmåga och skalbarhet, och gör det fortfarande möjligt att utföra rika frågor på ett antal autonoma datakällor. Vi beskriver den logiska modell som stödjer arkitekturen och visar hur dess ursprungliga topologi konstrueras. Vi presenterar användningen av systemet i detalj, särskilt algoritmer som används för att låta nya kamrater gå med i nätverket och för att utföra frågor ovanpå det och visa simuleringsresultat som bedömer skalbarhet och robusthet i arkitekturen.
Carmela Comito REF föreslog ett semantiskt overlay-nätverk baserat på dataintegration.
15,084,031
A Semantic Overlay Network for P2P Schema-Based Data Integration
{'venue': "11th IEEE Symposium on Computers and Communications (ISCC'06)", 'journal': "11th IEEE Symposium on Computers and Communications (ISCC'06)", 'mag_field_of_study': ['Computer Science']}
2,016
Timmar på dagen längre, eller hur? Alla verkar ha en massa saker som bara behövde göras igår, och problemet blir bara värre, inte bättre. Information överbelastad: det är bane av vår tid. Detta intryck verkar så realistiskt att man vanligtvis uppskattar all hjälp med att hantera åtminstone några enkla uppgifter. Internets senaste uppgång-inte bara i forskarsamhället utan också inom många områden i vardagen-är en stor boven. Internet är inte längre begränsat till att ge forskare tillgång till data, Internet är ofta valet för information om allt från vad som händer runt om i världen, till var man kan få de bästa flygbiljetterna, till hur man lagar en viss maträtt, till var man hittar de bästa vandringsleder. Det är underbart, men det orsakar också huvudvärk. Påverkan på datorsystemen är särskilt uttalad. När olika människor kommer samman utan centraliserade regler och vägledning, kommer många kreativa och trevliga, liksom några mindre trevliga, aspekter fram. Så när vi lägger ut information på World Wide Web, kan var och en av oss bestämma vad vi ska sätta där och hur vi ska organisera det. Resultatet är en distribuerad, världsomfattande tillgänglig informationskälla som innehåller icke-homogena data organiserade enligt olika mänskliga associationsmodeller och värdesystem. Även om denna personliga beröring och möjlighet till kreativitet kan vara mycket användbar för människor när de tillhandahåller och får information, de flesta datorsystem har svårt att hantera komplexiteten, särskilt eftersom människor vill ha information förr snarare än senare. De stora mängder information som finns tillgänglig i elektronisk form på webben utmanar forskarsamhället med dess distribuerade organisation; dess godtyckliga blandning av text, tal, bild och video i samma dokument; och den dynamiska karaktären av den tillhandahållna informationen. Ett antal system har dykt upp för att hjälpa användare att surfa på webben, vissa baserade på innehållsanalys med hjälp av mestadels text från webbdokument, och andra förlitar sig på annan information om dokumentrelevans, såsom användarbetyg. Den senaste utvecklingen i skärningspunkten mellan informationssökning och maskininlärning samt arbete i intelligenta agenter och intelligenta användargränssnitt erbjuder nya lösningar för att hjälpa användare att snabbt välja den information de vill ha. Ett brett spektrum av forskare är involverade i den intensiva utvecklingen av metoder för att använda maskininlärningsteknik på textdatabaser, så kallad textinlärning, som kombinerar forskning inom maskininlärning med informationssökning. Denna artikel undersöker en del av textinlärning där övervakade inlärningsmetoder används för text
Ett brett spektrum av forskare är involverade i den intensiva utvecklingen av metoder för att använda maskininlärning på textdatabaser, som kallas textinlärning och kombinerar forskning inom maskininlärning med informationssökning REF.
41,982,826
Text-learning and related intelligent agents: a survey
{'venue': None, 'journal': 'IEEE Intelligent Systems & Their Applications', 'mag_field_of_study': ['Computer Science']}
2,017
Att beräkna den parvisa semantiska likheten mellan alla ord på webben är en utmanande uppgift. Parallellisering och optimeringar är nödvändiga. Vi föreslår ett mycket skalbart genomförande baserat på distributionslikhet, implementerat i MapReduce-ramverket och utplacerat över en 200 miljarder ord krypning av webben. Den parvisa likheten mellan 500 miljoner termer beräknas i 50 timmar med hjälp av 200 quad-core noder. Vi tillämpar den inlärda likhetsmatrisen för uppgiften automatisk expansion och presenterar en stor empirisk studie för att kvantifiera effekten på expansionsprestandan av corpus storlek, corpus kvalitet, frösammansättning och utsädesstorlek. Vi offentliggör en experimentell testbädd för scenexpansionsanalys som inkluderar en stor samling av olika enheter som extraheras från Wikipedia.
I REF föreslår författarna en mycket skalbar term likhetsalgoritm, implementerad i MapReduce-ramverket, och utplacerad över en 200 miljarder ord crawl av webben för att beräkna parvisa likheter mellan termer.
5,629,501
Web-Scale Distributional Similarity and Entity Set Expansion
{'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,018
I detta dokument introduceras begreppen formbarhet och kastabilitet för enkla polygoner och relaterar formbarhet till monotonitet. Vi specificerar en (n) algoritm för att bestämma alla n framåt maximal monoton kedjor av en enkel polygon och tillämpa denna algoritm på problemen med att bestämma 2-Moldability, 2-Castability och den minsta monoton sönderdelning av en enkel polygon 9]. Våra resultat inkluderar en enkel optimal algoritm som löser det minsta monotona nedbrytningsproblemet, en optimal algoritm för att bestämma 2-Moldability och en O(n log n) algoritm för att bestämma 2-Castability.
REF presenterar en O(n log n) tidsalgoritm (oimplementerad) för 2D-fall där en polygon är 2-kastbar.
9,584,262
Moldable and Castable Polygons
{'venue': 'In Proc. 4th Canad. Conf. Comput. Geom', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
2,019
Traditionell relation extraktion förutsäger relationer inom vissa fasta och ändliga mål schema. Maskininlärning metoder för denna uppgift kräver antingen manuell annotering eller, i fallet med avlägsen övervakning, befintliga strukturerade källor av samma schema. Behovet av befintliga dataset kan undvikas genom att använda ett universellt schema: föreningen av alla inblandade scheman (ytform predikat som i OpenIE, och relationer i scheman för befintliga databaser). Detta schema har en nästan obegränsad uppsättning relationer (på grund av ytformer), och stöder integration med befintliga strukturerade data (genom relation typer av befintliga databaser). För att fylla en databas av sådana schema presenterar vi matris factorization modeller som lär latent funktion vektorer för entitet tuples och relationer. Vi visar att sådana latenta modeller uppnår betydligt högre noggrannhet än en traditionell klassificeringsmetod. Ännu viktigare, genom att arbeta samtidigt på relationer som observeras i text och i befintliga strukturerade DBs som Freebase, kan vi resonera om ostrukturerade och strukturerade data på ömsesidigt stödjande sätt. Genom att göra det överträffar vårt tillvägagångssätt den senaste avlägsna övervakningen.
För att fylla en kunskapsbas lärde sig REF gemensamt latent vektorer för objekt, relationsmönster och relationstyper i kunskapsbasen.
2,687,019
Relation Extraction with Matrix Factorization and Universal Schemas
{'venue': 'NAACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,020
Abstract-Tillkomsten av Web 2.0 har lett till en ökning av mängden sentimentalt innehåll som finns på webben. Sådant innehåll finns ofta i sociala medier webbplatser i form av film eller produktrecensioner, användarkommentarer, vittnesmål, meddelanden i diskussionsforum etc. Upptäckten av det sentimentala eller opinionella webbinnehållet i rätt tid har ett antal fördelar, den viktigaste av allt är monetarisering. Förståelse av människomassornas känslor för olika enheter och produkter möjliggör bättre tjänster för kontextuella annonser, rekommendationssystem och analys av marknadstrender. Fokus för vårt projekt är känslofokuserad webb krypande ram för att underlätta en snabb upptäckt av sentimentalt innehåll i filmrecensioner och hotellrecensioner och analys av samma. Vi använder statistiska metoder för att fånga element av subjektiv stil och meningen polaritet. I dokumentet diskuteras utförligt två övervakade algoritmer för maskininlärning: K-Nearest Neighbour (K-NN) och Naïve Bayes' och jämför deras övergripande noggrannhet, precisioner och minnesvärden. Man såg att vid filmrecensioner gav Naïve Bayes' mycket bättre resultat än K-NN men för hotellrecensioner gav dessa algoritmer mindre, nästan samma noggrannhet.
Ett mycket liknande arbete på hotell kundrecensioner och film recensioner analyseras med hjälp av de välkända K-NN och Naïve Bayes klassificering algoritmer i papper REF.
5,306,869
Sentiment Analysis of Review Datasets Using Naive Bayes and K-NN Classifier
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
2,021
Den senaste tidens framsteg inom teknik och metodik har lett till ökande mängder alltmer komplexa neurovetenskapsdata som registrerats från olika arter, modaliteter och studienivåer. Den snabba datatillväxten har gjort effektiv dataåtkomst och flexibel, maskinläsbar data annotation till en avgörande förutsättning för neuroforskare. Tydlig och konsekvent annotering och organisation av data är inte bara en viktig ingrediens för reproducerbarhet av resultat och återanvändning av data, men också avgörande för samarbete forskning och datadelning. I synnerhet kräver effektiv datahantering och interoperabilitet ett enhetligt tillvägagångssätt som integrerar data och metadata och ger ett gemensamt sätt att få tillgång till denna information. I den här artikeln beskriver vi GNData, en datahanteringsplattform för neurofysiologiska data. GNData tillhandahåller ett lagringssystem baserat på en datarepresentation som är lämplig för att organisera data och metadata från alla elektrofysiologiska experiment, med en funktionalitet som exponeras via ett gemensamt programprogrammeringsgränssnitt (API). Datarepresentation och API-struktur är kompatibla med befintliga metoder för data- och metadatarepresentation inom neurofysiologi. API-implementationen baseras på Representational State Transfer (REST), som möjliggör integrering av dataåtkomst i programvaruapplikationer och underlättar utvecklingen av verktyg som kommunicerar med tjänsten. Kundbibliotek som interagerar med API ger direkt dataåtkomst från datormiljöer som Matlab eller Python, vilket möjliggör integrering av datahantering i forskarens experimentella rutiner eller analysrutiner.
Utöver dataformatet syftar plattformen för hantering av GNData-signaler till att utveckla ett gemensamt lagringslager med ett generiskt API baserat på Representation State Transfer (REST) webbtjänster för signaldataanmärkning och åtkomstkontroll REF.
14,323,632
Integrated platform and API for electrophysiological data
{'venue': 'Front. Neuroinform.', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Medicine']}
2,022
Sammanfattning av denna webbsida: Dynamiska optiska nätverk har lovande potential att stödja de snabbt föränderliga trafikkraven i tunnelbane- och långdistansnät. Förbättringen av dynamiken hindras dock av våglängdsberoende kraftutflykter i erbiumdopade fiberförstärkare (EDFA) när kanalerna förändras snabbt. Vi introducerar en allmän strategi som utnyttjar maskininlärning (ML) för att karakterisera och mildra effektutflykter av EDFA-system med olika utrustning och skalor. En ML-motor utvecklas och valideras experimentellt för att visa exakta förutsägelser om effektdynamiken i kaskaderade EDFA. Rekommenderad kanal provisionering baserad på ML förutsägelser uppnår inom 1% fel av lägsta möjliga power exkursion över 94% av tiden. Vi visar också upp betydande begränsning av EDFA kraftutflykter i super-kanal provisionering jämfört med den första-fit våglängd uppdragsalgoritm.
Ridge och coreized Bayesian regressionsmodeller har använts för karakterisering och begränsning av power exkursioner i vinststyrda erbium-doped fiberförstärkare REF.
2,120,676
Dynamic mitigation of EDFA power excursions with machine learning
{'venue': 'Optics express', 'journal': 'Optics express', 'mag_field_of_study': ['Physics', 'Medicine']}
2,023
Trots genombrotten i noggrannhet och hastighet av enkelbild super-upplösning med hjälp av snabbare och djupare konvolutionella neurala nätverk, återstår ett centralt problem i stort sett olöst: hur kan vi återställa de finare textur detaljer när vi super-löser på stora uppskalningsfaktorer? Uppförandet av optimeringsbaserade superupplösningsmetoder drivs främst av valet av den objektiva funktionen. Den senaste tidens arbete har till stor del fokuserat på att minimera det genomsnittliga kvadratrekonstruktionsfelet. De resulterande uppskattningarna har hög signal-till-brusförhållande, men de saknar ofta högfrekvensdetaljer och är perceptuellt otillfredsställande i den meningen att de inte matchar den trohet som förväntas vid den högre upplösningen. I denna artikel presenterar vi SRGAN, ett generativt kontradiktoriskt nätverk (GAN) för bildsuperupplösning (SR). Till vår kunskap är det den första ramen som kan sluta sig till fotorealistiska naturliga bilder för 4× upscaling faktorer. För att uppnå detta föreslår vi en perceptuell förlustfunktion som består av en kontradiktorisk förlust och en innehållsförlust. Den kontradiktoriska förlusten driver vår lösning till det naturliga bildgrenröret med hjälp av ett discriminatornätverk som är tränat för att skilja mellan de superupplösta bilderna och de ursprungliga fotorealistiska bilderna. Dessutom använder vi en innehållsförlust som motiveras av perceptuell likhet istället för likhet i pixelutrymme. Vårt djupa resterande nätverk kan återställa fotorealistiska texturer från kraftigt nedplockade bilder på offentliga riktmärken. En omfattande medel-opinion-score (MOS) test visar enormt betydande vinster i perceptuell kvalitet med hjälp av SRGAN. MOS poäng som erhållits med SRGAN är närmare de ursprungliga högupplösta bilder än de som erhållits med någon toppmodern metod.
Den SR-GAN REF är pionjären i att använda GAN för att sluta sig till fotorealistiska högupplösta naturliga bilder från LR-bilder.
211,227
Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial Network
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
2,024
Abstract-Problemet med att beräkna en rutt för en mobil agent som gradvis sammansmälter data som det besöker noderna i ett distribuerat sensornätverk beaktas. Den ordning av noder som besöks längs rutten har en betydande inverkan på kvaliteten och kostnaden för sammanslagna data, vilket i sin tur påverkar det huvudsakliga målet för sensornätverket, såsom målklassificering eller spårning. Vi presenterar en förenklad analytisk modell för ett distribuerat sensornätverk och formulerar vägberäkningsproblemet i form av maximering av en objektiv funktion, som är direkt proportionell mot den mottagna signalstyrkan och omvänt proportionell mot banförlusten och energiförbrukningen. Vi visar att detta problem är NP-komplett och föreslår en genetisk algoritm för att beräkna en ungefärlig lösning genom att på lämpligt sätt använda en två-nivå kodningssystem och genetiska operatörer anpassade till den objektiva funktionen. Vi presenterar simuleringsresultat för nätverk med olika nodstorlekar och sensordistributioner, som visar den överlägsna prestandan hos vår algoritm över två befintliga heuristiker, nämligen lokala närmaste första och globala närmaste första metoder.
I REF har författarna föreslagit en genetisk algoritm (GA) för att lösa problemet med färdplanen planering.
5,098,464
On computing mobile agent routes for data fusion in distributed sensor networks
{'venue': 'IEEE Transactions on Knowledge and Data Engineering', 'journal': 'IEEE Transactions on Knowledge and Data Engineering', 'mag_field_of_study': ['Computer Science']}
2,025
Sammanfattning En ny uppgift instruktionsmetod för framtida intelligenta robotar presenteras. I vår metod lär sig en robot återanvändbara uppgiftsplaner genom att se en människa utföra monteringsuppgifter. Funktionella enheter och arbetsalgoritmer för visuell igenkänning och analys av mänskliga aktionssekvenser presenteras. Det övergripande systemet är modellbaserat och integrerat på symbolisk nivå. Temporär segmentering av en kontinuerlig uppgiftsprestanda till meningsfulla enheter och identifiering av varje operation behandlas i realtid genom samtidiga igenkänningsprocesser under aktiv uppmärksamhetskontroll. Beroendet mellan monteringsoperationer i den erkända åtgärdssekvensen analyseras, vilket resulterar i en hierarkisk uppgiftsplan som beskriver uppgiftens struktur på högre nivå. I en annan arbetsyta med olika initialtillstånd återingriper och genomför systemet uppgiftsplanen för att uppnå ett likvärdigt mål. Metodens eektivitet stöds av experimentella resultat med blockmonteringsuppgifter.
REF passar in i detta ramverk: en robot observerar en människa som utför en enkel monteringsuppgift och sedan reproducerar den.
15,009,135
Learning by Watching: Extracting Reusable Task Knowledge from Visual Observation of Human Performance
{'venue': 'IEEE Transactions on Robotics and Automation', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,026
Abstract-Det är kostnadseffektivt för en hyresgäst med en begränsad budget för att etablera en virtuell MapReduce kluster genom att hyra flera virtuella privata servrar (VPS) från en VPS leverantör. För att tillhandahålla ett lämpligt schemaläggningssystem för denna typ av datormiljö föreslår vi i detta dokument ett hybridjobbsdrivet schema (JoSS för kort) ur en hyresgästs perspektiv. JoSS tillhandahåller inte bara schemaläggning på jobbnivå, utan även schemaläggning av kartuppgifter och schemaläggning av mindre uppgifter. JoSS klassificerar MapReduce-jobb baserat på jobbskala och typ av jobb och utformar en lämplig schemaläggningspolicy för att schemalägga varje typ av jobb. Målet är att förbättra datalokaliseringen för både kartuppgifter och minska uppgifter, undvika arbetslöshet och förbättra arbetets utförande. Två varianter av JoSS introduceras ytterligare för att separat uppnå en bättre kartdatalokalitet och en snabbare uppgiftstilldelning. Vi utför omfattande experiment för att utvärdera och jämföra de två variationerna med aktuella schemaläggningsalgoritmer som stöds av Hadoop. Resultaten visar att de två variationerna överträffar de andra testade algoritmerna när det gäller kartdatalokalitet, minska datalokalitet och nät omkostnader utan att ådra sig betydande omkostnader. Dessutom är de två variationerna separat lämpliga för olika MapReduce-arbetsbelastningsscenarier och ger bästa arbetsprestanda bland alla testade algoritmer.
Lee och Al. REF förbättrade datalokaliseringen för både kartläggning och minskning av uppgifter, undvika arbetslöshet och förbättra arbetsutförandet genom att införa JoSS (som står för hybrida arbetsbaserade schemaläggningssystem).
206,771,205
Hybrid Job-driven Scheduling for Virtual MapReduce Clusters
{'venue': 'IEEE Transactions On Parallel And Distributed Systems, Vol. 27, NO. 6, June 2016', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,027
Text i bilder och videor är en viktig signal för visuellt innehåll förståelse och hämtning. I detta dokument presenterar vi en snabb och effektiv strategi för att lokalisera textrader även under komplex bakgrund. Först använder vår algoritm strokefiltret för att beräkna strokekartorna i horisontella, vertikala, vänsterdiagonala, högerdiagonala riktningar. Därefter extraheras en 24-dimensionell funktion för varje skjutfönster och en SVM används för att få grova textregioner. De grova textregionerna förfinas ytterligare genom en grupp regler. Och kandidattextraderna lokaliserades mer exakt genom projektionsprofilen för de förfinade textregionerna. Slutligen används en annan SVM-klassning baserad på en 6-dimensionell funktion för att verifiera kandidattextraderna. De experimentella resultaten på utmanande databaser visar att detta tillvägagångssätt kan snabbt och effektivt upptäcka och lokalisera textrader.
Sedan dess har flera text localization metoder använt stroke information för att upptäcka och lokalisera text i bilder som REF.
11,847,660
Fast and effective text detection
{'venue': '2008 15th IEEE International Conference on Image Processing', 'journal': '2008 15th IEEE International Conference on Image Processing', 'mag_field_of_study': ['Computer Science']}
2,028
Abstract-Med ständigt ökad uppmärksamhet på elfordon (EV) på grund av miljöpåverkan, offentliga laddningsstationer (CS) för elfordon kommer att bli vanligt. På grund av den begränsade elen från batteriet kan dock EV-förare uppleva obehag vid lång laddningstid under sin resa. Detta händer ofta när ett stort antal (på väg) elfordon planerar att ladda på samma CS, men det har överbelastats kraftigt. Med denna oro, i ett system för hantering av avgifter för elfordon, fokuserar vi på beslut om CS-val och föreslår ett system för att hantera EV:s avgiftsplaner, för att minimera förarnas restid genom mellanliggande avgifter på CS. I det föreslagna systemet beaktas gemensamt EV:s förväntade avgiftsreservat (inklusive ankomsttid och beräknad avgiftstid) och parkeringstid vid CS. Genom att ta itu med osäkerheten om rörligheten att elfordon inte kan nå sina planerade elfordon i tid (på grund av trafikstockningar på vägen) är dessutom en mekanism för periodisk reservationsuppdatering utformad för att anpassa sina avgiftsplaner. Resultaten under Helsingfors stads scenario med realistiska EV- och CS-egenskaper visar fördelen med vårt förslag, i form av minimerad körtid, samt laddningsprestanda på EV- och CS-sidorna.
En annan studie i REF inriktades på hantering av laddning av elfordon med beaktande av EV-förares restid och osäkerhet.
3,908,366
An EV Charging Management System Concerning Drivers’ Trip Duration and Mobility Uncertainty
{'venue': 'IEEE Transactions on Systems, Man, and Cybernetics: Systems', 'journal': 'IEEE Transactions on Systems, Man, and Cybernetics: Systems', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
2,029
Sammanfattning Många praktiskt taget viktiga kombinatoriska problem kan effektivt reduceras till ett problem med Boolesk satisfiability (SAT). Därför är genomförandet av distribuerade algoritmer för att lösa SAT-problem av stor betydelse. I denna artikel beskriver vi en teknik för att organisera desktop rutnät, som är avsedd för att lösa SAT-problem. Denna teknik genomfördes i form av ett frivilligt datorprojekt SAT@home baserat på en populär BOINC-plattform.
Senare flera dussin kryptoanalys instanser för detta chiffer löstes i SAT@home volontär computing projekt REF.
2,163,379
USING BOINC DESKTOP GRID TO SOLVE LARGE SCALE SAT PROBLEMS
{'venue': 'Computer Science', 'journal': 'Computer Science (AGH)', 'mag_field_of_study': ['Computer Science']}
2,030
När robotar blir mer allestädes närvarande och kapabla blir det allt viktigare för otränade användare att enkelt interagera med dem. På senare tid har detta lett till studier av problemet med språkgrunden, där målet är att ta fram framställningar av betydelsen av naturligt språk som är knutet till den fysiska världen. Vi presenterar en strategi för gemensamt lärande av språk- och perceptionsmodeller för grundad attributinduktion. Uppfattningsmodellen omfattar klassificeringar för fysiska egenskaper och en språkmodell baserad på en probabilistisk kategoriserad grammatik som möjliggör konstruktion av representationer för kompositionsbetydelse. Vi utvärderar uppgiften att tolka meningar som beskriver uppsättningar av objekt i en fysisk arbetsyta, och visar korrekt uppgiftsprestanda och effektiv latent-variabel konceptinduktion i fysiska jordade scener.
Matuszek m.fl. REF lär sig gemensamt språk- och perceptionsmodeller för grundad attributinduktion.
2,408,319
A Joint Model of Language and Perception for Grounded Attribute Learning
{'venue': 'ICML', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,031
Framgången för "infinite-inventory" återförsäljare som Amazon.com och Netflix har till stor del tillskrivs en "lång svans" fenomen. Även om merparten av deras lager inte är i hög efterfrågan, dessa nischprodukter, som inte finns tillgängliga hos konkurrenter med begränsad lagerhållning, genererar en betydande del av de totala intäkterna totalt sett. Dessutom kan tillgången på slutprodukter öka huvudförsäljningen genom att erbjuda konsumenterna bekvämligheten av "one-stop shopping" för både deras traditionella och nisch smaker. De flesta befintliga recommender-system, särskilt samverkande filterbaserade metoder, kan dock inte rekommendera slutprodukter på grund av data gleshet frågan. Det har varit allmänt erkänt att rekommendera populära produkter är lättare men mer trivialt samtidigt som att rekommendera långa svansprodukter lägger mer nyhet men det är också en mer utmanande uppgift. I detta dokument föreslår vi en ny uppsättning grafbaserade algoritmer för den långa svansrekommendationen. Vi representerar först användar-punkt information med oriktad kant-viktad graf och undersöka den teoretiska grunden för att tillämpa Hitting Time algoritm för lång svans objekt rekommendation. För att förbättra rekommendationsmångfald och noggrannhet, utökar vi Hitting Time och föreslår effektiv Absorbering Tid algoritm för att hjälpa användare att hitta sina favorit lång svans objekt. Slutligen förfinar vi den Absorberande Tid-algoritmen och föreslår två entropy-biased Absorbing Cost-algoritmer för att särskilja variationen på olika user-item-klassning par, vilket ytterligare förbättrar effektiviteten av lång svans rekommendation. Empiriska experiment på två verkliga datauppsättningar visar att våra föreslagna algoritmer är effektiva för att rekommendera långa svansar och överträffa toppmoderna rekommendationstekniker.
Yin m.fl. REF har utvecklat fyra varianter av en algoritm för rekommendationer för långa svansar.
7,748,683
Challenging the Long Tail Recommendation
{'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']}
2,032
Vi introducerar Parlai (uttalas "parlay"), en öppen programvaruplattform för dialogforskning som genomförs i Python, tillgänglig på http://parl.ai. Dess mål är att tillhandahålla en enhetlig ram för delning, utbildning och testning dialoger modeller, integration av Amazon Mechanical Turk för datainsamling, mänsklig utvärdering, och online / förstärkning lärande, och ett arkiv av maskininlärning modeller för att jämföra med andras modeller, och förbättra befintliga arkitekturer. Över 20 uppgifter stöds i den första utgåvan, inklusive populära datauppsättningar som SQuAD, bAbI uppgifter, MCTest, WikiQA, QACNN, QADailyMail, CBT, bAbI Dialog, Ubuntu, OpenSubtitles och VQA. Flera modeller är integrerade, inklusive neurala modeller såsom minnesnätverk, följande 2seq och uppmärksamma LSTMs.
Par-lAI REF är en mjukvaruplattform specialiserad för dialogforskning.
3,677,429
ParlAI: A Dialog Research Software Platform
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
2,033
Abstract-Vi presenterar en programplanering-för-demonstration ram för att generiskt extrahera relevanta funktioner i en given uppgift och för att ta itu med problemet med att generalisera den förvärvade kunskapen till olika sammanhang. Vi validerar arkitekturen genom en serie experiment, där en mänsklig demonstrator lär en humanoid robot enkla manipulatoriska uppgifter. En sannolikhetsbaserad uppskattning av relevansen föreslås genom att först projicera rörelsedata på ett generiskt latent utrymme med hjälp av huvudkomponentanalys. De resulterande signalerna kodas med hjälp av en blandning av Gaussian/Bernoulli-distributioner (Gaussian mixing model/Bernoulli mixing model). Detta ger ett mått på spatio-temporala korrelationer över de olika metoder som samlats in från roboten, som kan användas för att bestämma ett mått på imitationen prestanda. De banor generaliseras sedan med Gaussian blandning regression. Slutligen beräknar vi analytiskt banan som optimerar imitationen metrisk och använder detta för att generalisera skickligheten till olika sammanhang. Index Terms-Gaussian blandning modell (GMM), mänskliga rörelse subrymd, människa-robot interaktion (HRI), lärande genom imitation, metrisk av imitation, programmering genom demonstration (PbD).
En relaterad metod använder Gaussian blandning modeller för att koda en uppsättning banor REF.
5,679,082
On Learning, Representing, and Generalizing a Task in a Humanoid Robot
{'venue': 'IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics)', 'journal': 'IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics)', 'mag_field_of_study': ['Computer Science', 'Medicine']}
2,034
Abstract-Recent teknik framsteg i mobila nätverk har inlett en ny era av personlig kommunikation. Användare kan allmänt få tillgång till Internet via många nya mobila apparater, såsom bärbara bärbara datorer, personliga digitala assistenter (PDA) och WAP-aktiverade mobiltelefoner. Medan omkodningsproxyn drar till sig allt större uppmärksamhet i denna miljö, kan det noteras att det krävs nya cachestrategier för dessa omkodningsproxier. I det här dokumentet föreslår vi en effektiv cacheersättningsalgoritm för omkodningsproxis. Speciellt formulerar vi en generaliserad vinst funktion för att utvärdera vinsten från caching varje version av ett objekt. Denna generaliserade vinstfunktion beaktar uttryckligen flera nya framväxande faktorer i omkodningsproxyn och den sammanlagda effekten av cachelagring av flera versioner av samma objekt. Det bör noteras att den sammanlagda effekten inte bara är summan av kostnaderna för caching av enskilda versioner av ett föremål, utan snarare beror på omkodningsförhållandet mellan dessa versioner. Begreppet viktad omkodningskurva är utformat för att effektivt utvärdera motsvarande aggregerade effekt. Med hjälp av den generaliserade vinstfunktionen och den viktade omkodningskurvan föreslår vi i detta dokument en innovativ cacheersättningsalgoritm för omkodningsproxier. Dessutom är en effektiv datastruktur utformad för att underlätta hanteringen av de flera versionerna av olika objekt som finns i omkodningsproxyn. Med hjälp av en händelsedriven simulering, visas det att algoritmen föreslår konsekvent överträffar följeslagare system när det gäller delay saving ratios och cache hit ratios.
Chang och Al. REF formulerade en generaliserad vinst funktion(PF) för att utvärdera den vinst som erhållits genom caching varje version av ett objekt.
2,091,805
On exploring aggregate effect for efficient cache replacement in transcoding proxies
{'venue': 'IEEE Trans. Parallel Distrib. Syst.', 'journal': 'IEEE Trans. Parallel Distrib. Syst.', 'mag_field_of_study': ['Computer Science']}
2,035
Neurala nätverk är både beräkningsintensiva och minnesintensiva, vilket gör dem svåra att distribuera på inbyggda system med begränsade hårdvaruresurser. För att ta itu med denna begränsning, introducerar vi "djup kompression", en trestegs pipeline: beskärning, utbildad kvantisering och Huffman kodning, som arbetar tillsammans för att minska lagringskravet för neurala nätverk med 35× till 49× utan att påverka deras noggrannhet. Vår metod först beskär nätverket genom att lära sig bara viktiga anslutningar. Därefter kvantifierar vi vikterna för att tvinga fram viktdelning, slutligen använder vi Huffman-kodning. Efter de två första stegen tränar vi om nätverket för att finjustera de återstående anslutningarna och de kvantiserade centroiderna. Beskärning, minskar antalet anslutningar med 9× till 13×; Kvantisering minskar sedan antalet bitar som representerar varje anslutning från 32 till 5. På ImageNet dataset, vår metod minskade lagring som krävs av AlexNet med 35×, från 240MB till 6,9MB, utan förlust av noggrannhet. Vår metod minskade storleken på VGG-16 med 49× från 552MB till 11,3MB, igen utan förlust av noggrannhet. Detta gör det möjligt att montera modellen i on-chip SRAM cache snarare än off-chip DRAM minne. Vår komprimeringsmetod underlättar också användningen av komplexa neurala nätverk i mobila applikationer där applikationens storlek och nedladdningsbandbredd begränsas. Benchmarked på CPU, GPU och mobil GPU, komprimerat nätverk har 3× till 4× lagervis speedup och 3× till 7× bättre energieffektivitet.
REF utökar sitt tidigare arbete till att dessutom omfatta en viktdelning kvantisering steg och Huffman kodning av vikterna.
2,134,321
Deep Compression: Compressing Deep Neural Networks with Pruning, Trained Quantization and Huffman Coding
{'venue': 'ICLR 2016', 'journal': 'arXiv: Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
2,036
Abstrakt. Vi presenterar en end-to-end djupinlärning arkitektur för djupkarta slutsatser från multi-view bilder. I nätverket, vi först extrahera djup visuell bild funktioner, och sedan bygga 3D kostnadsvolym på referenskameran frustum via den differentierade homography warping. Därefter tillämpar vi 3D-konvolutioner för att regularisera och regressera den ursprungliga djupkartan, som sedan förfinas med referensbilden för att generera den slutliga utgången. Vårt ramverk anpassar flexibelt godtyckliga N-vyingångar med hjälp av ett variansbaserat kostnadsmått som kartlägger flera funktioner till en kostnadsfunktion. Det föreslagna MVSNet visas på den storskaliga DTU-datauppsättningen inomhus. Med enkel efterbehandling överträffar vår metod inte bara betydligt tidigare state-of-the-arts, utan är också flera gånger snabbare i körtiden. Vi utvärderar även MVSNet på komplexa utomhustankar och tempel dataset, där vår metod rankas först före den 18 april 2018 utan finjustering, visar den starka generalisering förmåga MVSNet.
Yao och Al. I Ref föreslogs en ram för fördjupat lärande i slutskedet för djupuppskattning från flera olika synvinklar.
4,712,004
MVSNet: Depth Inference for Unstructured Multi-view Stereo
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
2,037
Abstract-Linear aktiv effekt-endast DC strömflöde approximationer är genomgripande i planeringen och kontrollen av kraftsystem. Dessa approximationer lyckas dock inte fånga reaktiv effekt och spänningsstorlekar, vilka båda är nödvändiga i många tillämpningar för att säkerställa spänningsstabilitet och växelströmsflöde genomförbarhet. I detta dokument föreslås linjärprogrammeringsmodeller (LPAC-modellerna) som innehåller reaktiv effekt och spänningsstorlekar i en linjär effektflödes approximation. LPAC modellerna bygger på en konvex approximation av cosinus termer i AC ekvationer, samt Taylor approximationer av de återstående icke-linjära termer. Experimentella jämförelser med AC-lösningar på en mängd olika standard IEEE- och MATPOWER-riktmärken visar att LPAC-modellerna producerar exakta värden för aktiv och reaktiv effekt, fasvinklar och spänningsstorlekar. De potentiella fördelarna med LPAC-modellerna illustreras i två "proof-of-concept"-studier av effektåterställning och kondensatorplacering. Index Terms-DC effektflöde, växelströmsflöde, LP effektflöde, linjär avslappning, effektsystemanalys, kondensatorplacering, effektsystemrenovering Linjeladdning Transformatorparametrar V = och V
Coffrin m.fl. REF tillämpar bitvis linjära approximationer av cosinus-termen och Taylor-seriens expansioner av de återstående icke-linjära termerna.
2,852,679
A Linear-Programming Approximation of AC Power Flows
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
2,038
Android OS upplever en flammande popularitet sedan de senaste åren. Denna dominerande plattform har etablerat sig inte bara i den mobila världen utan också i Internet of Things (IoT) enheter. Denna popularitet, dock, kommer på bekostnad av säkerhet, eftersom det har blivit ett frestande mål för skadliga appar. Därför finns det ett ökande behov av sofistikerade, automatiska och bärbara malware detektionslösningar. I detta papper föreslår vi MalDozer, en automatisk Android malware upptäckt och familj tillskrivning ramar som bygger på sekvenser klassificering med hjälp av djupinlärning tekniker. Med början från den råa sekvensen av appen API-metoden samtal, MalDozer automatiskt extraherar och lär sig skadliga och godartade mönster från de faktiska prover för att upptäcka Android malware. MalDozer kan fungera som en allestädes närvarande malware detektionssystem som inte bara distribueras på servrar, men också på mobila och även IoT-enheter. Vi utvärderar MalDozer på flera Android malware dataset som sträcker sig från 1K till 33K malware appar, och 38K godartade appar. Resultaten visar att MalDozer korrekt kan upptäcka skadlig kod och tillskriva sina familjer en F1- Score på 96% - 99% och en falsk positiv frekvens på 0, 06% - 2%, under alla testade datauppsättningar och inställningar.
REF föreslog MalDozer att använda sekvenser av API samtal med djup inlärning för att upptäcka Android malware och klassificera dem till sin motsvarande familj.
8,235,594
Android Malware Detection using Deep Learning on API Method Sequences
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
2,039