src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
Neural Style Transfer [7] har nyligen visat mycket spännande resultat som fångar ögon i både akademi och industri. Trots de fantastiska resultaten, principen om neural stil överföring, särskilt varför gram matriser kan representera stil förblir oklar. I detta dokument föreslår vi en ny tolkning av överföringen av neurala stilar genom att behandla det som ett problem med domänanpassning. Specifikt, vi teoretiskt visar att matcha Gram matriser av funktionskartor är likvärdigt att minimera maximal genomsnittlig Discrepancy (MMD) med den andra ordningen polynomial kärna. Således hävdar vi att essensen av neural stil överföring är att matcha funktionen fördelningar mellan stil bilder och de genererade bilderna. För att ytterligare stödja vår ståndpunkt experimenterar vi med flera andra distributionsanpassningsmetoder och uppnår tilltalande resultat. Vi tror att denna nya tolkning knyter samman dessa två viktiga forskningsområden och kan upplysa om framtida forskning.
En annan domänanpassningsmetod REF tolkade stilöverföringsuppgiften som ett domänanpassningsproblem med maximal genomsnittlig diskrepans (MMD) med den andra ordningens polynomkärna.
12,634,703
Demystifying Neural Style Transfer
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
3,674
Videostreaming utgör en stor del av Internettrafiken. Förvånansvärt nog är det föga känt om denna trafiks nätverksegenskaper. I den här artikeln studerar vi nätverksegenskaperna hos de två mest populära videostreamingtjänsterna, Netflix och YouTube. Vi visar att streaming strategier varierar med vilken typ av program (webbläsare eller infödda mobila program), och vilken typ av behållare (Silverlight, Flash, eller HTML5) som används för video streaming. I synnerhet identifierar vi tre olika streaming strategier som producerar trafikmönster från icke-ack klockade On-OFF cykler till bulk TCP överföring. Därefter presenterar vi en analytisk modell för att studera de potentiella effekterna av dessa streamingstrategier på den sammanlagda trafiken och ge rekommendationer i enlighet därmed.
Paper REF studerade nätverksegenskaperna hos de två mest populära videostreamingtjänsterna, Netflix och YouTube.
812,862
Network characteristics of video streaming traffic
{'venue': "CoNEXT '11", 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,675
Randomiserad lastbalansering förbättrar i hög grad resursdelningen i ett antal applikationer samtidigt som den är enkel att genomföra. En modell som i stor utsträckning har använts för att studera randomiserade lastbalanseringssystem är snabbköpsmodellen. I denna modell, jobb anländer enligt en rate-nλ Poisson process på en bank av n rate-1 exponentiella server köer. Ett anmärkningsvärt resultat, på grund av Vvedenskaya et.al. (1996), visade att när varje anländande jobb tilldelas den kortaste av d ≥ 2 slumpmässigt valda köer sönderfaller jämviktskön dubbelt exponentiellt i gränsen som n → ∞. Detta är en betydande förbättring jämfört med fallet d = 1, där köstorlekarna förfaller exponentiellt. Den analysmetod som används i ovanstående papper och i den efterföljande litteraturen gäller jobb med exponentiella tidsfördelningar och är inte lätt att generalisera. Det är önskvärt att studera lastbalanseringsmodeller med mer allmänna, särskilt tungsvansade, tidsfördelningar eftersom sådana servicetider förekommer i stor utsträckning i praktiken. Denna uppsats beskriver ett modulärt program för att behandla randomiserade problem med belastningsbalansering med allmänna tidsfördelningar och servicediscipliner. Programmet bygger på en ansatz som hävdar att varje ändlig uppsättning köer i en randomiserad lastbalanseringsschema blir oberoende som n → ∞. Detta gör att man kan härleda köstorleksfördelningar och andra resultatmått av intresse. Vi etablerar ansatz när tjänsten disciplin är FIFO och tjänsten tidsfördelningen har en minskande riskfrekvens (detta inkluderar tung-tailed servicetider). Om vi antar ansatz, får vi också följande resultat: (i) som n → ❌, processen för ankomst av jobb i en fast kö tenderar till en Poisson process vars hastighet beror på storleken på kön, (ii) när tjänsten disciplin på varje server är processordelning eller LIFO med förebyggande CV, fördelningen av antalet jobb är okänslig för tjänsten distribution, och (iii) svans beteende kön storlek distribution i termer av tjänsten distribution för FIFO tjänsten disciplin.
REF generaliserade inställningen för den allmänna tidsfördelningen.
3,183,708
Randomized load balancing with general service time distributions
{'venue': "SIGMETRICS '10", 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,676
Vi beskriver resultaten av en longitudinell studie på fem spädbarn från 12 till 20 månaders ålder, som presenteras med en utom räckhåll leksak och ett rake-liknande verktyg inom räckhåll. Fem villkor för rumslig relation mellan leksak och rake testades. Utfall och typer av beteende analyserades. Det fanns framgångar som observerades omkring 12 månader i tillståndet för rumslig kontinuitet mellan rake och leksak, men dessa kunde inte tolkas som att motsvara full förståelse för användningen av rake. Vid denna ålder och under de följande månaderna, i de förhållanden som innebär rumslig separation mellan rake och leksak, fluktuerade spädbarnens strategier mellan att uppmärksamma endast leksaken, utforska rake för sin egen skull, och ansluta rake och leksak men utan något uppenbart försök att föra leksaken närmare. Endast mellan 16 och 20 månader började spädbarn ganska plötsligt att avsiktligt försöka föra leksaken närmare verktyget: i detta skede blev barnen också i stånd att lära av sina misslyckanden och att korrigera sina handlingar, samt att dra nytta av demonstration från en vuxen. Vi undersöker de individuella skillnaderna i beteendemönster som leder till verktygsanvändning hos de fem spädbarnen, och finner ingen ökning av någon typ av beteende som systematiskt föregår framgång. Vi drar slutsatsen att plötslig framgång vid 18 månader förmodligen motsvarar den sammanfallande av en mängd olika kapaciteter.
En longitudinell studie på spädbarn REF visar att barn vid cirka 16-20 månader avsiktligt och framgångsrikt börjar föra långt borta leksaker närmare sig med hjälp av verktyg som rakes.
17,295,843
The emergence of use of a rake-like tool: a longitudinal study in human infants
{'venue': 'Front. Psychol.', 'journal': None, 'mag_field_of_study': ['Psychology', 'Medicine']}
3,677
Vi föreslår ett EM-baserat ramverk för att lära sig PlackettLuce-modellen och dess blandningar från partiella beställningar. Kärnan i vårt ramverk är effektiv provtagning av linjära förlängningar av partiella beställningar enligt Placket-Luce-modellen. Vi föreslår två Markov Chain Monte Carlo (MCMC) provtagare: Gibbs provtagare och den generaliserade upprepade insättningsmetod stämd av MCMC (GRIM-MCMC), och bevisa effektiviteten hos GRIM-MCMC för en stor klass av preferenser. Experiment på syntetiska data visar att algoritmen med Gibbs sampler överträffar den med GRIM-MCMC. Experiment på verkliga data visar att sannolikheten för testdata ökar när i) partiella order ger mer information, eller ii) antalet komponenter i blandningar av PlackettLuce-modellen ökar.
I synnerhet Liu et al. I Ref föreslogs en EM-baserad algoritm för att lära av allmänna partiella order.
54,066,478
Learning Plackett-Luce Mixtures from Partial Preferences
{'venue': 'AAAI', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,678
Vi tillämpar återkommande neurala nätverk (RNN) på en ny domän, nämligen recommender system. Real-life recommender system står ofta inför problemet att behöva basera rekommendationer endast på korta sessionsbaserade data (t.ex. en liten sportprogram webbplats) i stället för långa användarhistorik (som i fallet med Netflix). I denna situation de ofta berömde matris factorization metoder är inte korrekt. Detta problem övervinns vanligen i praktiken genom att man tillgriper rekommendationer från punkt till punkt, dvs. rekommenderar liknande objekt. Vi hävdar att man genom att modellera hela sessionen kan ge mer exakta rekommendationer. Vi föreslår därför en RNN-baserad strategi för sessionsbaserade rekommendationer. Vår strategi tar också upp praktiska aspekter av uppgiften och inför flera ändringar av klassiska RNN:er såsom en rankningsförlustfunktion som gör det mer lönsamt för detta specifika problem. Experimentella resultat från två datauppsättningar visar tydliga förbättringar jämfört med allmänt använda metoder.
Till exempel Hidasi et al. REF tillämpade återkommande neurala nätverk (dvs. GRU) till sessionsbaserade rekommendationssystem.
11,810,482
Session-based Recommendations with Recurrent Neural Networks
{'venue': 'ICLR 2016', 'journal': 'arXiv: Learning', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
3,679
Nya framsteg i djupinlärning har visat spännande löfte att fylla stora hål i naturliga bilder med semantiskt rimliga och sammanhangsmedvetna detaljer, vilket påverkar grundläggande bildmanipulation uppgifter som objekt borttagning. Även om dessa inlärningsbaserade metoder är betydligt mer effektiva för att fånga hög nivå funktioner än tidigare tekniker, de kan bara hantera mycket låg upplösning ingångar på grund av minnesbegränsningar och svårigheter i utbildningen. Även för något större bilder skulle de målade regionerna verka suddiga och obehagliga gränser bli synliga. Vi föreslår en flerskalig neural patch syntes metod baserad på gemensam optimering av bildinnehåll och textur begränsningar, som inte bara bevarar kontextuella strukturer men också producerar högfrekvens detaljer genom att matcha och anpassa patchar med de mest liknande mellanlager funktion korrelationer i en djup klassificering nätverk. Vi utvärderar vår metod på ImageNet och Paris Streetview datauppsättningar och uppnådde state-of-theart inpainting noggrannhet. Vi visar vår strategi producerar skarpare och mer sammanhängande resultat än tidigare metoder, särskilt för högupplösta bilder.
Senare, Yang et al. REF vidareutvecklade vidare en multi-scale neural patch syntesalgoritm som inte bara bevarar kontextuell struktur utan också producerar högfrekventa detaljer.
206,595,891
High-Resolution Image Inpainting Using Multi-scale Neural Patch Synthesis
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
3,680
Abstract-This paper rapporterar utvecklingen av en ny miniatyrkraftsensor utformad för att mäta kontaktkrafter på spetsen av ett mikrokirurgiskt instrument i tre dimensioner, och dess tillämpning på skalad kraftfeedback med hjälp av en kooperativt manipulerad mikrokirurgisk assisterande robot. De viktigaste egenskaperna hos sensorn är dess lilla storlek 12,5 mm i diameter och 15 mm i höjd, en ny konfiguration av flexbalkar och belastningsmätare för att mäta krafter isotropiskt vid instrumentspetsen 40 mm från sensorkroppen, och sub-mN treaxlig kraftsensorupplösning. Index Terms-Kliniska mänskliga datorgränssnitt, kraftsensor, mikroelektromekaniska system (MEMS)-baserade medicintekniska produkter, robotik och robotiska manipulatorer.
I REF presenteras en miniatyriserad kraftsensor för handhållna mikrokirurgiska instrument eller robotmanipulatorer.
15,272,033
A Miniature Microsurgical Instrument Tip Force Sensor for Enhanced Force Feedback During Robot-Assisted Manipulation
{'venue': 'IEEE Trans. Robotics and Automation', 'journal': 'IEEE Trans. Robotics and Automation', 'mag_field_of_study': ['Computer Science', 'Engineering']}
3,681
ABSTRACT Hankelmatrisen av harmoniska signaler har den viktiga lågvärdiga egenskapen, baserat på vilken huvudkomponenterna (eller eigenvektorerna) extraherade från matrisen genom singular value decomposition (SVD) kunde appliceras för harmonisk signaldenoisering. SVD är dock tidskrävande, och kan till och med misslyckas med att konvergera när datamatrisen är för stor. För att övervinna SVD:s beräkningssvårigheter för big datasetet krävs dimensionsreduktion av matrisen, men det resulterar i en betydande minskning av signalintensiteten. I detta dokument föreslog vi en effektiv och robust denoiseringsmetod för harmoniska signaler med stora data. Först konstrueras övertonssignalens Hankelmatris och projiceras slumpmässigt på en lägre dimensionell subrymd med en Gaussisk matris. För det andra utförs SVD på matrisen med reducerad dimension för att extrahera viktiga eigenvectors, tillämpa vilken en jämn signal med förenklade kompositioner rekonstrueras från den ursprungliga bullriga signalen. För det tredje analyseras signaltröskeln för buller på den jämna signalen, sedan utförs en mjuk tröskelalgoritm för att erhålla ett denoiserat resultat från den ursprungliga bullriga signalen. Simuleringen och de experimentella resultaten har visat hur robust och effektiv denna metod är.
Singular value decomposition (SVD) REF kan få en låggradig approximationsmatris via matris sönderdelning, som kan tillämpas för signaldenoisering och big data mining.
195,736,691
Robust and Efficient Harmonics Denoising in Large Dataset Based on Random SVD and Soft Thresholding
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
3,683
Abstrakt. I detta arbete tillhandahåller vi ett mjukvaruriktmärke för ett stort utbud av 256-bitars blockcipher-baserade hashfunktioner. Vi omedelbart den underliggande blockchiffer med AES, vilket gör att vi kan utnyttja den senaste AES instruktion set (AES-NI). Eftersom själva AES bara ger 128 bitar, anser vi att konstruktioner med dubbla blocklängder samt (enblockslängd) konstruktioner baserade på RIJNDAEL-256. Även om vi främst inriktar oss på arkitekturer som stöder AES-NI, har vårt ramverk mycket bredare tillämpningar genom att uppskatta prestandan för dessa hashfunktioner på någon (mikro)arkitektur som ger AES-benchmark resultat. Så vitt vi vet, är detta den första omfattande prestandajämförelsen av multi-block-längd hash funktioner i programvara.
Bos m.fl. REF använde CLMUL instruktionsset för 256-bitars hashfunktioner på Westmere mikroarkitektur.
15,363,893
Efficient Hashing using the AES Instruction Set
{'venue': 'CHES', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,684
I detta dokument föreslår vi "adversarial autoencoder" (AAE), som är en probabilistisk autoencoder som använder de nyligen föreslagna generativa kontrariska nätverken (GAN) för att utföra variationell inferens genom att matcha den aggregerade bakre delen av den dolda kodvektorn för autoencoder med en godtycklig tidigare distribution. Att matcha den aggregerade bakre delen med den föregående säkerställer att generera från någon del av tidigare utrymme resulterar i meningsfulla prover. Som ett resultat av detta lär sig avkodningen av den kontradiktoriska autoenkodern en djup generativ modell som kartlägger den påtvingade före datadistributionen. Vi visar hur den kontrariska autoenkodern kan användas i tillämpningar som semi-övervakad klassificering, disentangling stil och innehåll av bilder, oövervakad klusterbildning, dimensionalitetsreduktion och datavisualisering. Vi utförde experiment på MNIST, Street View House Numbers och Toronto Face datauppsättningar och visar att kontrariska autoencoders uppnå konkurrenskraftiga resultat i generativ modellering och semi-övervakade klassificering uppgifter.
Makhzani m.fl. I REF föreslogs idén om Adversarial Autoencoder (AAE), där kodaren i ramverket lär sig att omvandla datadistributionen till den tidigare, samtidigt som det formella autoencoder-målet respekteras.
5,092,785
Adversarial Autoencoders
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
3,685
Abstrakt. Den naturliga livsmiljön för de flesta Bayesian metoder är data som representeras av utbytbara sekvenser av observationer, för vilka de Finettis teorem utgör den teoretiska grunden. Dirichlet process clustring, Gaussian process regression, och många andra parametriska och icke-parametriska Bayesian modeller omfattas av detta ramverk; många problem som uppstår i modern dataanalys inte. Detta expositionspapper ger en introduktion till Bayesianska modeller av grafer, matriser och andra data som kan modelleras med slumpmässiga strukturer. Vi beskriver resultat i sannolikhetsteori som generaliserar de Finettis teorem till sådana data och diskuterar relevansen av dessa resultat för icke-parametrisk Bayesian modellering. Med de grundläggande idéerna på plats kartlägger vi exempelmodeller som finns i litteraturen; tillämpningar av sådana modeller inkluderar samarbetsfiltrering, länkförutsägelse samt graf- och nätverksanalys. Vi lyfter också fram kopplingar till den senaste utvecklingen inom grafteori och sannolikhet, och skisserar den mer allmänna matematiska grunden för Bayesian metoder för andra typer av data bortom sekvenser och matriser.
Diagramgränser har tillämpningar i sannolikhets- och dataanalys REF.
566,759
Bayesian Models of Graphs, Arrays and Other Exchangeable Random Structures
{'venue': 'IEEE Transactions Pattern Analysis and Machine Intelligence 2015, Vol. 37, No. 2, pp. 437-461', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics', 'Medicine']}
3,686
Sammanfattning-Detta dokument fokuserar på användningen av satellitkommunikationssystem för att stödja Internet of Things (IoT). Vi hänvisar till IoT-paradigmet som ett sätt att samla in data från sensorer eller RFID och skicka styrmeddelanden till ställdon. I många tillämpningsscenarier är sensorer och ställdon fördelade över ett mycket brett område. I vissa fall är de belägna i avlägsna områden där de inte betjänas av markbundna accessnät och följaktligen användning av satellitkommunikationssystem.
De Sanctis m.fl. använde ett satellitkommunikationssystem för att stödja IoT REF.
5,261,559
Satellite Communications Supporting Internet of Remote Things
{'venue': 'IEEE Internet of Things Journal', 'journal': 'IEEE Internet of Things Journal', 'mag_field_of_study': ['Computer Science']}
3,687
Vi föreslår ett helt homomorphic krypteringssystem - dvs. ett system som gör det möjligt att utvärdera kretsar över krypterade data utan att kunna dekryptera. Vår lösning kommer i tre steg. För det första ger vi ett allmänt resultat - att, för att konstruera ett krypteringssystem som tillåter utvärdering av godtyckliga kretsar, räcker det med att konstruera ett krypteringssystem som kan utvärdera (lätt utökade versioner av) sin egen dekrypteringskrets; vi kallar ett system som kan utvärdera dess (augmented) dekrypteringskrets bootstrappable. Därefter beskriver vi en allmän nyckel krypteringssystem med hjälp av idealiska gitter som är nästan bootstrappable. Lattice-baserade kryptosystem har vanligtvis dekrypteringsalgoritmer med låg krets komplexitet, ofta domineras av en inre produktberäkning som är i NC1. Dessutom ger idealiska gitter både additiv och multiplicativ homomorphisms (modulo en offentlig nyckel ideal i en polynomial ring som representeras som en lattice), som behövs för att utvärdera allmänna kretsar. Tyvärr är vårt ursprungliga system inte riktigt bootstrappable - dvs. det djup som systemet kan korrekt utvärdera kan vara logaritmisk i lattice-dimensionen, precis som djupet av dekrypteringskretsen, men den senare är större än den förra. I det sista steget visar vi hur man ändrar systemet för att minska djupet på dekrypteringskretsen, och därmed få en bootstrappable krypteringsschema, utan att minska det djup som systemet kan utvärdera. Abstractly, vi åstadkommer detta genom att göra det möjligt för encrypter att starta dekrypteringsprocessen, lämnar mindre arbete för decrypter, ungefär som servern lämnar mindre arbete för decrypter i en server-stödd cryptosystem.
Han beskrev allmän nyckelkryptering med hjälp av idealiska gitter REF ).
947,660
Fully homomorphic encryption using ideal lattices
{'venue': "STOC '09", 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,689
Vi föreslår en algoritm för meta-lärande som är modellagnostisk, i den meningen att den är kompatibel med alla modeller som är utbildade med lutningsnedstigning och kan tillämpas på en mängd olika inlärningsproblem, inklusive klassificering, regression och förstärkningslärande. Målet med meta-lärande är att utbilda en modell på en mängd olika inlärningsuppgifter, så att den kan lösa nya inlärningsuppgifter med bara ett litet antal träningsprover. I vårt tillvägagångssätt tränas modellens parametrar explicit så att ett litet antal gradientsteg med en liten mängd träningsdata från en ny uppgift ger bra generaliseringsprestanda på den uppgiften. I själva verket tränar vår metod modellen för att vara lätt att finjustera. Vi visar att detta tillvägagångssätt leder till state-of-the-art prestanda på två få bilder klassificering riktmärken, ger goda resultat på få-shot regression, och påskyndar finjustering för policy gradient förstärkning lärande med neurala nätverk politik.
I REF föreslås ett allmänt tillvägagångssätt för att initiera maskininlärningsmodeller genom metainlärning på en mängd olika uppgifter för att kunna lösa nya inlärningsuppgifter med få gradientsteg.
6,719,686
Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
3,690
Denna uppsats syftar till att bekanta läsaren med Stochastic Hybrid Systems (SHS) och gör det möjligt för henne att använda dessa system för att modellera och analysera Networked Control Systems (NCS). Mot detta mål introducerar vi två olika modeller av SHS och en uppsättning teoretiska verktyg för deras analys. Parallellt med presentationen av de matematiska modellerna och resultaten ger vi några enkla exempel som illustrerar användningen av SHS till modeller NCS. Nyckelord: Nätverksstyrningssystem; Hybridsystem; Stochastic Processes; Stability; Markov Processes Uttrycket Networked Control Systems (NCS) avser vanligtvis återkopplingssystem för vilka vissa sensorer, styrenheter och ställdon kommunicerar med varandra med hjälp av ett gemensamt kommunikationsnät. Användningen av ett gemensamt nätverk för flera ändamål minskar installations- och underhållskostnaderna och ökar flexibiliteten, eftersom systemet kan konfigureras om och/eller utökas med minimala extra infrastrukturkostnader. Mot bakgrund av detta finner NCS tillämpning inom flera områden som bland annat fordonsindustrin, luftfartsindustrin, robotteknik, processkontroll och byggnadskontroll. Medan NCS är attraktiva ur perspektivet kostnader för installation och underhåll, de inför betydande designutmaningar, eftersom den traditionella enhet feedback loop som fungerar i kontinuerlig tid eller med en fast provtagningsfrekvens inte är tillräcklig när sensordata kommer från flera källor, asynkront, fördröjd, och möjligen korrumperade. Följaktligen har NCS varit fokus för intensiva studier under de senaste åren [16, 25, 29]. Detta dokument är inriktat på två aspekter av NCS som är ansvariga för viktiga utmaningar när det gäller att analysera och utforma NCS och som driver fram nya formella verktyg för att studera dessa system. Detta dokument är delvis baserat på material som presenteras i en plenarföreläsning vid den 4:e IFAC-workshopen om distribuerad uppskattning och styrning i nätverkssystem (NECSYS'13).
Paper REF introducerar två olika modeller av SHS och illustrerar hur man använder SHS till modeller NCS.
2,604,239
Modeling and analysis of networked control systems using stochastic hybrid systems
{'venue': 'Annu. Rev. Control.', 'journal': 'Annu. Rev. Control.', 'mag_field_of_study': ['Computer Science']}
3,691
Skript representerar kunskap om stereotypa händelsesekvenser som kan hjälpa textförståelse. De första statistiska metoderna har utvecklats för att lära sig probabilistiska skript från rå text corpora; men de använder sig av en mycket utarmad representation av händelser, bestående av ett verb och ett beroende argument. Vi presenterar ett manus lärande tillvägagångssätt som använder händelser med flera argument. Till skillnad från tidigare arbete modellerar vi interaktionen mellan flera enheter i ett skript. Experiment på en stor corpus använder uppgiften att sluta hållna-ut händelser (den "berättande kloze utvärdering") visar att modellering av multi-argument händelser förbättrar prediktiv noggrannhet.
REF använde rikare händelse representationer, utnyttjar samspelet mellan flera argument för att extrahera händelsesekvenser från en stor corpus.
2,597,568
Statistical Script Learning with Multi-Argument Events
{'venue': 'EACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,692
Abstract-This paper tar upp en allvarlig SDN-specifik attack, dvs. data-till-kontroll plan mättnad attack, som överbelastar infrastrukturen i SDN-nätverk. I denna attack, en angripare kan producera en stor mängd tabell-miss packet_in meddelanden för att konsumera resurser i både kontrollplan och dataplan. För att minska detta säkerhetshot inför vi ett effektivt, lättviktigt och protokolloberoende försvarsramverk för SDN-nätverk. Vår lösning, kallad FLOODGUARD, innehåller två nya tekniker/moduler: proaktiv flödesregelanalysator och paketmigrering. För att bevara nätpolicyn, proaktiv flödesregelanalysator dynamiskt härleder proaktiva flödesregler genom att resonera körtidslogiken hos SDN/OpenFlow controller och dess tillämpningar. För att skydda regulatorn från överbelastning, paket migration tillfälligt cammar översvämningspaketen och skickar dem till OpenFlow controller med hjälp av hastighetsgräns och round-robin schemaläggning. Vi utvärderar FLOODGUARD genom en prototypimplementering testad i både programvaru- och hårdvarumiljöer. Resultaten visar att FLOODGUARD är effektivt med att lägga till endast mindre overhead i hela SDN/OpenFlow-infrastrukturen.
FloodGuard REF föreslår en proaktiv flödesregel analysera modul och paket begränsning modul för att skydda styrenheten från att överbelastas.
8,203,656
FloodGuard: A DoS Attack Prevention Extension in Software-Defined Networks
{'venue': '2015 45th Annual IEEE/IFIP International Conference on Dependable Systems and Networks', 'journal': '2015 45th Annual IEEE/IFIP International Conference on Dependable Systems and Networks', 'mag_field_of_study': ['Computer Science']}
3,693
Abstract-Evidence av skadlig insideraktivitet är ofta begravd i stora dataströmmar, såsom systemloggar ackumuleras över månader eller år. Ensemble-baserade stream mining utnyttjar flera klassificeringsmodeller för att uppnå mycket exakt anomali upptäckt i sådana strömmar även när strömmen är obunden, utvecklas, och omärkt. Detta gör tillvägagångssättet effektivt för att identifiera insiderhot som försöker dölja sin verksamhet genom att variera sina beteenden över tiden. Detta dokument tillämpar ensemblebaserad strömbrytning, oövervakat lärande och grafbaserad anomalidetektering på problemet med insiderhotsdetektering, vilket visar att den ensemblebaserade metoden är betydligt effektivare än traditionella en modellmetoder.
Parveen m.fl. REF använde strömbrytning och grafbrytning för att upptäcka insideraktivitet i stora volymer strömmande data, baserat på ensemblebaserade metoder, oövervakat lärande och grafbaserad anomalidetektering.
511,378
Insider Threat Detection using Stream Mining and Graph Mining
{'venue': "2011 IEEE Third Int'l Conference on Privacy, Security, Risk and Trust and 2011 IEEE Third Int'l Conference on Social Computing", 'journal': "2011 IEEE Third Int'l Conference on Privacy, Security, Risk and Trust and 2011 IEEE Third Int'l Conference on Social Computing", 'mag_field_of_study': ['Computer Science']}
3,694
Nya DRAM-specifikationer uppvisar ökande uppdateringslatenser. En uppdatering av kommandot blockerar en fullständig rankning och minskar tillgänglig parallellism i minnesdelsystemet avsevärt, vilket minskar prestandan. Fine Granularity Refresh (FGR) är en funktion som nyligen tillkännagavs som en del av JEDEC DDR4 DRAM specifikation som försöker ta itu med detta problem genom att skapa en rad uppdateringsalternativ som ger en avvägning mellan uppdatering latens och frekvens. I detta dokument genomför vi först en analys av DDR4 DRAM:s FGR-funktion, och visar att det inte finns någon one-size-fits-all alternativ för en mängd olika applikationer. Vi presenterar sedan Adaptive Refresh (AR), en enkel men effektiv mekanism som dynamiskt väljer det bästa FGR-läget för varje applikation och fas i applikationen. När vi tittar närmare på uppdateringsproblemet, identifierar vi i DRAM-system med hög densitet ett fenomen som vi kallar kommando kö anfall, där minneskontrollantens kommando kö tar upp tillfälligt eftersom det är fullt med kommandon till en rank som håller på att uppdateras. För att angripa detta problem föreslår vi två kompletterande mekanismer som kallas Delayed Command Expansion (DCE) och Preemptive Command Drain (PCD). Våra resultat visar att AR utnyttjar DDR4:s FGR effektivt. När väl våra föreslagna DCE- och PCD-mekanismer har lagts till blir dock DDR4:s FGR överflödiga i de flesta fall, utom i några mycket minneskänsliga applikationer, där användningen av AR ger vissa ytterligare fördelar. Sammantaget visar våra simuleringar att de föreslagna mekanismerna ger 8% (14%) i genomsnitt snabba upp med avseende på traditionell uppdatering, vid normal (utökad) DRAM drifttemperatur, för en uppsättning olika parallella tillämpningar.
Mukundan m.fl. REF föreslår schemaläggningstekniker (utöver adaptiv uppdatering som diskuteras i avsnitt 3.1) för att ta itu med problemet med kommandoköer, varigenom en kommandokö leds upp med kommandon till en uppfriskande rank, blockera kommandon till en annan icke-uppfriskande rank.
18,390,568
Understanding and mitigating refresh overheads in high-density DDR4 DRAM systems
{'venue': 'ISCA', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,695
Tidigare arbete med ämnesmodell för statistisk maskinöversättning (SMT) utforska ämnesinformation på ordnivå. SMT har dock utvecklats från ordbaserat paradigm till fras/regelbaserat paradigm. Vi föreslår därför en modell för ämneslikhet för att utnyttja ämnesinformation på synkron regelnivå för hierarkisk frasbaserad översättning. Vi associerar varje synkron regel med en ämnesfördelning, och väljer önskvärda regler enligt likheten mellan deras ämnesfördelningar och givna dokument. Vi visar att vår modell avsevärt förbättrar översättningen prestanda över baslinjen på NIST kinesiska-till-engelska översättning experiment. Vår modell ger också bättre prestanda och snabbare hastighet än tidigare tillvägagångssätt som fungerar på ordnivå.
REF föreslår en ämnesbaserad likhetsmodell för regelval i hierarkisk frasbaserad översättning.
6,710,961
A Topic Similarity Model for Hierarchical Phrase-based Translation
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,696
Vi presenterar en mycket effektiv oövervakad metod för att upptäcka inställning Twitter-användare med avseende på kontroversiella ämnen. I synnerhet använder vi dimensionalitetsreduktion för att projektera användare på ett lågdimensionellt utrymme, följt av klusterering, vilket gör att vi kan hitta kärnanvändare som är representativa för de olika ställningarna. Vår metod har tre stora fördelar jämfört med nuvarande toppmoderna metoder, som bygger på övervakad eller halvövervakad klassificering. För det första kräver vi ingen föregående märkning av användare: istället skapar vi kluster, som är mycket lättare att märka manuellt efteråt, t.ex. på några sekunder eller minuter istället för timmar. För det andra finns det inget behov av kunskap på domän- eller ämnesnivå, varken för att specificera relevanta ställningstaganden (märkningar) eller för att genomföra den faktiska märkningen. För det tredje är vår metod robust inför dataskewness, t.ex. när vissa användare eller vissa ställningar har större representation i data. Vi experimenterar med olika kombinationer av användare likhetsfunktioner, dataset storlekar, dimensionalitet reduktionsmetoder, och kluster algoritmer för att fastställa de mest effektiva och mest beräkningseffektiva kombinationer i tre olika dataset (på engelska och turkiska). Vår bästa kombination när det gäller effektivitet och effektivitet använder retweeted konton som funktioner, UMAP för dimensionalitet minskning, och Mean Shift för kluster, och ger ett litet antal högkvalitativa användarkluster, vanligtvis bara 2-3, med mer än 98% renhet. Dessutom är vår metod robust mot variationer i parametervärdena och även med avseende på slumpmässig initiering.
Nyligen, REF har infört en mycket effektiv oövervakad metod för att förutsäga inställningen av produktiva Twitter-användare mot kontroversiella ämnen.
102,487,723
Unsupervised User Stance Detection on Twitter
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
3,697
Multimedia-baserade ontologi konstruktion och resonemang har nyligen erkänts som två viktiga frågor i videosökning, särskilt för att överbrygga semantiska gap. Bristen på tillfälligheter mellan lågnivåfunktioner och användarförväntningar gör konceptbaserade ontologiska resonemang till ett attraktivt mellannivåramverk för tolkning av semantik på hög nivå. I detta dokument föreslår vi en ny modell, nämligen ontologiberikat semantiskt utrymme (OSS), för att tillhandahålla en beräkningsbar plattform för modellering och resonemangskoncept i ett linjärt rum. OSS upplyser om möjligheten att besvara begreppsmässiga frågor såsom en hög täckning av semantiskt utrymme med minimal uppsättning begrepp, och den uppsättning begrepp som ska utvecklas för videosökning. Viktigare är att kartläggningen av frågetecken till begrepp kan genomföras på ett mer rimligt sätt genom att garantera en enhetlig och konsekvent jämförelse av begreppspoäng för videosökning. Vi utforskar OSS för flera uppgifter inklusive konceptbaserad videosökning, ordförnimmelse disambigation och multimodal fusion. Våra empiriska rön visar att OSS är en genomförbar lösning på aktuella frågor som mätning av konceptkombination och frågekonceptberoende fusion.
Med ontologiska resonemangstekniker konstruerade ett nyligen utfört arbete i REF ett vektorutrymme, kallat ontologiberikat semantiskt utrymme (OSS), genom att beakta begreppens parvisa överensstämmelse.
14,558,783
Ontology-enriched semantic space for video search
{'venue': 'ACM Multimedia', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,698
Abstrakt. Högre ordning sidokanal attacker är en klass av kraftfulla tekniker mot kryptografiska implementationer. Deras komplexitet växer exponentiellt med ordningen, men för små beställningar (t.ex. 2 och 3) De senaste undersökningarna har visat att de utgör ett allvarligt hot i praktiken. I detta sammanhang är det idag av stor betydelse att utforma program motåtgärder som gör det möjligt att motverka högre ordning sidokanal attacker för någon godtycklig vald ordning. Vid CHES 2010 har Rivain och Prouff infört en sådan motåtgärd för AES. Det fungerar för alla godtyckliga valda ordning och drar nytta av ett formellt motstånd bevis. Fram tills nu var det den enda med sådana tillgångar. Genom att generalisera en motåtgärd som infördes i ACNS 2010 av Genelle et al. , föreslår vi i detta dokument ett alternativ till Rivain och Prouffs lösning. Det nya systemet kan också bevisas vara säkert i alla order och har fördelen att det är minst 2 gånger effektivare än de befintliga lösningarna för order 2 och 3, samtidigt som RAM-förbrukningen bibehålls under 200 byte.
Genelle m.fl. REF föreslog en metod för att säkert växla mellan boolesk och multiplikativ maskering vid alla ordningar.
504,559
M.: Thwarting higher-order side channel analysis with additive and multiplicative maskings
{'venue': 'IACR Cryptology ePrint Archive', 'journal': 'IACR Cryptology ePrint Archive', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
3,699
Studier i textutvinning har börjat undersöka förhållandet mellan positiva och negativa åsikter och patienternas fysiska hälsa. Flera studier kopplade den personliga lexikon med hälsa och hälsorelaterade beteende hos individen. Dock utfördes få textbrytningsstudier för att analysera åsikter som uttrycktes i en stor mängd användarskrivet webbinnehåll. Vår aktuella studie fokuserade på att utföra känsloanalys på flera medicinska forum tillägnad Hörselförlust (HL). Vi kategoriserade meddelanden som postats på forumen som positiva, negativa och neutrala. Vår studie hade två steg: först tillämpade vi manuell annotering av inläggen med två annoterare och har 82,01% övergripande överenskommelse med kappa 0.65 och sedan tillämpade vi Maskininlärning tekniker för att klassificera inläggen.
Ali och Al. REF introducerar en känsla analys dataset inom området för hörselnedsättning för att analysera användarnas åsikter som uttrycks i medicinska forum.
9,854,454
Can I Hear You? Sentiment Analysis on Medical Forums
{'venue': 'IJCNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,700
I denna artikel undersöks a) om registerdiskriminering med framgång kan utnyttja språklig information som återspeglar utvecklingen av ett språk (såsom diglossiafenomenet i det moderna grekiska språket) och b) vilken typ av språklig information och vilka statistiska metoder som kan användas för att skilja mellan olika stilar inom ett register. Med hjälp av klusterteknik och funktioner som speglar diglossiafenomenet har vi framgångsrikt diskriminerat registren i Modemgrekiska. Uppgifter om diglossia har dock inte visat sig vara tillräckliga för att skilja mellan olika stilar inom ett och samma register. I stället måste ett stort antal språkliga särdrag studeras med metoder som diskriminant analys för att uppnå en hög grad av diskrimineringsnoggrannhet. Identifieringen av den språkstil som kännetecknar de ingående delarna av en corpus är mycket viktig för flera tillämpningar. Till exempel, i applikationer för informationssökning, där stora textkorpora måste sökas effektivt, är det bra att ha information om den språkstil som används i varje text, för att förbättra riktigheten i sökningen (Karlgren, 1999). I själva verket kan kriterierna för språkstil skilja sig åt för varje sökning och därför -på grund av det stora antalet texter - finns det ett krav på att utföra stilkategorisering på ett automatiserat sätt. Sådana system använder vanligtvis statistiska metoder för att utvärdera egenskaperna hos givna texter. De studerade egenskapernas komplexitet varierar. Kilgarriff (1996) använder främst ordfrekvensen medan Karlgren (1999) använder statistiska metoder främst på struktur- och deltalinformation. Baayen m.fl. (1996), som studerar ämnet identifikation av upphovsmän, tillämpar statistiska åtgärder och metoder för syntaktisk omskrivning av regler som uppstår genom bearbetning av en viss uppsättning texter. De uppger att den noggrannhet som erhålls på detta sätt är högre än vid tillämpning av samma statistiska åtgärder på den ursprungliga texten. Däremot använder Biber (1995) multidimensionell analys tillsammans med ett stort antal språkliga kännetecken för att skilja mellan register. Den bakomliggande tanken är att register, i stället för att särskiljas på grundval av en uppsättning finguistiska drag, skiljer sig åt på grundval av kombinationer av viktade språkliga särdrag, de så kallade "dimensionerna". Den här artikeln handlar om diskriminering av texter på skrivna modemgrekiska. Den pågående forskningen som beskrivs här har följt två olika riktningar. För det första har vi försökt skilja mellan register över skrivna moderna grekiska. I en andra fas har vår forskning inriktats på att skilja mellan enskilda stilar inom ett register och, mer specifikt, bland talare i det grekiska parlamentet. För att uppnå detta används strukturell, morfologisk och del-i-tal-information. Inledningsvis (i avsnitt 2) läggs tonvikten på att skilja mellan de olika register som används. I avsnitt 3 testas uppgiften att identifiera upphovsmän med utvalda statistiska metoder. I båda avsnitten beskriver vi den uppsättning språkliga egenskaper som mäts, vi argumenterar för den statistiska metod som används och vi kommenterar resultaten. Avsnitt 4 innehåller en beskrivning av framtida planer för förlängning av detta forskningsanslag, medan slutsatserna i avsnitt 5 i denna artikel ges. För att skilja mellan register, vi framgångsrikt utnyttjat en särskild egenskap i Modem grekiska, De variabler som används för att skilja mellan register kan grupperas i följande kategorier: 1. Morfologiska variabler: Dessa var verbala slut som kvantifierade kontrasten Kathareveusa / Demofiki. Även om de morfologiska skillnaderna mellan dessa två varianter av grekiska inte är begränsade till verbparadigmet, fokuserade vi på det senare eftersom det bättre belyser den kontrast som övervägs (Tainbouratzis m.fl., 2000). Totalt 230 verbala slut valdes ut, uppdelade i 145 Demotiki och 85 Kathareveusa-slut (se även bilagan). Dessa 230 frekvensfrekvenser grupperades i 12 variabler för användning i den statistiska analysen. Vissa negation partiklar (ovd~ei¢, otu~rere, oo~o4zo6, torktumlare) Dessa variabler är mer lik de egenskaper som används av Karlgren (1999), och skiljer sig avsevärt från dem som används av Kilgarriff (1996) och Baayen et al. (1996)........................................................................................................... För mätvärdena för de första och thkd-kategorierna användes ett specialbyggt program som kördes under Linux. Detta program beräknade alla strukturella och morfologiska mått för varje text i ett enda pass och resultaten bearbetades med hjälp av ett kalkylblad paket. Mätvärdena för den andra kategorin beräknades med hjälp av ett skräddarsytt program i C programmeringsspråket. PoS räkningar erhölls med hjälp av ILSP tagger (Papageorgiou et al., 2000) tillsammans med ett antal specialbyggda program för att bestämma de faktiska frekvenserna-av-förekomst från de taggade texterna. Slutligen användes STATGRAPHICS-paketet för den statistiska analysen. Det valda datasetet bestod av exempel från tre register: (i) fiktion (364 Kwords -24 texter), (ii) texter av akademisk prosa som hänvisar till historiska frågor, även kallad historieregistret (361 Kwords -32 texter) och (iii) politiska tal som erhållits från de grekiska parlamentssammanträdena, även kallade parlamentsregistret (509 Kwords -12 texter). Texterna till registren (I) och (II) hämtades från ILSP corpus (Gavrilidou m.fl., 1998), alla från perioden 1991-1999. Registertexterna (III) var avskrifter från de grekiska parlamentssammanträden som hölls under första halvåret 1999. Denna datauppsättning har bearbetats med hjälp av både sådd och ofröad klusterteknik med mellan 3 och 6 kluster. Det osådda tillvägagångssättet bekräftade förekomsten av skilda naturliga klasser, som motsvarar de tre registren. Det sådda tillvägagångssättet bekräftade förmågan att exakt separera dessa tre register och att samla ihop sina element. Inledningsvis användes en "kort" datavektor som endast innehöll de 12 morfologiska variabler som kvantifierade Demofiki/Katharevousa-kontrast (Tambouratzis et al. 2000), samt en 16-element vektor som kombinerar strukturella och morfologiska egenskaper. Fröna till Parliarant- och historieregistren valdes slumpmässigt. Fröna till Fiction-registret valdes så att åtminstone ett av dem inte skulle vara 36 "ytterligare" i Fiction-registret. Representativa resultat visas i tabell 1 Vektorstorleken förstärktes med PoS-information, vilket resulterade i en 27-element datavektor. En ny uppsättning klusterförsök utfördes med Wards metod med det fyrkantiga Euclideanavståndet för att samla data på ett oseglat sätt. Slutligen användes en 15-element data vektor med PoS och strukturell information men utan någon morfologisk information. De resultat som erhållits (tabell 2) visar att PoS-information förbättrar klusterprestandan. Våra resultat tyder starkt på att register över skrivna Modem grekiska kan diskrimineras korrekt på grundval av kontrasten Katharevousa / Demotiki manifesteras med morfologisk variation. Språk med en annan historia kanske inte lämpar sig för en sådan kategoriseringsmetod. Detta framgår tydligt av Bibers arbete (1995) för det engelska språket, där en mängd olika grammatiska och makrostrukturella språkliga särdrag men inga morfologiska variationer användes. Det verkar då som om korpora av språk som kännetecknas av fenomenet diglossia, kan framgångsrikt kategoriseras på grundval av morfologisk information (eller andra reflexer av diglossia). En sådan diskrimineringsmetod kan ge så tillfredsställande resultat som tillvägagångssätt som ligger närmare andan i Biber (1995) och som bygger på PoS och strukturella åtgärder (se tabellerna 1 och 2). Tabellerna 1 och 2 visar att noggrannheten i klungan når ungefär 99 % medan den sådda klungan hade en hög grad av noggrannhet och nådde 100 % vid användning av 5 klungor. För den 27-element vektor med både morfologisk och PoS information, har perfekt klusterering uppnåtts även med 4 kluster. Å andra sidan uppnås en framgångsrik klusterbildning (om än med lägre noggrannhet) endast med hjälp av strukturell och PoS-information. Det bör noteras att de lexiska variabler som användes, det vill säga negationspartiklarna, inte bidrog alls (Markantonatou et al., 2000). Dessutom utförde systemet nästan lika bra med och utan makrostrukturfunktioner, skillnaden i noggrannhet är mindre än 5 %. Parlamentets texter kan hävdas utgöra ett register vars mönster är nära placerade i mönsterutrymmet. Av de tre registren visade litteraturen en högsta grad av varians, med mer än en del-kluster existerande såväl som outlier element. Detta kan förklaras av det faktum att parlamentets överläggningar, tvärtemot litteraturen, genomgår intensiv redigering av en liten grupp specialiserade offentliga tjänstemän. I detta avsnitt rapporterar vi om våra ansträngningar att skilja mellan individuella stilar inom ett register. Framför allt har vi för avsikt att skilja mellan parlamentets talare genom att studera utskrifterna av de fem parlamentsledamöternas anföranden under perioden 1997-2000. Var och en av dessa talare tillhör ett av de fem politiska partier som var representerade i det grekiska parlamentet under denna period. Hittills har försöken begränsats till perioden 1999-2000. Antalet variabler (46 totalt) som beräknats för var och en av de fem talarna kan grupperas enligt följande:. • Negationspartiklar (623, &v,/aft). • Negativa ord av Katharevousa (ovJei¢, ~iveo). • Andra ord som också uttrycker kontrasten Katharevousa / Demotiki (de anaforiska pronomenen "o~oio¢" (Kath) och "taro" (Dem)), som för närvarande resulterar i en enda variabel. och ordlängd, antal kommatecken, frågetecken, bindestreck och parenteser, vilket resulterar i totalt 6 variabler. • Del av talräkning (10 variabler). • Användning av grammatiska kategorier som genitivt fall med substantiv och adjektiv (2 variabler). Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning. Det år då talet framfördes i parlamentet och talets ordning i det dagliga schemat, det är om det var talarens första tal som leran (nedan kallad "protoloyia") eller det andra, tredje osv. (vilket resulterar i totalt 2 variabler). 6. Vad är det som händer? Talarens identitet, betecknad som högtalarens Signatur (1 variabel), som användes för att bestämma den önskade klassificeringen. På samma sätt som klusterförsöken användes en uppsättning C-program för att automatiskt extrahera värdena för de ovannämnda variablerna från utskrifterna. De flesta av dessa program förlitar sig på att mäta förekomsten av di-gram% och mer allmänt n-gram, för bokstäver, ord och taggar, vilket är rakt framåt. I fallet med högtalaridentifiering, Diskriminant Analys användes, eftersom klustermetoden gav inte mycket bra resultat, vilket tyder på att distinktionen mellan personliga stilar är svagare än den bland register. Till och med när endast 2 högtalare användes ingick mönster från båda talarklasserna i klustren. Vi experimenterade med två corpora, Corpus I och Corpus 11, som beskrivs i tabell 3. Corpus H är en undergrupp av Corpus I. Var och en av de tal som ingår i Corpus II hölls som öppningstal Cprotoloyia") vid ett parlamentssammanträde när minst två av de studerade talarna höll tal. En viktig fråga är om de valda variablerna är starkt korrelerade. Om det verkligen finns starka korrelationer, kan dessa användas för att minska mönsterutrymmets dimensionalitet. I denna analys användes de 46 oberoende variablerna (45 när det gäller Corpus II där det endast finns "protoioyiai", eftersom ordervariabeln då hela tiden är lika med 1). Antalet korrelationer mellan alla variabla par som överskrider givna tröskelvärden visas i figur 1, för både Corpus I och Corpus 11. Enligt denna studie är andelen variabla par med ett absolut korrelationsvärde som överstiger 0,5 i Corpus IL cirka 3%, vilket tyder på en låg korrelation mellan parametrarna. Dessutom har endast en enda av 990 par Corpus 11, en korrelation som överstiger 0,8. Jämförelserna för samma parameterpar över de två korpora är likartade, men som regel är korrelationen för Corpus I mindre än för Corpus 11, vilket återspeglar den större variabiliteten i texter i Corpus I. Korrelationsstudien visade att de flesta av parametrarna inte är starkt korrelerade. Ett faktoranalyssteg är därför inte nödvändigt och tillämpningen av den avvikande analysen direkt på de ursprungliga variablerna är motiverad. Inledningsvis behandlades Corpus I (se tabell 3). De 46 ovannämnda variablerna användes för att generera diskriminanta funktioner som exakt kände igen talarens identitet. I detta syfte användes tre olika metoder: i) den fullständiga modellen: alla variabler användes för att bestämma de diskriminerande funktionerna, ii) den framåtvända modellen: från och med en tom modell infördes variabler för att skapa en reducerad modell, med ett litet antal variabler, iii) den bakåtvända modellen: från och med den fullständiga modellen eliminerades variablerna för att skapa en reducerad modell. I de framåt- och bakåtvända modellerna var värdena för F-parametern att både mata in och ta bort en variabel satt till 4 medan det maximala antalet steg för att generera modellen var satt till 50. Prestandan av denna modell förbättras om: I. den ordning i vilken varje enskilt tal hölls beaktas: undergruppen av "protoloyiai" är väldefinierad och presenterar en låg varians medan tal av andra eller lägre ordning har en högre varians. 2. Corpus består endast av sessioner där mer än en talare har hållit anföranden. Den mer balanserade korpus II (tabell 3) ger således bättre resultat i fråga om diskriminering. För dessa två corpora visas resultaten av diseriminantanalysen i tabell 4. Diskrimineringsgraden för Corpus II är mycket högre än för Corpus I. Dessutom kan mindre modeller, med 8 variabler, skapas som korrekt klassificerar minst 75% av Corpus II. Ett exempel på de faktorer som genereras och det sätt på vilket de separerar mönsterutrymmet visas i diagrammen i figur 2. Även om denna forskning fortsätter, kan vissa fakta rapporteras med tillförsikt. I det grekiska parlamentets förfaranderegister kan enskilda stilar inte klassificeras på grundval av morfologiska drag som uttrycker kontrasten Kathareveusa/Demotiki. Detta kan förklaras av att dessa texter genomgår intensiv redigering mot ett väletablerat underspråk. Denna redigering homogeniserar texternas morfologiska profil, men går naturligtvis inte så långt som att homogenisera de olika talarnas lexiska preferenser. I motsats till de registerklustrande experimenten verkar därför lexiska variabler som uttrycker den särskilda kontrasten spela en roll när det gäller att skilja mellan talarna och varför användningen av Katharouusa-präglade negativa partiklar, som inte var viktiga för registerdiskrimineringen, verkar ha en viss betydelse för stildiskrimineringen. Observationen att negativa ord spelar en roll i stilidentifieringen stämmer överens med Labb6:s kommentarer om det franska politiska talet (1983). Strukturella egenskaper har visat sig vara viktiga: den genomsnittliga ordlängden, användningen av interpunktion och frågetecken och användningen av vissa delar av tal som artiklar, associationer, adjungeringar och -especiaUyverbs. Dessutom verkar fördelningen av verb till personer och tal vara viktig, även om de exakta variabler som väljs skiljer sig åt beroende på den exakta uppsättning tal som används (dessa variabler kompletterar naturligtvis). En av de mest intressanta resultaten av denna forskning är att det är viktigt om talaren levererar en "protoloyia" eller inte. "Protoloyiai" kan klassificeras med 95% medan blandade leveranser resulterar i en lägre skattesats, så lågt som 75%. Detta kan bero på två faktorer: 1. "Protoloyiai" representerar längre textsträckor, som är mer karakteristiska för en viss talare. 2. Utgångspunkten är följande: Talarna förbereder sig minutiöst för sin "protoloyiai" medan deras övriga leveranser representerar en mer spontan typ av tal, som tenderar att innehålla mönster som delas av alla parlamentsledamöterna. Slutligen dyker vissa ytterligare mönster upp för var och en av talarna. Vissa talare (t.ex. Talaren A) är mer konsekvent erkänd än andra (t.ex. högtalare B) medan högtalare B liknar högtalare C och högtalare D liknar högtalare E. Detta indikerar att ytterligare variabler kan krävas för att förbättra klassificeringsnoggrannheten för alla högtalare. I nästa steg ska användningsfrekvensen för vissa lemmata imroduceras, eftersom okulärbesiktning visar att de kan ge goda diskriminerande egenskaper. Vi planerar också att ersätta genomsnittliga längder (av både ord och meningar) med fördelningen av längder. Dessutom har vi för avsikt att införa vissa strukturella mått såsom upprepning av strukturer, kedjor av nominella värden och förekomsten av negation inom NP-frasal eousdments. En annan möjlig utvidgning innebär att talämnet tas med. Eftersom vissa talares egenskaper tycks förändras genom tiden planerar vi att behandla alla inlägg för målperioden 1997/2000. Slutligen är en viktig fråga att jämföra resultaten från våra experiment med dessa som genereras av alternativa tekniker som föreslagits av andra forskare. Detta kommer att göra det möjligt att dra mer exakta slutsatser om forskningsstrategiernas starka och svaga sidor. I denna artikel har pågående forskning om register och individuell stil eategorisering av skrivna Modem grekiska rapporterats. Ett system har föreslagits för automatisk registerkategorisering av korpora i Modemgrekiska utnyttjar språkets mycket böjliga karaktär. Resultaten har erhållits med en relativt begränsad uppsättning register, men deras igenkänningsnoggrannhet är anmärkningsvärt hög och överstiger 98 % med en oseed clustering metod som använder mellan 3 och 6 kluster. När det gäller kategorisering av enskilda stilar uppnåddes en diskrimineringsgrad på över 80 procent för fem talare i det grekiska parlamentets register. Morfologiska variabler visade sig vara av mindre betydelse för denna uppgift, medan lexiala och straeturala variabler verkade ta över. Vi planerar att införa flera nya lexikala och strukturella variabler för att uppnå bättre diskrimineringsgrad och för att fastställa diskriminerande egenskaper hos de olika stilarna. 40 Försäkringstekniska avsättningar för livförsäkringar, livförsäkringar, livförsäkringar, livförsäkringar, livförsäkringar, livförsäkringar, sjukförsäkringar, sjukförsäkringar, sjukförsäkringar, sjukförsäkringar, sjukförsäkringar, sjukförsäkringar, sjukförsäkringar, sjukförsäkringar, sjukförsäkringar, sjukförsäkringar, sjukförsäkringar, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, olycksfallsförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring, sjukförsäkring
När det gäller automatisk insamling corpora som har en önskad stil, Tambouratzis et al. föreslog en metod för att dela upp moderna grekiska corpus i Demokrati och Katharevoua, som är varianter av moderna grekiska REF.
12,600,282
Discriminating The Registers And Styles In The Modern Greek Language
{'venue': 'Workshop On Comparing Corpora', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,701
Nya ord som namn, tekniska termer, etc. förekommer ofta. Som sådan, den tvåspråkiga lexicon av en maskin översättningssystem måste ständigt uppdateras med dessa nya ord översättningar. Jämförbara corpora såsom nyhetsdokument för samma period från olika nyhetsbyråer är lätt tillgängliga. I detta dokument presenterar vi en ny metod för att utvinna nya ordöversättningar från jämförbara corpora, genom att använda kontextinformation som komplement till translittereringsinformation. Vi utvärderade vår strategi på sex månader av kinesiska och engelska Gigaword corpora, med uppmuntrande resultat.
REF presenterade en metod för att bryta nya översättningar från kinesiska och engelska nyhetsdokument under samma period från olika nyhetsbyråer, som kombinerar både translitterering och kontextinformation.
13,114,182
Mining New Word Translations From Comparable Corpora
{'venue': 'International Conference On Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,702
Vi presenterar en ram för att specificera, utbilda, utvärdera och distribuera modeller för maskininlärning. Vårt fokus ligger på att förenkla maskininlärningen för praktiker för att få sådan teknik i produktion. Med tanke på den snabba utvecklingen av området för djupt lärande gör vi inget försök att fånga designutrymmet för alla möjliga modellarkitekturer i ett domänspecifikt språk (DSL) eller liknande konfigurationsspråk. Vi tillåter användare att skriva kod för att definiera sina modeller, men ger abstraktioner som vägleder utvecklare att skriva modeller på sätt som främjar produktion. Vi tillhandahåller också en enhetlig Estimator-gränssnitt, vilket gör det möjligt att skriva nedströmsinfrastruktur (t.ex. distribuerad utbildning, hyperparameterinställning) oberoende av modellens genomförande. Vi balanserar de konkurrerande kraven på flexibilitet och enkelhet genom att erbjuda API:er på olika abstraktionsnivåer, göra gemensamma modellarkitekturer tillgängliga ur lådan, samtidigt som vi tillhandahåller ett bibliotek med verktyg som är utformade för att påskynda experiment med modellarkitekturer. För att göra ut av box modeller flexibla och användbara över ett brett spektrum av problem, dessa konserverade Estimatorer är parameteriserade inte bara över traditionella hyperparametrar, men också med hjälp av funktion kolumner, en deklarativ specifikation som beskriver hur man tolkar inmatningsdata. Vi diskuterar vår erfarenhet av att använda detta ramverk i forsknings- och produktionsmiljöer och visar påverkan på kodhälsa, underhåll och utvecklingshastighet.
Cheng m.fl. REF presenterade ett system för att indikera, förbereda och utvärdera och förmedla maskininlärningsmetoder med fokus på att effektivisera inlärning av blödande kantmaskin för utövare med ett specifikt slutmål för att få sådana framsteg till stånd.
1,315,292
TensorFlow Estimators: Managing Simplicity vs. Flexibility in High-Level Machine Learning Frameworks
{'venue': "KDD '17", 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,703
Underwater Sensor Network (UWSN) är ett representativt tredimensionellt trådlöst sensornätverk. På grund av de unika egenskaperna hos akustisk undervattenskommunikation, ger energieffektiva och låg-latent routing protokoll för UWSNs är utmanande. Stora utmaningar är vattenströmmar, begränsade resurser och lång akustisk spridningsfördröjning. Nätverkstopologi av UWSNs är dynamisk och komplex som sensorer har alltid rört sig med strömmar. Vissa föreslagna protokoll antar geografisk routing för att ta itu med detta problem, men tredimensionell lokalisering är svårt att få i undervattensmiljö. Eftersom djupbaserat routingprotokoll (DBR) endast använder djupinformation som är mycket lättare att få, är det mer praktiskt för UWSNs. Djupinformation är dock inte tillräckligt för att begränsa paket som ska vidarebefordras inom ett visst område. Packets kan vidarebefordras genom flera vägar som kan orsaka energislöseri och öka end-to-end fördröjning. I detta papper introducerar vi undervattenstid för ankomst (ToA) varierande teknik för att ta itu med problemet ovan. För att upprätthålla alla de ursprungliga fördelarna med DBR, gör vi följande bidrag: energieffektiv djupbaserad routing protokoll som minskar redundans energikostnader i vissa blinda zoner; låg latens djup baserad routing protokoll som kan leverera ett paket genom en optimal väg. De föreslagna protokollen valideras genom omfattande simuleringar.
För att minska fördröjning och förbrukning av energi i systemet införde författarna spännteknik REF, som kallas energieffektiv djupbaserad routing (EE-DBR) protokoll och riktning djupbaserad routing (D-DBR) protokoll för UWSNs.
46,139,527
Improving Both Energy and Time Efficiency of Depth-Based Routing for Underwater Sensor Networks
{'venue': None, 'journal': 'International Journal of Distributed Sensor Networks', 'mag_field_of_study': ['Computer Science']}
3,704
I den här tidningen tränar vi en semantisk parser som skalar sig upp till Freebase. I stället för att förlita sig på kommenterade logiska former, som är särskilt dyra att få i stor skala, lär vi oss av frågesvarspar. Den största utmaningen i detta sammanhang är att minska det stora antalet möjliga logiska grunder för en given fråga. Vi tar itu med detta problem på två sätt: För det första bygger vi en grov kartläggning från fraser till predikat med hjälp av en kunskapsbas och en stor text corpus. För det andra använder vi en överbryggande operation för att generera ytterligare predikat baserade på närliggande predikat. På datauppsättningen av Cai och Yates (2013), trots att vi inte har några anteckningar om logiska former, överträffar vårt system sin toppmoderna tolk. Dessutom samlade vi en mer realistisk och utmanande datauppsättning av frågesvar par och förbättrar över en naturlig baslinje.
REF presenterar en semantisk parser som inte behöver tränas genom den kommenterade logiska formen.
6,401,679
Semantic Parsing on Freebase from Question-Answer Pairs
{'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,705
Bred täckning lexiska resurser som WordNet är extremt användbara. De innehåller dock ofta många sällsynta sinnen samtidigt som de saknar domänspecifika sinnen. Vi presenterar en klusteralgoritm kallad CBC (Clustering By Committee) som automatiskt upptäcker begrepp från text. Den upptäcker till en början en uppsättning tighta kluster som kallas kommittéer som är väl utspridda i likhetsrummet. Centroiden av medlemmarna i en kommitté används som funktionen vektor för klustret. Vi fortsätter genom att tilldela element till deras mest liknande kluster. Att utvärdera klusterkvaliteten har alltid varit en svår uppgift. Vi presenterar en ny utvärderingsmetod som bygger på redigeringsavståndet mellan utdatakluster och klasser som extraheras från WordNet (svarsnyckeln). Våra experiment visar att CBC överträffar flera välkända klusteralgoritmer i klusterkvalitet.
REF upptäcker begrepp som använder kluster av kommitté för att gruppera termer i begreppsmässigt relaterade kluster.
2,443,507
Concept Discovery From Text
{'venue': 'International Conference On Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,706
Aspect-orienterad modellering (AOM) gör det möjligt för programvarudesigners att beskriva funktioner som behandlar genomgripande problem separat som aspekter, och att systematiskt införliva funktionerna i en UML design modell med hjälp av modellernas sammansättning tekniker. Målet med detta dokument är att analysera prestandaeffekterna av olika säkerhetsfunktioner som kan representeras som aspektmodeller. Detta är en del av ett större forskningsarbete för att integrera metoder och verktyg för analys av säkerhets- och prestandaegenskaper tidigt i programvaruutvecklingsprocessen. I detta dokument beskriver vi en förlängning av AOM-metoden som ger stöd för resultatanalys. Vi använder de prestandaanalystekniker som utvecklats tidigare i PUMA-projektet, som tar som ingång UML-modeller kommenterade med standard UML-profilen för Schedulability, Performance and Time (SPT), och omvandlar dem först till Core Scenario Model (CSM), och sedan till olika prestandamodeller. Sammansättningen av aspekterna med den primära (bas)modellen utförs på CSM-nivå. En ny formell definition av CSM:s egenskaper och verksamhet beskrivs som en grund för scenariobaserad vävning. Det föreslagna tillvägagångssättet illustreras med ett exempel som använder två standarder, TPC-W och SSL.
Woodside m.fl. REF tillämpar en metod för prestandaanalys av RBB som representeras som aspekter.
14,644,633
Performance analysis of security aspects by weaving scenarios extracted from UML models
{'venue': 'J. Syst. Softw', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,707
Algoritm visualiseringsteknik (AV) illustrerar grafiskt hur algoritmer fungerar. Trots teknikens intuitiva dragningskraft har den inte lyckats ta sig an den traditionella utbildningen i datavetenskap. Vissa har tillskrivit detta misslyckande till de blandade resultaten av experimentella studier som utformats för att styrka AV-teknikens pedagogiska effektivitet. Dock, medan flera integrativa recensioner av AV-teknik har dykt upp, ingen har fokuserat specifikt på programvarans effektivitet genom att analysera denna kropp av experimentella studier som helhet. För att bättre förstå AV-teknikens effektivitet presenterar vi en systematisk meta-studie av 24 experimentella studier. Vi genomför två separata analyser: en analys av oberoende variabler, där vi knyter varje studie till en särskild vägledande inlärningsteori i ett försök att bestämma vilken vägledande teori som har haft den mest prediktiva framgången; och en analys av beroende variabler, som gör det möjligt för oss att bestämma vilka mättekniker som har varit mest känsliga för inlärningsfördelarna med AV-teknik. Vårt viktigaste resultat är att hur studenter använder AV-teknik har en större inverkan på effektiviteten än vad AV-tekniken visar dem. Baserat på våra resultat formulerar vi en agenda för framtida forskning om AV-effektivitet.
I REF diskuterades några av de scenarier där Algoritm Visualisering (AV) kunde användas.
528,221
A Meta-Study of Algorithm Visualization Effectiveness
{'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,708
Budget genomförbara mekanismer, nyligen initierad av Singer, utvidga algoritmiska mekanism design problem till en realistisk inställning med en budget begränsning. Vi betraktar problemet med att utforma sanningsenliga budgetgenomförbara mekanismer för submodulära monotona funktioner: Vi ger en randomiserad mekanism med en approximationsgrad på 7,91 (förbättring av det tidigare mest kända resultatet 233,83) och en deterministisk mekanism med en approximationsgrad på 8,34. Vi studerar också Knapsack-problemet, som är en speciell submodulär funktion, ger en 2 + 2 approximation deterministisk mekanism (förbättrar på den tidigare mest kända resultat 5), och en 3 approximation randomiserade mekanism. Vi ger liknande resultat för en utökad ryggsäck problem med heterogena objekt, där objekt är uppdelade i grupper och man kan välja som mest ett objekt från varje grupp. Slutligen visar vi en lägre gräns på 1 + 2 för approximation av deterministiska mekanismer och 2 för randomiserade mekanismer för knapsack, liksom den allmänna monotona submodulära funktioner. Våra nedre gränser är ovillkorliga och förlitar sig inte på några beräknings- eller komplexitetsantaganden.
Förbättrar ett tidigare resultat av Singer, Chen et al. REF ger en sanningsenlig, 2 + 2 ungefärlig mekanism för Knapsack, och en nedre gräns på 1 + 2.
14,406,192
On the approximability of budget feasible mechanisms
{'venue': "SODA '11", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
3,709
Abstract-The 3GPP har ökat behovet av att se över utformningen av nästa generations mobilnät för att göra dem kapabla och effektiva att tillhandahålla M2M-tjänster. En av de viktigaste utmaningarna som har identifierats är behovet av att förbättra driften av den slumpmässiga tillträdeskanalen för LTE och LTE-A. Den nuvarande mekanismen för att begära tillträde till systemet är känd för att drabbas av överbelastning och överbelastning i närvaro av ett stort antal anordningar. Därför arbetar olika forskargrupper runt om i världen för att utforma effektivare sätt att hantera tillgången till dessa nätverk under sådana omständigheter. Syftet med detta dokument är att ge en översikt över de alternativ som har föreslagits under de senaste åren för att förbättra driften av den slumpmässiga tillträdeskanalen för LTE och LTE-A. Det ges en omfattande diskussion om de olika alternativen, där man identifierar styrkor och svagheter hos var och en av dem, samtidigt som man drar framtida trender för att styra insatserna över samma skjutlinje. Även om den befintliga litteraturen har varit inriktad på prestanda när det gäller förseningar kommer LTE:s energieffektivitet att spela en viktig roll vid utbyggnaden av M2M-nät. Därför ges i detta dokument en omfattande utvärdering av energieffektiviteten hos LTE:s slumpmässiga tillträdesmekanism. Syftet med denna datorbaserade simuleringsstudie är att fastställa en grundläggande prestanda på vilken nya och mer energieffektiva mekanismer kan utformas inom en snar framtid.
I REF, Laya et al. tog itu med behovet av att se över utformningen av slumpmässig åtkomst för nästa generations cellulära system.
25,929,315
Is the Random Access Channel of LTE and LTE-A Suitable for M2M Communications? A Survey of Alternatives
{'venue': 'IEEE Communications Surveys & Tutorials', 'journal': 'IEEE Communications Surveys & Tutorials', 'mag_field_of_study': ['Computer Science']}
3,710
World Wide Web, och i synnerhet sociala nätverk online, har ökat uppkopplingen mellan människor så att information kan spridas till miljontals människor på bara några minuter. Denna form av kollektiv smitta på nätet har gett samhället många fördelar, till exempel att tillhandahålla trygghet och katastrofhantering i de omedelbara efterverkningarna av naturkatastrofer. Det utgör emellertid också en potentiell risk för sårbara webbanvändare som får denna information och senare kan komma att skadas. Ett exempel på detta är spridningen av självmordstankar i sociala nät på nätet, som man har uttryckt oro för. I den här artikeln redovisar vi resultaten av ett antal maskinklassificeringar som byggts i syfte att klassificera text om självmord på Twitter. Klassifieraren skiljer mellan det mer oroande innehållet, såsom självmordstankar, och andra självmordsrelaterade ämnen som rapportering av självmord, minnesmärke, kampanj och stöd. Det syftar också till att identifiera flippanta hänvisningar till självmord. Vi byggde en uppsättning baslinjeklassificeringar med hjälp av lexikala, strukturella, emotive och psykologiska funktioner som utvunnits från Twitter-inlägg. Vi förbättrade sedan grundklassificeringen genom att bygga en ensembleklassare med hjälp av Rotation Forest-algoritmen och en metod för beslut om maximal sannolikhet för röstning, baserad på resultatet av basklassning. Detta uppnådde ett F-mått på totalt 0,728 (för 7 klasser, inklusive självmordstankar) och 0,69 för klassen självmordstankar. Vi sammanfattar resultaten genom att reflektera över de viktigaste prediktiva principkomponenterna i självmordstankarna för att ge insikt i det språk som används på Twitter för att uttrycka självmordstankar. Slutligen utför vi en 12-månaders fallstudie av självmordsrelaterade inlägg där vi ytterligare utvärderar klassificeringsmetoden - visar en hållbar klassificeringsprestanda och ger anonyma insikter i trender och demografisk profil för Twitter-användare som lägger ut innehåll av denna typ.
Forskning som bedrivs av REF har utvecklat en klassificering för att särskilja självmordsrelaterade teman som rapporter om självmord och tillfälliga hänvisningar till självmord.
5,598,668
Multi-class machine classification of suicide-related communication on Twitter
{'venue': 'Online social networks and media', 'journal': 'Online social networks and media', 'mag_field_of_study': ['Psychology', 'Medicine', 'Computer Science']}
3,711
Abstrakt. Till skillnad från en konventionell bakgrund inpainting metod som innebär att ett saknade område från bild fläckar liknar bakgrunden, ansikte slutföra kräver semantisk kunskap om målet objekt för realistiska utgångar. Nuvarande bildinpainting metoder använda generativa kontrariska nätverk (GANS) för att uppnå sådan semantisk förståelse. Men i det kontradiktoriska lärandet lär man sig den semantiska kunskapen implicit, och därför garanteras inte alltid en god semantisk förståelse. I detta arbete föreslår vi en samarbetsinriktad kontradiktorisk inlärningsstrategi för att kunna slutföras för att uttryckligen stimulera utbildningsprocessen. Vår metod är formulerad under en ny generativ ram som kallas samverkan GAN (collaGAN), vilket möjliggör bättre semantisk förståelse av ett målobjekt genom samarbete lärande av flera uppgifter inklusive ansiktskomplettering, landmärkesdetektering och semantisk segmentering. Tillsammans med collagan introducerar vi också en inpainting koncentrerad plan så att modellen betonar mer om inpainting istället för autoencoding. Omfattande experiment visar att de föreslagna designerna verkligen är effektiva och samverkande kontradiktoriska lärande ger bättre inslag representationer av ansiktena. Jämfört med andra generativa bildinmålningsmodeller och metoder för enkel uppgiftsinlärning producerar vår lösning överlägsna prestationer på alla uppgifter.
Under 2018 föreslog Liao et al, inom ramen för ett nytt generativt ramverk som kallas samarbets-GAN (collagen) REF, en samarbetsinriktad, kontraversariell inlärningsstrategi för att underlätta direkt inlärning av flera uppgifter, inklusive ansiktsbehandling, landmärkesdetektering och semantisk segmentering för bättre semantisk förståelse för att i slutändan ge bättre ansiktsinmålning.
54,461,943
Face Completion with Semantic Knowledge and Collaborative Adversarial Learning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
3,712
Nyckelfraser används i stor utsträckning som en kort sammanfattning av dokument. Eftersom manuellt uppdrag är tidskrävande föreslås olika oövervakade rankningsmetoder baserade på viktpoäng för keyfrasextrahering. I praktiken bör nyckelfraserna i ett dokument inte bara vara statistiskt viktiga i dokumentet, utan också ha en god täckning av dokumentet. Baserat på denna iakttagelse föreslår vi en oövervakad metod för att extrahera nyckelfraser. För det första finner metoden exemplar termer genom att utnyttja klusterteknik, vilket garanterar dokumentet att semantiskt omfattas av dessa exemplar termer. Därefter extraheras nyckelfraserna från dokumentet med hjälp av exempelorden. Vår metod överträffar sate-of-the-art grafbaserade rankingmetoder (TextRank) med 9,5% i F1-mått.
En oövervakad nyckelfrasextraheringsmetod genom REF använder klustring för att hitta exemplartermer som sedan används för nyckelfrasextrahering.
15,382,836
Clustering to Find Exemplar Terms for Keyphrase Extraction
{'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,713
I detta dokument studerar vi problemet med adressat och svarsval i flerpartssamtal. Förstå flerpartssamtal är utmanande på grund av komplexa högtalarinteraktioner: flera talare utbyta meddelanden med varandra, spela olika roller (sender, adressat, observatör), och dessa roller varierar mellan varv. För att ta itu med denna utmaning föreslår vi Interaktion Recurrent Neural Network (SI-RNN). Medan det tidigare moderna systemets uppdaterade högtalare endast inbäddar för avsändaren, använder SI-RNN en ny dialogkod för att uppdatera högtalarens inbäddningar på ett rollkänsligt sätt. Till skillnad från det tidigare arbetet som valde adressaten och svaret separat, väljer SI-RNN dem gemensamt genom att titta på uppgiften som en sekvensförutsägelse problem. Experimentella resultat visar att SI-RNN avsevärt förbättrar noggrannheten i urvalet av mottagare och svar, särskilt i komplexa samtal med många talare och svar på avlägsna meddelanden många vänder i det förflutna.
För en annan uppgift, adressat och svarsval i flerpartssamtal har en distinkt RNN-baserad kodare för varje talarroll (anbudsgivare, adressat eller observatör) använts för att generera distinkta historiksammanfattningar REF.
19,107,193
Addressee and Response Selection in Multi-Party Conversations with Speaker Interaction RNNs
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
3,715
Teknik för överföring av multimediaströmmar över Internet. I detta dokument föreslår vi en ny strategi för ett adaptivt FEC-system för multimediatillämpningar över Internet. Detta adaptiva FEC kommer att optimera redundansen av de genererade kodorden från en Reed-Solomon (RS) kodare, i-för att spara bandbredden i kanalen. Anpassningen av FEC-systemet baseras på fördefinierade sannolikhetsekvationer, som härleds från dataförlusten i förhållande till återvinningsgraden hos kunderna. Servern använder RTCP-rapporterna från kunder och sannolikhetsekvationerna för att approximera den slutliga leveranskvoten för de skickade paketen till klienten efter tillämpning av adaptiv FEC. Servern använder RTCP-rapporterna också för att förutsäga nästa nätverksförlusthastighet med hjälp av kurvmonteringsteknik för att generera den optimerade redundansen i ordning för att uppfylla vissa kvarstående felfrekvenser hos kunderna. Index Terms-Forward Felkorrigering (FEC), ReedSolomon coder, beräkning av nätverksförluster, redundant bandbreddsoptimering.
I REF, Rousan och Nawarash introducerade Bandbredd Optimized Adaptive FEC (BOAFEC) för att optimera redundansen av de genererade kodorden från Reed-Solomon (RS) kodare för att spara bandbredd.
55,514,377
Adaptive FEC Technique for Multimedia Applications Over the Internet
{'venue': None, 'journal': 'Journal of Emerging Technologies in Web Intelligence', 'mag_field_of_study': ['Computer Science']}
3,716
Detta dokument presenterar en videosammanfattning metod som är specifikt för den statiska sammanfattningen av konsumentvideor. Med tanke på att konsumentvideorna oftast har oklara skjutgränser och många bilder av låg kvalitet eller meningslösa ramar föreslår vi en tvåstegsstrategi där det första steget skummar en video och det andra steget utför innehållsmedveten klusterering med nyckelframe val. Specifikt, det första steget tar bort de flesta av redundanta ramar som innehåller bara lite ny information genom att använda spektral klustering metod med färghistogram funktioner. Som ett resultat får vi en kondenserad video som är kortare och har tydligare tidsgränser än originalet. I det andra steget utför vi grov temporal segmentering och sedan tillämpa förfinad klusterering för varje temporal segment, där varje ram representeras av den glesa kodning av SIFT-funktioner. Val av nyckelram från varje kluster baseras på måttet på representativitet och visuell kvalitet på ramar, där representativiteten definieras från den glesa kodning och den visuella kvaliteten är kombinationen av kontrast, suddig och bild skev mäter. Problemet med val av nyckelram är att hitta ramar som har både representativitet och hög kvalitet, vilket är formulerat som ett optimeringsproblem. Experiment på videor med olika längder visar att de resulterande sammanfattningarna noga följer det viktiga innehållet i videor.
De avslutade processen i två steg: först de skummade videon och sedan utförde innehåll-medveten klustering med nyckelframe val REF.
206,987,097
A static video summarization method based on the sparse coding of features and representativeness of frames
{'venue': None, 'journal': 'EURASIP Journal on Image and Video Processing', 'mag_field_of_study': ['Computer Science']}
3,717
Utvinning och beskrivning av keypoints som framträdande bilddelar har en lång tradition inom bearbetning och analys av 2D-bilder. Numera blir 3D-data allt viktigare. I detta dokument diskuteras fördelarna och begränsningarna med nyckelpunkter för uppgiften att samla flera 3D-punktmoln. För detta mål testas flera kombinationer av 3D-nyckelpunktsdetektorer och deskriptorer. Experimenten är baserade på 3D-scener med varierande egenskaper, inklusive 3D-scanner data samt Kinect punktmoln. De erhållna resultaten visar att den specifika metoden för att extrahera och beskriva nyckelpunkter i 3D-data måste väljas noggrant. I många fall lider noggrannheten av en alltför stor minskning av de tillgängliga punkterna till nyckelpunkter.
I REF presenterade författarna en jämförelse mellan 3D-punktdetektorer och deskriptorer i samband med punktmolnfusion (punktmolnsregistrering eller anpassning).
14,333,315
Comparison of 3D interest point detectors and descriptors for point cloud fusion
{'venue': None, 'journal': 'ISPRS Annals of the Photogrammetry, Remote Sensing and Spatial Information Sciences', 'mag_field_of_study': ['Computer Science']}
3,718
Att svara på opinionsfråga är en utmanande uppgift för behandling av naturligt språk. I detta dokument diskuterar vi en nödvändig komponent för ett system för att besvara en åsiktsfråga: skilja åsikter från fakta, både på dokument- och meningsnivå. Vi presenterar en Bayesian klassificerare för att skilja mellan dokument med en övervägande av åsikter såsom redaktioner från vanliga nyheter, och beskriver tre oövervakade, statistiska tekniker för den betydligt svårare uppgiften att upptäcka åsikter på straffnivå. Vi presenterar också en första modell för att klassificera meningar som positiva eller negativa när det gäller det huvudsakliga perspektiv som uttrycks i yttrandet. Resultat från en stor samling nyheter och en mänsklig utvärdering av 400 meningar rapporteras, vilket tyder på att vi uppnår mycket hög prestanda i dokumentklassificeringen (uppåt 97% precision och återkallande), och respektabla prestanda när det gäller att upptäcka åsikter och klassificera dem på meningsnivå som positiva, negativa eller neutrala (upp till 91% noggrannhet).
Till exempel föreslog REF att man skulle skilja åsikter från fakta på både dokument- och meningsnivå och fastställa polariteten när det gäller de uttalade meningarna i svarsdokumenten.
6,627,923
Towards Answering Opinion Questions: Separating Facts From Opinions And Identifying The Polarity Of Opinion Sentences
{'venue': 'Conference On Empirical Methods In Natural Language Processing', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,719
Inlärning bild likhetsmått i ett end-to-end mode med djupa nätverk har visat utmärkta resultat på uppgifter som kluster och hämtning. De nuvarande metoderna fokuserar dock alla på en mycket lokal bild av uppgifterna. I detta dokument föreslår vi ett nytt metriska inlärningssystem, baserat på strukturerade förutsägelser, som är medvetet om den globala strukturen i inbäddningsutrymmet, och som är utformat för att optimera ett klusterkvalitetsmått (NMI). Vi visar den senaste prestandan på standarddatauppsättningar, såsom CUB200-2011 [37], Cars196 [18] och Stanford online-produkter [30] på NMI och R@K utvärderingsmått.
Senare i REF, en annan strukturerad förutsägelse-baserad metod är utformad för att direkt optimera det djupa neurala nätverket med en klusterkvalitet metrisk.
206,595,144
Deep Metric Learning via Facility Location
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
3,720
Abstract-Actor program är samtidiga program där samtidiga enheter kommunicerar asynkront genom att utbyta meddelanden. Testa skådespelare program är utmanande eftersom ordningen på meddelandet tar emot beror på den icke-deterministiska schemaläggaren och eftersom utforska alla scheman inte skala till stora program. Denna uppsats presenterar Bita, en skalbar, automatisk metod för att testa icke-deterministiskt beteende av skådespelare program. Den viktigaste idén är att generera och utforska scheman som sannolikt kommer att avslöja konvergens buggar eftersom dessa scheman ökar schema täckning. Vi presenterar tre schema täckningskriterier för skådespelare program, en algoritm för att generera genomförbara scheman som ökar täckningen, och en teknik för att tvinga ett program att följa ett schema. Tillämpa Bita på verkliga skådespelare program som genomförs i Scala avslöjar åtta tidigare okända konvergens buggar, varav sex redan har rättats av utvecklarna. Dessutom visar vi vår strategi för att hitta buggar 122x snabbare än slumpmässig schemaläggning, i genomsnitt.
Vi börjar med att nämna Bita, ett testverktyg för skådespelare program som genomförs inom Akka ramverk i Scala REF.
2,330,392
Bita: Coverage-guided, automatic testing of actor programs
{'venue': '2013 28th IEEE/ACM International Conference on Automated Software Engineering (ASE)', 'journal': '2013 28th IEEE/ACM International Conference on Automated Software Engineering (ASE)', 'mag_field_of_study': ['Computer Science']}
3,721
Nätverksbiologi har framgångsrikt använts för att hjälpa till att avslöja komplexa mekanismer för sjukdom, särskilt cancer. Å andra sidan kräver nätverksbiologi djup kunskap för att bygga sjukdomsspecifika nätverk, men vår nuvarande kunskap är mycket begränsad även med de senaste framstegen inom människans cancerbiologi. Djupt lärande har visat en stor potential att ta itu med den svåra situationen som denna. Det återstår dock att undersöka djupinlärningsteknikens konventionella användning av rutnätsliknande strukturerade data, vilket gör det möjligt att tillämpa djupinlärningsteknik på klassificeringen av undertyper av sjukdomar hos människor. På senare tid har grafbaserade djupinlärningsmetoder dykt upp, vilket blir en möjlighet att utnyttja analyser i nätverksbiologi. I detta dokument föreslog vi en hybridmodell, som integrerar två nyckelkomponenter 1) graf konvolution neurala nätverk (graf CNN) och 2) relationsnätverk (RN). Vi använder graf CNN som en komponent för att lära sig uttrycksmönster av kooperativ gen gemenskap, och RN som en komponent för att lära associationer mellan lärda mönster. Den föreslagna modellen tillämpas på klassificeringen av underkategorin PAM50 bröstcancer, standardklassificeringen av underkategorin bröstcancer av klinisk nytta. I experiment av både subtypsklassificering och patientöverlevnadsanalys uppnådde vår föreslagna metod betydligt bättre resultat än befintliga metoder. Vi anser att detta arbete är en viktig utgångspunkt för att förverkliga den kommande personliga medicinen.
Rhee m.fl. I REF föreslogs en hybridmodell som integrerar neurala nätverk för grafkonvolution (CNN) och relationsnät för att klassificera bröstcancerssubtyper med hjälp av genuttrycksprofiler och nätverk för protein-proteininteraktion (PPI).
19,458,482
Hybrid Approach of Relation Network and Localized Graph Convolutional Filtering for Breast Cancer Subtype Classification
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
3,722
Nätverkade data, hämtade från sociala medier, webbsidor och bibliografiska databaser, kan innehålla enheter av flera klasser, sammankopplade genom olika typer av länkar. I detta dokument fokuserar vi på problemet med att utföra multi-etikett klassificering på nätverksdata, där instanserna i nätverket kan tilldelas flera etiketter. I motsats till traditionella klassificeringsmetoder som enbart innehåller innehåll lyckas relationslärande förbättra klassificeringsprestandan genom att förbättra märkningens korrelation mellan länkade instanser. Fall i ett nätverk kan dock kopplas samman av olika orsaker, vilket innebär att behandlingen av alla länkar på ett homogent sätt kan begränsa relationsklassificeringarnas prestanda. I detta dokument föreslår vi en multi-märkt iterativ relations klassificerare som använder sociala kontextfunktioner (SCRN). Vår klassifikation innehåller en klassförökningsannolikhetsfördelning som erhålls från instansernas sociala funktioner, som i sin tur extraheras från nätverkets topologi. Denna klass-förökning sannolikhet fångar noden inneboende sannolikheten för att tillhöra varje klass, och fungerar som en tidigare vikt för varje klass när aggregera grannarnas klass etiketter i den kollektiva inferens förfarande. Experiment på flera verkliga dataset visar att vår föreslagna klassificering ökar klassificeringsprestandan jämfört med gemensamma riktmärken på nätverksanslutna flermärkta data.
Wang och Suktackar REF föreslår en multi-label relationell grannklassificeringsalgoritm genom att införliva en klassförökad sannolikhet som erhållits från kantkluster.
13,319,314
Multi-label relational neighbor classification using social context features
{'venue': "KDD '13", 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,723
Loop fusion-ett program omvandling för att sammanfoga flera på varandra följande loopar till en enda en-har studerats främst för kompilatoroptimering. I detta dokument, föreslår vi en ny slinga fusionsstrategi, som kan förena alla slingor-jämn slingor med databeroende-och visa att det är användbart för programverifiering eftersom det kan förenkla slingor invarianter. Kruxet i vår slinga fusion är följande observation: om tillståndet efter den första slingan var känt, de två slinga kropparna kunde beräknas samtidigt utan att lida av databeroende genom att döpa om programvariabler. Vår slinga fusion producerar ett program som gissar det okända tillståndet efter den första slingan icke-deterministiskt, utför den sammanslagna slingan där variabler döps om, jämför det gissade tillståndet och det tillstånd som faktiskt beräknas av den sammanslagna slingan, och, om de inte matchar, divergerar. De två sista stegen i jämförelse och divergens är avgörande för att delvis bevara korrektheten. Vi kallar vår strategi "Gissa-och-assume" eftersom, förutom det första steget att gissa, de två sista stegen kan uttryckas genom pseudo-instruktion antagande, som används i programverifiering. Vi formaliserar vår slinga fusion för ett enkelt tvingande språk och bevisa att det bevarar partiell korrekthet. Vi utökar vidare tekniken "Gsess-and-assume" till att vända genomförandet av slingor, vilket är användbart för att verifiera en viss typ av på varandra följande slingor. Slutligen bekräftar vi genom experiment att våra omvandlingstekniker verkligen är effektiva för toppmoderna modellkontroller att verifiera några små program som de inte kunde.
Liknande idéer för loopfusion har använts för andra ändamål, t.ex. att förenkla loopinvarianter i ett enda program och för programoptimering REF.
10,446,720
A guess-and-assume approach to loop fusion for program verification
{'venue': "PEPM '18", 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,724
Sammanfattning I detta kapitel presenterar vi KORRELATIONEN (CORAL), en enkel men effektiv metod för oövervakad domänanpassning. CORAL minimerar domänbytet genom att anpassa den andra ordningens statistik över käll- och målfördelningar, utan att kräva några målmärkningar. I motsats till subrymdens mångfaldiga metoder anpassar den de ursprungliga särdragsdistributionerna av käll- och måldomänerna snarare än baserna för lägredimensionella subrymder. Det är också mycket enklare än andra distributionsmatchningsmetoder. CORAL presterar anmärkningsvärt bra i omfattande utvärderingar av standardriktvärden. Vi beskriver först en lösning som tillämpar en linjär omvandling till källfunktioner för att anpassa dem till målfunktioner före klassificeringsträning. För linjära klassificeringar föreslår vi motsvarande tillämpning av CORAL på klassificeringsvikterna, vilket leder till ökad effektivitet när antalet klassificeringar är litet men antalet och dimensionaliteten hos målexempel är mycket hög. Den resulterande CORAL Linear Discriminant Analysis (CORAL-LDA) överträffar LDA med stor marginal på standardriktmärken för domänanpassning. Slutligen utvidgar vi CORAL till att lära sig en icke-linjär omvandling som anpassar korrelationer av lageraktiveringar i djupa neurala nätverk (DNN). Den resulterande Deep Coral metod fungerar sömlöst med DNNs och uppnår state-of-theart prestanda på standardriktvärden dataset. Vår kod finns på: https: // github.com/VisionLearningGroup/CORAL
Sol och al. REF anpassar andra ordningens statistik över lageraktiveringar för käll- och målområden.
10,084,602
Correlation Alignment for Unsupervised Domain Adaptation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
3,725
Proofs of Retrievability (PoR), som föreslogs av Juels och Kaliski 2007, gör det möjligt för en klient att lagra n-filblock med en molnserver så att servern senare kan bevisa innehav av alla data på ett mycket effektivt sätt (dvs. med konstant beräkning och bandbredd). Även om många effektiva PoR-system för statiska data har konstruerats, finns det bara två dynamiska PoR-system. Stefanovs och Als plan. (ACSAC 2012) använder en stor mängd kundlagring och har en stor revisionskostnad. Systemet av Cash et al. (EUROCRYPT 2013) är mestadels av teoretiskt intresse, eftersom det använder Obligatoriskt RAM (ORAM) som en svart låda, vilket leder till ökad praktisk overhead (t.ex. kräver det cirka 300 gånger mer bandbredd än vår konstruktion). Vi föreslår ett dynamiskt PoR-system med konstant klientlagring vars bandbreddskostnader är jämförbara med ett Merkle hashträd, vilket är mycket praktiskt. Vår konstruktion överträffar konstruktionerna av Stefanov et al. och Cash et al., både i teorin och i praktiken. Specifikt, för n outsourcade block av β-bitar varje, att skriva ett block kräver β + O (λ log n) bandbredd och O(β log n) server beräkning (λ är säkerhetsparametern). Revisioner är också mycket effektiva, kräver β + O (λ 2 log n) bandbredd. Vi visar också hur vi kan göra vårt system offentligt kontrollerbart, vilket ger den första dynamiska PoR-systemet med en sådan egendom. Vi tillhandahåller slutligen ett mycket effektivt genomförande av vårt system.
Bland dem är systemet i Ref den mest effektiva lösningen i praktiken.
14,318,927
Practical dynamic proofs of retrievability
{'venue': "CCS '13", 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,726
Sammanfattning — Detta papper är ett försök att förstå de processer genom vilka programvara åldras. Vi definierar kod som ska åldras eller förfalla om dess struktur gör det onödigt svårt att förstå eller ändra och vi mäter graden av förfall genom att räkna antalet fel i koden under en tidsperiod. Med hjälp av förändringshanteringsdata från ett mycket stort, långlivat mjukvarusystem utforskar vi i vilken utsträckning mätningar från förändringshistoriken är framgångsrika i att förutsäga fördelningen över moduler av dessa förekomster av fel. I allmänhet är processmått baserade på förändringshistoriken mer användbara för att förutsäga felfrekvenser än produktmått i koden: Till exempel, antalet gånger koden har ändrats är en bättre indikation på hur många fel den kommer att innehålla än dess längd. Vi jämför också felfrekvensen av kod i olika åldrar, finner att om en modul är i genomsnitt ett år äldre än en annars liknande modul, den äldre modulen kommer att ha ungefär en tredjedel färre fel. Vår mest framgångsrika modell mäter felpotentialen hos en modul som summan av bidragen från alla de gånger modulen har ändrats, med stora, senaste förändringar som får mest vikt.
De skapade en felförutsägelse modell som innehåller summan av bidragen från alla ändringar till en viss modul, där stora, senaste förändringar hade den högsta effekten REF.
1,209,510
Predicting fault incidence using software change history
{'venue': 'IEEE Transactions on Software Engineering', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,727
A (β, )-hopset för en viktad oriktad n-vertex graf G = (V, E) är en uppsättning kanter, vars tillägg till grafen garanterar att varje par av hörn har en väg mellan dem som innehåller som mest β kanter, vars längd är inom 1 + av den kortaste vägen. I sitt seminala papper, Cohen [8, JACM 2000] introducerade begreppet humleset i samband med parallell beräkning av ungefär kortaste vägar, och sedan dess har det hittat många tillämpningar i olika andra inställningar, såsom dynamiska grafalgoritmer, distribuerade datorer, och den strömmande modellen. Cohen [8] utformade effektiva algoritmer för att bygga humleset med polylogaritmiskt i n antal humle. Hennes konstruktioner är fortfarande toppmoderna sedan hennes tidning publicerades i STOC'94, dvs. i mer än två decennier. I denna tidning visar vi den första konstruktionen av sparse humleset med ett konstant antal humle. Vi hittar också effektiva algoritmer för humleset i olika beräkningsinställningar, vilket förbättrar de mest kända konstruktionerna. I allmänhet överträffar våra humleset helt och hållet humleseten [8], både när det gäller deras parametrar och de resurser som krävs för att bygga dem. Vi demonstrerar tillämpligheten av våra resultat för det grundläggande problemet med att beräkna ungefär kortaste vägar från s källor. Våra resultat förbättrar körtiden för detta problem i parallella, distribuerade och strömmande modeller, för ett stort utbud av s.
En ny hop uppsättning konstruktion av Elkin och Neiman REF förbättrar körtiden för att beräkna kortaste vägar från flera källor.
7,936,568
Hopsets with Constant Hopbound, and Applications to Approximate Shortest Paths
{'venue': '2016 IEEE 57th Annual Symposium on Foundations of Computer Science (FOCS)', 'journal': '2016 IEEE 57th Annual Symposium on Foundations of Computer Science (FOCS)', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
3,728
Abstrakt. I detta dokument presenterar vi hur rörelseavkänning kan erhållas bara genom att observera WLAN radiosignal styrka och dess fluktuationer. WLAN-signalens temporal-, spektral- och rumsliga egenskaper analyseras. Vår analys bekräftar vårt påstående att "signalstyrka från accesspunkter verkar hoppa mer kraftfullt när enheten rör sig jämfört med när den fortfarande är och antalet detekterbara accesspunkter varierar avsevärt medan användaren är på väg". Med hjälp av denna observation presenterar vi en ny rörelsedetektionsalgoritm, Spread Motion Detection (SpecSMD) baserad på spektralanalys av WLAN-signalens RSSI. För att jämföra den föreslagna algoritmen använde vi Spatially Spread Motion Detection (SpatSMD), som är inspirerad av det senaste arbetet av Sohn et al. Båda algoritmerna utvärderades genom att utföra omfattande mätningar i en rad olika förhållanden (inomhus i olika byggnader och utomhus centrum, parkeringsplats, universitet campus etc.) och testades mot samma datamängder. Den genomsnittliga klassificeringsnoggrannheten på 94 % av den föreslagna SpecSMD överträffar noggrannheten hos SpatSMD (noggrannhet 87 %). De rörelsedetekteringsalgoritmer som presenteras i detta dokument ger allmänt förekommande metoder för att härleda användarens tillstånd. Algoritmerna kan implementeras och köras på en råvaruenhet med WLAN-kapacitet utan behov av ytterligare hårdvarustöd.
Slutligen presenterade REF också en rörelsedetektionsalgoritm som baserades på spektralanalys av WLAN radiosignal styrkor genom att använda Fast Fourier Transform.
16,946,139
Sensing motion using spectral and spatial analysis of WLAN RSSI
{'venue': 'EuroSSC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,729
Vi undersöker problemet med språkbaserad bildredigering (LBIE). Med tanke på en källbild och en beskrivning av ett naturligt språk vill vi skapa en målbild genom att redigera källbilden baserat på beskrivningen. Vi föreslår ett generiskt modelleringsramverk för två deluppdrag av LBIE: språkbaserad bildsegmentering och bildfärgning. Ramverket använder återkommande uppmärksamma modeller för att sammansmälta bild- och språkfunktioner. Istället för att använda en fast stegstorlek, introducerar vi för varje region av bilden en termineringsgrind för att dynamiskt avgöra efter varje slutsats steg om att fortsätta extrapolera ytterligare information från textbeskrivningen. Ramverkets effektivitet är validerad på tre datauppsättningar. Först introducerar vi ett syntetiskt dataset, kallat CoSAL, för att utvärdera LBIE-systemets end-to-end-prestanda. För det andra visar vi att ramverket leder till toppmodern prestanda för bildsegmentering på ReferIt-datauppsättningen. För det tredje presenterar vi den första språkbaserade färgning resultat på Oxford-102 Blommor dataset.
En återkommande uppmärksam modell för bildredigering föreslogs också i REF för att koppla samman bild- och språkfunktioner via flera steg.
28,316,672
Language-Based Image Editing with Recurrent Attentive Models
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
3,730
Smarta telefoner är ganska sofistikerade och innehåller allt fler olika och kraftfulla sensorer. En sådan sensor är den triaxiella accelerometern, som mäter accelerationen i alla tre rumsliga dimensioner. Accelerometern ingick ursprungligen för skärmrotation och avancerat spel, men kan stödja andra program. I tidigare arbete visade vi hur accelerometern kunde användas för att identifiera och/eller autentisera en smarttelefonanvändare [11]. I detta papper utökar vi det arbetet för att identifiera användaregenskaper som kön, längd och vikt, genom att bygga prediktiva modeller från märkta accelerometerdata med hjälp av övervakade inlärningsmetoder. Identifieringen av sådana egenskaper kallas ofta "mjuka biometriska kännetecken" eftersom dessa egenskaper inte är tillräckligt särskiljande eller invarianta för att unikt identifiera en individ, men de kan användas tillsammans med annan information för identifieringsändamål. Samtidigt som vårt arbete kan användas för biometrisk identifiering är vårt främsta mål att lära oss så mycket som möjligt om smarttelefonanvändaren. Denna minerade kunskap kan sedan användas för ett antal ändamål, såsom marknadsföring eller göra en applikation mer intelligent (t.ex., en fitness app kan överväga en användares vikt vid beräkning av kalorier bränna).
Weiss m.fl. REF visar hur samma informationskälla till och med kan användas för att identifiera användaregenskaper som kön, längd och vikt hos användaren.
8,211,646
Identifying user traits by mining smart phone accelerometer data
{'venue': "SensorKDD '11", 'journal': None, 'mag_field_of_study': ['Engineering']}
3,731
Abstract-In multi-hop trådlösa sensornätverk som kännetecknas av många-till-ett trafikmönster, problem relaterade till energiobalans bland sensorer ofta visas. När varje nod har ett fast överföringsområde ökar den mängd trafik som sensornoder krävs för att gå framåt dramatiskt när avståndet till datasänkan blir mindre. Således, sensorer närmast datasänkan tenderar att dö tidigt, lämnar områden i nätverket helt oövervakade och orsakar nätverkspartitioner. Alternativt, om alla sensorer överför direkt till datasänkan, kommer de yttersta noderna från datasänkan att dö mycket snabbare än de som är nära bläcket. Även om det kan tyckas att nätverkets livslängd skulle kunna förbättras genom användning av en mer intelligent policy för kontroll av överföringseffekt som balanserar den energi som används i varje nod genom att kräva att noder längre från datasänkan för att överföra längre avstånd (även om inte direkt till datasänkan), kan en sådan policy bara ha en begränsad effekt. Faktum är att denna energibalansering endast kan uppnås på bekostnad av bruttoenergibrister. I det här dokumentet undersöker vi problemet med optimering av distributionsområdet och visar var dessa ineffektiviteter finns när vi försöker maximera livslängden för många trådlösa sensornätverk.
Perillo m.fl. REF undersöker problemet med optimering av distributionsområdet med målet att maximera livslängden för många till ena WSN.
16,617,159
On the problem of unbalanced load distribution in wireless sensor networks
{'venue': 'IEEE Global Telecommunications Conference Workshops, 2004. GlobeCom Workshops 2004.', 'journal': 'IEEE Global Telecommunications Conference Workshops, 2004. GlobeCom Workshops 2004.', 'mag_field_of_study': ['Computer Science']}
3,732
Omvänd teknik Microsoft a b s t r a c t Homologo filer dela identiska uppsättningar av bitar i samma ordning. Eftersom sådana filer inte är helt identiska, kan traditionella tekniker som kryptografisk hashing inte användas för att identifiera dem. Detta dokument introducerar en ny teknik för att bygga hash signaturer genom att kombinera ett antal traditionella hash vars gränser bestäms av sammanhanget för input. Dessa signaturer kan användas för att identifiera ändrade versioner av kända filer även om data har infogats, ändrats eller tagits bort i de nya filerna. Beskrivningen av denna metod följs av en kort analys av dess prestanda och några urvalstillämpningar för datorteknik.
Context Triggered Piecewise Hash (CTPH) system som föreslagits av Kornblum REF var utformad för att identifiera ändrade versioner av kända filer (inte dedicerad för hårddisk) även om data har infogats, ändrats, eller tagits bort i de nya filerna.
12,054,735
Identifying almost identical files using context triggered piecewise hashing
{'venue': 'Digital Investigation', 'journal': 'Digital Investigation', 'mag_field_of_study': ['Computer Science']}
3,733
Guimerà och Amaral finner att låggradiga metaboliter som ansluter olika moduler är mer bevarade än nav vars länkar är mestadels inom en enda modul. Om man skall kunna hämta den viktiga informationen från topologin i ett stort komplext nätverk, är kunskapen om varje nods roll av avgörande betydelse. En kartografisk analogi är till hjälp för att belysa detta. Tänk på det nätverk som bildas av alla städer och städer i ett land-noder-och alla vägar som ansluter dem-länkarna. Det är uppenbart att en karta där varje stad och stad representeras av en cirkel av fast storlek och varje väg representeras av en linje med fast bredd knappast är användbar. I stället betonar verkliga kartor huvudstäder och viktiga kommunikationslinjer så att man kan få skalspecifik information med en blick. På samma sätt är det svårt, om inte omöjligt, att få information från ett nätverk med hundratals eller tusentals noder och länkar, om inte informationen om noder och länkar är bekvämt sammanfattad. Detta gäller särskilt biologiska nätverk. Här föreslår vi en metod, som bygger på anslutning av noderna, som ger en "kartografisk representation" av ett komplext nätverk. Det första steget i vår metod är att identifiera de funktionella modulerna 4,5 i nätverket. I den kartografiska bilden är modulerna jämförbara med länder eller regioner och möjliggör en grovkornig, och därmed förenklad, beskrivning av nätverket. Sedan klassificerar vi noderna i nätverket i ett litet antal systemoberoende "universella roller". Moduler. Det är en fråga om gemensam erfarenhet att sociala nätverk har samhällen med starkt sammankopplade noder som är mindre anslutna till noder i andra samhällen. Sådana modulära strukturer har rapporterats inte bara i sociala nätverk 5, 10, 11, 12, men också i livsmedelsnät 13 och biokemiska nätverk 4, 14, 15, 16. Det anses allmänt att den modulära strukturen av komplexa nätverk spelar en avgörande roll i deras funktionalitet 4, 14, 16. Det finns därför ett tydligt behov av att utveckla algoritmer för att identifiera moduler exakt 5, 11, 17,18, 19, 20. Vi identifierar moduler genom att maximera nätverkets modularitet 11,18,21 med hjälp av simulerad glödgning 22 (se Metoder). Simulerad glödgning gör det möjligt för oss att utföra en omfattande sökning och minimera problemet med att hitta suboptimala partitioner. Det är värt att notera att i vår metod, Letter to Nature Guimerà och Amaral man inte behöver ange ett priori antalet moduler; snarare, detta nummer är ett resultat av algoritmen. Vår algoritm, som avsevärt överträffar den bästa algoritmen i litteraturen, kan på ett tillförlitligt sätt identifiera moduler i ett nätverk vars noder har så många som 50% av sina anslutningar utanför sin egen modul (Fig. 1).................................................................. Roller i modulära nätverk. Det är rimligt att anta att noderna i ett nätverk är anslutna enligt den roll de fyller. Detta faktum har länge erkänts i analysen av sociala nätverk 23. Till exempel, i en klassisk hierarkisk organisation, är VD inte direkt kopplad till anläggningsanställda utan är ansluten till styrelseledamöterna. Viktigt, ett sådant uttalande innehar för praktiskt taget alla organisationer, det vill säga, rollen som VD definieras oavsett vilken organisation man anser. Vi föreslår en ny metod för att avgöra vilken roll en nod spelar i ett komplext nätverk. Vår strategi bygger på tanken att noder med samma roll ska ha liknande topologiska egenskaper 24 (se Kompletterande information för en diskussion om hur vår strategi förhåller sig till tidigare arbete). Vi antar att rollen av en nod kan bestämmas, i stor utsträckning, av dess inommodul grad och dess deltagarkoefficient, som definierar hur noden är placerad i sin egen modul och med avseende på andra moduler 25, 26 (se Metoder). Dessa två egenskaper är lätt att beräkna när modulerna i ett nätverk är kända. Den inommodul grad z i mäter hur "väl ansluten" nod i är till andra noder i modulen. Höga värden av z i indikerar hög inom modul grader och vice versa. Deltagarkoefficienten P i mäter hur "väldistribuerade" länkarna till node i är bland olika moduler. Deltagarkoefficienten P i är nära en om dess länkar är jämnt fördelade mellan alla moduler och noll om alla länkar är inom sin egen modul. Vi definierar heuritiskt sju olika "universella roller", var och en definierad av en annan region i zP-parametrarna-rymden (Fig. 2).................................................................. Enligt inommodul grad, vi klassificera noder med z ≥ 2.5 som modul nav och noder z < 2.5 som icke-hubs. Både nav och icke-hub noder kännetecknas då mer fint genom att använda värdena för deltagarkoefficienten (se Kompletterande information för en detaljerad motivering av detta klassificeringssystem, och för en 3 Letter to Nature Guimerà och Amaral diskussion om möjliga alternativ). Vi finner att icke-hub noder kan naturligt delas in i fyra olika roller: (R1) ultraperifera noder, d.v.s. noder med alla dess länkar inom sin modul (P ≤ 0,05); (R2) perifera noder, dvs. noder med de flesta länkar inom sin modul (0,05 < P ≤ 0,62); (R3) icke-hub koppling noder, dvs. noder med många länkar till andra moduler (0,62 < P ≤ 0,80); och (R4) icke-hub kinless noder, dvs. noder med länkar homogent fördelade bland alla moduler (P > 0,80). Vi finner att navnoder naturligt kan delas in i tre olika roller: (R5) provinsnav. d.v.s. navnoder med de allra flesta länkar inom sin modul (P ≤ 0,30); (R6) anslutningsnav, dvs. nav med många länkar till de flesta av de andra modulerna (0,30 < P ≤ 0,75); och (R7) kinlessnav, dvs. nav med länkar homogent fördelade mellan alla moduler (P > 0,75). För att testa tillämpligheten av vårt förhållningssätt till komplexa biologiska nätverk, anser vi det metaboliska nätverket 6,7, 14, 8,9 av tolv organismer: Därefter identifierar vi vilken roll varje metabolit har. På bild. 2b visar vi de roller som identifierats i det metaboliska nätverket av E. coli. Anmärkningsvärt nog uppvisar andra organismer en liknande fördelning av noderna i de olika rollerna, även om de motsvarar organismer som är mycket avlägsna från en evolutionär ståndpunkt (se Kompletterande Information). Roll R1, som innehåller ultraperifera metaboliter med liten grad och inga mellanmodulerade länkar, omfattar 76–86 % av alla metaboliter i nätverken. Detta förenklar avsevärt den grovkorniga representationen av nätverket eftersom dessa noder inte behöver identifieras separat. Observera att enbart detta resultat utgör ett viktigt steg mot målet att ta fram skalspecifik information från komplexa nätverk. Informationen om moduler och roller gör det möjligt för oss att bygga en "kartografisk representation" av det metaboliska nätverket av exempelvis E. coli (Fig. 3)............................................................... Denna representation gör det möjligt för oss att få tillbaka relevant biologisk information. Till exempel, vi finner att ämnesomsättningen är mestadels organiseras runt modulen som innehåller pyru- Letter to Nature Guimerà och Amaral vade, som i sin tur är starkt ansluten till modulen vars nav är acetyl-CoA. Dessa två molekyler är nyckeln till att ansluta metabolismen av kolhydrater, aminosyror och lipider till den TCA cykel från vilken ATP erhålls. Dessa två moduler är kopplade till mer perifera av viktiga metaboliter såsom D-glyceraldehyd 3-fosfat och D-fruktos 6-fosfat (som ansluter till glukos- och galaktosmetabolismen), D-ribos 5-fosfat (som ansluter till metabolismen av vissa nukleotider) och glyceronfosfat (som ansluter till metabolismen av vissa lipider). Viktigt är att vår analys också avslöjar noder med viktiga kontaktroller som endast deltar i en liten men grundläggande uppsättning reaktioner. Till exempel deltar N-karbamoyl-L-aspartat endast i tre reaktioner, men det är viktigt eftersom det kopplar pyrimidinmetabolismen, vars nav är uracil, till kärnan i metabolismen genom alanin- och aspartatmetabolismen. Den potentiella betydelsen av sådana icke-skrovkopplingar pekar på ett annat övervägande. Det är en rimlig hypotes att noder med olika roller befinner sig under olika evolutionära begränsningar och påfrestningar. I synnerhet förväntar man sig att noder med strukturellt relevanta roller är mer nödvändiga och därför mer bevarade över olika arter. För att kvantifiera relationen mellan roller och bevarande definierar vi förlusthastigheten p förlorade (R) (se Metoder). Strukturellt relevanta roller förväntas ha låga värden av p förlorade (R) och vice versa. Anmärkningsvärt nog finner vi att de olika rollerna faktiskt har olika förlustnivåer (Fig. 4)................................................................. Som förväntat har ultraperifera noder (roll R1) den högsta förlusthastigheten medan anslutningsnav (roll R6) är de mest bevarade över alla berörda arter. Resultaten för jämförelsen av p förlorade (R) för ultra-perifera noder och anslutningsnav är belysande, men knappast förvånande. Jämförelsen av p förlorade (R) för icke-hub kontakter (roll R3) och provinsiella nav (roll R5), dock ger ett överraskande och anmärkningsvärt resultat. Metaboliterna i den provinsiella nav klass har många inom modul anslutningar, ibland så mycket som fem standardavvikelser fler anslutningar än den genomsnittliga noden i modulen. Omvänt, icke-hub kontaktmetaboliter har få kopplingar i förhållande till andra noder i sina moduler-och färre totala anslutningar än metaboliterna i roll R5 (se Kompletterande figurer. S12b,c). 6 Letter to Nature Guimerà och Amaral länkar av icke-hub anslutningar, dock, är fördelade på flera olika moduler, medan länkarna till provinsiella nav är främst inom sina moduler. Vi finner att icke-hub kontakter är systematiskt och betydligt mer bevarade än provinsiella nav metaboliter (Fig. 4)................................................................. En möjlig förklaring till den höga graden av bevarande av icke-hub kontakter är följande. Anslutningsnoder är ansvariga för inter-modulflöden. Dessa moduler är, annars, dåligt anslutna eller inte alls anslutna till varandra, så elimineringen av kontaktmetaboliter kommer sannolikt att ha en stor inverkan på den globala strukturen av flöden i nätverket. Tvärtom kan de vägar där provinsiella nav är inblandade backas upp inom modulen, på ett sådant sätt att eliminering av dessa metaboliter kan ha en jämförelsevis mindre inverkan, som dessutom sannolikt skulle begränsas till modulen som innehåller provinsnav. Våra resultat pekar därför på behovet av att betrakta varje komplext biologiskt nätverk som helhet, istället för att fokusera på lokala fastigheter. I proteinnätverk, till exempel, har det rapporterats att nav är viktigare än non-hubs 30. Trots relevansen av en sådan upptäckt, våra resultat tyder på att den globala roll noderna i nätverket kan vara en bättre indikator på deras betydelse än grad 26. Vår "kartografi" ger en skalspecifik metod för att bearbeta informationen i komplexa nätverk och för att ta fram kunskap om den funktion som nätverket och dess komponenter utför. En öppen fråga är hur man anpassar nuvarande moduldetekteringsalgoritmer till nätverk med hierarkisk struktur. För metaboliska nätverk, ett jämförelsevis väl studerat och väl förstått fall, vår metod gör att vi kan återhämta fast etablerade biologiska fakta, och att avslöja viktiga nya resultat, såsom betydande bevarande av icke-hub kontaktmetaboliter. Liknande resultat kan förväntas när vår metod tillämpas på andra komplexa nätverk som inte är lika väl studerade som metaboliska nätverk. Bland dessa kan proteininteraktion och genreglering nätverk vara den mest betydande. Letter to Nature Guimerà and Amaral Methods För en given partition av noderna i ett nätverk till moduler, modularity M av denna partition är 11, 18, 21 där N M är antalet moduler, L är antalet länkar i nätverket, l s är antalet länkar mellan noder i modul s, och d s är summan av grader av noderna i modul s. Motiveringen för denna definition av moduläritet är följande. En bra delning av ett nätverk till moduler måste omfatta många inom modullänkar och så få som möjligt mellan modullänkar. Men om man bara försöker minimera antalet mellan-modul länkar (eller, motsvarande, maximera antalet inom-modul länkar) den optimala partitionen består av en enda modul och inga mellan-modul länkar. Ekvation (1) behandlar denna svårighet genom att införa att M = 0 om noder placeras slumpmässigt i moduler eller om alla noder är i samma kluster 11, 18, 21. Målet med en modulidentifieringsalgoritm är att hitta partitionen med största moduläritet, och flera metoder har föreslagits för att uppnå ett sådant mål. De flesta av dem förlitar sig på heuristiska förfaranden och använder M-eller en liknande åtgärd endast för att bedöma deras prestanda. Däremot använder vi simulerad glödgning 22 för att hitta partitionen med den största moduläriteten. Simulerad glödgning 22 är en stokastisk optimeringsteknik som gör det möjligt att hitta "låg kostnad" konfigurationer utan att fastna i "högkostnads" lokala minima. Detta uppnås genom att införa en beräkningstemperatur T. När T är hög, systemet kan utforska konfigurationer av hög kostnad medan vid låg T systemet bara utforskar låg kostnad regioner. Genom att börja vid hög T och långsamt minska T, sänker systemet gradvis mot djupa minima, så småningom övervinna små kostnadsbarriärer. Brev till naturen När moduler identifieras är målet att maximera modulariteten och därmed är kostnaden C = – M, där M är modulariteten enligt definitionen i Eq. 1 )............................................................................................................... Vid varje temperatur utför vi ett antal slumpmässiga uppdateringar och accepterar dem med sannolikhet där C f är kostnaden efter uppdateringen och C i är kostnaden innan uppdateringen. Särskilt vid varje T föreslår vi n i = f S 2 individuella nodrörelser från en modul till en annan, där S är antalet noder i nätverket. Vi föreslår också n c = f S kollektiva rörelser, som antingen innebär sammanslagning två moduler eller dela en modul. För f brukar vi välja f = 1. Efter rörelserna utvärderas vid en viss T, Systemet kyls ner till T ′ = cT, med c = 0,995. Varje modul kan organiseras på mycket olika sätt, allt från helt centraliserad-med en eller några noder anslutna till alla andra-till helt decentraliserade-med alla noder har liknande anslutningar. Noder med liknande roller förväntas ha liknande relativa inom modulanslutning. Om i är antalet länkar av node i till andra noder i dess modul s i, σ s i är genomsnittet av σ över alla noder i s i, och σ σs i är standardavvikelsen av σ in s i, sedan är den så kallade z-poäng. Den inommodul grad z-score mäter hur "väl ansluten" nod i är till andra noder i modulen. Olika roller kan också uppstå på grund av kopplingar av en nod till andra moduler än sin egen. Till exempel, två noder med samma z-poäng spelar olika roller om en av dem är ansluten till flera noder i andra moduler medan den andra inte. Vi definierar deltagarkoefficienten P i node i som brev till naturen där δ är antalet länkar av nod i till noder i modul s, och k i är den totala graden av nod i. Deltagandekoefficienten för en nod är därför nära en om dess länkar är jämnt fördelade mellan alla moduler och noll om alla dess länkar är inom sin egen modul. För att kvantifiera relationen mellan roller och bevarande beräknar vi i vilken utsträckning metaboliter bevaras i de olika arterna beroende på vilken roll de spelar. Särskilt för ett par arter, A och B, definierar vi förlustfrekvensen som sannolikheten för att en metabolit inte finns i en av arterna (R A = 0) med tanke på att den spelar roll R i den andra arten (R B = R). Strukturellt relevanta roller förväntas ha låga värden av p förlorade (R) och vice versa.
Guimerà och Amaral REF optimerade också modulariteten genom simulerad glödgning för att hitta funktionella moduler i metaboliska nätverk.
604,593
Functional cartography of complex metabolic networks
{'venue': 'Nature 433, 895-900 (2005)', 'journal': None, 'mag_field_of_study': ['Biology', 'Physics', 'Medicine']}
3,734
ABSTRACT Motiverad av Internet-of-Things (IoT) molnificering som trenden att genomföra IoT-program, en effektiv design för interaktioner mellan sensorer och moln är nödvändigt. I detta dokument föreslår vi en effektiv interaktiv modell som är utformad för integrering av sensor-moln för att sensor-molnet samtidigt ska kunna tillhandahålla avkänningstjänster på begäran till flera applikationer med olika latenskrav. I den föreslagna modellen avlastas komplicerade funktioner till molnet, och endast lätta processer utförs vid resursbegränsade sensornoder. Vi utformar en aggregeringsmekanism för sensormolnet för att aggregera ansökan så att den arbetsbelastning som krävs för sensorer minimeras, vilket sparar energi. Latens avkänningspaket från sensor-till-moln styrs av den sensorbaserade feedbackkontrollteorin. Baserat på återkopplingen från sensormolnet optimerar fysiska sensornoder sin schemaläggning i enlighet med detta för att spara energi samtidigt som latensen hos alla sensorflöden som leds genom dem uppfyller kraven för applikationer. Omfattande experimentella resultat och analysresultat visar att den föreslagna modellen effektivt kontrollerar latensen hos avkänningsflöden med låga signalerande omkostnader och hög energieffektivitet jämfört med det senaste systemet. INDEX TERMS Sensor cloud, IoT cloud, interaktiv modell, latency garanti, sensor cloud växelverkan.
Papper REF, föreslår en effektiv interaktiv modell som är utformad för sensor-moln integration för att göra det möjligt för sensormolnet att samtidigt tillhandahålla sensortjänster on-demand till flera applikationer med olika latenskrav.
54,452,664
An Efficient On-Demand Latency Guaranteed Interactive Model for Sensor-Cloud
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
3,735
Abstract-Software Definited Networking (SDN) har nyligen vuxit fram för att bli en av de lovande lösningarna för framtidens Internet. Med den logiska centraliseringen av styrenheter och en global nätverksöversikt ger SDN oss en chans att stärka vår nätverkssäkerhet. SDN ger oss dock också en farlig ökning av potentiella hot. I detta dokument tillämpar vi en djupinlärningsmetod för flödesbaserad anomalidetektering i en SDN-miljö. Vi bygger en Deep Neural Network (DNN) modell för ett intrångsdetekteringssystem och utbildar modellen med NSL-KDD Dataset. I detta arbete använder vi bara sex grundläggande funktioner (som enkelt kan erhållas i en SDN-miljö) tagna från fyrtioen funktioner i NSL-KDD Dataset. Genom experiment bekräftar vi att det djupa lärandet visar på en stark potential att användas för flödesbaserad anomalidetektering i SDN-miljöer.
Arbetet i REF utnyttjade ett Deep Neural Network (DNN) för flödesbaserad anomalidetektering i en programvarudefinierad nätverksmiljö (SDN).
15,987,982
Deep learning approach for Network Intrusion Detection in Software Defined Networking
{'venue': '2016 International Conference on Wireless Networks and Mobile Communications (WINCOM)', 'journal': '2016 International Conference on Wireless Networks and Mobile Communications (WINCOM)', 'mag_field_of_study': ['Computer Science']}
3,736
Man är väl medveten om kompromisserna mellan konsekvens, prestanda och tillgänglighet. Traditionellt sett har dock formgivare av replikerade system tvingats välja mellan antingen starka konsekvensgarantier eller inga alls. I detta dokument undersöks det semantiska utrymmet mellan traditionella starka och optimistiska konsekvensmodeller för replikerade tjänster. Vi hävdar att en viktig klass av tillämpningar kan tolerera avslappnad konsistens, men dra nytta av att begränsa den maximala graden av inkonsekvent tillgång på ett applikationsspecifikt sätt. Således utvecklar vi en conit-baserad kontinuerlig konsistens modell för att fånga konsistensspektrumet med hjälp av tre applikationsoberoende mätvärden, numeriskt fel, orderfel, och dödhet. Vi presenterar sedan utformningen och genomförandet av TACT, ett mellanlager som upprätthåller godtyckliga konsekventa gränser bland repliker med hjälp av dessa mått. Vi hävdar att TACT-konsistensmodellen samtidigt kan uppnå de ofta motstridiga målen av allmängiltighet och praktiskhet genom att beskriva hur ett brett spektrum av tillämpningar kan uttrycka sin enhetlighet semantik med hjälp av TACT och genom att visa att applikationsoberoende algoritmer effektivt kan genomdriva målkonsistensnivåer. Slutligen visar vi att tre replikerade applikationer som körs över Internet visar betydande semantiska och prestandafördelar genom att använda vårt ramverk.
Överensstämmelse har uttryckts i termer av exakta mått som definierar numeriska fel, orderfel och tjänster REF.
846,192
Design and evaluation of a conit-based continuous consistency model for replicated services
{'venue': 'TOCS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,737
Meta-learning gör det möjligt för en intelligent agent att utnyttja tidigare inlärningsepisoder som en grund för att snabbt förbättra prestandan på en ny uppgift. Bayesian hierarkisk modellering ger en teoretisk ram för formalisering meta-learning som slutledning för en uppsättning parametrar som delas över uppgifter. Här omformulerar vi modellen-agnostic meta-learning algoritm (MAML) av Finn et al. (2017) som metod för probabilistisk slutsats i en hierarkisk Bayesisk modell. I motsats till tidigare metoder för meta-learning via hierarkiska Bayes, MAML är naturligt tillämplig på komplexa funktion approximatorer genom dess användning av en skalbar lutning nedstigning förfarande för bakre inferens. Dessutom ger identifieringen av MAML som hierarkiska Bayes ett sätt att förstå algoritmens funktion som ett meta-learning-förfarande, samt en möjlighet att använda sig av beräkningsstrategier för effektiv inferens. Vi använder detta tillfälle för att föreslå en förbättring av MAML algoritm som använder sig av tekniker från ungefärlig inferens och krökning uppskattning.
En annan tolkning av MAML är formulerad i REF, som delar vår hierarkiska Bayesian formulering av metainlärning problemet.
3,484,654
Recasting Gradient-Based Meta-Learning as Hierarchical Bayes
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
3,738
Detta dokument visar effektiviteten av en Long Short-Term Memory språkmodell i våra inledande insatser för att generera okonstruerade rap texter. Målet med denna modell är att generera texter som är liknande i stil med en given rappare, men inte identiska med befintliga texter: detta är uppgiften att spökskriva. Till skillnad från tidigare arbeten, som definierar explicita mallar för lyrisk generation, definierar vår modell sitt eget rimschema, linjelängd och verslängd. Våra experiment visar att en Long Short-Term Memory språkmodell producerar bättre "ghostwrited" texter än en baslinjemodell.
Författarna till REF visade förmågan hos ett LSTM-ramverk att automatiskt generera raptexter anpassade till stilen hos en given rappare.
9,017,492
GhostWriter: Using an LSTM for Automatic Rap Lyric Generation
{'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,739
Abstract-This paper syftar till att gå bortom motståndskraft i studien av säkerhet och lokal reparationsbarhet för distribuerade lagringssystem (DSS). Säkerhet och lokal reparationsförmåga är både viktiga som egenskaper hos ett effektivt lagringssystem, och detta dokument syftar till att förstå avvägningarna mellan motståndskraft, säkerhet och lokal reparation i dessa system. I synnerhet undersöker detta dokument först säkerheten i närvaro av samverkande tjuvlyssnare, där tjuvlyssnare antas arbeta tillsammans vid avkodning av lagrad information. För det andra fokuserar dokumentet på kodningssystem som möjliggör optimala lokala reparationer. Dessutom sammanförs dessa två koncept för att utveckla lokalt reparerbara kodningssystem för DSS som är säkra mot tjuvlyssnare. De viktigaste resultaten av detta dokument är a. En förbättrad begränsning av sekretesskapaciteten för minsta lagringsregenererande koder, b. säkra kodningssystem som uppnår gränsen för vissa specialfall, c. en ny gräns på minsta avstånd för lokalt reparerade koder, d. kodkonstruktion för lokalt reparerabara koder som når minsta avstånd bundna, och e. reparationsbandbredd-effektiv lokalt reparerabara koder med och utan säkerhetsbegränsningar.
Regenererande koder och lokalt reparerbara säkra koder som uppnår minimilagringskrav för en DSS föreslogs av Rawat et al. Hoppa över det.
7,409,118
Optimal Locally Repairable and Secure Codes for Distributed Storage Systems
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
3,740
Spridningen av nätverksdata inom olika tillämpningsområden har väckt oro för den personliga integriteten för de berörda personerna. Nya studier visar att helt enkelt ta bort identiteterna på noderna innan publiceringen av grafen / sociala nätverksdata inte garanterar integritet. Strukturen på själva grafen, och i dess grundläggande form graden av noderna, kan vara att avslöja identiteter individer. För att ta itu med detta problem studerar vi ett specifikt grafanonymiseringsproblem. Vi kallar en graf k-grad anonym om för varje nod v, det finns minst k −1 andra noder i grafen med samma grad som v. Denna definition av anonymitet förhindrar åter-identifiering av individer av motståndare med en förkunskaper om graden av vissa noder. Vi definierar formellt graf-anonymisering problem som, med tanke på en graf G, ber om k-grad anonym graf som härrör från G med det minsta antalet graf-modifiering operationer. Vi utformar enkla och effektiva algoritmer för att lösa detta problem. Våra algoritmer är baserade på principer relaterade till möjligheten att realisera examenssekvenser. Vi tillämpar våra metoder på ett stort spektrum av syntetiska och verkliga dataset och visar deras effektivitet och praktiska nytta.
Liu och Terzi introducerade begreppet k-graders anonym graf om det för varje nod v finns minst k − 1 andra noder i grafen med samma grad som v REF.
207,167,634
Towards identity anonymization on graphs
{'venue': 'SIGMOD Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,741
Vi visar att kvadraten Hellinger avstånd mellan två Bayesian nätverk på samma riktade graf, G, är subadditive med avseende på stadsdelarna i G. Nämligen, om P och Q är sannolikhetsfördelningen definieras av två Bayesian nätverk på samma DAG, vår ojämlikhet anger att kvadraten Hellinger avstånd, H 2 (P, Q), mellan P och Q är övre begränsas av summan, v H 2 (P {v} och IIv, Q {v}Πv ), av kvadrat Hellinger avstånd mellan marginalerna av P och Q på varje nod v och dess föräldrar Π v i DAG. Viktigt är att vårt band inte omfattar villkoren utan marginalerna för P och Q. Vi härleder en liknande ojämlikhet för mer allmänna Markov Random Fields. Som en tillämpning av vår ojämlikhet, visar vi att särskiljande om två Bayesian nätverk P och Q på samma (men potentiellt okänd) DAG uppfyller P = Q vs d TV (P, Q) > till kan utföras från Õ (3/4 (d+1) · n/ på 2 ) prover, där d är den maximala in-graden av DAG och på domänen för varje variabel i Bayesian nätverk. Om P och Q definieras på potentiellt olika och potentiellt okända träd blir provets komplexitet Õ( och 4,5 n/ på 2 ), vars beroende av n är optimalt upp till logaritmiska faktorer. Slutligen, om P och Q är produktdistributioner över {0, 1} n och Q är känd, provet komplexitet blir O ( ε n/ på 2 ), vilket är optimal upp till konstanta faktorer.
Test med avseende på Hellinger-avstånd användes i REF för test av Bayes-nätverk.
18,704,665
Square Hellinger Subadditivity for Bayesian Networks and its Applications to Identity Testing
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
3,742
Läppläsning är uppgiften att avkoda texten från en talares rörelse. Traditionella metoder separerade problemet i två steg: designa eller lära visuella funktioner, och förutsägelse. Senare djupa läppläsning metoder är end-to-end trainingable (Wand et al., 2016; Chung & Zisserman, 2016a). Befintligt arbete på modeller utbildade end-to-end utför dock endast ordklassificering, snarare än mening-nivå sekvens förutsägelse. Studier har visat att mänsklig läppavläsning prestanda ökar för längre ord (Easson & Basala, 1982), vilket visar vikten av funktioner fånga temporal sammanhang i en tvetydig kommunikationskanal. Motiverade av denna observation presenterar vi LipNet, en modell som kartlägger en sekvens av videoramar med varierande längd till text, med användning av spatiotemporala konvolutioner, ett återkommande nätverk, och den tidsbundna klassifikationsförlusten, tränade helt end-to-end. Såvitt vi vet, LipNet är den första end-to-end mening nivå läppavläsning modell som samtidigt lär sig spatiotemporala visuella funktioner och en sekvensmodell. På GRID corpus, LipNet uppnår 95,2% noggrannhet i mening-nivå, överlappande högtalare split uppgift, bättre erfarna mänskliga läppläsare och den tidigare 86,4% ord-nivå state-of-the-art noggrannhet (Gergen et al., 2016).
End-to-end mening-nivå läppavläsning med 3D-CNN-RNN-baserad modell (LipNet) med CTC förlust på teckenetiketter föreslås i papper REF.
7,421,075
LipNet: End-to-End Sentence-level Lipreading
{'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,743
Relationsklassificering är en viktig forskningsarena inom området för behandling av naturligt språk (NLP). I detta dokument presenterar vi SDP-LSTM, ett nytt neuralt nätverk för att klassificera relationen mellan två enheter i en mening. Vår neurala arkitektur utnyttjar den kortaste beroendevägen (SDP) mellan två enheter; flerkanaliga återkommande neurala nätverk, med långtidsminne (LSTM) enheter, plocka upp heterogen information längs SDP. Vår föreslagna modell har flera olika egenskaper: (1) De kortaste beroendevägarna behåller mest relevant information (till relationsklassificering), samtidigt som irrelevanta ord i meningen elimineras. (2) Flerkanaliga LSTM-nätverk gör det möjligt att effektivt integrera information från heterogena källor över beroendevägarna. (3) En skräddarsydd avhoppsstrategi legaliserar det neurala nätverket för att lindra överbemanning. Vi testar vår modell på SemEval 2010 relation klassificering uppgift, och uppnå en F 1 - score på 83,7%, högre än konkurrerande metoder i litteraturen.
I neural nätverk-baserad beroende tolkning, Xu et al. REF implementerade en rekursiv neural network (RNN) modell längs den kortaste beroendevägen mellan två namngivna enheter.
5,403,702
Classifying Relations via Long Short Term Memory Networks along Shortest Dependency Path
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
3,744
Rund Robin (RR) Schemaläggning är grunden för tidsdelningsmiljön. Det är kombinationen av First Come First Served (FCFS) schemaläggning algoritm och preemption bland processer. Det används i princip i ett operativsystem för tidsdelning. Den växlar från en process till en annan process i ett tidsintervall. Tidsintervall eller TQ (Time Quantum) är fast för alla tillgängliga processer. Så, den större processen lider av Context Switches (CS). För att öka effektiviteten måste vi välja olika TQ för processer. Huvudsyftet med RR är att minska CS, maximera användningen av CPU och minimera vändningen och väntetiden. I detta dokument har vi övervägt olika TQ för en grupp av processer. Det minskar både CS och förbättrar prestandan hos RR-algoritmen. TQ kan beräknas med hjälp av min-max spridningsmått. Vår experimentella analys visar att Group Based Time Quantum (GBTQ) RR algoritm presterar bättre än befintliga RR algoritm med avseende på Genomsnittlig Turn Around Time (ATAT), Genomsnittlig Waiting Time (AWT) och CS.
I REF, en annan RR algoritm utvecklas på grundval av grupp av processer med hjälp av värdena för minimala och maximala processor sprängtider.
518,961
A Group based Time Quantum Round Robin Algorithm using Min-Max Spread Measure
{'venue': 'International Journal of Computer Applications 2013', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,745
Det finns ett stort intresse bland beräkningslingvister i lexikaliserade grammatiska ramar; lexikaliserat träd angränsande grammatik (LTAG) är ett brett studerade exempel. I den här artikeln undersöker vi hur härledning i LTAG inte kan ses som manipulationer av träd utan som manipulationer av trädbeskrivningar. Att förändra det sätt på vilket den lexikaliserade formalismen betraktas väcker frågor om önskvärdheten av vissa aspekter av formalismen. Vi presenterar en ny formalism, d-tree substitution grammatik (DSG). Derivat i DSG omfattar sammansättningen av d-träd, speciella typer av trädbeskrivningar. Träd avläses från härledda d-träd. Vi visar hur DSG formalismen, som är utformad för att ärva många av karaktärestikerna i LTAG, kan användas för att uttrycka en mängd olika språkliga analyser som inte finns i LTAG.
När det gäller den första klassen var ett av de tidigaste förslagen D-Tree Substitution Grammar REF ).
6,720,636
D-Tree Substitution Grammars
{'venue': 'Computational Linguistics', 'journal': 'Computational Linguistics', 'mag_field_of_study': ['Computer Science']}
3,746
Vi föreslår en ram som möjliggör förvärv av notationstunga resurser som syntaktiskt beroende trädkorpora för lågresursspråk genom att importera språkliga kommentarer från högkvalitativa engelska resurser. Vi presenterar ett storskaligt experiment som visar att kinesiska beroende träd kan induceras genom att använda en engelsk parser, ett ord anpassningspaket, och en stor corpus av meningsanpassade tvåspråkig text. Som en del av experimentet utvärderar vi kvaliteten på en kinesisk tolk utbildad på den inducerade beroende trädbank. Vi finner att en tolk utbildad på detta sätt överträffar några enkla baslinjer inspite av buller i den inducerade trädbanken. Resultaten tyder på att projicering av syntaktiska strukturer från engelska är ett lönsamt alternativ för att snabbt och billigt förvärva kommenterade syntaktiska strukturer. Vi förväntar oss att kvaliteten på den inducerade trädbanken förbättras när mer sofistikerade filtrerings- och felkorrigeringsmetoder tillämpas.
I REF rapporterar författarna lovande resultat av att framkalla kinesiska beroende träd från engelska.
1,711,577
Breaking the Resource Bottleneck for Multilingual Parsing
{'venue': 'In Proceedings of LREC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,747
Abstract-Spatial Principal Component Analysis (PCA) har föreslagits för nätverksomfattande anomalidetektering. Ett nyligen utfört arbete har visat att PCA är mycket känsligt för kalibreringsinställningar. Tyvärr gav författarna inga ytterligare förklaringar till denna iakttagelse. I detta dokument fyller vi denna lucka och ger resonemanget bakom de konstaterade avvikelserna. Vi återbesöker PCA för anomali upptäckt och utvärderar dess prestanda på våra data. Vi utvecklar en något modifierad version av PCA som endast använder data från en enda router. Istället för att korrelera data över olika rumsliga mätpunkter korrelerar vi data över olika mätvärden. Med hjälp av de analyserade uppgifterna förklarar vi PCA:s fallgropar och understryker vår argumentation med mätresultat. Vi visar att det största problemet är att PCA misslyckas med att fånga temporal korrelation. Vi föreslår en lösning på detta problem genom att ersätta PCA med Karhunen-Loeve Transform. Vi finner att när vi överväger tidsmässiga korrelationer, är anomali detektionsresultaten avsevärt förbättrade.
Referensreferensreferensen utvidgade det klassiska partnerskaps- och samarbetsavtalet och föreslog en Karhunen-Loeve-expansion för nätverksomfattande anomalidetektering.
8,198,948
Applying PCA for Traffic Anomaly Detection: Problems and Solutions
{'venue': 'IEEE INFOCOM 2009', 'journal': 'IEEE INFOCOM 2009', 'mag_field_of_study': ['Computer Science']}
3,748
I detta arbete presenterar vi Cutting Plane Inference (CPI), en maximal A Posteriori (MAP) inference metod för statistisk relativ inlärning. Ramad i termer av Markov Logic och inspirerad av Cutting Plane Method, kan det ses som en metaalgoritm som omedelbart små delar av en stor och komplex Markov Network och sedan löser dessa med hjälp av en konventionell MAP metod. Vi utvärderar CPI på två uppgifter, Semantic Rollmärkning och Joint Entity Resolution, medan plugging i två olika MAP inference metoder: den nuvarande metoden för MAP inference i Markov Logic, MaxWalkSAT, och Integer Linear Programmering. Vi observerar att när båda metoderna används med KPI är de betydligt snabbare än när de används ensamma. Dessutom förbättrar CPI noggrannheten hos MaxWalkSAT och bibehåller exaktheten i Integer Linear Programmering.
Beast, utvecklat av Riedel REF, använder Cutting Planes Inference (CPI) optimering, som omedelbart och löser små delar av ett komplext MLN-nätverk.
8,727,850
Improving the Accuracy and Efficiency of MAP Inference for Markov Logic
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
3,749
Händelseigenkänning från stillbilder är av stor betydelse för bildförståelse. Jämfört med händelseigenkänning i videor finns det dock mycket färre forskningsarbeten om händelseigenkänning i bilder. Detta dokument behandlar frågan om händelseigenkänning från bilder och föreslår en effektiv metod med djupa neurala nätverk. Speciellt designar vi en ny arkitektur, som kallas Object-Scene Convolutional Neural Network (OS-CNN). Denna arkitektur sönderdelas i objektnät och scennät, som extraherar användbar information för händelseförståelse ur objektens respektive scensammanhangets perspektiv. Samtidigt undersöker vi olika nätverksarkitekturer för OS-CNN-design och anpassar de djupa (AlexNet) och mycket djupa (GoogLeNet) nätverken till uppgiften att identifiera händelser. Dessutom finner vi att de djupa och mycket djupa nätverken kompletterar varandra. Slutligen, baserat på den föreslagna OS-CNN och jämförande studie av olika nätverksarkitekturer, kommer vi fram till en lösning på fem-stream CN-N för spår av kulturevenemang erkännande vid ChaLearn Looking at People (LAP) utmaning 2015. Vår metod får prestanda på 85,5% och rankas den 1 st plats i denna utmaning. 978-1-4673-6759-215/$31.00 ©2015 IEEE
Wang m.fl. REF utformade en arkitektur för att kombinera objektnätverk och scennätverk, som extraherar användbar information som objekt och scensammanhang för händelseförståelse.
206,597,729
Object-Scene Convolutional Neural Networks for event recognition in images
{'venue': '2015 IEEE Conference on Computer Vision and Pattern Recognition Workshops (CVPRW)', 'journal': '2015 IEEE Conference on Computer Vision and Pattern Recognition Workshops (CVPRW)', 'mag_field_of_study': ['Computer Science']}
3,750
Multimodal interaktion i vardagen verkar så enkel. En närmare titt visar dock att en sådan interaktion verkligen är komplex och omfattar flera nivåer av samordning, från språkutbyte på hög nivå till kopplingar på låg nivå av tillfälliga kroppsliga rörelser både inom en agent och över flera samverkande medel. En bättre förståelse av hur dessa multimodala beteenden samordnas kan ge insiktsfulla principer för att vägleda utvecklingen av intelligenta multimodala gränssnitt. Mot bakgrund av detta föreslår och genomför vi en forskningsram där mänskliga deltagare interagerar med en virtuell agent i en virtuell miljö. Vår plattform gör det möjligt för den virtuella agenten att hålla koll på användarens blick och handrörelser i realtid, och justera sina egna beteenden därefter. Ett experiment är utformat och genomfört för att undersöka adaptiva användarbeteenden i en mänsklig-agent gemensam uppmärksamhet uppgift. Multimodala dataströmmar samlas in i studien inklusive tal, ögonblick, hand- och huvudrörelser från både den mänskliga användaren och den virtuella agenten, som sedan analyseras för att upptäcka olika beteendemönster. Dessa mönster visar att mänskliga deltagare är mycket känsliga för tillfälliga multimodala beteenden som genereras av den virtuella agenten och de anpassar snabbt sina beteenden därefter. Våra resultat tyder på vikten av att studera och förstå adaptiva beteenden i realtid i multimodala interaktioner mellan människa och dator.
Mänskliga användare är mycket känsliga för tillfälliga multimodala beteenden som genereras av virtuella agenter REF.
7,794,119
Real-time adaptive behaviors in multimodal human-avatar interactions
{'venue': "ICMI-MLMI '10", 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,751
Sammanfattning I detta arbete tar vi upp problemet med att tillnärma högdimensionella data med en lågdimensionell representation. Vi ger följande bidrag. Vi föreslår en omvänd regressionsmetod som utbyter rollerna för input och respons, så att den lågdimensionella variabeln blir regressorn, och som är dragbar. Vi introducerar en blandning av lokalt-linjär probabilistisk kartmodell som börjar med att uppskatta parametrarna för omvänd regression, och följer med att sluta slutna-form lösningar för framåtparametrarna i den högdimensionella regressionsproblem av intresse. Dessutom inför vi ett delvis latent paradigm, så att den vektorvärderade responsvariabeln består av både observerade och latenta poster, vilket gör det möjligt att hantera data som kontaminerats av experimentella artefakter som inte kan förklaras med bullermodeller. Den föreslagna probabilistiska formuleringen kan ses som en latent-variabel ökning av regression. Vi utformar pretend-maximization (EM) procedurer baserade på en dataförstärkning strategi som underlättar maximal-likelihood sökning över modellparametrarna. Vi föreslår två tilläggsprogram och vi beskriver i detalj de tillhörande EM-inferensprocedurer som mycket väl kan ses som generaliseringar av ett antal EM-regression, dimensionsreduktion och faktoranalysalgoritmer. Den föreslagna ramen valideras med både syntetiska och verkliga data. Vi ger experimentella bevis för att vår metod överträffar flera befintliga regressionstekniker.
Vi utformar en variant av Gaussian lokalt-linjär kartläggning (GLIM) modell, nyligen föreslagit REF.
14,431,841
High-Dimensional Regression with Gaussian Mixtures and Partially-Latent Response Variables
{'venue': 'Statistics and Computing, 25(5), 893-911, 2015', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
3,752
Abstrakt. Med den ökande utvecklingen av genomträngande datorteknik går vi mot en era där spatio-temporal information kommer att vara nödvändig för åtkomstkontroll. Användningen av sådan information kan användas för att öka säkerheten i en ansökan, och den kan också utnyttjas för att inleda attacker. För kritiska tillämpningar behövs en formell modell för spatiotemporalbaserad åtkomstkontroll som ökar applikationens säkerhet och säkerställer att lokaliseringsinformationen inte kan utnyttjas för att orsaka skada. I detta dokument föreslår vi en spatio-temporal passerkontrollmodell, baserad på Role-Based Access Control (RBAC) modell, som är lämplig för genomträngande datorapplikationer. Vi visar associationen av varje komponent i RBAC med spatio-temporal information. Vi formaliserar modellen genom att räkna upp begränsningarna. Denna modell kan användas för tillämpningar där rumslig och tidsmässig information om ett subjekt och ett objekt måste beaktas innan tillträde beviljas eller nekas.
Vårt tidiga arbete REF utökar RBAC med rumsliga och tidsmässiga begränsningar.
1,042,263
A Spatio-temporal Role-Based Access Control Model
{'venue': 'DBSec', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,753
Rörliga objektmiljöer kännetecknas av ett stort antal rörliga objekt och många samtidiga kontinuerliga frågor över dessa objekt. Effektiv utvärdering av dessa frågor som svar på rörelsen av objekten är avgörande för att stödja godtagbara svarstider. I sådana miljöer lider det traditionella tillvägagångssättet att bygga ett index på objekten (data) av behovet av frekventa uppdateringar och resulterar därmed i dålig prestanda. I själva verket ger en brute force, no-index strategi bättre resultat i många fall. Varken det traditionella tillvägagångssättet eller brute force-strategin uppnår rimliga frågebehandlingstider. Detta dokument utvecklar nya tekniker för effektiv och skalbar utvärdering av flera kontinuerliga frågor om rörliga objekt. Vår lösning utnyttjar två kostnadsfria tekniker: Query Indexing och Velocity Constomed Indexing (VCI). Fråga Indexering bygger på i) stegvis utvärdering, ii) vända rollen av frågor och data, och iii) utnyttja relativa platser objekt och frågor. VCI utnyttjar största möjliga hastighet av objekt för att fördröja den dyra driften av uppdatering av ett index för att återspegla förflyttning av objekt. I motsats till en tidigare teknik [29] som kräver exakt kunskap om föremålens rörelse, är VCI inte beroende av sådan information. Medan Query Indexing överträffar VCI, det inte effektivt hantera ankomsten av nya frågor. Hastighetsbegränsning indexering, å andra sidan, påverkas inte av förändringar i frågor. Vi visar att en kombination av Query Indexing och Velocity Constomed Indexing möjliggör skalbar körning av införande och radering av frågor utöver behandling av pågående frågor. Vi utvecklar också flera optimeringar och presenterar en detaljerad experimentell utvärdering av våra tekniker. De experimentella resultaten visar att de föreslagna systemen överträffar de traditionella tillvägagångssätten med nästan två storleksordningar.
Hastighetsbegränsad indexering föreslogs i REF för effektiv indexering av rörliga objekt.
2,176,402
Query Indexing and Velocity Constrained Indexing: Scalable Techniques for Continuous Queries on Moving Objects
{'venue': 'IEEE Trans. Computers', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,754
Samverkansfiltrering (CF) är värdefullt i e-handel, och för direkta rekommendationer för musik, filmer, nyheter etc. Men dagens system har flera nackdelar, inklusive integritetsrisker. När vi går mot allestädes närvarande datorer, finns det en stor potential för individer att dela med sig av alla typer av information om platser och saker att göra, se och köpa, men riskerna för privatlivet är allvarliga. I detta dokument beskriver vi en ny metod för samverkansfiltrering som skyddar enskilda datas integritet. Metoden baseras på en probabilistisk faktoranalysmodell. Integritetsskydd tillhandahålls genom ett peer-to-peer-protokoll som beskrivs på annat håll, men som beskrivs i detta dokument. Den faktoranalys metod hanterar saknade data utan att kräva standardvärden för dem. Vi ger flera experiment som tyder på att detta är den mest exakta metoden för CF hittills. Den nya algoritmen har andra fördelar i hastighet och lagring jämfört med tidigare algoritmer. Slutligen föreslår vi tillämpningar av tillvägagångssättet för andra typer av statistiska analyser av undersöknings- eller frågedata.
I referensreferensdokumentet, J. Canny beskriver ett nytt tillvägagångssätt för samverkansfiltrering som bevarar integriteten hos enskilda användares data.
1,189,732
Collaborative filtering with privacy via factor analysis
{'venue': "SIGIR '02", 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,755
Abstract-This paper studerar den massiva MIMO full-duplex relä (MM-FDR), där flera källdestination par kommunicerar samtidigt med hjälp av en gemensam fullduplex relä utrustad med mycket stora antenn arrayer. Olika från det traditionella MM-FDR-protokollet, en allmän modell där källor/destinationer tillåts utrusta med flera antenner beaktas. I motsats till det konventionella MIMO-systemet måste massiv MIMO byggas med lågkostnadskomponenter som är utsatta för hårdvaruskador. I detta dokument beaktas effekten av maskinvarunedskärningar och modelleras med hjälp av transmitterande/mottagande störningsljud. Vi föreslår en låg komplexitet hårdvara försämringar medvetna transceiver system (kallas HIA system) för att minska distorsion buller genom att utnyttja statistisk kunskap om kanaler och antenner matriser vid källor och destinationer. En gemensam grad av frihet och energioptimeringsalgoritm presenteras för att ytterligare optimera spektraleffektiviteten hos HIA-baserad MM-FDR. Resultaten visar att HIA-systemet kan mildra "takeffekten" visas i traditionella MM-FDR-protokoll, om antalet antenner vid källor och destinationer kan skala med det på reläet. Index Terms-Massive MIMO full-duplex relä, hårdvara försämringar, transceiver design, gemensam grad av frihet och strömoptimering, uppnåelig hastighet.
I REF ansåg författarna att det var ett massivt MIMO-relä med HWD och föreslog ett system för att minska snedvridningen genom att utnyttja de statistiska kunskaperna om kanalerna.
15,358,870
Hardware Impairments Aware Transceiver for Full-Duplex Massive MIMO Relaying
{'venue': 'IEEE Transactions on Signal Processing', 'journal': 'IEEE Transactions on Signal Processing', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
3,756
Abstrakt. Vi använder stora mängder omärkt video för att lära oss modeller för visuell spårning utan manuell mänsklig övervakning. Vi utnyttjar den naturliga temporal samstämmighet av färg för att skapa en modell som lär sig att färga gråskala videor genom att kopiera färger från en referensram. Kvantitativa och kvalitativa experiment tyder på att denna uppgift gör att modellen automatiskt lär sig att spåra visuella regioner. Även om modellen är tränad utan mark-sanning etiketter, vår metod lär sig att spåra tillräckligt bra för att överträffa de senaste metoderna baserade på optiskt flöde. Dessutom, våra resultat tyder på att misslyckanden att spåra korreleras med misslyckanden att färga, vilket tyder på att avancera video colorization kan ytterligare förbättra självövervakad visuell spårning.
REF införde videofärgning som en självövervakad metod för att lära sig visuell spårning.
49,405,781
Tracking Emerges by Colorizing Videos
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
3,757
Abstract-Vi undersöker användningen av skvaller protokoll för upptäckt av nätverk-omfattande tröskel korsningar. Våra designmål är låga protokoll overhead, liten detektionsfördröjning, låg sannolikhet för falska positiva och negativa, skalbarhet, robusthet till nodfel och kontrollbarhet av avvägningen mellan overhead och detektionsfördröjning. Baserat på push-synopses, ett skvallerprotokoll som infördes av Kempe et al., presenterar vi ett protokoll som visar om ett globalt aggregat av statiska lokala värden är över eller under en given tröskel. För detta protokoll, vi bevisa riktighet och visa att det konvergerar till en stat utan overhead när aggregatet är tillräckligt långt från tröskeln. Sedan introducerar vi en förlängning vi kallar TG-GAP, ett protokoll som (1) utför i en dynamisk nätverksmiljö där lokala värden förändras och (2) implementerar hysteres beteende med övre och nedre tröskelvärden. Nyckelelementen i dess design är konstruktionen av ögonblicksbilder av det globala aggregatet för detektering av tröskelvärden och en mekanism för synkronisering av lokala stater, vilka båda realiseras genom det underliggande skvallerprotokollet. Simuleringsstudier tyder på att TG-GAP är effektivt genom att protokollets overhead är minimalt när aggregatet är tillräckligt långt från tröskeln, att dess overhead- och detektionsfördröjning till stor del är oberoende av systemstorleken och att avvägningen mellan overhead- och detektionskvalitet effektivt kan kontrolleras. Slutligen gör vi en jämförande utvärdering av TG-GAP mot ett trädbaserat protokoll. Vi drar slutsatsen att för att upptäcka globala tröskelövergångar i den typ av scenarier som undersökts, det trädbaserade protokollet ådrar sig en betydligt lägre overhead och en mindre detektionsfördröjning än ett skvallerprotokoll som TG-GAP.
Wuhib m.fl. REF presenterar ett skvallerbaserat protokoll för att upptäcka globala gränspassage i decentraliserad realtidsövervakning av IP-nätverk.
17,427,330
A gossiping protocol for detecting global threshold crossings
{'venue': 'IEEE Transactions on Network and Service Management', 'journal': 'IEEE Transactions on Network and Service Management', 'mag_field_of_study': ['Computer Science']}
3,758
Modern programvara utvecklas ofta under många år med hundratusentals åtaganden. Commit metadata är en rik källa till sociala egenskaper, inklusive engagemangets tid på dagen och erfarenhet och begå frekvens av sin författare. Ett åtagandes "blygsamhet" är också en viktig egenskap hos det. I den här artikeln undersöker vi sambandet mellan ett åtagandes sociala egenskaper och dess "bugighet"; sådana resultat kan vara mycket användbara för programvaruutvecklare och programvaruingenjörer. Till exempel, utvecklare eller kodrecensenter kan vara väl tillrådda att noggrant verifiera åtaganden som är mer benägna att vara buggy. I den här artikeln studerar vi sambandet mellan ett åtagandes buggighet och tiden på dagen för engagemanget, dagen i veckan av engagemanget, och erfarenheten och begå frekvens av engagemang författare. Vi undersöker två allmänt använda öppen källkodsprojekt: Linuxkärnan och PostgreSQL. Våra viktigaste resultat inkluderar: (1) åtaganden in mellan midnatt och 4 AM (som kallas sena natten åtaganden) är betydligt buggigare och åtaganden mellan 7 AM och middag är mindre buggy, vilket innebär att utvecklare kan vilja dubbelkolla sina egna sena natten åtaganden; (2) dagliga committing utvecklare producerar mindre buggy åtaganden, vilket tyder på att vi kanske vill främja praxis att dagligen committing utvecklare granska andra utvecklares åtaganden; och (3) buggighet av åtaganden jämfört med dag-av-vecka varierar för olika programvaruprojekt.
Eyolfson m.fl. REF hittade åtaganden som lämnades in mellan midnatt och 4am för att vara betydligt mer felbenägen än de som lämnades in vid andra tillfällen, och dagligen-kommitterande utvecklare att producera mindre buggy commits.
5,574,280
Do time of day and developer experience affect commit bugginess?
{'venue': "MSR '11", 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,759
Informellt är en obfuscator O en (effektiv, probabilistisk) "kompilator" som tar som ingång ett program (eller krets) P och producerar ett nytt program O(P ) som har samma funktionalitet som P ännu är "oförståelig" i någon mening. Obfuscators, om de finns, skulle ha en mängd olika kryptografiska och komplexa-teoretiska tillämpningar, allt från programvaruskydd till homomorfisk kryptering till komplexa-teoretiska analoger av Ris teorem. De flesta av dessa tillämpningar är baserade på en tolkning av "oförståelig" villkor i obfuscation som innebär att O(P ) är en "virtuell svart låda", i den meningen att allt man effektivt kan beräkna givet O(P ), man kan också effektivt beräkna given orakle tillgång till P. I detta arbete, inleder vi en teoretisk undersökning av obfuscation. Vårt huvudsakliga resultat är att även under mycket svaga formaliseringar av ovanstående intuition är obfuscation omöjlig. Vi bevisar detta genom att bygga en familj av effektiva program P som är oobfuscatable i den meningen att (a) med tanke på alla effektiva program P som beräknar samma funktion som ett program P på P, kan "källkod" P effektivt rekonstrueras, men (b) ges orakle tillgång till ett (slumpvis utvalda) program P P P, ingen effektiv algoritm kan rekonstruera P (eller ens skilja en viss bit i koden från slumpmässig) utom med försumbar sannolikhet. Vi utökar vår omöjlighet resulterar i ett antal sätt, inklusive även obfuscators som (a) inte nödvändigtvis kan beräknas i polynom tid, (b) bara ungefär bevara funktionaliteten, och (c) behöver bara arbeta för mycket begränsade modeller av beräkning (TC 0 ). Vi utesluter också flera potentiella tillämpningar av obfuscators, genom att bygga "oobfuscatable" signatursystem, krypteringssystem och pseudorandom funktionsfamiljer. I detta arbete inleder vi en teoretisk undersökning av obfuscation. Vi undersöker olika formaliseringar av begreppet, i ett försök att förstå vad vi kan och inte kan hoppas på att uppnå. Vårt huvudresultat är negativt, vilket visar att obfuscation (som det vanligtvis förstås) är omöjligt. Innan vi beskriver detta resultat och andra mer i detalj beskriver vi några av de potentiella tillämpningarna av obfuscators, både för motivation och för att förtydliga begreppet. Programvaruskydd.. De mest direkta tillämpningarna av obfuscators är för olika former av programvaruskydd. Genom definition, obfuscing ett program skyddar det mot omvänd ingenjörskonst. Till exempel, om en part, Alice, upptäcker en mer effektiv algoritm för factoring heltal, kan hon vilja sälja en annan part, Bob, ett program för till synes svagare uppgifter (såsom bryta RSA cryptosystem) som använder factoring algoritm som en subrutin utan att faktiskt ge Bob en factoring algoritm. Alice kan hoppas att uppnå detta genom att fördunkla programmet hon ger till Bob. Intuitivt, obfuscators skulle också vara användbart i vattenmärkning programvara (jfr, [CT; NSS]). En programvaruleverantör kan ändra ett programs beteende på ett sätt som unikt identifierar den person till vilken det säljs, och sedan fördunkla programmet för att garantera att detta "vattenmärke" är svårt att ta bort. Tar bort slumpmässiga orakler. Random Oracle Model [BR] är en idealiserad kryptografisk miljö där alla parter har tillgång till en verkligt slumpmässig funktion. Det är (heuritiskt) hoppats att protokoll utformade i denna modell kommer att förbli säker när den genomförs med hjälp av en effektiv, offentligt beräknande kryptografisk hash funktion i stället för den slumpmässiga funktionen. Även om det är känt att detta inte är sant i allmänhet [CGH], är det okänt om det finns effektivt beräkningsbara funktioner med tillräckligt starka egenskaper för att säkert användas i stället för den slumpmässiga funktionen i olika specifika protokoll 2. Man kan hoppas på att få sådana funktioner genom att fördunkla en familj av pseudorandom funktioner [GGM], vars input-output beteende är per definition oskiljaktiga från en verkligt slumpmässig funktion. Omvandla Privat-Key kryptering till Public-Key kryptering.. Obfuscation kan också användas för att skapa nya krypteringssystem med öppen nyckel genom att obfuscera ett krypteringssystem med privat nyckel. Med tanke på en hemlig nyckel K i en privat nyckel krypteringsschema, kan man publicera en obfuscation av krypteringsalgoritmen Enc K. Detta tillåter alla att kryptera, men bara en som har den hemliga nyckeln K bör kunna dekryptera. Intressant nog, i den ursprungliga tidningen av Diffie och Hellman [DH] var det ovan angivna skälet till att tro att public-key kryptosystem kan existera även om det inte fanns några kandidater kända ännu. Det vill säga, de föreslog att det skulle vara möjligt att fördunkla ett krypteringssystem med privat nyckel. 3 2 Vi noterar att resultaten av [CGH] också kan ses som att utesluta en mycket stark "virtuell svart låda" definition av obfuscators. Detta beror på att deras resultat innebär att ingen obfuscator tillämpas på någon pseudorandom funktion familj skulle kunna fungera för alla protokoll, medan en mycket stark virtuell svart låda definition skulle garantera detta. Vi konstaterar emellertid att våra viktigaste resultat utesluter en till synes mycket svagare definition av fördunkladhet. Dessutom noterar vi att utesluta starka virtuella svarta box definitioner är nästan omedelbar: Till exempel, en sak som kan beräknas effektivt från O(P ) är programmet O(P ) själv. Men för alla program P som motsvarar en funktion som är svår att lära sig från frågor, skulle det vara omöjligt att producera något program som motsvarar P i funktionalitet ges endast oracle tillgång till P. 3 Från [DH]: "En mer praktisk metod för att hitta ett par lätt beräknade inversa algoritmer E och D; sådan att D är svårt att sluta sig till från E, använder sig av svårigheten att analysera program i låg nivå språk. Alla som har försökt avgöra vilken operation som utförs av någon annans maskinspråksprogram vet att E själv (dvs. vad E gör) kan vara svårt att dra slutsatsen från en algoritm för E. Om programmet skulle göras avsiktligt förvirrande genom tillägg av onödiga variabler och uttalanden, då impossibilitet av Applikationer.. Att ge ytterligare bevis för att vårt omöjlighetsresultat inte är en artefakt av definitionsval, utan snarare är inneboende i den "virtuella svarta rutan" som bestämmer en omvänd algoritm kan göras mycket svårt. Naturligtvis måste E vara tillräckligt komplicerat för att förhindra dess identifiering från input-output par. Vad som i huvudsak krävs är en enkelriktad kompilator: en som tar ett lättförståeligt program skrivet på ett språk på hög nivå och översätter det till ett obegripligt program på något maskinspråk. Kompilatorn är enkelriktad eftersom det måste vara möjligt att göra sammanställningen, men omöjlig att vända processen. Eftersom effektivitet i storlek på programmet och körtid inte är avgörande i detta program, sådana kompilatorer kan vara möjligt om strukturen i maskinen språket kan optimeras för att hjälpa till i förvirringen." A:5 idé, vi visar också att flera av tillämpningarna av obfuscators är omöjliga. Vi gör detta genom att bygga oobfuscatable signatursystem, krypteringssystem och pseudorandom funktioner. Dessa är objekt som uppfyller standarddefinitionerna av säkerhet, men för vilka man effektivt kan beräkna den hemliga nyckeln K från alla program som signerar (eller krypterar eller utvärderar pseudorandom-funktionen, resp.) I förhållande till K. Därför är det mycket osäkert att dela ut "obfuskerade former" av dessa nyckeltalgoritmer. I synnerhet kompletterar vi Canetti et. Detta beslut träder i kraft dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning.Kritik mot slumpmässig orakelmetodologi [CGH]. De visar att det finns (kontrigerade) protokoll som är säkra i den idealiserade Random Oracle Model (av [BR]), men är osäkra när den slumpmässiga oraklet ersätts med någon (effektivt beräknande) funktion. Våra resultat innebär att även för naturliga protokoll som är säkra i slumpmässiga orakel modellen, (t.ex. Fiat-Shamir typ system [FS]), finns det (kontrived) pseudorandom funktioner, så att dessa protokoll är osäkra när slumpmässiga orakel ersätts med något program som beräknar (kontrived) pseudorandom funktion. Vi nämner att efter vårt arbete, Barak [Bar1] konstruerade utan tvekan naturliga protokoll som är säkra i den slumpmässiga orakelmodellen (t.ex. De som erhålls genom tillämpning av Fiat-Shamir heuristic [FS] på hans argument om nollkunskap för offentliga mynt) men är osäkra när det slumpmässiga oraklet ersätts av någon effektivt beräkningsbar funktion. Definition 2.1 (TM obfuscator). En probabilistisk algoritm O är en TM obfuscator för samlingen F av Turing maskiner om följande tre villkor håller: 5 Se Fotnot 7.
Den första formella behandlingen av program obfuscation initierades av Barak et al REF som definierar en obfuscator O som en effektiv, probabilistisk kompilator som omvandlar ett program P till funktionellt likvärdigt obfuscated program O(P) som beter sig som en "virtuell svart-box".
2,409,597
On the (Im)possibility of Obfuscating Programs
{'venue': 'IACR Cryptology ePrint Archive', 'journal': 'IACR Cryptology ePrint Archive', 'mag_field_of_study': ['Computer Science']}
3,760
Sammanfattning av denna webbsida: Sensing of the application environment är det huvudsakliga syftet med ett trådlöst sensornätverk. De flesta befintliga energihanteringsstrategier och kompressionsteknik utgår från att avkänningen förbrukar betydligt mindre energi än radioöverföring och mottagning. Detta antagande finns inte i ett antal praktiska tillämpningar. Förnimmelse av energiförbrukning i dessa tillämpningar kan vara jämförbar med, eller till och med större än, radio. I detta arbete stöder vi detta påstående genom en kvantitativ analys av de viktigaste driftskostnaderna för populära sensorer, radioapparater och sensorramar. Med tanke på vikten av att avkänna energikostnader, särskilt för energihungriga sensorer, anser vi att komprimerad avkänning och distribuerad komprimerad avkänning är möjliga metoder för att ge energieffektiv avkänning i trådlösa sensornätverk. Numeriska experiment som undersöker effektiviteten av komprimerad avkänning och distribuerad komprimerad avkänning med hjälp av verkliga dataset visar deras potential för effektivt utnyttjande av avkänning och totala energikostnader i trådlösa sensornätverk. Det visas att för vissa tillämpningar kan komprimerad avkänning och distribuerad komprimerad avkänning ge större energieffektivitet än transform kodning och modellbaserad adaptiv avkänning i trådlösa sensornätverk.
I Ref lade författarna fram en kvantitativ analys av WSN:s primärenergiförbrukning.
10,416,337
Energy-Efficient Sensing in Wireless Sensor Networks Using Compressed Sensing
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']}
3,761
I detta arbete introducerar vi en fullständig end-to-end strategi för att upptäcka åtgärder i videor som lär sig att direkt förutsäga de timliga gränserna för åtgärder. Vår intuition är att processen att upptäcka handlingar är naturligt en process av observation och förfining: observera ögonblick i video, och förfina hypoteser om när en handling sker. Baserat på denna insikt formulerar vi vår modell som ett återkommande neuralt nätverksbaserat medel som interagerar med en video över tid. Agenten observerar videoramar och bestämmer både var du ska titta härnäst och när du ska avge en förutsägelse. Eftersom backpropagation inte är tillräckligt i denna icke-differentierbara miljö, använder vi REINFORCE för att lära sig agentens beslutspolicy. Vår modell uppnår toppmoderna resultat på THUMOS'14 och ActivityNet dataset samtidigt som endast en bråkdel (2% eller mindre) av videoramarna observeras.
Yeung m.fl. REF använder ett återkommande neuralt nätverk för att förutsäga åtgärder från ramen glimtar, få konkurrenskraftiga resultat med endast utvärdera en bråkdel av videoramar.
4,019,281
End-to-End Learning of Action Detection from Frame Glimpses in Videos
{'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
3,762
Abstract-En viktig aspekt av människans perception är förväntan, som vi i stor utsträckning använder i våra dagliga aktiviteter när vi interagerar med andra människor såväl som med vår omgivning. Att förutse vilka aktiviteter en människa kommer att göra härnäst (och hur) kan göra det möjligt för en hjälprobot att planera framåt för reaktiva reaktioner. Dessutom kan förväntan till och med förbättra detektionsnoggrannheten i tidigare aktiviteter. Utmaningen är dock tvåfaldig: Vi måste fånga den rika kontexten för att modellera aktiviteter och objektförmögenhet, och vi måste förutse fördelningen över ett stort utrymme av framtida mänskliga aktiviteter. I detta arbete representerar vi varje möjlig framtid med hjälp av ett förutseende temporalt villkorligt slumpmässigt fält (ATCRF) som modellerar de rika rumsliga-temporala relationerna genom objektförmågor. Vi betraktar sedan varje ATCRF som en partikel och representerar fördelningen över potentiella framtider med hjälp av en uppsättning partiklar. I en omfattande utvärdering av CAD-120 human aktivitet RGB-D dataset visar vi först att förväntan förbättrar resultaten från hjärtdetektering. Vi visar sedan att för nya ämnen (som inte setts i träningssetet) får vi en aktivitetsförväntning noggrannhet (definierad som om en av de tre bästa förutsägelserna faktiskt inträffade) på 84,1, 74,4 och 62,2 procent för en förväntanstid på 1, 3 respektive 10 sekunder. Slutligen visar vi också en robot som använder vår algoritm för att utföra några reaktiva svar.
Koppula m.fl. REF använder ett villkorat slumpmässigt fält med underaktiviteter, mänskliga poser, objektförmågor och objektplatser över tid.
1,121,245
Anticipating Human Activities Using Object Affordances for Reactive Robotic Response
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
3,763
Djupt lärande verktyg har fått enorm uppmärksamhet i tillämpad maskininlärning. Sådana verktyg för regression och klassificering fångar dock inte upp modellosäkerheten. Som jämförelse erbjuder Bayesian modeller en matematiskt grundad ram för att resonera om modellosäkerhet, men vanligtvis kommer med en oöverkomlig beräkningskostnad. I denna uppsats utvecklar vi en ny teoretisk ram gjutning dropout utbildning i djupa neurala nätverk (NNs) som ungefärlig Bayesian slutsats i djupa Gaussiska processer. Ett direkt resultat av denna teori ger oss verktyg för att modellera osäkerhet med avhopp NNsextraktion information från befintliga modeller som har kastats bort hittills. Detta minskar problemet med att representera osäkerhet i det djupa lärandet utan att offra vare sig beräkningskomplexitet eller testnoggrannhet. Vi gör en omfattande studie av egenskaperna hos avhoppets osäkerhet. Olika nätverksarkitekturer och icke-linjäriteter bedöms utifrån regressions- och klassificeringsuppgifter med hjälp av MNIST som exempel. Vi visar en betydande förbättring i prediktiv log-likelihood och RMSE jämfört med befintliga state-of-the-art metoder, och avsluta genom att använda dropout osäkerhet i djup förstärkning lärande.
REF introducerar en teoretisk ram för gjutning av avhopp som Bayesian inference till ungefärlig osäkerhet av neurala nätverk.
160,705
Dropout as a Bayesian Approximation: Representing Model Uncertainty in Deep Learning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
3,764
Sammanfattning De flesta data komplexitetsstudier har fokuserat på att karakterisera komplexiteten i hela datamängden och ger inte information om enskilda fall. Att veta vilka fall som är felklassificerade och förstå varför de är felklassificerade och hur de bidrar till datauppsättningens komplexitet kan förbättra inlärningsprocessen och kan vägleda den framtida utvecklingen av inlärningsalgoritmer och dataanalysmetoder. Målet med denna uppsats är att bättre förstå de data som används vid maskininlärning problem genom att identifiera och analysera de fall som ofta felklassificeras av lärande algoritmer som har visat nytta hittills och är vanliga i praktiken. Vi identifierar fall som är svåra att klassificera korrekt (intans hårdhet) genom att klassificera över 190.000 fall från 64 dataset med 9 lärande algoritmer. Vi använder sedan en uppsättning hårdhetsmått för att förstå varför vissa fall är svårare att klassificera korrekt än andra. Vi finner att klassöverlappning är en viktig bidragande faktor till exempel hårdhet. Vi försöker att integrera denna information i utbildningsprocessen för att lindra effekterna av klassöverlappning och presentera sätt som exempel hårdhet kan användas för att förbättra lärandet.
a REF har utsträckt datakomplexiteten från datanivå till instansnivå.
11,674,608
An instance level analysis of data complexity
{'venue': 'Machine Learning', 'journal': 'Machine Learning', 'mag_field_of_study': ['Computer Science']}
3,765
Mål: Betydande variation i akutmottagning (ED) patientens ankomsthastighet kräver justering av bemanningsmönster för att optimera snabb vård av patienter. Denna studie utvärderade effektiviteten av en kömodell i att identifiera leverantörer bemanning mönster för att minska andelen patienter som lämnar utan att ses. Författarna samlade in detaljerade ED ankomstdata från ett stadssjukhus och använde en Lag SIPP köanalys för att få insikter om hur man byter leverantör personal för att minska andelen patienter som lämnar utan att bli sedd. Författarna jämförde sedan denna andel under samma 39-veckorsperiod före och efter de resulterande förändringarna. Resultat: Trots att ankomstvolymen ökade med 1 078 patienter (6,3 %), resulterade en genomsnittlig ökning av leverantörstimmarna med 12 timmar per vecka (3,1 %) i 258 färre patienter som inte sågs. Detta motsvarar en minskning av andelen patienter som inte sågs med 22,9%. Begränsad uppmärksamhet till en fyra dagar lång undergrupp av veckan under vilken det inte förekom någon ökning av totala leverantörstimmar, resulterade en omfördelning av leverantörer baserat på kömodellen i 161 färre patienter som lämnade utan att ses (21,7%), trots att ytterligare 548 patienter (5,5%) anlände under den andra halvan av studien. Slutsatser: Tillgång i rätt tid till en leverantör är en kritisk aspekt av ED-kvalitetsprestanda. I en miljö där ED ofta är underbemannade kan analyser av ankomstmönster och användning av kömodeller vara mycket användbara för att identifiera den mest effektiva fördelningen av personal. AKADEMIC EMERGENCY MEDICIN 2006; 13:61-68 a
Som anges i REF, betydande variation i HED-patientens ankomsthastighet kräver justering av bemanningsmönster för att optimera snabb vård av patienter.
10,886,990
Using Queueing Theory to Increase the Effectiveness of Emergency Department Provider Staffing
{'venue': 'Academic emergency medicine : official journal of the Society for Academic Emergency Medicine', 'journal': 'Academic emergency medicine : official journal of the Society for Academic Emergency Medicine', 'mag_field_of_study': ['Medicine']}
3,766
Semantisk textlikhet (STS) är ett grundläggande problem i många naturliga språkbehandlingsuppgifter, som har uppmärksammats avsevärt av forskarsamhället under de senaste åren. I den här artikeln fokuserade vårt arbete på att beräkna semantisk likhet mellan texter av meningslängd. Vi använde en Support Vector Regression modell med rika effektiva funktioner för att förutsäga likheten mellan korta engelska mening par. Vår modell använde WordNet-baserade funktioner, CorpusBased funktioner, Word2Vec-baserade funktioner, Alignment-Based funktioner och Literal-Based funktioner för att täcka olika aspekter av meningar. Och experimentet som utfördes på SemEval 2015 uppgift 2a visar att vår metod uppnådde en Pearson korrelation: 80,486% som överträffade vinstsystemet (80,15%) med en liten marginal, resultaten indikerade en hög korrelation med mänskliga bedömningar. Särskilt bland de fem testset som kommer från olika domäner som används i uppskattningen fick vår metod bättre resultat än toppteamet på två av dem vars domänrelaterade data finns tillgängliga för träning, medan jämförbara resultat uppnåddes på de övriga tre osynliga testseten. Experimenten visade att vår lösning är mer konkurrenskraftig när de domänspecifika träningsdata finns tillgängliga och vår metod fortfarande håller god generaliseringsförmåga på nya data.
I REF använder författaren stödvektor regression med olika funktioner som WordNet-baserade funktioner, corpusbaserade funktioner, Word2Vec-baserade funktioner, Alignment-baserade funktioner och Literala-baserade funktioner för att förutsäga likheten mellan korta engelska meningar.
15,910,065
Computing Semantic Text Similarity Using Rich Features
{'venue': 'PACLIC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,767
Detta arbete tar upp behovet av stateful dataflow-program som snabbt kan sålla igenom enorma, föränderliga datamängder. Dessa dataintensiva applikationer utför komplexa multistegsberäkningar över på varandra följande generationer av datainflöden, såsom veckovisa webbcrawls, dagliga bild-/videouppladdningar, loggfiler och växande sociala nätverk. Programmerare kan helt enkelt köra om hela dataflödet när nya data anländer, detta är grovt ineffektivt, ökande resultat latens och slösa hårdvaruresurser och energi. Alternativt kan programmerare använda tidigare resultat för att stegvis införliva förändringarna. Nuvarande storskaliga databehandlingsverktyg, såsom Map-Reduce eller Dryad, begränsar dock hur programmerare införlivar och använder tillstånd i dataparallellprogram. Rakt fram tillvägagångssätt för att införliva tillstånd kan resultera i sedvana, bräcklig kod och nedslående prestanda. Detta arbete presenterar en generaliserad arkitektur för kontinuerlig bulkbearbetning (CBP) som höjer graden av abstraktion för att bygga inkrementella applikationer. Kärnan är en flexibel, gruppvis bearbetningsoperatör som tar stat som en explicit insats. Enande stateful programmering med en data-parallell operatör ger flera grundläggande möjligheter att minimera flödet av data i det underliggande bearbetningssystemet. Som fallstudier visar vi hur man kan använda en liten uppsättning flexibla dataflödesprimära för att utföra webbanalys och minera storskaliga, evolverande grafer på ett inkrementellt sätt. Experiment med vår prototyp med hjälp av verkliga data indikerar betydande datarörelser och tidsminskningar i förhållande till nuvarande praxis. Till exempel, inkrementellt computing PageRank med CBP kan minska datarörelser med 46% och minska körtiden på mitten.
Stateful Bulk Processing REF tillgodoser behovet av stateful dataflow-program.
453,189
Stateful bulk processing for incremental analytics
{'venue': "SoCC '10", 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,768
I detta dokument presenteras resultaten av en studie som syftar till att bedöma hur webbtjänster fungerar på inbyggda enheter. SPOTs, som representerar medelstora trådlösa sensorplattformar, och analyserade diskutrymme, meddelandestorlek, svarstid och energiförbrukning. Vår studie kvantifierar omkostnaderna för webbtjänster och ger empiriska data om huruvida denna webbteknik är en lämplig metod för inbyggda enheter.
Mer detaljerad diskussion och kvantifiering av prestanda overhead för att använda webbtjänster på djupt begränsade nätverksinbäddade enheter tillhandahålls i REF.
641,329
Web services on embedded systems - a performance study
{'venue': '2010 8th IEEE International Conference on Pervasive Computing and Communications Workshops (PERCOM Workshops)', 'journal': '2010 8th IEEE International Conference on Pervasive Computing and Communications Workshops (PERCOM Workshops)', 'mag_field_of_study': ['Computer Science']}
3,769
Det senaste arbetet har visat att webbsökning volym kan "prediktera nuet", vilket innebär att det kan användas för att korrekt spåra resultat som arbetslöshetsnivåer, bil- och hemförsäljning, och sjukdom prevalens i nära realtid. Här visar vi att det som konsumenterna söker online också kan förutsäga deras gemensamma framtida beteendedagar eller till och med veckor i förväg. Speciellt använder vi sökfråga volym för att prognostisera öppningen helgen box-office intäkter för funktionsfilmer, första månadens försäljning av videospel, och rangen av låtar på Billboard Hot 100 diagram, hitta i alla fall att sökning räknas är mycket förutsägande av framtida resultat. Vi finner också att sökvärden i allmänhet ökar prestandan hos baslinjemodeller som passar in på andra allmänt tillgängliga data, där ökningen varierar från blygsam till dramatisk, beroende på applikationen i fråga. Slutligen, vi omprövar tidigare arbete med att spåra influensatrender och visar att, kanske överraskande, nyttan av sökdata i förhållande till en enkel autoregressiv modell är blygsam. Vi drar slutsatsen att i avsaknad av andra datakällor, eller där små förbättringar i prediktiva prestanda är material, sökfrågor ger en användbar vägledning för en nära framtid. Förutsägelser A s människor i allt högre grad vänder sig till Internet för nyheter, information, och forskningsändamål, är det frestande att se online-aktivitet när som helst som en ögonblicksbild av det kollektiva medvetandet, som återspeglar den globala befolkningens omedelbara intressen, oro och avsikter (1, 2). Ur detta perspektiv är det ett kort steg att dra slutsatsen att det som människor söker i dag är att förutsäga vad de kommer att göra inom en nära framtid. Konsumenter som överväger att köpa en ny kamera kan söka för att jämföra modeller; filmbesökare kan söka för att bestämma öppningsdatum för en ny film, eller för att hitta biografer som visar den; och personer som planerar en semester kan söka efter intressanta platser, att hitta flygbiljetter, eller att prissätta hotellrum. Om så är fallet, följer det att man genom att på lämpligt sätt samla in uppgifter om sökningar i samband med detaljhandel, filmutflykter eller resor kan förutsäga ett kollektivt beteende av ekonomiskt, kulturellt eller politiskt intresse. Att bestämma vilken typ av beteende som kan förutsägas med hjälp av sökning, exaktheten i sådana förutsägelser, och den tidsskala över vilken förutsägelser kan göras är därför alla frågor av intresse. Även om tidigare arbete har övervägt relationen mellan sökvolym och resultat offline, forskare har fokuserat på observationen att söka "förutsäger nuet" (3, 4), vilket innebär att sökvolymen korrelerar med samtidiga händelser. Till exempel Ettredge et al. (5) fann att antalet av de 300 bästa sökorden under 2001-2003 var korrelerat med US Bureau of Labor Statistics arbetslöshetssiffror; Cooper et al. (6) fann att sökaktiviteten för specifika cancerformer under 2001–2003 korrelerade med deras uppskattade incidens, och Eysenbach (7) fann en hög korrelation mellan klick på sponsrade sökresultat för influensarelaterade nyckelord och epidemiologiska data från 2004–2005 års kanadensiska influensasäsong. Mer nyligen, Polgreen et al. ( 8) visade att sökvolymen för handplockade influensarelaterade frågor korrelerade med senare rapporterade fallmängder under perioden 2004–2008 och Hulth et al. (9) fann liknande resultat i en studie av sökfrågor som lämnats in på en svensk medicinsk webbplats. Ett automatiserat förfarande för att identifiera informativa frågor beskrivs i Ginsberg et al. (10), och på grundval av denna metodol-ogy, ger Google Flu Trends (http://www.google.org/flutrends) i realtid uppskattningar av influensaincidensen i flera länder. Slutligen har Choi och Varian (3, 4) jämfört sökvolym med ekonomisk verksamhet, inklusive bil- och hemförsäljning, internationell besöksstatistik och amerikanska arbetslöshetsanspråk, och liknande arbete har rapporterats för tyska arbetslöshetsanspråk (11). I detta dokument, vi vidare detta arbete genom att överväga möjligheten att söka för att förutsäga händelser dagar eller veckor i förväg av deras faktiska förekomst. Genom att göra så betonar vi också en ofta förbisedd aspekt av förutsägelse-nämligen, att prestanda är relativ. Tänk till exempel på att förutsäga vädret i Santa Fe i New Mexico, där det är soligt 300 dagar om året. En förutsägelse om solsken varje dag skulle vara korrekt 82% av tiden, men knappast imponerande; inte heller kunde en modell som misslyckas med att överträffa den enkla, autoregressiva regeln att morgondagens resultat kommer att vara som dagens sägas vara förutsägande på något intressant sätt. På motsvarande sätt bör den prediktiva sökförmågan bedömas i förhållande till statistiska modeller som är anpassade till traditionella datakällor, prognosmarknader eller expertutlåtanden – en punkt som med vissa undantag (3, 4) har förbisetts i tidigare relaterade arbeten. Slutligen utvidgar vi området för tidigare studier från epidemiologiska och makroekonomiska tidsserier till att omfatta konsumentaktiviteter som film, musik och videospel. Dessa är en naturlig klass av händelser att överväga som de representerar aktiviteter (t.ex., delta i en film) för vilka det är rimligt att individer kan (i) hyser avsikten att utföra motsvarande åtgärd någon gång i förväg för att faktiskt uppfylla den och (ii) signalera att avsikt genom en relaterad webbsökning. I denna mening är vårt papper relaterat till annat arbete som använder online chatter och Twitter-inlägg för att förutsäga ranking av böcker på Amazon.com (1) och film box-office intäkter (2) respektive. Men genom att studera tre klasser av utfall-öppningen helgen box-office biljettförsäljning för funktionsfilmer, första månadens intäkter av videospel, och veckovisa leden av låtar på Billboard Hot 100 diagram-vi avslöjar några ytterligare insikter om variation över domäner i hur sökbaserade förutsägelser utför, både i absolut mening och i förhållande till alternativa prognosmetoder. Sökverksamhetens potentiella prediktiva kraft illustreras i bild. 1, som visar volymen av människor som söker efter filmen Transformers 2 (Fig. 1A ) och TV-spelet Tom Clancy's H.A.W.X. (Fig. 1B) runt deras utgivningsdatum. I båda fallen söker topp antingen på eller något efter utgivningsdatum, men prekursorer till spikarna visas flera dagar eller till och med veckor i förväg. Motsvarande för musik, bild. 1C visar att rankningen av låten "Right Round" i termer av sökvolym noga spårar sin rang på Billboard Hot 100 diagram.
Detta bekräftas också av REF som fann att sökfrågan volym kan vara mycket prediktiv för framtida resultat.
17,033,116
Predicting consumer behavior with Web search
{'venue': 'Proceedings of the National Academy of Sciences of the United States of America', 'journal': 'Proceedings of the National Academy of Sciences of the United States of America', 'mag_field_of_study': ['Computer Science', 'Engineering', 'Medicine']}
3,770
Abstrakt. Målet med vårt forskningsprojekt är att etablera en typbaserad metod för verifiering av vissa kritiska egenskaper (t.ex. dödläge och rasfrihet) hos operativsystemkärnor. Eftersom operativsystemets kärnor i hög grad använder trådar och avbryter, är det viktigt att metoden kan hantera båda de två funktionerna på rätt sätt. Som ett första steg mot målet formaliserar vi en samtidig analys utrustad med primitiver för trådar och avbryter hanteringen. Vi föreslår också ett typsystem som garanterar dödlägesfrihet i närvaro av avbrott. Så vitt vi vet är vårt första typsystem för dödlägesfrihet som kan hantera både tråd och avbryta primitiva.
I vårt tidigare arbete REF har vi föreslagit en typbaserad dödläges-frihetsanalys för samtidiga program med blockstrukturerade lås primitiva, referenser och avbrott.
16,010,780
Type-Based Analysis of Deadlock for a Concurrent Calculus with Interrupts
{'venue': 'In ESOP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,771
Abstract-Mapting en uppsättning kategoriska värden till olika färger är en elementär teknik i datavisualisering. Användare av visualisering programvara rutinmässigt förlita sig på standard färgkartor som tillhandahålls av ett system, eller färgkartor föreslås av programvara som ColorBrewer. I praktiken måste användarna ofta välja en uppsättning färger på ett semantiskt meningsfullt sätt (t.ex., baserat på konventioner, färgmetaforer och logologiska associationer), och skulle därför vilja se till att deras perceptuella differentiering optimeras. I detta dokument presenterar vi en algoritmisk metod för att maximera de perceptuella avstånden bland en uppsättning givna färger. Vi tar itu med två tekniska problem i optimering, d.v.s. (i) fenomen av lokal maxima som stoppar optimeringen för tidigt, och (ii) godtycklig omfördelning av färger som leder till förlust av den ursprungliga semantiska associationen. Vi ägnade särskild uppmärksamhet åt olika typer av begränsningar som användare kan vilja införa under optimeringsprocessen. För att visa hur effektivt detta arbete var testade vi denna teknik i två fallstudier. För att nå ut till ett bredare utbud av användare har vi även utvecklat en webbapplikation som heter Colourmap Hospital.
Slutligen, nyare forskning om färgpaletter inkluderar den av Fang et al. REF som presenterade en metod för att maximera de perceptuella avstånden bland en uppsättning färger som tilldelats av användare för kategoriska data.
3,479,264
Categorical Colormap Optimization with Visualization Case Studies
{'venue': 'IEEE Transactions on Visualization and Computer Graphics', 'journal': 'IEEE Transactions on Visualization and Computer Graphics', 'mag_field_of_study': ['Computer Science', 'Medicine']}
3,772
Abstract-We studerar det dynamiska problemet med tjänstemigration i mobila kantmoln som är värd för molnbaserade tjänster i nätverkskanten. Detta ger fördelarna med att minska overhead- och latency-nätet, men kräver tjänstemigreringar när användarplatser ändras över tid. Det är svårt att fatta dessa beslut på ett optimalt sätt på grund av osäkerheten i nodrörligheten och den eventuella icke-linjäriteten i migrations- och överföringskostnaderna. I detta dokument formulerar vi ett stegvist beslutsproblem för tjänstemigrering med hjälp av ramen för Markovs beslutsprocess (MDP). Vår formulering fångar upp allmänna kostnadsmodeller och ger ett matematiskt ramverk för att utforma en optimal policy för tjänstemigration. För att övervinna komplexiteten i att beräkna den optimala policyn, vi approximerar den underliggande stat utrymme genom avståndet mellan användaren och service platser. Vi visar att den resulterande MDP är exakt för enhetlig endimensionell rörlighet samtidigt som den ger en nära approximation för enhetlig tvådimensionell rörlighet med en konstant additiv felbegrepp. Vi föreslår också en ny algoritm och en numerisk teknik för att beräkna den optimala lösningen som är betydligt snabbare i beräkning än traditionella metoder baserade på värde eller policy iteration. Vi illustrerar effektiviteten i vår strategi genom simulering med hjälp av verkliga mobilitet spår av taxibilar i San Francisco.
Wang m.fl. REF studerade problemet med dynamisk tjänstemigration och använde Markovs beslutsprocess för att lösa detta problem.
8,304,601
Dynamic service migration in mobile edge-clouds
{'venue': '2015 IFIP Networking Conference (IFIP Networking)', 'journal': '2015 IFIP Networking Conference (IFIP Networking)', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
3,773
Serviceorienterad modellering och arkitektur (SOMA) har använts för att genomföra projekt av varierande omfattning inom flera branscher över hela världen under de senaste fem åren. Vi rapporterar om användningen och strukturen av den metod som används för att effektivt analysera, designa, implementera och distribuera serviceorienterade arkitekturprojekt (SOA) som en del av en fraktal modell av mjukvaruutveckling. Vi hävdar också att konstruktionen av en tjänst och tjänstemodellering, även om den införs av SOA, är en mjukvaruteknik bästa praxis som en SOA metod hjälper både användning och antagande av SOA. I detta dokument presenterar vi de senaste uppdateringarna av denna metod och delar med oss av några av de lärdomar som dragits. SOMA-metoden innehåller de viktigaste aspekterna av övergripande design och leverans av SOA-lösningar och är integrerad med befintliga mjukvaruutvecklingsmetoder genom en uppsättning platshållare för viktiga verksamhetsområden, och bildar vad vi kallar lösningsmallar. Vi presenterar också en fraktal modell av mjukvaruutveckling som kan göra det möjligt för SOMA-metoden att utvecklas i ett tillvägagångssätt som går utöver iterativ och inkrementell och istället utnyttjar metodkomponenter och mönster på ett rekursivt, självlikt sätt opportunistiskt vid punkter av variabilitet i livscykeln.
SOMA (Service-oriented Modeling and Architecture) tillämpar förhandstilldelning för några av de processaspekter som diskuteras i detta kapitel REF.
17,548,919
SOMA: a method for developing service-oriented solutions
{'venue': 'IBM Syst. J.', 'journal': 'IBM Syst. J.', 'mag_field_of_study': ['Computer Science']}
3,774
En hel del av de senaste framgångarna i naturligt språk bearbetning (NLP) har drivits av distribuerade vektor representationer av ord tränas på stora mängder text på ett oövervakat sätt. Dessa representationer används vanligtvis som allmänna funktioner för ord i en rad NLP-problem. Men det är fortfarande ett öppet problem att utvidga denna framgång till att lära sig framställningar av ordsekvenser, till exempel meningar. Den senaste tidens arbete har utforskat såväl oövervakade som övervakade inlärningstekniker med olika utbildningsmål för att lära sig allmän meningsrepresentationer med fast längd. I detta arbete presenterar vi en enkel och effektiv ram för lärande med flera uppgifter för meningsrepresentationer som kombinerar de induktiva fördomarna hos olika utbildningsmål i en enda modell. Vi utbildar denna modell på flera datakällor med flera utbildningsmål på över 100 miljoner meningar. Omfattande experiment visar att dela en enda återkommande mening kodare över svagt relaterade uppgifter leder till konsekventa förbättringar jämfört med tidigare metoder. Vi presenterar betydande förbättringar i samband med överföringsutbildning och lågresursinställningar med hjälp av våra inlärda allmänna representationer.
REF lägger också fram en ram för lärande med flera arbetsuppgifter för meningsrepresentationer och utbildar sin modell på flera dataresurser med flera utbildningsmål på över 100 miljoner meningar.
4,567,927
Learning General Purpose Distributed Sentence Representations via Large Scale Multi-task Learning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
3,775
Valet av lämpliga testfall är en viktig fråga för överensstämmelsetestning av protokollimplementeringar samt inom programvaruteknik. Ett antal metoder är kända för valet av en testsvit baserad på specifikationen av genomförandet under provning, antas ges i form av en ändlig tillståndsmaskin. I detta dokument presenteras en ny metod som ger en logisk koppling mellan flera av de kända metoderna. Den kallas "partiell W-metod", och har allmän tillämplighet, full feldetekteringseffekt och ger kortare testsviter än W-metoden. I den andra delen av dokumentet diskuteras olika andra frågor som påverkar valet av en lämplig testsvit. Detta inkluderar beaktande av interaktionsparametrar, olika testarkitekturer för protokolltestning, och det faktum att många specifikationer inte uppfyller de antaganden som gjorts av de flesta testmetoder, såsom fullständig definition, en korrekt implementerad återställningsfunktion, ett begränsat antal tillstånd i genomförandet, och determinism.
Susumu m.fl. presentera en ny metod för valet av en testsvit baserad på specifikationen av genomförandet under provning ges i form av en ändlig stat maskin REF.
11,606,598
Test Selection Based on Finite State Models
{'venue': 'IEEE Transactions on Software Engineering', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,776