src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
Abstract-I mobila nätverk genererar avståndsvariationer som orsakas av nodrörlighet fluktuationer i kanalvinster. Sådana fluktuationer kan behandlas som en annan typ av blekning förutom multipateffekter. I detta dokument, interferensstatistiken i mobila slumpmässiga nätverk kännetecknas av att införliva avstånd variationer av mobila noder till kanalen vinna fluktuationer. Medelinterferensen beräknas vid ursprunget och vid gränsen till ett ändligt mobilt nätverk. Nätverksprestandan utvärderas med avseende på sannolikheten för avbrott. Jämfört med ett statiskt nätverk ändras inte störningen i en enda ögonblicksbild under enhetliga rörlighetsmodeller. Den slumpmässiga waypoint-rörligheten ökar dock (minskar) störningen vid ursprunget (vid gränsen). På grund av korrelationen mellan nodplatserna är dessutom störningen och avbrottet tidsmässigt och rumsligt korrelerat. Vi kvantifierar den tidsmässiga korrelationen mellan störningar och avbrott i mobila Poisson-nät med avseende på korrelationskoefficienten respektive den villkorliga avbrottssannolikheten. Resultaten visar att det är viktigt att routing, MAC och vidaresändningssystem måste vara smarta (dvs. korrelationsmedvetna) för att undvika avbrott i överföringsfel.
I REF definierades olika rörlighetsmodeller, såsom den slumpmässiga waypoint-modellen, i termer av stokastisk geometri.
14,380,828
Interference and Outage in Mobile Random Networks: Expectation, Distribution, and Correlation
{'venue': 'IEEE Transactions on Mobile Computing', 'journal': 'IEEE Transactions on Mobile Computing', 'mag_field_of_study': ['Computer Science']}
7,738
Abstract-Våra förmågor i scenförståelse, som gör att vi kan uppfatta 3D-strukturen i vår omgivning och intuitivt känna igen de objekt vi ser, är saker som vi till stor del tar för givet, men för robotar, uppgiften att förstå stora scener snabbt förblir extremt utmanande. Scenförståelse som bygger på 3D-rekonstruktion och semantisk segmentering har nyligen blivit populärt, men befintliga metoder antingen inte skala, misslyckas utomhus, ger bara glesa rekonstruktioner eller är ganska långsamma. I detta dokument bygger vi på en ny hashbaserad teknik för storskalig fusion och en effektiv medelfältsinferensalgoritm för tätt sammankopplade CRFs att presentera vad vi vet är det första systemet som kan utföra tät, storskalig, utomhus semantisk rekonstruktion av en scen i (nära) realtid. Vi presenterar också en "semantisk fusion" metod som gör det möjligt för oss att hantera dynamiska objekt mer effektivt än tidigare metoder. Vi demonstrerar effektiviteten i vår strategi för KITI-datasetet och ger kvalitativa och kvantitativa resultat som visar hög kvalitet på tät återuppbyggnad och märkning av ett antal scener.
Vineet m.fl. REF föreslår en stegvis tät stereorekonstruktion och semantisk fusionsteknik för att hantera dynamiska objekt i de storskaliga utomhusscenerna.
6,544,192
Incremental dense semantic stereo fusion for large-scale semantic scene reconstruction
{'venue': '2015 IEEE International Conference on Robotics and Automation (ICRA)', 'journal': '2015 IEEE International Conference on Robotics and Automation (ICRA)', 'mag_field_of_study': ['Computer Science']}
7,739
Genomslag på den senaste utvecklingen i konvolutionella neurala nätverk (CNN), matchande tät korrespondens från en stereo par har kastats som ett inlärningsproblem, med prestanda som överstiger traditionella metoder. Det är dock fortfarande en utmaning att skapa skillnader av hög kvalitet för de regioner som i sig är illa lottade. För att ta itu med detta problem föreslår vi en ny CNN-arkitektur som består av två steg. Den första etappen avancerar den nyligen föreslagna DispNet genom att utrusta den med extra up-convolution moduler, vilket leder till skillnader bilder med mer detaljer. Det andra steget rättar uttryckligen till den skillnad som initieras av det första steget; det parar sig med det första steget och genererar resterande signaler över flera skalor. Summan av resultaten från de två stegen ger den slutliga skillnaden. I motsats till att direkt lära sig skillnaden i det andra steget visar vi att resterande lärande ger effektivare förfining. Dessutom är det också till nytta för utbildningen av det övergripande kaskadnätverket. Experimentering visar att vårt utbildningsprogram för kaskadrester ger toppmodern prestanda för att matcha stereokorrespondens. Vid tidpunkten för inlämningen av detta dokument, vår metod rankas först i KITTI 2015 stereo riktmärke, överträffar tidigare arbeten med en anmärkningsvärd marginal.
Den nyligen genomförda CRL (cascade rest learning) REF är en kaskad-CNN-arkitektur som består av två steg, som följer principen om grov-till-fin eller rest-lärande.
31,762,881
Cascade Residual Learning: A Two-Stage Convolutional Neural Network for Stereo Matching
{'venue': '2017 IEEE International Conference on Computer Vision Workshops (ICCVW)', 'journal': '2017 IEEE International Conference on Computer Vision Workshops (ICCVW)', 'mag_field_of_study': ['Computer Science']}
7,740
Med målet att göra högupplösta prognoser om regional nederbörd, nederbörd nucasting har blivit en viktig och grundläggande teknik bakom olika offentliga tjänster som sträcker sig från regnstorm varningar till flygsäkerhet. Nyligen har Convolutional LSTM (ConvLSTM) modellen visat sig överträffa traditionella optiska flödesbaserade metoder för nederbörd nucasting, vilket tyder på att djupt lärande modeller har en enorm potential för att lösa problemet. Den konvolutionella recidivstrukturen i ConvLSTM-baserade modeller är emellertid platsinvariant medan naturlig rörelse och omvandling (t.ex. rotation) är platsvariant i allmänhet. Dessutom har tydliga utvärderingsprotokoll ännu inte upprättats, eftersom djupinlärningsbaserad nederbörd nu är ett nytt område som håller på att utvecklas. För att ta itu med dessa problem föreslår vi både en ny modell och ett riktmärke för nederbörd som nu används. Speciellt går vi bortom ConvLSTM och föreslår Trajectory GRU (TrajGRU) modell som aktivt kan lära sig plats-variant struktur för återkommande anslutningar. Dessutom tillhandahåller vi ett riktmärke som inkluderar en verklig storskalig datauppsättning från observatoriet i Hongkong, en ny utbildningsförlust och ett omfattande utvärderingsprotokoll för att underlätta framtida forskning och mäta den senaste tekniken.
Författarna till REF gick längre än vanliga LSTM:er när de utvecklade Trajectory GRU (TrajGRU) modellen, som lär sig plats-varierande strukturer för återkommande anslutningar.
25,015,381
Deep Learning for Precipitation Nowcasting: A Benchmark and A New Model
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
7,741
När det är etiskt och lagligt att använda ett känsligt attribut (t.ex. kön eller ras) i maskininlärningssystem kvarstår frågan hur man gör det. Vi visar att den naiva tillämpningen av maskininlärningsalgoritmer med hjälp av känsliga attribut leder till en inneboende kompromiss i noggrannhet mellan grupper. Vi erbjuder en enkel och effektiv frikopplingsteknik, som kan läggas till på alla Black-box maskininlärning algoritm, för att lära sig olika klassificeringar för olika grupper. Överföringslärande används för att minska problemet med att ha för lite data om någon grupp. Metoden kan tillämpas på en rad rättvisa kriterier. I synnerhet kräver vi att applikationsdesignern specificerar som gemensam förlustfunktion som explicit gör avvägningen mellan rättvisa och noggrannhet. Vår minskning är visat att effektivt hitta den globala optimala förlusten så länge målet har en viss naturlig monotonitet egendom. Monotonicitet kan vara av oberoende intresse för att studera rättvisa i algoritmer.
I Ref-arbetet föreslås en effektiv ram för att på ett rättvist sätt lära sig olika klassificeringar för olika grupper.
7,147,336
Decoupled classifiers for fair and efficient machine learning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
7,742
Den ökande efterfrågan på storskaliga tillämpningar för datautvinning och dataanalys har lett till att både industrin och den akademiska världen designat nya typer av mycket skalbara dataintensiva datorplattformar. MapReduce och Dryad är två populära plattformar där dataflödet tar formen av en riktad acyklisk graf av operatörer. Dessa plattformar saknar inbyggt stöd för iterativa program, som uppstår naturligt i många tillämpningar inklusive datautvinning, webbrankning, grafanalys, modellmontering, och så vidare. Detta dokument presenterar HaLoop, en modifierad version av Hadoop MapReduce ramverk som är utformad för att tjäna dessa tillämpningar. HaLoop utökar inte bara MapReduce med programmeringsstöd för iterativa applikationer, det förbättrar också dramatiskt deras effektivitet genom att göra aktivitet schemaläggaren loop-aware och genom att lägga till olika caching mekanismer. Vi utvärderade HaLoop på verkliga frågor och verkliga datauppsättningar. Jämfört med Hadoop minskar HaLoop i genomsnitt frågetiderna med 1,85 och blandar endast 4 % av data mellan kartare och reducerare.
HaLoop REF, en modifierad version av Hadoop, förbättrar effektiviteten i iterativa beräkningar genom att göra aktivitet schemaläggaren loopaware och använder caching mekanismer.
1,172,674
HaLoop: Efficient Iterative Data Processing on Large Clusters
{'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']}
7,743
Vi anser att bicriteria schemaläggning problemet med att minimera antalet långsamma jobb och genomsnittlig flödestid på en enda maskin. Detta problem, som är känt för att vara NP-hård, är viktigt i praktiken, eftersom det tidigare kriteriet förmedlar kundens position, och det senare återspeglar tillverkarens perspektiv i leveranskedjan. Vi föreslår fyra nya heuristiker för att lösa detta multiobjektiva schemaläggningsproblem. Två av dessa heuristiker är konstruktiva algoritmer baserade på strålsökmetodik. De andra två är metaheuristiska metoder med hjälp av en genetisk algoritm och tabu-sök. Våra beräkningsförsök visar att den föreslagna strålsökheuristiken hittar effektiva scheman optimalt i de flesta fall och presterar bättre än de befintliga heuristikerna i litteraturen.
Nyligen, med fokus på minimering av både flödestid och antal sena jobb, Erenay et al. föreslå en algoritm baserad på en strålsökningsmetod och observera att den ger effektiva scheman i de flesta fall, jämfört med andra metaheuristiska metoder REF.
13,987,169
New solution methods for single machine bicriteria scheduling problem: Minimization of average flowtime and number of tardy jobs
{'venue': 'Eur. J. Oper. Res.', 'journal': 'Eur. J. Oper. Res.', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
7,744
Abstract-När man fångar bilder i låg ljusförhållanden, är bilderna ofta lider av låg synlighet. Förutom att försämra den visuella estetiken hos bilder, kan denna dåliga kvalitet också avsevärt degenerera prestandan hos många datorseende och multimediaalgoritmer som i första hand är utformade för högkvalitativa ingångar. I detta dokument föreslår vi en enkel men effektiv lowlight image enhancement (LIME) metod. Mer konkret uppskattas belysningen av varje pixel först individuellt genom att man hittar det maximala värdet i R, G och B-kanaler. Dessutom förfinar vi den ursprungliga belysningskartan genom att införa en struktur innan den, som den slutliga belysningskartan. Med den välkonstruerade belysningskartan kan förbättringen uppnås i enlighet med detta. Experiment på ett antal utmanande lågljusbilder är närvarande för att avslöja effektiviteten i vår LIME och visa sin överlägsenhet över flera state-of-the-arts när det gäller förbättring kvalitet och effektivitet.
När det gäller LIME-metoden (Low-light image enhancement) som föreslås i REF, fokuserade de främst på den exakta uppskattningen av belysningskomponenten.
5,778,488
LIME: Low-Light Image Enhancement via Illumination Map Estimation
{'venue': 'IEEE Transactions on Image Processing', 'journal': 'IEEE Transactions on Image Processing', 'mag_field_of_study': ['Computer Science', 'Mathematics', 'Medicine']}
7,745
Abstract-Finansiell tidsserie prognoser har länge varit ett utmanande problem på grund av den inneboende bullriga och stokastiska karaktären på marknaden. I High-Frequency Trading (HFT) är prognostisering för handelsändamål en ännu mer utmanande uppgift eftersom ett automatiserat slutledningssystem krävs för att vara både exakt och snabb. I detta dokument föreslår vi en neural nätverk lagerarkitektur som införlivar idén om bilinjär projektion samt en uppmärksamhetsmekanism som gör det möjligt för lagret att upptäcka och fokusera på viktig timlig information. Det resulterande nätverket är mycket tolkningsbart, med tanke på dess förmåga att belysa betydelsen och bidraget från varje temporal instans, vilket gör det möjligt att ytterligare analysera tidpunkterna av intresse. Våra experiment i en storskalig limit Order Book (LOB) datauppsättning visar att ett tvålagers nätverk som utnyttjar våra föreslagna lager överträffar med stor marginal alla befintliga state-of-the-art resultat kommer från mycket djupare arkitekturer samtidigt som kräver mycket färre beräkningar.
I REF används en neural nätverk arkitektur som införlivar idén om bilinjär projektion förstärkt med en temporal uppmärksamhet mekanism för att förutsäga LOB mitten av priset.
25,699,877
Temporal Attention augmented Bilinear Network for Financial Time-Series Data Analysis
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Medicine', 'Mathematics', 'Economics']}
7,746
För modellering av 3D-världen bakom 2D-bilder, vilken 3D-representation är lämpligast? Ett polygonnät är en lovande kandidat för dess kompaktitet och geometriska egenskaper. Det är dock inte enkelt att modellera en polygon mesh från 2D-bilder med hjälp av neurala nätverk eftersom omvandlingen från en mesh till en bild, eller rendering, innebär en diskret operation som kallas rasterisering, som förhindrar back-förökning. Därför, i detta arbete, föreslår vi en ungefärlig gradient för rasterisering som möjliggör integrering av rendering i neurala nätverk. Med hjälp av denna render utför vi enimage 3D mesh rekonstruktion med siluettbild övervakning och vårt system överträffar den befintliga voxel-baserade metoden. Dessutom utför vi gradientbaserade 3D mesh redigeringsåtgärder, såsom 2D-till-3D-stil överföring och 3D DeepDream, med 2D övervakning för första gången. Dessa tillämpningar visar potentialen för integrering av en meshrender i neurala nätverk och effektiviteten hos vår föreslagna render.
Kato m.fl. REF föreslog en ungefärlig lutning för rasterisering som möjliggör integrering av rendering i neurala nätverk.
32,389,979
Neural 3D Mesh Renderer
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
7,747
Abstrakt. Att skaffa modeller som fångar bildmarkörer relevanta för sjukdomsprogression och behandling övervakning är utmanande. Modeller är vanligtvis baserade på stora mängder data med kommenterade exempel på kända markörer som syftar till att automatisera detektion. Stor anteckning ansträngning och begränsningen till en vokabulär av kända markörer begränsa kraften i sådana metoder. Här utför vi oövervakad inlärning för att identifiera avvikelser i avbildningsdata som kandidater för markörer. Vi föreslår AnoGAN, en djup konvolutionell generativ kontrarial nätverk för att lära sig en mångfald av normal anatomisk variabilitet, som åtföljer en ny anomali scoring schema baserat på kartläggning från bildutrymme till en latent utrymme. Tillämpas på nya data, modellen etiketter anomalier, och poäng bild patchar som visar deras passform i den lärda distributionen. Resultat på optisk sammanhållning tomografi bilder av näthinnan visar att metoden korrekt identifierar anomala bilder, såsom bilder som innehåller näthinnevätska eller hyperreflexiv foci.
I REF ) föreslogs ett nytt tillvägagångssätt där generativa kontradiktoriska nätverk används.
17,427,022
Unsupervised Anomaly Detection with Generative Adversarial Networks to Guide Marker Discovery
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
7,748
Patogenesen av Pseudoperonospora cubensis som orsakar duniga mögel av gurka resulterade i förändringar i metaboliska processer inom gurka blad inklusive transpirationshastigheten. På grund av den negativa korrelationen mellan transpirationshastighet och bladtemperatur, tillät digital infraröd termografi en icke-invasiv övervakning och en indirekt visualisering av downy mildew utveckling. Beroende på stadium av patogenesen och topologin av kloroser och nekroser, infektionen resulterade i ett typiskt temperaturmönster. Den rumsliga heterogeniteten hos bladtemperaturen kan kvantifieras av den maximala temperaturskillnaden (MTD) inom ett blad. MTD ökade under pathogenesis med bildningen av nekrotisk vävnad och var relaterad till sjukdomens svårighetsgrad enligt beskrivning av linjära och kvadratiska regressionskurvor. Under kontrollerade förhållanden gjorde förändringar i temperaturen på infekterade blad det möjligt att skilja mellan friska och infekterade områden i termogram, även innan synliga symtom av mildew dök upp. Miljöförhållanden vid termografisk mätning, särskilt lufttemperatur och luftfuktighet, samt lövens vattenhalt och ålder påverkade yttemperaturen. Villkor som ökar transpirationshastigheten underlättade upptäckten av förändringar i bladtemperaturen hos infekterade blad i tidiga stadier av infektion. Som modifierats av miljöförhållanden, MTD ensam är inte lämplig för kvantifiering av downy mildew svårighetsgrad i fältet.
Oerke et al REF studerade förändringar i metaboliska processer och transpirationshastighet inom gurkablad efter infektion av Pseudoperonospora cubensis (nere mildew) och visade att friska och infekterade blad kan diskrimineras redan innan symtomen dök upp.
1,477,937
Thermal imaging of cucumber leaves affected by downy mildew and environmental conditions
{'venue': 'J. Exp. Botany', 'journal': None, 'mag_field_of_study': ['Biology', 'Medicine']}
7,749
Dysartri hänvisar till en talstörning som orsakas av trauma till de hjärnområden som berörs av motoriska aspekter av tal som ger upphov till ansträngning, långsam, sluddrigt eller prosodiskt onormalt tal. Traditionella automatiska talkännare (ASR) utför dåligt på dysarthriska taligenkänningsuppgifter, främst på grund av otillräckliga dysarthriska taldata. Talrelaterade utmaningar komplicerar datainsamlingsprocessen för dysarthriskt tal. I den här artikeln utforskar vi dataförstärkning med hjälp av temporal- och hastighetsmodifieringar i friskt tal för att simulera dysarthriskt tal. DNN-HMM-baserad automatisk taligenkänning (ASR) och slumpmässig skogsbaserad klassificering användes för utvärdering av den föreslagna metoden. Dysarthric tal, genererat syntetiskt, klassificeras för svårighetsgrad med hjälp av en Random Forest klassificerare som är utbildad på faktiska dysarthric tal. ASR tränas på friskt tal, förstärkt med simulerat dysarthriskt tal utvärderas för dysarthric taligenkänning. Alla utvärderingar gjordes med hjälp av Universal Access dysarthric tal corpus. En absolut förbättring på 4,24 % och 2 % uppnåddes med hjälp av tempobaserad och hastighetsbaserad dataförstärkning jämfört med ASR-prestanda med enbart sunt tal för träning.
Tillvägagångssättet i Vachhani m.fl. REF använder hälsosamt tal förstärkt med simulerat dysarthriskt tal för att träna en DNN-HMM-baserad automatisk taligenkänning.
52,189,491
Data Augmentation Using Healthy Speech for Dysarthric Speech Recognition
{'venue': 'INTERSPEECH', 'journal': None, 'mag_field_of_study': ['Computer Science']}
7,750
Segmentering av klitiker har visat sig förbättra noggrannheten på en mängd arabiska NLP uppgifter. Men toppmoderna arabiska ordsegmentörer är antingen begränsade till formella moderna standard arabiska, utför dåligt på arabisk text med dialektiskt ordförråd och grammatik, eller förlitar sig på språklig kunskap som är handjusterad för varje dialekt. Vi utökar en befintlig MSA-segmentör med en enkel domänanpassningsteknik och nya funktioner för att segmentera informell och dialektisk arabisk text. Experiment visar att vårt system överträffar befintliga system på newswire, sända nyheter och egyptisk dialekt, förbättra segmentering F 1 poäng på en nyligen släppt egyptiska arabiska corpus till 95,1%, jämfört med 90,8% för en annan segmentor speciellt utformad för egyptiska arabiska.
Monroe m.fl. REF utvecklade en arabisk ordsegmentör för både modern standard arabisk (MSA) och den egyptiska dialekten med hjälp av CRF-algoritmen.
6,975,411
Word Segmentation of Informal Arabic with Domain Adaptation
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
7,751
Kurstidtagning är ett kombinatoriskt optimeringsproblem och har bekräftats vara ett NP-komplett problem. Kurstidtagningsproblem är olika för olika universitet. Det studerade problemet med tidtagning vid universitet innebär hårda begränsningar som klassrum, klassschema och andra variabler. Samtidigt måste vissa mjuka begränsningar också beaktas, inklusive lärarens föredragna tid, favorit klasstid etc. Dessa preferenser motsvarar de tillfredsställelsevärden som erhållits genom frågeformulär. Partikelsvärmoptimering (PSO) är ett lovande system för att lösa NP-kompletta problem på grund av dess snabba konvergens, färre parameterinställningar och förmåga att passa dynamiska miljöegenskaper. Därför tillämpades PSO för att lösa kurstidtagningsproblem i detta arbete. För att minska beräkningskomplexiteten angavs en tidsrymd i en partikels kodning som schemaenhet. Två typer av PSO, tröghetsviktsversionen och begränsningsversionen, utvärderades. Dessutom användes en utbyte heurist för att utforska angränsande lösning utrymme för att förbättra lösningens kvalitet. Dessutom hanteras schemakonflikter efter att en lösning har skapats. Experimentella resultat visar att det föreslagna systemet för begränsning av allmän trafikplikt med utbytesheuristiska kan generera tillfredsställande kurstidtabeller som uppfyller lärarnas och klassernas krav i enlighet med de olika tillämpliga begränsningarna.
Chen och Shih REF använde två typer av partikelsvamoptimering (PSO): tröghetsvikten och sammandragningsversionerna för att konstruera universitetets tidtabeller.
7,737,967
Solving University Course Timetabling Problems Using Constriction Particle Swarm Optimization with Local Search
{'venue': 'Algorithms', 'journal': 'Algorithms', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
7,752
Partiella kuber har undersökts i stor utsträckning samt plana grafer. I denna not introducerar vi ytterligare en topologisk typ av tillstånd till Chepois expansionsprocedur som kännetecknar planar partiella kuber. Som en följd av detta får vi en karakterisering av några andra planar underklasser av partiella kuber.
För en karakterisering av planar partiella kuber se Peterin REF.
17,586,922
A characterization of planar partial cubes
{'venue': 'Discret. Math.', 'journal': 'Discret. Math.', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
7,753
En blind resenär som går genom en okänd miljö, och en mobil robot som navigerar genom en rörig miljö har en viktig egenskap gemensamt: båda har den kinematiska förmågan att utföra rörelsen, men är beroende av ett sensoriskt system för att upptäcka och undvika hinder. I det här dokumentet beskrivs användningen av ett mobilt system för undvikande av hinder som vägledning för blinda och synskadade. Precis som elektroniska signaler skickas till en mobil robots motorstyrningar, kan auditiva signaler styra den blinda resenären runt hinder, eller alternativt, de kan ge en "akustisk bild" av omgivningen. Konceptet har implementerats och testats i en ny resehjälp för blinda, kallad Navbelt. Navbelt introducerar två nya koncept för elektroniska resehjälpmedel för blinda: det ger information inte bara om hinder längs den resa vägen, men hjälper också användaren att välja den föredragna resevägen. Dessutom kan assistansnivån justeras automatiskt beroende på förändringar i miljön och användarens behov och förmåga Experimentella resultat som utförs med Navbelt-simulatorn och en bärbar experimentell prototyp presenteras.
I REF föreslog författarna en resehjälp för blinda som består av ett bälte, en bärbar dator och ultraljudssensorer.
3,089,016
Auditory Guidance with the Navbelt - A Computerized Travel Aid for the Blind
{'venue': 'IEEE Transactions on Systems, Man, and Cybernetics', 'journal': None, 'mag_field_of_study': ['Computer Science']}
7,754
Vi tar itu med problemet med att upptäcka oegentligheter i visuella data, t.ex., upptäcka misstänkta beteenden i videosekvenser, eller identifiera framträdande mönster i bilder. Termen "oregelbunden" beror på i vilket sammanhang den "regelbundna" eller "giltiga" definieras. Det är dock inte realistiskt att förvänta sig en uttrycklig definition av alla möjliga giltiga konfigurationer för ett givet sammanhang. Vi utgör problemet med att bestämma giltigheten av visuell data som en process för att bygga ett pussel: Vi försöker komponera en ny observerad bildregion eller ett nytt videosegment ("förfrågan") med hjälp av bitar av data ("pusselbitar") extraherade från tidigare visuella exempel ("databasen"). Regioner i de observerade data som kan bestå med hjälp av stora sammanhängande bitar av data från databasen anses mycket troliga, medan regioner i de observerade data som inte kan bestå av databasen (eller kan bestå, men endast med hjälp av små fragmenterade bitar) betraktas som osannolika/sannolika. Problemet framställs som en slutledningsprocess i en probabilistisk grafisk modell. Vi visar tillämpningar av detta tillvägagångssätt för att identifiera soliditet i bilder och video, för att upptäcka misstänkta beteenden och för automatisk visuell inspektion för kvalitetssäkring.
Arbetet i REF tar upp problemet med att upptäcka oegentligheter i visuella data, t.ex., upptäcka misstänkta beteenden i videosekvenser, eller identifiera framträdande mönster i bilder.
463,427
Detecting Irregularities in Images and in Video
{'venue': 'International Journal of Computer Vision', 'journal': 'International Journal of Computer Vision', 'mag_field_of_study': ['Computer Science']}
7,755
Internet of Thing är en pågående revolution som lovar att koppla samman större delen av vår värld med miljarder uppkopplade enheter. Därför är data routing och prioritering i IoT en huvudutmaning i detta gigantiska nätverk. Detta gäller i ännu högre grad hanteringen av data från Smart Grids där heterogena tillämpningar och signalmeddelanden har olika krav när det gäller tillförlitlighet, latens och prioritet. Hittills har standarder på Smart Grid rekommenderat användning av RPL (Routing Protocol för Low-Power och Lossy-nätverk) protokoll för att distribuera kommandon över rutnätet. RPL garanterar tjänstekvalitet (QoS) vid nätverksskiktet i trådlösa sensornätverk genom den logiska uppdelningen av nätverket i flera fall, var och en beroende av en specifik objektiv funktion. RPL är dock inte optimerat för Smart Grids, eftersom dess huvudsakliga objektiva funktion och tillhörande metriska inte möjliggör QoS-differentiering. För att övervinna detta föreslår vi OFQS en objektiv funktion med ett multiobjektivt mått som tar hänsyn till fördröjningen och den återstående energin i batterinoder tillsammans med kvaliteten på länkarna. Vår funktion anpassar sig automatiskt till antalet instanser (trafikklasser) som tillhandahåller en QoS-differentiering baserad på de olika Smart Grid-tillämpningarna. Simuleringar visar att vårt förslag ger en låg paketleveranslatens och en högre paketleveranskvot samtidigt som nätverkets livslängd förlängs jämfört med litteraturlösningar.
Nyligen, Nassar et al. föreslog en objektiv funktion, OFQS för smarta elnät REF.
19,861,825
Towards Multi-instances QoS Efficient RPL for Smart Grids
{'venue': "PE-WASUN '17", 'journal': None, 'mag_field_of_study': ['Computer Science']}
7,756
I detta dokument presenteras en parse-and-parafras paradigm för att bedöma graden av känslor för produktrecensioner. Sentiment identifiering har studerats väl, men de flesta tidigare arbete ger binära polariteter endast (positiva och negativa), och polariteten i känslor är helt enkelt omvänd när en negation upptäcks. Utvinningen av lexikala drag som unigram/bigram komplicerar också känsloklassificeringsuppgiften, eftersom språkstruktur som implicit långdistansberoende ofta förbises. I detta dokument föreslår vi en strategi för att extrahera adverbadjektiv-noun-fraser baserade på klausulstruktur som erhålls genom att tolka meningar till en hierarkisk representation. Vi föreslår också en robust allmän lösning för modellering av adverbials bidrag och negation till poängen för graden av känslor. I en ansökan som omfattade utvinning aspekt-baserade fördelar och nackdelar från restaurang recensioner, fick vi en 45% relativ förbättring i återkallande genom användning av tolkningsmetoder, samtidigt förbättra precisionen.
I REF föreslår författarna ett tillvägagångssätt för att extrahera adverb-adjective-nominella fraser baserade på klausulstruktur som erhålls genom att tolka meningar till en hierarkisk representation.
2,481,864
Review Sentiment Scoring via a Parse-and-Paraphrase Paradigm
{'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
7,757
Färgnamn, som relaterar färger med färgnamn, kan hjälpa människor med en semantisk analys av bilder i många datorseende program. I det här dokumentet föreslår vi en ny framträdande färgnamnsbaserad färgdeskriptor (SCNCD) för att beskriva färger. SCNCD använder framträdande färgnamn för att garantera att en högre sannolikhet kommer att tilldelas färgnamnet som är närmare färgen. Baserat på SCNCD erhålls sedan färgfördelningar över färgnamn i olika färgrymder och sammansmältes för att skapa en funktionsrepresentation. Dessutom används och analyseras bakgrundsinformationens effekt för att identifiera personer på nytt. Med en enkel metrisk inlärningsmetod överträffar den föreslagna metoden den senaste prestandan (utan användarens återkopplingsoptimering) på två utmanande datauppsättningar (VIPeR och PID 450S). Ännu viktigare, den föreslagna funktionen kan erhållas mycket snabbt om vi beräknar SCNCD av varje färg i förväg.
Yang m.fl. REF införde framträdande färgnamn för att beskriva färger som sannolikhetsfördelningar över de framträdande färgnamnen (SCNCD).
564,273
Salient Color Names for Person Re-identification
{'venue': 'ECCV', 'journal': None, 'mag_field_of_study': ['Computer Science']}
7,758
Många ansökningar samlar in ett stort antal tidsserier, till exempel finansiella data från företag som är noterade på en börs, hälso- och sjukvårdsuppgifter för alla patienter som besöker akutmottagningen på ett sjukhus, eller temperatursekvenser som kontinuerligt mäts av väderstationer över hela USA. Dessa uppgifter kallas ofta ostrukturerade. Den första uppgiften i sin analys är att härleda en lågdimensionell representation, en graf eller ett diskret grenrör, som väl beskriver de inbördes sambanden mellan tidsserierna och deras intrarelationer över tiden. I detta dokument presenteras en beräkningsbar algoritm för att uppskatta denna graf som strukturerar datan. Den resulterande grafen är riktad och viktad, möjligen fånga orsakssamband, inte bara ömsesidiga korrelationer som i många befintliga metoder i litteraturen. En konvergensanalys genomförs. Algoritmen demonstreras på slumpmässiga grafdatauppsättningar och realtidsseriedatauppsättningar, och dess prestanda jämförs med motsvarande metoder. De adjacencymatriser som uppskattas med den nya metoden ligger nära den sanna grafen i simulerade data och överensstämmer med tidigare fysisk kunskap i den verkliga datauppsättning som testats.
I REF föreslår Mei och Moura en algoritm för att uppskatta angränsande matris som beskriver beroendet bland tidsserier.
8,016,726
Signal Processing on Graphs: Causal Modeling of Unstructured Data
{'venue': 'IEEE Transactions on Signal Processing', 'journal': 'IEEE Transactions on Signal Processing', 'mag_field_of_study': ['Computer Science']}
7,759
Detta arbete behandlar problemet med att effektivt utföra en uppsättning uppgifter med hjälp av ett nätverk av processorer i inställningen där nätverket är föremål för dynamiska omkonfigureringar, inklusive partitioner och sammanslagningar. En viktig utmaning för denna inställning är genomförandet av dynamisk belastningsbalansering som minskar antalet uppgifter som utförs överflödigt på grund av omkonfigurationerna. Vi utforskar nya metoder för lastbalansering i dynamiska nätverk som kan användas av applikationer med hjälp av en gruppkommunikationstjänst. De gruppkommunikationstjänster som vi anser inkluderar en medlemstjänst (att etablera nya grupper för att återspegla dynamiska förändringar) men omfattar inte underhåll av en primär komponent. För n-processorn, n-task-lastbalanseringsproblem som definieras i detta arbete, erhålls följande specifika resultat. När det gäller helt dynamiska förändringar, inklusive fragmentering och sammanslagningar, visar vi att termineringstiden för en aktivitetsalgoritm online är större än termineringstiden för en aktivitetsalgoritm utanför linjen med en faktor större än n/12. Vi presenterar en lastbalanseringsalgoritm som garanterar slutförandet av alla uppgifter i alla fragment som orsakas av partitioner med arbete O(n + f · n) i närvaro av f-fragmenteringsfel. Vi utvecklar en effektiv schemaläggning strategi för att minimera uppgiften utförande redundans och vi visar att vår strategi ger var och en av de n processorer med en schema av på 1/3 ) uppgifter så att som mest en uppgift utförs redundant av två processorer.
Ref tillämpade gruppkommunikation för att uppnå dynamisk belastningsbalansering.
13,254,422
Dynamic Load Balancing with Group Communication
{'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science']}
7,760
I detta dokument presenterar vi för första gången fingeravtryckssystemet IRCAM för ljudidentifiering i strömmar. Baslinjesystemet bygger på en dubbel-nested Short Time Fourier Transform. Den första STFT beräknar energierna i en filterbank, som sedan modelleras över 2 s, med hjälp av en andra STFT. Vi presenterar sedan nyligen förbättringar av vårt system: först införandet av perceptuella skalor för amplitud och frekvens (Bark band), sedan synkronisering av stream och databasramar med hjälp av ett debutdetekteringssystem. Resultaten av dessa förbättringar testas på en stor uppsättning verkliga ljudströmmar. Vi jämför våra resultat med resultaten av återgenomförandet av de två toppmoderna systemen Philips och Shazam.
I den första omgången, de förbättrar algoritmen genom att införa perceptuella skalor för amplitud och frekvens (Bark band) och sedan synkronisera strömmen och databasramar med hjälp av en debut detektionsalgoritm REF.
4,944,699
Audio identification based on spectral modeling of bark-bands energy and synchronization through onset detection
{'venue': '2011 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP)', 'journal': '2011 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP)', 'mag_field_of_study': ['Computer Science']}
7,761
I detta papper designar och utvärderar vi en convolutional autoencoder som stör en indata ansikte bild för att ge integritet till ett ämne. Specifikt, den föreslagna autoencoder omvandlar en ingång ansikte bild så att den omvandlade bilden kan användas framgångsrikt för ansiktsigenkänning men inte för kön klassificering. För att utbilda denna autoencoder föreslår vi ett nytt utbildningsprogram, kallat semiadversariell utbildning i detta arbete. Utbildningen underlättas genom att en semi-adversarial modul som består av en extra kön klassificering och en extra ansikte matcher till autoencoder. Den objektiva funktion som används för att utbilda detta nätverk har tre termer: en för att säkerställa att den perturbed bilden är en realistisk ansiktsbild, en annan för att säkerställa att kön attribut i ansiktet är förvirrade, och en tredje för att säkerställa att biometriska igenkänning prestanda på grund av den perturbed bilden inte påverkas. Omfattande experiment bekräftar den föreslagna arkitekturens effektivitet när det gäller att utvidga könsintegriteten till att omfatta ansiktsbilder. I detta arbete utvecklar vi en convolutional autoencoder (CAE) som genererar en perturbed ansikte bild som kan användas framgångsrikt av en ansikte matcher men inte av en kön klassificerare. Den föreslagna CAE kallas för ett semiadversarialt nätverk, eftersom dess utdata är kontradiktoriska för könsklassificeringen men inte för ansiktsmatcharen. Det föreslagna nätverket kan lätt användas med andra attribut (t.ex. ålder eller ras). I princip kan utformningen av det semi-adversariala nätverket användas i andra problemområden där det finns ett behov av att förvirra vissa klassificerare samtidigt behålla nyttan av andra klassificerare. 82 2018 Internationell konferens om biometri 0-7695-6403-8/18/31.00
För att härleda perturbationer som är överförbara till osynliga könsklassificeringar, Mirjali et al. REF utformade en convolutional autoencoder som ändrar indata ansiktsbilder så att en extra ansikte matcher fortfarande behåller bra matchande prestanda på den modifierade utdataavbildningen samtidigt som en extra kön klassificerare.
13,818,729
Semi-adversarial Networks: Convolutional Autoencoders for Imparting Privacy to Face Images
{'venue': '2018 International Conference on Biometrics (ICB)', 'journal': '2018 International Conference on Biometrics (ICB)', 'mag_field_of_study': ['Computer Science']}
7,762
Abstract-This paper föreslår en ny ljus rand projektion baserad gratis parkeringsplats igenkänning metod för att övervinna de gemensamma nackdelarna med befintliga visionsbaserade mål parkering läge metoder i mörk inomhus parkeringsplats. 3D information om parkeringsplats är erkänd genom ljus rand projektion metod. Genom att analysera 3D-informationen, kan systemet känna igen diskontinuerliga punkter, pivot, och motsatt plats referenspunkt. Experiment visar att den föreslagna metoden med framgång kan ange målposition trots mörk belysning och fordonets svarta reflekterande yta. Eftersom den föreslagna metoden kan genomföras bara genom att lägga till en lågkostnadsprojektor för lätta flygplan är den en ekonomiskt praktisk lösning.
Jung REF använde en ljus rand projektion baserad fri parkeringsplats igenkänning metod för att övervinna de gemensamma nackdelarna med befintliga vision baserade mål positionsbeteckning metoder i mörka inomhus parkeringsplatser.
9,086,650
Light Stripe Projection based Parking Space Detection for Intelligent Parking Assist System
{'venue': '2007 IEEE Intelligent Vehicles Symposium', 'journal': '2007 IEEE Intelligent Vehicles Symposium', 'mag_field_of_study': ['Engineering']}
7,763
Abstract-På grund av fördelarna med djupt lärande, i detta papper, en legaliserad djup funktion extraktion (FE) metod presenteras för hyperspektral bild (HSI) klassificering med hjälp av en konvolutional neurala nätverk (CNN). Det föreslagna tillvägagångssättet använder flera konvolutions- och poolskikt för att utvinna djupa drag från HSI, som är icke-linjära, diskriminerande och invarianta. Dessa funktioner är användbara för bildklassificering och måldetektering.
Chen och Al. REF föreslog en regulariserad djup funktion extraktion metod presenteras till hyperspektral bildklassificering med hjälp av en konvolutionell neurala nätverk, som med glesa begränsningar ger konkurrenskraftiga resultat till state-of-theart metoder.
2,078,144
Deep Feature Extraction and Classification of Hyperspectral Images Based on Convolutional Neural Networks
{'venue': 'IEEE Transactions on Geoscience and Remote Sensing', 'journal': 'IEEE Transactions on Geoscience and Remote Sensing', 'mag_field_of_study': ['Computer Science']}
7,764
ABSTRACT De små cellerna har utrustats med caching och multicast kapacitet för att spara energi och underlätta backhaul belastning. Med tanke på den ökande mångfalden av användarorganisationer i heterogena nät kan de traditionella systemen dock misslyckas med att utnyttja den energibesparingspotential som caching och multicast innebär. I detta dokument föreslår vi modellen för att minimera den totala strömförbrukningen genom att gemensamt optimera användar- och cachedistributionen. Det formulerade gemensamma optimeringsproblemet bryts ned och omformuleras som ett NP-komplett partitionsproblem. Motiverad av tanken på taktila nätverk, kan enheterna hitta kandidaten användargruppering baserat på sitt eget verktyg. Verktygsfunktionen är klokt utformad för att minska sökutrymmet utan att äventyra optimalitet. Sedan föreslås en heuristisk cache-algoritm genom att rigoröst härleda de övre och nedre gränserna för cacheplacering. Simuleringsresultat visar att vårt föreslagna system överträffar de andra befintliga multicast- och cachingalgoritmerna när det gäller strömförbrukning med upp till 28 %, samtidigt som belastningen mellan basstationer balanseras. INDEX TERMS Heterogena nätverk, multicast överföring, kooperativ caching, ställa partition problem.
På liknande sätt, Han et al. REF presenterar en effektiv distribuerad heuristisk algoritm för cacheplacering och användarassociering i heterogena nätverk för att minimera strömförbrukningen i systemet.
26,717,902
Distributed Cache Placement and User Association in Multicast-Aided Heterogeneous Networks
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
7,765
Harvardgemenskapen har gjort den här artikeln öppet tillgänglig. Dela gärna med dig av hur denna tillgång gynnar dig. Er historia är viktig Tredimensionell TV förväntas bli nästa revolution i televisionens historia. Vi implementerade ett 3D-TV-prototypsystem med realtidsförvärv, överföring och 3D-visning av dynamiska scener. Vi utvecklade en distribuerad, skalbar arkitektur för att hantera höga krav på beräkning och bandbredd. Vårt system består av en rad kameror, kluster av nätverksanslutna datorer och en multiprojektor 3D-skärm. Flera videoströmmar är individuellt kodade och skickas över ett bredbandsnät till skärmen. 3D-displayen visar högupplösta (1024 × 768) stereoskopiska färgbilder för flera synvinklar utan speciella glasögon. Vi implementerade system med backprojektions- och frontprojektionslinsskärmar. I detta dokument ger vi en detaljerad översikt över vårt 3D-TV-system, inklusive en granskning av designval och kompromisser. Vi presenterar de kalibrerings- och bildanpassningsförfaranden som är nödvändiga för att uppnå god bildkvalitet. Vi presenterar kvalitativa resultat och en del tidig feedback från användarna. Vi tror att detta är den första realtid end-to-end 3D TV-system med tillräckligt med vyer och upplösning för att ge en verkligt uppslukande 3D-upplevelse.
Matusik m.fl. REF har utformat ett skalbart system för förvärv, överföring och visning i realtid av dynamiska 3D-scener.
38,982,437
3D TV: a scalable system for real-time acquisition, transmission, and autostereoscopic display of dynamic scenes
{'venue': 'SIGGRAPH 2004', 'journal': None, 'mag_field_of_study': ['Computer Science']}
7,766
Sammanfattning av denna webbsida: Informationscentric networking (ICN) technology uppfyller många stora krav på fordonsbaserade ad hoc-nätverk (VANET) när det gäller dess anslutningslösa nätverksparadigm som överensstämmer med VANETS dynamiska miljöer och som i allt högre grad tillämpas på VANETs. Trådlösa sändningar av paket i VANET med hjälp av ICN-mekanismer kan dock leda till stormar och kanalstridigheter, vilket allvarligt påverkar dataspridningens resultat. Samtidigt kan frekventa förändringar av topologin på grund av körning i höga hastigheter och miljöhinder också leda till länkavbrott när alltför få fordon är inblandade i vidarebefordran av data. Därför är det viktigt att balansera antalet vidarebefordrande fordonsnoder och antalet kopior av paket som vidarebefordras för att förbättra dataspridningen i informationscentriska nätverk för fordonsspecifika ad hoc-nätverk. I detta dokument föreslår vi en kontextmedveten mekanism för paketöverföring för ICN-baserade VANET. Fordonens relativa geografiska läge, fordonens densitet och relativa fördelning samt innehållets prioritet beaktas under pakettransporten. Simuleringsresultat visar att den föreslagna mekanismen kan förbättra prestandan för dataspridning i ICN-baserade VANET i form av ett framgångsrikt dataleveransförhållande, paketförlusthastighet, bandbreddsanvändning, dataresponstid och genomfartshopp.
I REF föreslog författarna en approach-aware paketspeditionsmekanism för ICN-baserade VANET.
56,483,260
Context-Aware Data Dissemination for ICN-Based Vehicular Ad Hoc Networks
{'venue': 'Information', 'journal': 'Information', 'mag_field_of_study': ['Computer Science']}
7,767
Deep Neural Networks har visat enastående prestanda i många Computer Vision uppgifter men kräver vanligtvis stora mängder märkta träningsdata för att uppnå det. Detta är en allvarlig begränsning när sådana uppgifter är svåra att få tag på. Inom traditionell maskininlärning är domänanpassning ett tillvägagångssätt för att övervinna detta problem genom att utnyttja kommenterade data från en källdomän, där det finns ett överflöd, att utbilda en klassificerare att arbeta inom en måldomän, där märkta data antingen är glest eller till och med saknas helt och hållet. I fallet Deep Learning använder de flesta befintliga metoder samma arkitektur med samma vikter för både käll- och måldata, vilket i huvudsak motsvarar inlärningsdomänens invarianta funktioner. Här visar vi att det är mer effektivt att explicit modellera övergången från en domän till en annan. I detta syfte inför vi en tvåströmsarkitektur, av vilken den ena fungerar i källdomänen och den andra i måldomänen. I motsats till andra metoder är vikterna i motsvarande skikt relaterade men inte delade för att ta hänsyn till skillnader mellan de två områdena. Vi visar att detta båda ger högre noggrannhet än de senaste metoderna på flera objektigenkännings- och detekteringsuppgifter och konsekvent överträffar nätverk med delade vikter i både övervakade och oövervakade inställningar.
REF, som är en djup UDA-strategi och kan ses som en SDA efter finjustering, använder också en två-strömmar arkitektur, för källa och mål, med relaterade men inte delade vikter.
3,840,500
Beyond Sharing Weights for Deep Domain Adaptation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Medicine']}
7,768
Abstrakt. I många beslutsapplikationer används skylineförfrågan ofta för att hitta en uppsättning dominerande datapunkter (kallade skylinepunkter) i en flerdimensionell datauppsättning. I en högdimensionell rymd skyline punkter inte längre erbjuder några intressanta insikter eftersom det finns för många av dem. I detta dokument introducerar vi en ny metrisk, kallad skylinefrekvens som jämför och rankar datapunkternas intressanthet baserat på hur ofta de returneras i skylinet när olika antal dimensioner (dvs subrymder) beaktas. Intuitivt är en punkt med hög skylinefrekvens mer intressant eftersom den kan domineras av färre kombinationer av dimensionerna. Således blir problemet att hitta topp-k frekventa skyline punkter. Men de algoritmer som hittills föreslagits för skyline beräkning brukar inte skala väl med dimensionalitet. Dessutom kräver frekventa skylineberäkningar att skylines beräknas för var och en av ett exponentiellt antal delmängder av dimensionerna. Vi presenterar effektiva approximativa algoritmer för att ta itu med dessa dubbla svårigheter. Vår omfattande prestandastudie visar att vår ungefärliga algoritm kan köras snabbt och beräkna rätt resultat på stora datamängder i högdimensionella utrymmen.
Som en variant av skylinefrågan, Chan et al. introducerade begreppet top-k frekventa skyline frågor REF.
364,606
On high dimensional skylines
{'venue': 'In EDBT', 'journal': None, 'mag_field_of_study': ['Computer Science']}
7,769
LOUD Computing har haft en enorm kommersiell påverkan och har väckt forskarsamhällets intresse. Offentliga moln gör det möjligt för kunderna att lägga ut förvaltningen av fysiska resurser på entreprenad och hyra en varierande mängd resurser i enlighet med sina specifika behov. Privata moln gör det möjligt för företag att hantera resurser på plats och utnyttja de möjligheter som molnteknikerna erbjuder, till exempel att använda virtualisering för att förbättra resursutnyttjandet och molnprogramvaran för automatisering av resurshantering. Hybridmoln, där privata infrastrukturer integreras och kompletteras med externa resurser, håller också på att bli ett gemensamt scenario, till exempel för att hantera belastningstoppar. Cloud applikationer är värd för datacenter vars storlek varierar från tiotals till tiotusentals servrar, vilket ger betydande utmaningar relaterade till energi- och kostnadshantering. Det har uppskattats att enbart informations- och kommunikationsteknik (IKT) industrin står för 2-3 procent av de globala utsläppen av växthusgaser. Därför måste vi hitta innovativa metoder och verktyg för att hantera energieffektivitet och koldioxidavtryck från datacenter, så att de kan fungera och skalas på ett kostnadseffektivt och miljömässigt hållbart sätt. Dessa metoder och verktyg kategoriseras ofta som Data Center Infrastructure Management (DCIM) för att övervaka, styra och optimera datacenter med omfattande automatisering. DCIM måste också effektivt hantera kvaliteten på de tjänster som tillhandahålls av datacenteret, eftersom molnkunder kräver hög tillförlitlighet, tillgänglighet, användbarhet och låga svarstider. Även om betydande framsteg har gjorts för att öka den fysiska effektiviteten i kraftförsörjning och kylkomponenter som förbättrar effektanvändning Effektivitet (PUE) index, sådana förbättringar är ofta begränsade till de enorma datacenter som drivs av stora molnföretag. Ännu större ansträngningar krävs för att förbättra datacentrets beräkningseffektivitet, eftersom servrar idag är mycket underutnyttjade, med typiska driftsområde mellan 10 och 30 procent. I detta avseende behövs framsteg både för att förbättra energieffektiviteten hos servrar och för att dynamiskt konsolidera arbetsbelastningen på färre och bättre utnyttjade servrar. Denna särskilda fråga har erbjudit de vetenskapliga och industriella samhällena ett forum för att presentera nya forsknings-, utvecklings- och spridningsinsatser inom området gröna och energieffektiva molntjänster. Den särskilda frågan lockade till sig ett stort antal papper av god kvalitet. Efter två eller, i vissa fall, tre granskningsrundor – var och en med minst tre expertgranskare – har 18 dokument valts ut för offentliggörande bland de 44 som ursprungligen lämnades in. De godkända dokumenten har delats upp i två nummer av denna tidskrift. Den aktuella frågan omfattar nio artiklar som fokuserar på de möjligheter som den moderna virtualiseringstekniken erbjuder för att minska energiförbrukningen och koldioxidutsläppen, genom tekniker och metoder som syftar till att uppnå optimal tilldelning och schemaläggning av virtuella maskiner, både i enskilda plattformar och i geografiskt distribuerade scenarier med flera datacenter. En kommande fråga kommer att omfatta nio dokument som mer specifikt ägnas åt en effektiv förvaltning av den fysiska infrastrukturen för datacenter och molnanläggningar. K. Li in [1] utvecklar en kömodell för ett flerkärnigt system med arbetsbelastningsberoende dynamisk effekthantering. Författaren härleder för den modellen de nödvändiga och tillräckliga villkor som gör det möjligt att minimera den genomsnittliga aktivitet svarstiden. Det mest imponerande resultatet av detta arbete är etablissemanget att kraftförbrukningsminskningen, som begränsas av prestandagarantierna, kan studeras på ett liknande sätt som prestandaförbättring (genomsnittlig aktivitet svarstid minskning) med begränsningar kraft. Arbetet rapporterar också flera hastighetssystem för att visa det faktum att för samma genomsnittliga strömförbrukning, är det möjligt att designa en multicore processor så att den genomsnittliga aktivitet svarstiden är kortare än en multicore processor med enhetlig klockfrekvens. I [2] presenteras en miljömedveten metod som bygger på definition, övervakning och utnyttjande av energi- och CO 2-mått i kombination med användning av innovativa programplanerings- och körtidsanpassningstekniker. Syftet är att optimera energiförbrukningen och CO 2 fotavtryck av molnapplikationer samt den underliggande infrastrukturen.
Några nyligen utförda arbeten som hanterade den energieffektiva fördelningen av belastningen i realtid i ett geografiskt scenario ingick i en särskild fråga som ägnas åt gröna och energieffektiva molntjänster REF.
1,713,023
Guest Editors’ Introduction: Special Issue on Green and Energy-Efficient Cloud Computing Part II
{'venue': 'IEEE Trans. Cloud Computing', 'journal': 'IEEE Trans. Cloud Computing', 'mag_field_of_study': ['Computer Science']}
7,770
Videoomkodning är en legitim verksamhet som ofta används för att ändra videoformat för att komma åt videoinnehållet i slutanvändarens enheter, som kan ha vissa begränsningar i rumsliga och temporala upplösningar, bit-rate och videokodningsstandarder. I många tidigare vattenmarkeringsalgoritmer kan den inbyggda vattenstämpeln inte överleva videoomkodning, eftersom denna operation är en kombination av vissa aggressiva attacker, särskilt när lägre bit-rate kodning krävs i målenheten. Till följd av omkodningen kan det inbäddade vattenmärket gå förlorat. I detta dokument föreslås ett robust system för videovattenmärkning mot videoomkodning som utförs på basbandsdomänen. För att få vattenstämpelns robusthet mot videoomkodning används fyra kriterier baserade på det mänskliga visuella systemet (HVS) för att bädda in en tillräckligt robust vattenstämpel samtidigt som dess omärklighet bevaras. Quantization index modulering (QIM) algoritm används för att bädda in och detektera vattenstämpel i 2D-Discrete Cosine Transform (2D-DCT) domän. Vattenstämpelns omärkbarhet utvärderas med hjälp av konventionellt toppsignal-brusförhållande (PSNR) och strukturellt likhetsindex (SSIM), vilket ger tillräckligt god visuell kvalitet. Resultaten från datorsimuleringen visar vattenstämpelns robusthet mot videoomkodning samt vanliga signalbehandlingar och avsiktliga attacker för videosekvenser.
I REF är vattenstämpelsignalen uppdelad för att bädda in en vattenstämpelbit per 8 × 8 separata cosinustransformblock (DCT) i varje videoram.
205,169,383
Transcoding resilient video watermarking scheme based on spatio-temporal HVS and DCT
{'venue': 'Signal Process.', 'journal': 'Signal Process.', 'mag_field_of_study': ['Computer Science']}
7,771
De flesta försök att träna datorer för den svåra och tidskrävande uppgiften att sova fas klassificering innebär en funktion extraktion steg. På grund av komplexiteten i multimodala sömndata, storleken på funktionen utrymme kan växa i den utsträckning det är också nödvändigt att inkludera en funktion urval steg. I detta dokument föreslår vi användning av en oövervakad funktion lärande arkitektur som kallas djup tro nät (DBN) och visa hur man tillämpar den på sömn data för att eliminera användningen av handgjorda funktioner. Med hjälp av ett efterbehandlingssteg av den dolda Markov-modellen (HMM) för att exakt fånga sömnstegsbyte, jämför vi våra resultat med ett funktionsbaserat tillvägagångssätt. En studie av anomalidetektering med tillämpning på hemmiljö datainsamling presenteras också. Resultaten med hjälp av rådata med en djup arkitektur, såsom DBN, var jämförbara med en funktionsbaserad metod när den validerades på kliniska datauppsättningar.
REF föreslog oövervakad funktionsinlärning med hjälp av Deep Trolief Networks (DBNs) för klassificering i vilofas från tidsserier.
8,481,337
Sleep stage classification using unsupervised feature learning
{'venue': 'Adv. Artificial Neural Systems', 'journal': 'Adv. Artificial Neural Systems', 'mag_field_of_study': ['Computer Science']}
7,772
Vi undersöker arkitekturer av discriminativt utbildade djupa Convolutional Networks (ConvNets) för åtgärdsigenkänning i video. Utmaningen är att fånga den kompletterande informationen om utseende från stillbildsramar och rörelse mellan ramar. Vi strävar också efter att i nätverksdesignen integrera aspekter av de bäst presterande handgjorda funktionerna. Vårt bidrag är trefaldigt. För det första föreslår vi en tvåströms ConvNet-arkitektur som innehåller rumsliga och tidsmässiga nätverk. För det andra visar vi att ett ConvNet utbildat på multi-frame tät optiskt flöde kan uppnå mycket bra prestanda trots begränsade träningsdata. Slutligen visar vi att multitask-inlärning, som tillämpas på två olika åtgärdsklassificeringsdatauppsättningar, kan användas för att öka mängden utbildningsdata och förbättra prestandan på båda. Vår arkitektur är utbildad och utvärderas på standard video åtgärder riktmärken för UCF-101 och HMDB-51, där det matchar den senaste tekniken. Det överstiger också med stor marginal tidigare försök att använda djupa nät för videoklassificering.
Zisserman m.fl. REF införde ett tvåflödes CNN med hjälp av färg- och optiska flödesbilder för åtgärdsklassificering.
11,797,475
Two-Stream Convolutional Networks for Action Recognition in Videos
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
7,773
Detta dokument beskriver en generisk modell för personlighets-, humör- och känslosimulering för konverserande virtuella människor. Vi presenterar en generisk modell för uppdatering av parametrar relaterade till emotionellt beteende, samt ett linjärt genomförande av de generiska uppdateringsmekanismerna. Vi undersöker hur befintliga teorier för bedömning kan integreras i ramverket. Sedan beskriver vi ett prototypsystem som använder det beskrivna mod-1 els i kombination med ett dialogsystem och ett talande huvud med synkroniserat tal och ansiktsuttryck.
Baserat på matric i OCC-modellen föreslog Egges REF en generisk modell för personlighets-, humör- och känslosimulering.
15,797,983
Generic personality and emotion simulation for conversational agents
{'venue': 'Computer Animation and Virtual Worlds', 'journal': None, 'mag_field_of_study': ['Computer Science']}
7,774
Abstract-En stor utmaning i datorseende är att gå bortom modellering av enskilda objekt och att undersöka bi-(en-versus-ett) eller tri-(en-versus-två) relationen mellan flera visuella enheter, besvara sådana frågor som om ett barn i ett foto tillhör de givna föräldrarna. Förhållandet mellan barn och föräldrar spelar en central roll i en familj, och förståelse av sådana släktrelationer skulle ha en grundläggande inverkan på beteendet hos en artificiell intelligent agent som arbetar i den mänskliga världen. I detta arbete, vi tar itu med problemet med en-versus-två (tri-subject) släktskap verifiering och våra bidrag är trefaldig: 1) en ny relativ symmetrisk bilinjär modell (RSBM) införs för att modellera likheten mellan barnet och föräldrarna, genom att införliva tidigare kunskap om att ett barn kan likna en viss förälder mer än den andra; 2) en rumsligt vald metod för funktionsval, som gemensamt väljer de mest diskriminerande egenskaper för barn-föräldrar paret, samtidigt som hänsyn tas till lokal rumslig information; och 3) en storskalig tre-subjekt släktskap databas som kännetecknas av över 1000 barn-föräldrar familjer. Omfattande experiment på KinFaceW, Family101, och vår nyutgivna släktskap databas visar att den föreslagna metoden överträffar flera tidigare state of the art metoder, samtidigt som kan användas för att avsevärt öka prestandan av en-mot-ett släktskap verifiering när informationen om båda föräldrarna är tillgänglig.
Nyligen, Qin et al. I REF föreslogs en bilinjär modell för att hantera så kallade problem med kontroll av tre ämnens släktskap.
47,440,695
Tri-Subject Kinship Verification: Understanding the Core of A Family
{'venue': 'IEEE Transactions on Multimedia', 'journal': 'IEEE Transactions on Multimedia', 'mag_field_of_study': ['Computer Science']}
7,775
Abstrakt. Detta dokument är inriktat på de gruppdomar som erhållits från en kommitté av ombud som använder sig av överläggning. Den överläggningsprocessen realiseras av ett argumentationsramverk som kallas AMAL. Ramen för AMAL bygger helt och hållet på att man lär sig av exempel: argumentets preferensförhållande, argumentets generationspolitik och motargumentets generationspolitik är fallbaserade tekniker. För att delta i överläggningar, lär agenter dela med sig av sina erfarenheter genom att bilda en kommitté för att besluta om något gemensamt beslut. Vi visar experimentellt att överläggningen i agentkommittéerna förbättrar riktigheten i gruppdomarna. Vi visar också att ett omröstningssystem som bygger på att bedöma argumentens förtroende förbättrar riktigheten i gruppbedömningar än majoritetsomröstningar.
I REF formuleras ett argumentationsramverk för inlärningsagenter.
1,677,888
An Argumentation-based Framework for Deliberation in Multi-Agent Systems
{'venue': 'ArgMAS', 'journal': None, 'mag_field_of_study': ['Political Science', 'Computer Science']}
7,776
Vi föreslår Neural Reasoner, ett ramverk för neurala nätverk-baserat resonemang över naturliga språk meningar. Med tanke på en fråga, Neural Reasoner kan dra slutsatsen över flera stödjande fakta och hitta ett svar på frågan i specifika former. Neural Reasoner har 1) en specifik interaktion-pooling mekanism, så att den kan undersöka flera fakta, och 2) en djup arkitektur, så att den kan modellera de komplicerade logiska relationer i resonemang uppgifter. Förutsatt att det inte finns någon särskild struktur i frågan och fakta, Neural Reasoner kan rymma olika typer av resonemang och olika former av språkuttryck. Trots modellens komplexitet, kan Neural Reasoner fortfarande utbildas effektivt på ett end-to-end sätt. Våra empiriska studier visar att Neural Reasoner kan överträffa befintliga neurala resonemang system med anmärkningsvärda marginaler på två svåra artificiella uppgifter (Positiva Resonemang och Path Finding) föreslås [8]. Det förbättrar till exempel noggrannheten på sökvägen(10K) från 33,4% [6] till över 98%.
Ett arbete ännu närmare de modeller som föreslås i denna artikel presenteras i REF.
402,276
Towards Neural Network-based Reasoning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
7,777
Vi anser att problemet med provtagning en kant nästan enhetligt från en okänd graf, G = (V, E). Tillgång till grafen ges via frågor av följande typer: (1) enhetliga vertex frågor, (2) grad frågor, och (3) grannar frågor. Vi beskriver en algoritm som returnerar en slumpmässig e-kant med hjälp av Õ(n/ εm) frågor i förväntan, där n = på V är antalet hörn, och m = på E är antalet kanter, så att varje kant e provtas med sannolikhet (1 ± ε) / m. Vi bevisar att vår algoritm är optimal i den meningen att alla algoritmer som tar prov på en kant från en nästan enhetlig distribution måste utföra frågor om.
Det relaterade problemet med provtagningskanter från en nästan enhetlig distribution studerades nyligen av Eden och Rosenbaum i REF.
23,374,668
On Sampling Edges Almost Uniformly
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
7,778
I det här dokumentet analyserar vi batteriets effekthanteringssystem i trådlösa mobila enheter med hjälp av en köteori. Vi modellerar batteriet som en server med begränsad servicekapacitet och datapaket som kunder. Med avsikt att utnyttja batteriets uppladdningsförmåga när batteriet lämnas tomgång, tillåter vi batteriet att gå på avsiktliga semestrar under vilka batteriet kan ladda sig självt. Uppladdningen kan effektivt öka antalet kunder som betjänas (dvs. batteritiden kan förlängas). En sådan förbättring av batteriets livslängd skulle emellertid ske på bekostnad av ökad prestanda för paketförseningar. Vi kvantifierar batterilivslängden jämfört med delay performance-trade-off i detta tillvägagångssätt genom analys och simuleringar. Genom att överväga en kontinuerlig laddningsmodell av batteriet får vi uttryck för det antal kunder som serveras och den genomsnittliga fördröjningen för ett Å Á 1⁄2 kösystem utan och med serversemester. Vi visar att tillåta avsiktliga semestrar under hektiska perioder bidrar till att öka batteritiden, och att detta tillvägagångssätt kan vara fördelaktigt när det tillämpas på trafik av fördröjningstoleranta applikationer. Vi föreslår också en paketfördröjningsbegränsad kraftsparalgoritm som kommer att utnyttja laddningsfenomenet när paketfördröjningsbegränsningar införs.
Med denna motivation i åtanke, författarna i REF modellerade ett batteri på samma sätt som en server med en ändlig servicekapacitet, och datapaket på samma sätt som kunder som ska serveras, och analyserade prestanda med hjälp av en köteoretisk metod.
17,828,698
Performance analysis of battery power management schemes in wireless mobile devices
{'venue': '2002 IEEE Wireless Communications and Networking Conference Record. WCNC 2002 (Cat. No.02TH8609)', 'journal': '2002 IEEE Wireless Communications and Networking Conference Record. WCNC 2002 (Cat. No.02TH8609)', 'mag_field_of_study': ['Computer Science']}
7,779
Automatisk syntes av realistiska bilder från text skulle vara intressant och användbart, men nuvarande AI-system är fortfarande långt ifrån detta mål. Under de senaste åren har dock generiska och kraftfulla återkommande neurala nätverksarkitekturer utvecklats för att lära sig diskriminativa textfunktionsrepresentationer. Samtidigt har djupa konvolutionella generativa kontrariska nätverk (GANS) börjat generera mycket övertygande bilder av specifika kategorier, såsom ansikten, skivomslag och rumsinteriörer. I detta arbete utvecklar vi en ny djup arkitektur och GAN-formulering för att effektivt överbrygga dessa framsteg inom text- och bildmodellering, översätta visuella begrepp från tecken till pixlar. Vi visar vår modells förmåga att generera trovärdiga bilder av fåglar och blommor från detaljerade textbeskrivningar.
Reeds m.fl. REF studerade problemet med automatisk syntes av realistiska bilder från text med hjälp av djupa konvolutionella GAN.
1,563,370
Generative Adversarial Text to Image Synthesis
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
7,780
Collaborative Filtering (CF) är en kraftfull teknik för att generera personliga förutsägelser. CF-system är vanligtvis baserade på en central lagring av användarprofiler som används för att generera rekommendationerna. Denna centraliserade lagring inför dock en allvarlig integritetsintrång, eftersom profilerna kan kommas åt för syften, eventuellt skadliga, som inte är relaterade till rekommendationsprocessen. Nyligen föreslagna undersökningar för att skydda CF:s integritet genom att distribuera profilerna mellan flera databaser och utbyta endast en delmängd av profildata, vilket är användbart för rekommendationen. Detta arbete undersöker hur en decentraliserad distribuerad lagring av användarprofiler i kombination med datamodifieringstekniker kan minska vissa integritetsproblem. Resultaten av den experimentella utvärderingen visar att delar av användarprofilerna kan ändras utan att CF-prognosernas noggrannhet hämmas. Experimenten visar också vilka delar av användarprofilerna som är mest användbara för att generera exakta CF-prognoser, medan deras exponering fortfarande håller den väsentliga integriteten för användarna.
Referensreferensreferensen undersöker hur en decentraliserad distribuerad lagring av användardata i kombination med datamodifieringstekniker kan minska vissa integritetsproblem.
8,311,160
Enhancing privacy and preserving accuracy of a distributed collaborative filtering
{'venue': "RecSys '07", 'journal': None, 'mag_field_of_study': ['Computer Science']}
7,781
Abstrakt. Beräknad tomografi (CT) är avgörande för olika kliniska tillämpningar, t.ex. strålbehandlingsplanering och även korrigering av PET-dämpning. CT exponerar dock strålning under anskaffningen, vilket kan orsaka biverkningar för patienterna. Jämfört med CT är magnetisk resonanstomografi (MRI) mycket säkrare och omfattar inte någon strålning. Därför är forskare nyligen starkt motiverade att uppskatta CT-bilden från sin motsvarande MR-bild av samma ämne när det gäller strålbehandlingsplanering. I detta dokument föreslår vi en datadriven strategi för att ta itu med detta utmanande problem. Vi utbildar ett fullständigt konvolutionsnätverk för att generera CT med en MR-bild. För att bättre modellera den icke-linjära relationen från MRT till CT och för att producera mer realistiska bilder, föreslår vi att använda den kontradiktoriska träningsstrategin och en bildgradient skillnad förlustfunktion. Vi tillämpar även AutoContext Model för att implementera ett sammanhangsmedvetet generativt kontradiktoriskt nätverk. Experimentella resultat visar att vår metod är korrekt och robust för att förutsäga CT-bilder från MRT-bilder, och dessutom överträffar tre toppmoderna metoder under jämförelse.
I REF syntetiseras MR-bilder från CT med Generative Adversarial Networks eftersom insamling av MR är säkrare för patienter.
16,628,328
Medical Image Synthesis with Context-Aware Generative Adversarial Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Medicine']}
7,782
Packet klassificering är en möjliggörande funktion för en mängd olika Internet-tillämpningar, inklusive kvalitet på tjänster, säkerhet, övervakning och multimedia kommunikation. För att klassificera ett paket som tillhörande ett visst flöde eller en viss uppsättning flöden, måste nätverksnoder utföra en sökning över en uppsättning filter med hjälp av flera fält i paketet som söknyckeln. I allmänhet har det funnits två viktiga trådar av forskning som behandlar paketklassificering, algoritmisk och arkitektonisk. Några banbrytande grupper av forskare ställde till problemet, gav komplexa gränser och erbjöd en samling algoritmiska lösningar. Därefter har designutrymmet utforskats kraftigt av många som erbjuder nya algoritmer och förbättringar av befintliga algoritmer. Med tanke på att tidiga algoritmer inte kan uppfylla prestandakrav på grund av höghastighetslänkar, har forskare inom industrin och den akademiska världen utarbetat arkitektoniska lösningar på problemet. Denna tråd av forskning producerade den mest använda paket klassificering enhetsteknik, Ternary Content Addressable Memory (TCAM). Ny arkitektonisk forskning kombinerar intelligenta algoritmer och nya arkitekturer för att eliminera många av de ogynnsamma egenskaperna hos nuvarande TCAM. Vi observerar att samhället verkar konvergera om ett kombinerat algoritmiskt och arkitektoniskt förhållningssätt till problemet. Med hjälp av en taxonomi baserad på hög nivå strategi för problemet och en minimal uppsättning löpande exempel, ger vi en undersökning av de seminala och senaste lösningarna på problemet. Det är vår förhoppning att främja en djupare förståelse av de olika paketklassificeringsteknikerna samtidigt som den ger en användbar ram för att urskilja relationer och distinktioner.
En bra genomgång av paketklassificeringsalgoritmer och arkitekturer finns i REF.
8,450,611
Survey and taxonomy of packet classification techniques
{'venue': 'CSUR', 'journal': None, 'mag_field_of_study': ['Computer Science']}
7,783
Abstract-Vi föreslår en ny edge computing nätverk arkitektur som gör det möjligt kant noder att samarbeta för att dela dator- och radioresurser för att minimera den totala energiförbrukningen för mobila användare samtidigt som de uppfyller sina fördröjningskrav. För att hitta den optimala uppgiften offloading beslut för mobila användare, vi först formulera den gemensamma uppgiften offloading och resursallokering optimering problem som ett blandat heltal icke-linjär programmering (MINLP). Optimeringen innebär både binära (avlasta beslut) och verkliga variabler (resurstilldelning), vilket gör det till ett NP-hårdt och beräkningsbart intractable problem. För att kringgå, vi slappna av binära beslut variabler för att omvandla MINLP till en avslappnad optimering problem med verkliga variabler. Efter att ha bevisat att det avslappnade problemet är konvext föreslår vi två lösningar, nämligen ROP och IBBA. ROP antas från den interna punktmetoden och IBBA utvecklas från grenen och bundna algoritm. Genom de numeriska resultaten visar vi att våra föreslagna tillvägagångssätt gör det möjligt att minimera den totala energiförbrukningen och uppfylla alla fördröjningskrav för mobila användare.
Vu m.fl. I REF föreslogs en ny edge computing-nätverksarkitektur som gör det möjligt för kantknutpunkter att gemensamt dela dator- och radioresurser för att minimera mobilanvändarnas totala energiförbrukning samtidigt som de uppfyller sina latenskrav.
54,434,485
Offloading Energy Efficiency with Delay Constraint for Cooperative Mobile Edge Computing Networks
{'venue': '2018 IEEE Global Communications Conference (GLOBECOM)', 'journal': '2018 IEEE Global Communications Conference (GLOBECOM)', 'mag_field_of_study': ['Computer Science']}
7,784
Medan metoder baserade på påsar med funktioner utmärker sig på låg nivå åtgärd klassificering, de är dåligt lämpade för att erkänna komplexa händelser i video, där konceptbaserade temporal representationer för närvarande dominerar. I detta dokument föreslås en ny representation som fångar den tidsmässiga dynamiken hos inglasade konceptdetektorer på mellannivå för att förbättra den komplexa händelseigenkänningen. Vi uttrycker först varje video som en beställd vektortidsserie, där varje tidssteg består av vektorn som bildas från de konkatenerade konfidenserna hos de förtränade konceptdetektorerna. Vi antar att dynamiken i tidsserier för olika instanser från samma händelseklass, som fångas av enkla linjära dynamiska system (LDS) modeller, sannolikt kommer att vara liknande även om fallen skiljer sig i termer av låg nivå visuella funktioner. Vi föreslår en tvådelad representation bestående av sammansmältning: (1) en singular värde sönderdelning av block Hankel matriser (SSID-S) och (2) en harmonisk signatur (H-S) som beräknas från motsvarande eigen-dynamik matris. Den föreslagna metoden ger flera fördelar jämfört med alternativa tillvägagångssätt: vårt tillvägagångssätt är enkelt att implementera, direkt använder befintliga konceptdetektorer och kan kopplas in i linjära klassificeringsramar. Resultat på standarddatauppsättningar såsom NIST: s TRECVID Multimedia Event Detektion uppgift visar den förbättrade noggrannheten hos den föreslagna metoden.
Bhattacharya m.fl. modellerade tidshändelser med linjära dynamiska system (LDS) för att upptäcka händelser i komplexa videodatauppsättningar REF.
6,203,374
Recognition of Complex Events: Exploiting Temporal Dynamics between Underlying Concepts
{'venue': '2014 IEEE Conference on Computer Vision and Pattern Recognition', 'journal': '2014 IEEE Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
7,785
I detta dokument diskuteras en lösning på Sisyfos rumstilldelningsproblem, som använder den allmänna direktivmodellen (GDM) metodologi som utvecklats i ACKnowledge-projektet, tillsammans med den kunskapstekniska metodologi som utvecklats i VITAL-projektet. Efter att kort ha introducerat dessa metoder presenterar dokumentet en "genomgång" av Sisyfos-lösningen från analys till genomförande i detalj, så att alla förvärvs-, modellerings- och designbeslut kan ses i sitt sammanhang. Urvalet av en återanvändbar modell från GDM-biblioteket presenteras tillsammans med en diskussion om hur denna urvalsprocess kan driva kunskapsinsamlingsprocessen. Därefter finns det en redogörelse för att GDM omedelbart har införts och att ett kontrollsystem införts över dataflödesstrukturen. Vi visar hur denna process avslöjar dolda begränsningar och inkonsekvenser i Siggis redogörelse för hans egen problemlösning. Utgången av denna KA-fas består av en konceptuell modell av problemet som diskuteras i detalj och formaliseras i termer av VITAL konceptuell modellering språk. Utifrån denna analys av problemet går vi vidare till att diskutera frågorna om utformning och genomförande av ett system, och vi visar hur vårt genomförande uppfyller specifikationen av Sisyfos-problemet.
VITAL består till exempel av ett bibliotek med återanvändbara problemlösningsmodeller på kunskapsnivå, som kan användas för att driva kunskapsinsamlingsprocessen REF, medan VITAL-KR stöder återanvändning på genomförandenivå.
17,628,944
Grounding GDMs: a structured case study
{'venue': 'Int. J. Hum.-Comput. Stud.', 'journal': None, 'mag_field_of_study': ['Computer Science']}
7,786
Att känna till sekvensens särdrag hos DNA- och RNA-bindande proteiner är viktigt för att utveckla modeller av de regulatoriska processerna i biologiska system och för att identifiera kausala sjukdomsvarianter. Här visar vi att sekvensens särdrag kan fastställas från experimentella data med "djup inlärning" tekniker, som erbjuder en skalbar, flexibel och enhetlig beräkningsmetod för mönster upptäckt. Med hjälp av en mängd olika experimentella data och utvärderingsmått, finner vi att djupinlärning överträffar andra state-of-the-art metoder, även när utbildning på in vitro-data och testning på in vivo-data. Vi kallar detta tillvägagångssätt DeepBind och har byggt en fristående programvara verktyg som är helt automatisk och hanterar miljontals sekvenser per experiment. Specificiteter som bestäms av DeepBind visualiseras lätt som en viktad ensemble av positionsviktmatriser eller som en "mutationskarta" som anger hur variationer påverkar bindningen inom en viss sekvens. DNA- och RNA-bindande proteiner spelar en central roll i genregleringen, inklusive transkription och alternativ skarvning. De sekvensspecifika egenskaperna hos ett protein karakteriseras oftast med hjälp av positionsviktmatriser 1 (PWMs), som är lätta att tolka och kan skannas över en genomisk sekvens för att upptäcka potentiella bindningsställen. Men växande bevis tyder på att sekvensens särdrag kan mer exakt fångas upp av mer komplexa tekniker 2-5. Nyligen har "djupt lärande" uppnått rekordhöga resultat i en rad olika IT-tillämpningar 6,7. Vi anpassade djupt lärande metoder till uppgiften att förutsäga sekvens särdrag och fann att de konkurrerar gynnsamt med den senaste tekniken. Vårt tillvägagångssätt, som kallas DeepBind, är baserat på djupa konvolutionella neurala nätverk och kan upptäcka nya mönster även när platserna för mönster inom sekvenser är okända-en uppgift för vilken traditionella neurala nätverk kräver en orimlig mängd träningsdata. Det finns flera utmanande aspekter i lärande modeller av sekvensspecifikitet med hjälp av modern teknik med hög genomströmning. För det första kommer uppgifterna i kvalitativt olika former. Proteinbindande mikroarrayer (PBM) 8 och RNAcompetitive analyser 9 ger en specificitetskoefficient för varje sondsekvens, medan kromatin immunoprecipitation (ChIP)-seq 10 ger en rangordnad lista över putativt bundna sekvenser av varierande längd, och HT-SELEX 11 genererar en uppsättning av mycket hög affinitet sekvenser. För det andra är mängden data stor. Ett typiskt experiment med hög genomströmning mäter mellan 10.000 och 100.000 sekvenser, och det är computationally krävande att införliva dem alla. För det tredje har varje datainsamlingsteknik sina egna artefakter, förutfattade meningar och begränsningar, och vi måste upptäcka de relevanta särdragen trots dessa oönskade effekter. Till exempel, ChIP-seq läser ofta lokalisera till "hyper-ChIPable" regioner av genomet nära högt uttryckta gener 12. DeepBind (Fig. 1) tar upp de ovannämnda utmaningarna. (i) Det kan tillämpas på både mikroarray- och sekvensdata, (ii) det kan lära sig av miljontals sekvenser genom parallell implementering på en grafikbearbetningsenhet (GPU), (iii) det generaliserar bra över teknik, även utan att korrigera för teknikspecifika fördomar, (iv) det kan tolerera en måttlig grad av buller och felmärkt utbildningsdata, och (v) det kan träna prediktiva modeller helt automatiskt, lindra behovet av noggrann och tidskrävande hand-tuning. Viktigt är att en utbildad modell kan appliceras och visualiseras på sätt som är bekanta för användare av PWMs. Vi undersökte två nedströmstillämpningar: att avslöja den regulatoriska rollen av RNA-bindande proteiner (RBP) i alternativ skarvning, och analysera sjukdomsassocierade genetiska varianter som kan påverka transkriptionsfaktorbindning och genuttryck. RESULTAT För träning använder DeepBind en uppsättning sekvenser och, för varje sekvens, en experimentellt bestämd bindningspoäng. Sekvenser kan ha varierande längd (14-101 nt i våra experiment), och bindningspoäng kan vara real-värderade mätningar eller binära klassetiketter. För en sekvens s beräknar DeepBind en bindningspoäng f (s) med hjälp av fyra steg: Konvolutionssteget (conv M ) skannar en uppsättning motivdetektorer med parametrar M över sekvensen. Motif detektor M k är en 4 × m matris, ungefär som en PWM av längd m men utan att kräva koefficienter för att vara sannolikheter eller log odds förhållande. Rättningsfasen isolerar positioner med ett bra mönster som matchar genom att flytta detektorns svar M k genom b k och klämma fast alla negativa värden till noll. Poolingscenen beräknar maximum och medelvärde av varje motivdetektors rektifierade respons över hela sekvensen; maximering hjälper till att identifiera förekomsten av längre motiv, medan medelvärde hjälper till att
Neurala nätverk har tillämpats för att adressera epistasis för epigenomiska data, såsom att förutsäga sekvens särdrag proteinbindningar givna DNA-sekvenser REF.
3,204,652
Predicting the sequence specificities of DNA- and RNA-binding proteins by deep learning
{'venue': 'Nature Biotechnology', 'journal': 'Nature Biotechnology', 'mag_field_of_study': ['Biology', 'Medicine']}
7,787
Abstract-Vi studerar i detta papper optimala stokastiska kontrollfrågor i fördröjning toleranta nätverk. Först härleder vi strukturen för optimala 2-hops vidarebefordringspolicyer. För att sådana strategier ska kunna genomföras krävs kunskap om vissa systemparametrar, t.ex. antalet mobiler eller takten på kontakterna mellan mobiler, men dessa kan vara okända vid systemkonstruktionstidpunkten eller kan förändras över tiden. För att ta itu med detta problem utformar vi anpassningsbara policyer som kombinerar uppskattning och kontroll som uppnår optimal prestanda trots bristen på information. Vi studerar sedan interaktioner som kan uppstå i närvaro av flera konkurrerande klasser av mobiler och formulerar detta som ett kostnadskopplat stokastiskt spel. Vi visar att detta spel har en unik Nash jämvikt sådan att varje klass antar den optimala spedition politik bestäms för en klass problem.
I REF föreslogs en optimal stokastisk kontroll av paketspeditionen i DTN.
17,895,200
Decentralized Stochastic Control of Delay Tolerant Networks
{'venue': 'IEEE INFOCOM 2009', 'journal': 'IEEE INFOCOM 2009', 'mag_field_of_study': ['Computer Science']}
7,788
Den ursprungliga snabba svepning metod, som är en effektiv iterativ metod för stationära Hamilton-Jacobi ekvationer, bygger på naturlig beställning som tillhandahålls av en rektangulär mesh. Vi föreslår nya beställningsstrategier så att den snabba svepmetoden kan utökas effektivt och enkelt till alla ostrukturerade nät. Därför inför vi flera referenspunkter och beställer alla noder enligt deras l p avstånd till dessa referenspunkter. Vi visar att dessa beställningar uppfyller de två viktigaste egenskaperna bakom den snabba svepande metoden: (1) dessa beställningar kan täcka alla riktningar av informationsspridning effektivt; (2) alla egenskaper kan brytas ner i ett begränsat antal bitar och varje bit kan täckas av en av beställningarna. Vi bevisar att den nya algoritmen konvergerar i ett begränsat antal iterationer oberoende av maskstorlek. Den beräkningsmässiga komplexiteten hos den nya algoritmen är nästan optimal i den meningen att den totala beräkningskostnaden består av O(M )-flops för iterationssteg och O(M logM )-flops för sortering vid det förutbestämda initieringssteget som effektivt kan optimeras genom att använda en linjär tidssorteringsmetod, där M är det totala antalet meshpunkter. Vi visar omfattande numeriska exempel för att visa exaktheten och effektiviteten i den nya algoritmen.
Snabbsvettningsmetoden REF har en linjär beräkningskomplexitet.
889,068
Fast sweeping methods for eikonal equations on triangular meshes
{'venue': 'SIAM J. Numerical Analysis', 'journal': 'SIAM J. Numerical Analysis', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
7,789
Många maskininlärningsalgoritmer är sårbara för nästan omärkliga perturbationer av sina ingångar. Än så länge var det oklart hur mycket riskmotsättningar medför för säkerheten i verkliga tillämpningar för maskininlärning eftersom de flesta metoder som används för att generera sådana perturbationer beror antingen på detaljerad modellinformation (gradientbaserade attacker) eller på konfidensintervall som t.ex. klassannolikheter (score-baserade attacker), som ingendera finns i de flesta verkliga scenarier. I många sådana fall måste man för närvarande retirera till överföringsbaserade attacker som bygger på besvärliga ersättningsmodeller, behöver tillgång till utbildningsdata och kan försvaras mot. Här betonar vi vikten av attacker som enbart bygger på det slutliga modellbeslutet. Sådana beslutsbaserade attacker är (1) tillämpliga på verkliga Black-box modeller såsom autonoma bilar, (2) behöver mindre kunskap och är lättare att tillämpa än överföringsbaserade attacker och (3) är mer robusta för enkla försvar än gradient- eller poängbaserade attacker. Tidigare attacker i denna kategori var begränsade till enkla modeller eller enkla datauppsättningar. Här introducerar vi Boundary Attack, en beslutsbaserad attack som utgår från en stor motsträvig perturbation och sedan strävar efter att minska perturbationen samtidigt som den är motsträvig. Angreppet är konceptuellt enkelt, kräver nära till ingen hyperparameter tuning, inte förlitar sig på alternativa modeller och är konkurrenskraftig med de bästa gradient-baserade attacker i vanliga datorseende uppgifter som ImageNet. Vi använder attacken på två Black-box algoritmer från Clarifai.com. Gränsattacken i synnerhet och klassen av beslutsbaserade attacker i allmänhet öppnar nya vägar för att studera robustheten i maskininlärningsmodeller och väcka nya frågor om säkerheten i utplacerade maskininlärningssystem. Ett genomförande av attacken finns tillgängligt som en del av Foolbox (https://github.com/bethgelab/foolbox). Förlaga M
Beslutsbaserade attacker Mest relaterade till vårt arbete är gränsattacksmetoden som infördes av Brendel et al. Hoppa över det.
2,410,333
Decision-Based Adversarial Attacks: Reliable Attacks Against Black-Box Machine Learning Models
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
7,790
Det senaste arbetet har visat framgång i att använda neurala nätverk språkmodeller (NNLM) som funktioner i MT-system. Här presenterar vi en ny formulering för en neural nätverk gemensam modell (NNJM), som förstärker NNLM med en källa sammanhangsfönster. Vår modell är rent lexikaliserad och kan integreras i vilken MT-dekoder som helst. Vi presenterar också flera varianter av NNJM som ger betydande additiva förbättringar. Även om modellen är ganska enkel ger den starka empiriska resultat. På NIST OpenMT12 arabisk-engelska villkor, NNJM funktioner ger en vinst på +3.0 BLEU utöver en kraftfull, funktionsrik baslinje som redan innehåller en mål-endast NNLM. NNJM-funktionerna ger också en vinst på +6.3 BLEU utöver en enklare baslinje som motsvarar Chiangs (2007) ursprungliga Hiero-implementering. Dessutom beskriver vi två nya tekniker för att övervinna den historiskt höga kostnaden för att använda NNLM-modeller i MT-avkodning. Dessa tekniker påskyndar NNJM beräkning med en faktor på 10.000x, vilket gör modellen lika snabb som en standard back-off LM.
I REF presenterar de också gemensamma modeller som utökar NNLM med ett källkontextfönster för att införa en ny avkodningsfunktion.
7,417,943
Fast and Robust Neural Network Joint Models for Statistical Machine Translation
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
7,791
Vi presenterar en omfattande prestandaanalys av flera utseendebaserade ansiktsigenkänningsmetoder, på synliga och termiska infraröda bilder. Vi jämför algoritmer inom och mellan metoder när det gäller igenkänningsprestanda, falska larmfrekvenser och krav för att uppnå specifika prestandanivåer. Effekten av belysningsförhållandena på igenkänningsprestanda betonas, eftersom det understryker den relativa fördelen med radiometriskt kalibrerade termiska bilder för ansiktsigenkänning.
En av de allra första jämförande studierna av synlig och termisk ansiktsigenkänning utfördes av REF.
12,219,049
A comparative analysis of face recognition performance with visible and thermal infrared imagery
{'venue': 'Object recognition supported by user interaction for service robots', 'journal': 'Object recognition supported by user interaction for service robots', 'mag_field_of_study': ['Computer Science']}
7,792
Programvisualisering är en populär teknik för programförståelse som används i samband med programvaruunderhåll, omvänd teknik och mjukvaruutvecklingsanalys. Det finns ett brett spektrum av programvisualiseringsmetoder, men bara få har utvärderats empiriskt. Detta är skadligt för acceptansen av programvaruvisualisering i både den akademiska och den industriella världen. Vi presenterar ett kontrollerat experiment för empirisk utvärdering av en 3D-programvara visualiseringsmetod baserad på en stadsmetafor och implementeras i ett verktyg som kallas CodeCity. Målet är att ge experimentella bevis på livskraften i vårt tillvägagångssätt i samband med programförståelse genom att låta ämnen utföra uppgifter relaterade till programförståelse. Vi designade vårt experiment baserat på lärdomar från den nuvarande forskningen. Vi genomförde experimentet på fyra platser i tre länder, med 41 deltagare från både akademi och industri. Experimentet visar att CodeCity leder till en statistiskt signifikant ökning av uppgiftens korrekthet och minskning av uppgiftens slutförandetid. Vi beskriver det experiment vi utförde, diskuterar dess resultat och reflekterar över de många lärdomar vi lärt oss.
Mer involverade visualiseringar har utforskats också, såsom en 3D-metafor REF.
12,696,382
Software systems as cities: a controlled experiment
{'venue': "ICSE '11", 'journal': None, 'mag_field_of_study': ['Computer Science']}
7,793
Abstrakt. införde ett nytt mått på svårighet för en distribuerad uppgift i ett nätverk. Det minsta antalet bitar av råd av ett distribuerat problem är det minsta antalet bitar av information som måste vara tillgängliga för noder för att utföra uppgiften effektivt. Vårt papper behandlar antalet bitar av råd som krävs för att effektivt utföra grafsökningsproblem i en distribuerad inställning. I denna variant av problemet, alla sökare placeras initialt på en viss nod av nätverket. Syftet med teamet av sökare är att fånga en osynlig och godtyckligt snabb rymling på ett monotont ansluten sätt, dvs. den rensade delen av grafen är permanent ansluten, och aldrig minskar medan sökstrategin utförs. Vi visar att det minsta antalet bitar av råd som tillåter monoton ansluten clearing av ett nätverk i en distribuerad inställning är O(n log n), där n är antalet noder i nätverket, och denna gräns är snäv. Mer exakt ger vi först en märkning av hörnen i någon graf G, med hjälp av totalt O(n log n) bitar, och ett protokoll som använder denna märkning som möjliggör clearing G på en monoton ansluten distribuerat sätt. Sedan visar vi att detta antal bitar av råd är nästan optimalt: inget protokoll med hjälp av ett orakel som ger o(n log n) bitar av råd tillåter monoton ansluten clearing av ett nätverk med hjälp av det minsta antalet sökare.
När det gäller REF var frågan inte effektivitet utan genomförbarhet: det visades att till (n log n) är den minsta storleken av råd som krävs för att utföra monoton ansluten graf clearing.
2,304,834
GRAPH SEARCHING WITH ADVICE
{'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science']}
7,794
För att uppnå den dynamiska bildandet av klusterstorlek och för att minska överbelastningen av kluster. Storleken på kluster baseras på att balansera belastningen genom att tillämpa Link Expiration time som beräknas med Gauss Markov Model. Vi relaterar bildandet av kluster baserat på Gauss Markov Modell och länkperioden mellan noderna beräknas med hjälp av Link Expiration Time (LET). Detta görs genom att bilda Hybrid-algoritmen från ovan angivna modeller. Våra resultat indikerar minskningen och ökningen av storleken på kluster automatiskt baserat på den tilldelade belastningen i nätet och minska överbelastningen i intrakluster formation.
I REF använde de omgruppering av kluster för att balansera belastningen i nätverket genom att slå samman kluster, dela upp kluster eller bilda nya kluster.
19,034,644
Clustering Algorithm to Reduce the Overheads and to Balance the Load Using an Hybrid Algorithm in Gauss Markov Model
{'venue': None, 'journal': 'International Journal of Computer and Electrical Engineering', 'mag_field_of_study': ['Computer Science']}
7,795
I Stochastic Orientering problem, vi ges en metrisk, där varje nod har också ett jobb som ligger där med någon deterministisk belöning och en slumpmässig storlek. (Tänk på jobben som sysslor man måste springa, och storleken som den tid det tar att göra uppgiften.) Målet är att anpassa sig till vilka noder som ska besökas för att maximera den totala förväntade belöningen, med förbehåll för begränsningen att den totala ressträckan plus den totala storleken av jobb som behandlas är som mest en given budget för B. (d.v.s. vi får belöning för alla de sysslor vi avslutar i slutet av dagen). Ett jobbs (slumpmässiga) storlek är inte känd förrän det är helt bearbetat. Därför kombinerar problemet aspekter av både den stokastiska knapsack problem med osäkra artikelstorlekar och deterministiska orientering problem med att använda en begränsad restid för att maximera samlade belöningar som finns vid noder. I detta dokument presenterar vi en approximationsalgoritm med konstant faktor för den bästa icke-adaptiva politiken för det stokastiska orienteringsproblemet. Vi visar också en liten adaptivitet gap-d.v.s. förekomsten av en icke-adaptiv politik vars belöning är minst en 1 log B-fraktion av den optimala förväntade belöning-och därför får vi också en O (log log B)-tillnärmning algoritm för adaptiv problem. Slutligen tar vi itu med fallet när noden belöningar är också slumpmässiga och kan korreleras med väntetiden, och ge en icke-adaptiv politik som är en O (log n log B)-uppskattning till den bästa adaptiva policyn för n-node metrics med budget B. Detta anslag är avsett att täcka åtaganden som återstår att reglera i enlighet med artikel 21 i förordning (EU) nr 1303/2013. Det finns en konstant-faktor approximationsalgoritm till optimal icke-adaptiv politik för stokastisk orientering. Observera att om vi kunde visa ett existentiellt bevis på en konstant anpassningsklyfta (som vi förmodar vara sann), ovan approximation för icke-adaptiva problem som vi visar omedelbart innebär en O(1)- approximation algoritm för adaptiv problem också. Vår andra uppsättning resultat är för en variant av problemet, en där både belöningar och jobbstorlekar är slumpmässiga och korrelerade med varandra. För detta korrelerade problem visar vi följande resultat: Theorem 1.4. Det finns en polynom-tidsalgoritm som ger en icke-adaptiv lösning för korrelerad stokastisk orientering, som är en O (log n log B)-uppskattning till den bästa adaptiva lösningen. Dessutom är det korrelerade problemet minst lika svårt som problemet med orientering med deadlines. Kom ihåg att vi bara vet en O(log n) approximation för orientering-med-deadlines problem [BBCM04]. Våra tekniker: De flesta av de tidigare anpassningsluckorna har visat sig genom att överväga en viss linjär programmeringsavkoppling som fångar upp de optimala adaptiva strategierna, och sedan visa hur man rundar en fraktionerad LP-lösning för att få en icke-adaptiv strategi. Men eftersom vi inte känner till någon god avkoppling för ens det deterministiska orienteringsproblemet, verkar detta tillvägagångssätt vara svårt att ta direkt. Så för att visa våra anpassningsgap resultat tvingas vi argumentera direkt om den optimala adaptiva strategin: vi använder martingale argument för att visa existensen av en väg (alias. icke-adaptiv strategi) i detta träd som ger en stor belöning. Vi kan sedan använda algoritmer för icke-adaptiva inställningar, som är baserade på reduktioner till orientering (med en ytterligare knapsack begränsning). Färdplan: Resten av dokumentet följer översikten ovan. Vi börjar med några definitioner i Avsnitt 2, och sedan definiera och ge en algoritm för knapsack orienteringsproblem som kommer att vara en avgörande sub-rutin i alla våra algoritmer i Avsnitt 3. Därefter motiverar vi vår icke-adaptiva algoritm genom att diskutera några halm-man lösningar och de fällor de faller i, i Avsnitt 4. Vi förklarar sedan och bevisar vår konstant-faktor icke-adaptiv algoritm i Sektion 5, vilket naturligt leder oss till vårt huvudresultat i Sektion 9, bevis på O (log log B)-adaptivity gap för StocOrient. Slutligen presenterar vi i sektion 13 den polylogaritmiska approximationen för problemet där belöningarna och storlekarna är korrelerade med varandra. För alla dessa resultat utgår vi från att vi inte får avbryta arbetstillfällen när vi väl har börjat arbeta med dem: i avsnitt 18 visar vi hur vi ska bevilja ansvarsfrihet för detta antagande. 2 Egentligen bör man verkligen ersätta det stokastiska jobbet med en deterministisk en av storlek E[min(S j, B − d(ρ, j))]] och belöna r j · Pr[S j + d(ρ, j) ≤ B], det är mycket lätt att lura algoritmen annars.
Gupta m.fl. REF generaliserade den stokastiska knapsack problem till den stokastiska orienteringsproblem, där varje stokastisk objekt nu bor på en vertex av en given metriska, och vi behöver för att passa både turen längd och objektstorlekar inom vår budget B. ey ge en O (log log B)-tillnärmning icke-adaptiv algoritm för detta problem.
4,102,021
Approximation algorithms for stochastic orienteering
{'venue': 'SODA', 'journal': None, 'mag_field_of_study': ['Computer Science']}
7,796
Vi presenterar en skalbar metod för halvövervakad inlärning på grafstrukturerade data som bygger på en effektiv variant av konvolutionella neurala nätverk som fungerar direkt på grafer. Vi motiverar valet av vår konvolutionella arkitektur via en lokaliserad första ordningen approximation av spektral graf konvolutioner. Vår modell skalar linjärt i antalet grafkanter och lär sig dolda lager representationer som kodar både lokala graf struktur och funktioner i noder. I ett antal experiment på citeringsnätverk och på ett kunskapsdiagram visar vi att vårt tillvägagångssätt överträffar relaterade metoder med en betydande marginal.
I REF föreslog författarna en skalbar inlärningsmetod för konvolutionella neurala nätverk på grafer som kallas Graph Convolutional Network (GCN).
3,144,218
Semi-Supervised Classification with Graph Convolutional Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
7,797
Vi presenterar en inlärningsbaserad metod för datorlösningar för vissa NPhard-problem. Vår strategi kombinerar djupinlärningsteknik med användbara algoritmiska element från klassiska heuristiker. Den centrala komponenten är en graf konvolutional nätverk som tränas för att uppskatta sannolikheten, för varje vertex i en graf, av om denna vertex är en del av den optimala lösningen. Nätverket är utformat och utbildat för att syntetisera en mängd olika lösningar, vilket gör det möjligt att snabbt utforska lösningsutrymmet via trädsökning. Det framlagda tillvägagångssättet utvärderas på fyra kanoniska NP-hårda problem och fem dataset, som inkluderar benchmark satisfiability problem och verkliga sociala nätverk grafer med upp till hundra tusen noder. Experimentella resultat visar att det framlagda tillvägagångssättet avsevärt överträffar de senaste djuplärande arbetena, och presterar på samma sätt som högt optimerade toppmoderna heuristiska lösare för vissa NP-hårda problem. Experiment visar att vårt tillvägagångssätt generaliserar över datauppsättningar, och skalor till grafer som är storleksordningar större än de som används under träning.
Löjtnant m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m för m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. REF utbildade ett diagramkonvolutionsnätverk för att uppskatta sannolikheten för att en vertex i en graf visas i den optimala lösningen.
53,027,872
Combinatorial Optimization with Graph Convolutional Networks and Guided Tree Search
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
7,798
Abstract-Ultrasound (US) är bland de mest populära diagnostiska tekniker idag. Det är icke-invasiv, snabb, jämförelsevis billig, och kräver inte joniserande strålning. US används ofta för att undersöka storleken och strukturen på sköldkörteln. I klinisk rutin utförs tyreoideatomografi vanligtvis med hjälp av 2-D US. Konventionella metoder för mätning av sköldkörtelns volym eller dess knölar kan därför vara felaktiga på grund av bristen på 3D-information. I detta arbete redovisas en halvautomatisk segmenteringsmetod för klassificering och analys av sköldkörteln baserad på 3D amerikanska data. Bilderna skannas i 3D, förbehandlas och segmenteras. Flera förbearbetningsmetoder, och en förlängning av en allmänt använd geodesisk aktiv kontur nivå uppsättning formulering diskuteras i detalj. De resultat som erhålls genom detta tillvägagångssätt jämförs med manuella interaktiva segmenteringar av en medicinsk expert på fem representativa patienter. Vårt arbete föreslår en ny ram för den volymetriska kvantifieringen av sköldkörtellober, som också kan utvidgas till andra parenkymatösa organ.
Kolorz et al föreslog ett semiautomatiskt tillvägagångssätt för att klassificera sköldkörteln för volymetrisk kvantifiering med hjälp av geodesisk aktiv kontur. Hoppa över det.
17,984,651
Quantification of Thyroid Volume Using 3-D Ultrasound Imaging
{'venue': 'IEEE Transactions on Medical Imaging', 'journal': 'IEEE Transactions on Medical Imaging', 'mag_field_of_study': ['Computer Science', 'Medicine']}
7,799
Vi presenterar en ny videostabiliseringsteknik som använder projektiv scenrekonstruktion för att behandla jitterade videosekvenser. Till skillnad från metoder som återvinner scenens hela tredimensionella geometri, står denna modell för enkla geometriska relationer mellan punkter och epipolära linjer. Med hjälp av denna nivå av scen förståelse, får vi den fysiska korrektheten av 3D-stabiliseringsmetoder men undvika deras brist på robusthet och beräkningskostnader. Vår metod består av att spåra funktionspunkter i scenen och använda dem för att beräkna grundläggande matriser som modellen stabiliserade kamerans rörelse. Vi projicerar sedan de spårade punkterna på de nya stabiliserade ramarna med hjälp av epipolär punktöverföring och syntetiserar nya ramar med bildbaserad ramförvrängning. Eftersom denna modell endast gäller för statiska scener, utvecklar vi en tid-vy om projektion som står för icke-stationära punkter på ett principfast sätt. Denna reprojicering är baserad på modellering av dynamiken i smidig tröghetsobjektrörelse i tredimensionellt utrymme och gör det möjligt för oss att undvika behovet av interpolering av stabilisering för att flytta föremål från deras statiska omgivning. Således uppnår vi en tillräcklig stabilisering när både kameran och föremålen rör sig. Vi visar vår förmåga att stabilisera handhållna videobilder i olika scenarier: scener utan parallax som utmanar 3D-strategier, scener som innehåller icke-triviala parallaxeffekter, videor med kamerazoomning och kamerastabilisering, samt filmer med stora rörliga objekt.
Goldstein och Fattal REF tillämpade den projektiva rekonstruktionen för att redogöra för enkla geometriska relationer mellan punkter och epipolära linjer, vilket ökar robustheten i scenmodellering.
17,754,191
Video stabilization using epipolar geometry
{'venue': 'TOGS', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
7,800
I en -Nash jämvikt, en spelare kan vinna som mest genom att ensidigt ändra sitt beteende. För tvåspelarspel (bimatrix) med vinst i [0, 1] är det mest kända i polynomet 0,3393 (Tsaknakis och Spirakis i Internet Math 5.4: [365][366][367][368][369][370][371][372][374][375][377][378][379][380][381][382] 2008). I allmänhet, för n-player spel en -Nash jämvikt kan beräknas i polynom tid för en som är en ökande funktion av n men inte beror på antalet strategier för spelarna. För spel med tre spelare och spel med fyra spelare är motsvarande värden 0,6022 respektive 0,7153. Polymatrix spel är en begränsning av allmänna n-player spel där en spelares payoff är summan av payoffs från ett antal bimatrix spel. Det finns en mycket liten men konstant sådan att beräkning en -Nash jämvikt av ett polymatrix spel är PPAD-hård. Vårt huvudsakliga resultat är att en (0,5 + δ)-Nash jämvikt av en n-player polymatrix spel kan beräknas i tid polynom i ingångsstorlek och 1 δ. Inspirerad av algoritmen i Tsaknakis och Spirakis [28], använder vår algoritm lutning nedstigning stil strategi på maximal ånger av spelarna. Vi visar också att denna algoritm kan tillämpas för att effektivt hitta en (0,5 + δ)-Nash jämvikt i en två-spelare Bayesian spel.
På ett positivt sätt presenterade REF en algoritm för beräkning av en (0,5 + δ)-MSNE av ett n-player polymatrix-spel.
2,302,401
Computing Approximate Nash Equilibria in Polymatrix Games
{'venue': 'Algorithmica', 'journal': 'Algorithmica', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
7,801
Klassen av svagt acykliska spel, som inkluderar potentiella spel och dominans-lösliga spel, fångar många praktiska tillämpningsområden. I ett svagt acykliskt spel, från alla starttillstånd, finns det en sekvens av bättre-respons rörelser som leder till en ren Nash jämvikt; informellt, dessa är spel där naturliga distribuerade dynamik, såsom bättre-respons dynamik, inte kan träda in ofrånkomliga svängningar. Vi etablerar en ny länk mellan sådana spel och förekomsten av ren Nash equilibria i delspel. Särskilt visar vi att förekomsten av en unik ren Nash jämvikt i varje subgame innebär den svaga acykliciteten i ett spel. Däremot är den möjliga förekomsten av flera rena Nash equilibria i varje delspel otillräcklig för svag acyklicitet i allmänhet; här identifierar vi också systematiskt
Vissa strukturella resultat finns också. REF visade att förekomsten av en unik Nash jämvikt i varje delspel innebär att spelet är svagt acykliskt.
2,020,907
On the Structure of Weakly Acyclic Games
{'venue': 'Theory of Computing Systems', 'journal': 'Theory of Computing Systems', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
7,802
γ-FDP och k-FWER flera mätfel, som är svans sannolikheter för respektive felstatistik, har blivit populära nyligen som mindre stränga alternativ till FDR och FWER. Vi föreslår allmänna och flexibla stegvisa och stegvisa förfaranden för att testa flera hypoteser om sekventiella (eller strömmande) data som samtidigt styr både typ I- och II-versionerna av γ-FDP, eller k-FWER. Felkontrollen håller oberoende av beroendet mellan dataströmmar, som kan vara av godtycklig storlek och form. Allt som behövs är en teststatistik för varje dataflöde som styr de konventionella sannolikheterna för fel av typ I och II, och ingen information eller antaganden krävs om den gemensamma fördelningen av statistiken eller dataströmmarna. Förfarandena kan användas med sekventiella, gruppvisa, trunkerade eller andra provtagningsscheman. Vi ger rekommendationer för genomförandet av förfarandena, inklusive slutna uttryck för de kritiska värden som behövs i vissa vanliga testsituationer. De föreslagna sekventiella förfarandena jämförs med varandra och med jämförbara förfaranden med fast urvalsstorlek i samband med starkt positivt korrelerade Gaussiska dataströmmar. För denna inställning drar vi slutsatsen att både stegvisa och stegvisa förfaranden ger betydande besparingar jämfört med de fasta urvalsförfarandena när det gäller den förväntade urvalsstorleken, och stegvisa förfaranden fungerar något men konsekvent bättre än stegneden för γ-FDP-kontroll, med förhållandet vänt för k-FWER-kontroll.
I samband med testning av J > 2 (fast) nollhypoteser om J-sekvenser av dataströmmar av godtycklig storlek, föreslår REF allmänna stegvisa och stegvisa förfaranden som ger kontroll av de samtidiga generaliserade felfrekvenserna av typ I och II.
88,519,418
Multiple Hypothesis Tests Controlling Generalized Error Rates for Sequential Data
{'venue': None, 'journal': 'arXiv: Methodology', 'mag_field_of_study': ['Mathematics']}
7,803
I detta dokument presenteras en metod för automatisk generering av en innehållsförteckning. Denna typ av sammanfattning kan fungera som ett effektivt navigeringsverktyg för att få tillgång till information i långa texter, t.ex. böcker. För att skapa en sammanhållen innehållsförteckning måste vi fånga upp både globala beroenden mellan olika titlar i tabellen och lokala begränsningar inom sektionerna. Vår algoritm hanterar effektivt dessa komplexa beroenden genom att faktorisera modellen till lokala och globala komponenter och stegvis bygga modellens utdata. Resultaten av automatisk utvärdering och manuell bedömning bekräftar fördelarna med denna design: vårt system rankas konsekvent högre än icke-hierarkiska baslinjer.
En tillämpning av ett sådant tillvägagångssätt är att automatiskt generera en innehållsförteckning för en bok REF.
1,467,105
Generating a Table-of-Contents
{'venue': '45th Annual Meeting of the Association of Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']}
7,804
Trådlösa sensornätverk har vuxit snabbt i och med innovationen inom informationsteknik. Sensornoder är fördelade och utplacerade över området för att samla in nödvändig information. Sensornoder har en negativ egenskap av begränsad energi som drar tillbaka nätverket från att utnyttja sin toppkapacitet. Därför är det nödvändigt att samla in och överföra informationen på ett optimerat sätt som minskar energiavledningen. Ant Colony Optimization (ACO) används ofta för att optimera nätverket routing protokoll. Antbaserad Routing kan spela en viktig roll för att förbättra nätverkets livslängd. I detta dokument, Intercluster Ant Colony Optimization Algoritm (IC-ACO) har föreslagits som förlitar sig på ACO algoritm för routing av datapaket i nätverket och ett försök har gjorts för att minimera ansträngningar slösas bort för att överföra överflödiga data som skickas av sensorer som ligger i närheten av varandra i ett tätt utplacerat nätverk. IC-ACO-algoritmen studerades genom simulering för olika nätverksscenarier. Resultaten beskriver ledningen av IC-ACO jämfört med LEACH-protokollet genom att indikera högre energieffektivitet, förlängd nätverkslivslängd, förbättrad stabilitetsperiod, och den förhöjda mängden datapaket i ett tätt utplacerat trådlöst sensornätverk.
I IC-ACO använder Ant Colony Optimization algoritm för att minska redundant data i klustret själv REF.
26,691,244
Intercluster Ant Colony Optimization Algorithm for Wireless Sensor Network in Dense Environment
{'venue': None, 'journal': 'International Journal of Distributed Sensor Networks', 'mag_field_of_study': ['Computer Science']}
7,805
I publicerings-/prenumerationssystem beskriver användarna sina intressen via prenumerationer och meddelas när nya intressanta evenemang blir tillgängliga. I sådana system anses alla abonnemang vara lika viktiga. Men på grund av den stora mängden information, användare kan få överväldigande mängder av händelser. I detta dokument föreslår vi att man använder en rankningsmekanism baserad på användarnas preferenser, så att endast topprankade händelser levereras till varje användare. Eftersom många gånger topprankade evenemang liknar varandra, föreslår vi också att mångfalden av levererade evenemang ska öka. Dessutom undersöker vi ett antal olika leveranspolicyer för att vidarebefordra rangordnade evenemang till användare, nämligen ett periodiskt, ett skjutfönster och ett historiebaserat. Vi har fullt ut implementerat vår strategi i SIENA, ett populärt publicerings-/prenumerationssystem för middleware, och rapportera experimentella resultat av dess installation.
Detta beslut träder i kraft dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. REF föreslår ett preferens-medvetet Publicera/Subscribe-system med en rankningsmekanism baserad på användarnas preferenser.
783,981
Preference-aware publish/subscribe delivery with diversity
{'venue': "DEBS '09", 'journal': None, 'mag_field_of_study': ['Computer Science']}
7,806
Abstract-The betydelsen av slumptalsgeneratorer (RNG) för olika datorapplikationer är väl förstådd. För att säkerställa en kvalitetsnivå för produktionen bör källor med hög entropi användas som indata. De algoritmer som används har dock ännu inte utvecklats fullt ut för att utnyttja nyare teknik. Även Android pseudo RNG (APRNG) bygger bara ovanpå Linux RNG för att producera slumpmässiga tal. Detta dokument presenterar en undersökande studie om metoder för att generera slumpmässiga tal på sensorutrustade mobila och Internet of Things enheter. Vi utför först en datainsamling studie över 37 Android-enheter för att avgöra två saker-hur mycket slumpmässiga data konsumeras av moderna enheter, och vilka sensorer som kan producera tillräckligt slumpmässiga data. Vi använder resultaten av vår analys för att skapa ett experimentellt ramverk kallat SensoRNG, som fungerar som en prototyp för att testa effekten av en sensorbaserad RNG. SensoRNG använder insamling av data från sensorer ombord och kombinerar dem via en lätt blandningsalgoritm för att producera slumpmässiga tal. Vi utvärderar SensoRNG med National Institute of Standards and Technology statistiska tester svit och visar att en sensorbaserad RNG kan ge hög kvalitet slumptal med bara lite extra overhead.
Författarna i REF byggde ett ramverk kallat SensoRNG för att producera säkert slumpmässigt nummer för mobila enheter och IoT-enheter.
1,042,299
Toward Sensor-Based Random Number Generation for Mobile and IoT Devices
{'venue': 'IEEE Internet of Things Journal', 'journal': 'IEEE Internet of Things Journal', 'mag_field_of_study': ['Computer Science']}
7,807
Sparse representation har applicerats på visuell spårning genom att hitta den bästa kandidaten med minimal återuppbyggnad fel med hjälp av målmallar. De flesta sparsamma representationsbaserade spårare tar dock bara hänsyn till den holistiska representationen och utnyttjar inte fullt ut de glesa koefficienterna för att diskriminera mellan målet och bakgrunden, och kan därför misslyckas med större möjlighet när det finns liknande objekt eller ocklusion i scenen. I detta dokument utvecklar vi en enkel men ändå robust spårningsmetod baserad på den strukturella lokala glesa utseendemodellen. Denna representation utnyttjar både partiell information och rumslig information om målet baserat på en ny anpassningspoolningsmetod. Likheten som erhålls genom att samla över de lokala patchar hjälper inte bara lokalisera målet mer exakt men också hantera ocklusion. Dessutom använder vi en malluppdateringsstrategi som kombinerar inkrementellt subrymdsinlärning och sparsam representation. Denna strategi anpassar mallen till utseendet förändring av målet med mindre möjlighet att driva och minskar påverkan av den ockluded målmallen också. Både kvalitativa och kvantitativa utvärderingar av utmanande bildsekvenser visar att den föreslagna spårningsalgoritmen fungerar gynnsamt mot flera toppmoderna metoder.
presenterade ASLA modellen baserat på en ny anpassning-pooling REF.
1,315,786
Visual tracking via adaptive structural local sparse appearance model
{'venue': '2012 IEEE Conference on Computer Vision and Pattern Recognition', 'journal': '2012 IEEE Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
7,808
Abstract-Det finns flera institutioner som ackrediterar utbildningsprogram och kräver dokumentation för att säkerställa att ett utbildningsprogram regelbundet uppfyller vissa kriterier. Detta dokument fokuserar på ABET-programmet. De kräver att program visar elevernas prestationsförmåga och vissa kursresultat. Dokumentation av detta krav är särskilt betungande. Det finns ingen standardmetod för att generera dessa rapporter, så varje institution hanterar dem på olika sätt. Detta kan innebära manuell insamling av uppgifter som är mycket tidskrävande. Ett programvaruverktyg som underlättar insamlingen av data och automatiskt genererar de rapporter som krävs skulle spara institutionerna tid och pengar. Denna uppsats presenterar ett sådant verktyg, kallat ACAT (ABET Course Assessment Tool), det är en webbaserad applikation utformad för att hjälpa till med insamling av data och generering av standardiserade bedömningsrapporter. Detta dokument fokuserar på design och användbarhet aspekter av det föreslagna ACAT-verktyget och ger genomförande och drift detaljer.
ACAT är ett webbaserat verktyg som underlättar insamling av data och generering av bedömningsrapporter enligt ABET REF.
7,048,334
ACAT: A Web-Based Software Tool to Facilitate Course Assessment for ABET Accreditation
{'venue': '2010 Seventh International Conference on Information Technology: New Generations', 'journal': '2010 Seventh International Conference on Information Technology: New Generations', 'mag_field_of_study': ['Computer Science']}
7,809
Vi anser att problemet med att leverera m-meddelanden mellan angivna käll-målpar i en viktad oriktad graf, av k mobila agenter som ursprungligen ligger vid distinkta noder av grafen. Varje agent förbrukar energi i proportion till det avstånd den färdas i grafen och vi är intresserade av att optimera den totala energiförbrukningen för teamet av agenter. Till skillnad från tidigare relaterade arbeten anser vi heterogena ämnen med olika energiförbrukning (vikter w i ). För att lösa leveransproblemet står agenter inför tre stora utmaningar: Samarbete (hur man arbetar tillsammans på varje meddelande), Planering (vilken väg att ta) och Samordning (hur man tilldelar agenter till meddelanden). Vi visar först att leveransproblemen kan vara 2-uppskattade utan samarbete och att detta är bäst möjligt, d.v.s. visar vi att nyttan med samverkan är 2 i allmänhet. Vi visar också att nyttan av samarbete för ett enda budskap är 1/ ln 2 på 1,44. Planering visar sig vara NP-hård till ungefärlig även för en enda agent, men kan vara 2-ungefärlig i polynom tid om agenter har enhetskapacitet och inte samarbetar. Vi visar vidare att koordination är NPhard även för agenter med enhetskapacitet, men kan effektivt lösas exakt om de har enhetliga vikter. Slutligen ger vi en polynom-tid (4 max wi wj )-uppskattning för meddelandeleverans med enhetskapacitet.
Verket av Bärtschi et al. REF beaktar problemet med att leverera paket samtidigt som den totala energiförbrukningen för drönarna minimeras.
9,812,321
Energy-efficient Delivery by Heterogeneous Mobile Agents
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
7,810
I detta dokument studeras sekretesskommunikationen i en ortogonal frekvensdivision multiplexing system, där en källa skickar konfidentiell information till en destination i närvaro av en potentiell tjuvlyssnare. Vi använder trådlös kooperativ störning för att förbättra sekretessgraden för detta system med hjälp av en kooperativ jammer, som fungerar i skörden sedan jam protokoll över två tider slots. I den första slot, skickar källan dedikerade energisignaler för att driva stören; i den andra sloten använder stören den skördade energin för att störa tjuvlyssnaren, för att skydda den samtidiga sekretess kommunikation från källan till destinationen. I synnerhet överväger vi två typer av mottagare på destinationen, nämligen typ I- och typ II-mottagare, som inte har och har möjlighet att avbryta (ett tidigare känt) störningssignalerna. För båda typerna av mottagare maximerar vi sekretessgraden på destinationen genom att gemensamt optimera tilldelning av sändningseffekt vid källan och jammer över undertransportörer, samt tidsfördelningen mellan de två tiderna. För det första presenterar vi den globalt optimala lösningen på detta problem via den dubbla metoden Lagrange, som dock är mycket komplex när det gäller genomförandet. Därefter, för att balansera avvägningen mellan algoritmens komplexitet och prestanda, föreslår vi alternativa lösningar med låg komplexitet baserat på minimeringsmaximering respektive heuristisk successiv optimering. Simuleringsresultat visar att de föreslagna strategierna avsevärt förbättrar sekretessgraden, jämfört med referenssystem utan gemensam makt och tidstilldelning. Index Terms-Gemensam makt och tidstilldelning, OFDM-system, fysisk lagersäkerhet, trådlös samarbetsstörning. Han är för närvarande lektor vid Guangdong University of Technology, Guangzhou, Kina. Hans forskningsintressen är bl.a. trådlösa samarbetssystem, ODMM, MIMO och resursfördelning. Fan Lin tog emot magisterexamen. examen i kommunikation och
I REF togs hänsyn till en multicarrier WPCN med en trådlös jammer, och sekretessgraden maximerades genom att gemensamt optimera tidstilldelning och krafttilldelning vid källan nod och jammer över subcarriers.
1,920,416
Wireless Powered Cooperative Jamming for Secure OFDM System
{'venue': 'IEEE Transactions on Vehicular Technology', 'journal': 'IEEE Transactions on Vehicular Technology', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
7,811
Sammanfattning Vi introducerar en klass av MPDs som avsevärt förenklar Förstärkning Lärande. De har diskreta tillståndsutrymmen och kontinuerliga kontrollutrymmen. Kontrollerna leder till en omskalning av sannolikheterna för övergången till en underliggande Markovkedja. En kontrollkostnad som straffar KL-skillnaden mellan kontrollerade och okontrollerade övergångssannolikheter gör minimeringsproblemet konvext och möjliggör analytisk beräkning av de optimala kontrollerna med tanke på den optimala värdefunktionen. En exponentiell omvandling av den optimala värdefunktionen gör den minimerade Bellman-ekvationen linjär. Bortsett från deras teoretiska betydelse möjliggör de nya MDP efficient approximations till traditionella MDP. Kortaste problem är approximerade till godtycklig precision med största eigen value problem, vilket ger en O (n) algoritm. Exakta approximationer till generiska MDP erhålls via kontinuerlig inbäddning som påminner om LP avkoppling i heltal programmering. Den nya algoritmen (Z-learning) överträffar Q-learning.
Metoden i REF lär sig endast en optimal värdefunktion, istället för belöningsfunktionen.
393,501
Linearly-solvable Markov decision problems
{'venue': 'ADVANCES IN NEURAL INFORMATION PROCESSING SYSTEMS', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
7,812
ABSTRACT I den mobila datormiljön finns ett stort antal mobila kanttjänster som är bärare av olika mobila intelligenta applikationer. Så hur man kan rekommendera den lämpligaste kandidaten från ett så stort antal tillgängliga tjänster är en brådskande uppgift, särskilt rekommendationsuppgiften baserad på kvalitet på tjänsten (QoS). I traditionell servicerekommendation har samverkansfiltrering (CF) studerats inom akademi och industri. På grund av användarnas och tjänsternas rörlighet finns det dock flera brister som begränsar tillämpningen av CF-baserade metoder, särskilt i en egg computing-miljö. Det viktigaste problemet är kallstarten. I denna uppsats föreslår vi en ensemblemodell som kombinerar modellbaserad CF och kvartersbaserad CF. Vår strategi har två faser, det vill säga globala funktioner lärande och lokala funktioner lärande. I den första fasen, för att lindra problemet med kallstart, föreslår vi en förbättrad auto-encoder som behandlar glesa ingångar genom att förhandsberäkna en uppskattning av de saknade QoS-värden och kan få de effektiva dolda funktioner genom att fånga den komplexa strukturen i QoS-poster. I den andra fasen, för att ytterligare förbättra förutsägelsenoggrannheten, föreslås en ny beräkningsmetod baserad på Euclidean avstånd som syftar till att ta itu med problemet med överskattning. Vi introducerar två nya begrepp, gemensamma inklusionsfaktor och inklusionsfrekvensfaktor, i likhetsberäkning. Sedan föreslår vi tre förutsägelsemodeller som innehåller två individuella modeller och en hybridmodell. De två individuella modellerna föreslås att använda användaren liknande grannar och service liknande grannar, och hybridmodellen är att utnyttja alla grannar. De experiment som utförs i en verklig datauppsättning visar att våra modeller kan producera överlägsna förutsägelseresultat och inte är känsliga för parameterinställningar.
En ensemblemodell som kombinerar modellbaserad CF och kvartersbaserad CF föreslås för att lösa flera defekter som begränsar tillämpningen av CF-baserade metoder REF.
164,687,813
QoS Prediction for Mobile Edge Service Recommendation With Auto-Encoder
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
7,813
Abstract-This paper är baserad på en störande hypotes för periokulära biometriska-in synliga-ljusdata, igenkänningen prestanda optimeras när komponenterna inne i den okulära globen (iris och sklera) helt enkelt kastas, och igenkännarens svar är uteslutande baserat på information från omgivningen i ögat. Som en stor nyhet beskriver vi en processkedja baserad på konvolution neurala nätverk (CNN) som definierar de regioner-av-intresse i indata som bör privilegieras på ett implicit sätt, d.v.s. utan att maskera ut några områden i inlärning/test prover. Genom att använda en okulär segmenteringsalgoritm uteslutande i inlärningsdata, separerar vi okuläret från de periokulära delarna. Sedan producerar vi en stor uppsättning av "multi-class" konstgjorda prover, genom att interchange de periokulära och okulära delarna från olika ämnen. Dessa prover används för dataförstärkningsändamål och mata inlärningsfasen av CNN, alltid med tanke på att märka ID för den periokulära delen. På detta sätt, för varje periokulärt område, CNN får flera prover av olika okulära klasser, tvingar den att dra slutsatsen att sådana regioner inte bör beaktas i sitt svar. Under testfasen tillhandahålls prover utan segmenteringsmask och nätverket bortser naturligtvis från de okulära komponenterna, vilket bidrar till att förbättra prestandan. Våra experiment utfördes i fullständiga versioner av två allmänt kända datamängder (UBIRIS.v2 och FRGC) och visar att den föreslagna metoden konsekvent förbättrar hjärtstatusen i den slutna världen, minskar EER i ca 82% (UBIRIS.v2) och 85% (FRGC) och förbättrar Rank-1 över 41% (UBIRIS.v2) och 12% (FRGC).
Proença och Neves REF hävdar att periokulära igenkänningsprestanda optimeras när iris- och skleraregionerna kastas.
5,848,869
Deep-PRWIS: Periocular Recognition Without the Iris and Sclera Using Deep Learning Frameworks
{'venue': 'IEEE Transactions on Information Forensics and Security', 'journal': 'IEEE Transactions on Information Forensics and Security', 'mag_field_of_study': ['Computer Science']}
7,814
Blockchain-baserade cryptocurrencies säkra ett decentraliserat samförstånd protokoll genom incitament. Protokolldeltagarna, som kallas gruvarbetare, genererar (mina) en rad block, som var och en innehåller monetära transaktioner som skapats av systemanvändare. Som incitament för deltagande får gruvarbetarna nyligen myntade valuta- och transaktionsavgifter som betalas av transaktionsskaparna. Blockchain bandbreddsbegränsningar leder användare att betala ökande avgifter för att prioritera sina transaktioner. De flesta tidigare arbeten inriktades dock på modeller där avgifterna är försumbara. I ett anmärkningsvärt undantag, Carlsten et al. [17] förutsatte att om incitamenten endast kommer från avgifter skulle ett gruvgap bilda gruvarbetare skulle undvika gruvdrift när de tillgängliga avgifterna är otillräckliga. I detta arbete analyserar vi cryptocurrency säkerhet i realistiska inställningar, med beaktande av alla delar av kostnader och belöningar. För att studera när luckor form, analyserar vi systemet som ett spel vi kallar gap spel. Vi analyserar spelet med en kombination av symboliska och numeriska analysverktyg i ett brett spektrum av scenarier. Vår analys bekräftar Carlsten et al. 's postulat; vi visar faktiskt att luckor bildas långt innan avgifter är det enda incitamentet, och analysera konsekvenserna för säkerheten. Kanske överraskande visar vi att olika gruvarbetare väljer olika gapstorlekar för att optimera sin användbarhet, även när deras driftskostnader är identiska. Vi ser alarmerande att systemet uppmuntrar stora gruvkoalitioner och minskar systemdecentraliseringen. Vi beskriver de förutsättningar som krävs för att undvika missanpassning av incitamentet och ger riktlinjer för framtida cryptocurrency design. • Säkerhet och integritet → Distribuerade system säkerhet; Säkerhetsprotokoll; Ekonomi av säkerhet och integritet; • Datorsystem organisation → Peer-to-peer arkitekturer;
En spelteori metod för att studera avgifter kan hittas i REF där författarna visar att det nuvarande tillståndet i systemet uppmuntrar bildandet av stora gruvarbetare koalitioner.
46,888,655
The Gap Game
{'venue': "SYSTOR '18", 'journal': None, 'mag_field_of_study': ['Computer Science']}
7,815
SAMMANFATTNING Förnekande av serviceattacker (DoS) har blivit ett av de allvarligaste hoten mot Internet. Att göra det möjligt att upptäcka attacker i nätverkstrafiken är en viktig och utmanande uppgift. De flesta befintliga volymbaserade system kan dock inte upptäcka kortsiktiga attacker som har en mindre effekt på trafikvolymen. Å andra sidan är funktionsbaserade system inte lämpliga för realtidsdetektering på grund av sina komplicerade beräkningar. I detta dokument utvecklar vi ett IP paketstorlek entropi (IPSE)-baserat DOS/DDoS-detekteringssystem där entropin ändras markant när trafiken påverkas av en attack. Genom vår analys finner vi att det IPSE-baserade systemet kan upptäcka inte bara långsiktiga attacker utan även kortsiktiga attacker som ligger bortom de volymbaserade systemens förmåga att upptäcka. Dessutom testar vi vårt förslag med hjälp av två typiska Internet trafikdataset från DARPA och SINET, och testresultaten visar att IPSE-baserade detektionssystem kan ge upptäckt av DOS/DDoS attacker inte bara i ett lokalt nätverk (DARPA) och även i akademiska stamnät (SINET). Nyckelord: överbelastningsattack, nätsäkerhet, attackdetektering
Du och Abe REF föreslog ett IP-paketstorleksmått för att upptäcka både långsiktiga låggradiga DDoS-attacker och kortsiktiga höggradiga DDoS-attacker.
20,050,177
IP Packet Size Entropy-Based Scheme for Detection of DoS/DDoS Attacks
{'venue': 'IEICE Transactions', 'journal': 'IEICE Transactions', 'mag_field_of_study': ['Computer Science']}
7,816
Abstrakt. Även om forskningen på den semantiska webben har fortskridit i jämn takt, har dess löfte ännu inte förverkligats. En stor svårighet är att Semantic Web till sin natur är ett stort, ocensurerat system som vem som helst kan bidra till. Detta väcker frågan om hur mycket trovärdighet man kan ge varje källa. Vi kan inte förvänta oss att varje användare ska känna till tillförlitligheten hos varje källa, och vi skulle inte heller vilja tilldela top-down-värden eller globala trovärdighetsvärden på grund av förtroendets subjektiva natur. Vi tar itu med detta problem genom att använda ett nät av förtroende, där varje användare har förtroende för ett litet antal andra användare. Vi komponerar sedan dessa truster till förtroendevärden för alla andra användare. Resultatet av vår beräkning är inte en agglomerat "tillförlitlighet" för varje användare. I stället får varje användare en personlig uppsättning truster, som kan variera mycket från person till person. Vi definierar egenskaper för kombinationsfunktioner som slår samman sådana truster, och definierar en klass av funktioner för vilka sammanslagning kan göras lokalt samtidigt som dessa egenskaper upprätthålls. Vi ger exempel på specifika funktioner och tillämpar dem på data från Epinions och vår BibServ bibliografiserver. Experiment bekräftar att metoderna är robusta mot buller och inte sätter orimliga förväntningar på användarna. Vi hoppas att dessa metoder kommer att bidra till att flytta den semantiska webben närmare att uppfylla sitt löfte.
Richardon föreslog en trust value beräkningsmetod med hjälp av sannolikhetsteori i global tro kombination som kan ge varje användare en personlig uppsättning av trust värden REF.
13,034,456
Trust Management for the Semantic Web
{'venue': 'International Semantic Web Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']}
7,817
Att jämföra det ena med det andra är en typisk del av människans beslutsprocess. Det är dock inte alltid lätt att veta vad man ska jämföra och vad som är alternativen. För att ta itu med denna svårighet presenterar vi ett nytt sätt att automatiskt minera jämförbara enheter från jämförande frågor som användare har publicerat online. För att säkerställa hög precision och hög recall, utvecklar vi en svagt övervakad bootstrapping metod för jämförande frågeidentifiering och jämförbar enhet extraktion genom att utnyttja ett stort online frågearkiv. De experimentella resultaten visar att vår metod uppnår F1-mått på 82,5% i jämförande frågeställning och 83,3% i jämförbar enhet extraktion. Båda är betydligt bättre än en befintlig toppmodern metod.
REF studerade till min jämförbara enheter från engelska jämförande frågor som användare postade online.
10,310,211
Comparable Entity Mining from Comparative Questions
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
7,818
Vi presenterar vikt normalisering: en reparameterisering av viktvektorer i ett neuralt nätverk som frikopplar längden på dessa viktvektorer från deras riktning. Genom att omparameterisera vikterna på detta sätt förbättrar vi konditioneringen av optimeringsproblemet och vi påskyndar konvergensen av stokastisk lutning nedstigning. Vår reparameterisering är inspirerad av batch normalisering men introducerar inga beroenden mellan exemplen i en minibatch. Detta innebär att vår metod också kan tillämpas framgångsrikt på återkommande modeller som LSTMs och på bullerkänsliga applikationer såsom djup förstärkning lärande eller generativa modeller, för vilka batch normalisering är mindre väl lämpad. Även om vår metod är mycket enklare, ger det fortfarande mycket av upphastigheten av full batch normalisering. Dessutom är de beräkningsmässiga omkostnaderna för vår metod lägre, vilket gör det möjligt att ta fler optimeringssteg på samma tid. Vi demonstrerar nyttan av vår metod för applikationer i övervakad bildigenkänning, generativ modellering och djupt förstärkande lärande.
Vikt: Viktnormalisering (WN) REF omparameteriserar viktvektorerna och frikopplar längden på en viktvektor från dess riktning.
151,231
Weight Normalization: A Simple Reparameterization to Accelerate Training of Deep Neural Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
7,819
Hårdvarutrender har skapat en ökande skillnad mellan processorhastigheter och minnesåtkomsttider. Medan en mängd olika tekniker för att tolerera eller minska minne latens har föreslagits, dessa är sällan framgångsrika för pekar-manipulerande program. I detta dokument undersöks ett kompletterande tillvägagångssätt som angriper problemets källa (dålig referensort) snarare än dess manifestation (minneslatens). Det visar att noggrann data organisation och layout ger en viktig mekanism för att förbättra cache lokaliseringen av pekar-manipulerande program och följaktligen deras prestanda. Den utforskar två placering teknik-lustering och colorinet förbättra cache prestanda genom att öka en pekarstruktur rumsliga och temporal lokalitet, och genom att minska cache-konflikter. För att minska kostnaden för att tillämpa dessa tekniker, diskuterar detta papper två strategier-cache-medveten omorganisation och cachemedvetet tilldelning--och beskriver två semi-automatiska verktygccmorph och ccmalloc-som använder dessa strategier för att producera cache-medvetet pekarstruktur layouter. ccmorph är en transparent träd omorganiserare som använder topologi information för att kluster och färga strukturen. ccmalloc är en cachemedveten högallokator som försöker samlokalisera samtidigt åtkomliga dataelement i samma fysiska cacheblock. Våra utvärderingar, med mikrobenchmarks, flera små riktmärken, och ett par stora real-world-applikationer, visar att de cache-medvetna strukturlayouter som produceras av ccmorph och ccmalloc erbjuder stora prestandafördelar i de flesta fall, betydligt överträffande state-of-the-art prefetching.
Omorganisation och cache-medvetet minne allokering har undersökts REF.
782,184
Cache-conscious structure layout
{'venue': "PLDI '99", 'journal': None, 'mag_field_of_study': ['Computer Science']}
7,820
Ett mycket djupt konvolutionellt neuralt nätverk (CNN) har nyligen uppnått stor framgång för bild super-upplösning (SR) och erbjöd hierarkiska funktioner också. De flesta djupgående CNN-baserade SR-modeller utnyttjar dock inte fullt ut de hierarkiska egenskaperna från de ursprungliga lågupplösningsbilderna (LR) och uppnår därmed relativt låga prestanda. I detta dokument föreslår vi ett nytt resterande tätt nätverk (RDN) för att ta itu med detta problem i bild SR. Vi utnyttjar till fullo de hierarkiska egenskaperna från alla de konvolutionella skikten. Speciellt föreslår vi resterande tät block (RDB) för att extrahera rikliga lokala funktioner via täta anslutna konvolutionella lager. RDB möjliggör vidare direkt anslutning från tidigare RDB till alla skikt av nuvarande RDB, vilket leder till en sammanhängande minnesmekanism (CM). Lokala funktioner fusion i RDB används sedan för att adaptivt lära sig mer effektiva funktioner från föregående och nuvarande lokala funktioner och stabilisera utbildning av bredare nätverk. Efter att helt ha fått täta lokala funktioner använder vi global funktionsfusion för att gemensamt och adaptivt lära sig globala hierarkiska funktioner på ett holistiskt sätt. Experiment på referensdatauppsättningar med olika nedbrytningsmodeller visar att vårt RDN uppnår goda resultat mot toppmoderna metoder.
Resterande täta nät (RDN) REF som föreslagits av Zhang et al. använda hierarkiska egenskaper från de konvolutionella skikten för att utföra SR.
3,619,954
Residual Dense Network for Image Super-Resolution
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
7,821
Abstract-Next generationer av beräkningsintensiva realtidstillämpningar i fordonssystem kommer att kräva mer kraftfulla datorplattformar. En lovande krafteffektiv lösning för sådana tillämpningar är att använda klustererade mångkärniga arkitekturer. Det är dock fortfarande en öppen fråga att se till att kraven i realtid uppfylls i närvaro av tvister om gemensamma resurser, t.ex. minnen. Detta arbete presenterar en ny stridsfri genomföranderam för att köra fordonsapplikationer på sådana plattformar. Privatisering av minnesbanker tillsammans med definierade åtkomstfaser till delade minnesresurser är ryggraden i ramverket. En Integer Linear Programmering (ILP) formulering presenteras för att hitta den optimala tidsaktiverade schema för on-core körning samt för tillgång till delat minne. Dessutom presenteras en heuristisk lösning som genererar schemat på en bråkdel av den tid som krävs av ILP. Omfattande utvärderingar visar att den föreslagna heurismen bara når 0,5 % från den optimala lösningen medan den överträffar en heuristisk baslinje med 67 %. Tillämpbarheten av tillvägagångssättet för industriella problem visas i en fallstudie av en programvara för Engine Management Systems.
I REF tillämpas 3-fas-uppgiftsmodellen för AUTOSAR-applikationer för att få en stridsfri exekvering för denna typ av applikationer i en arkitektur med många huvudfunktioner.
33,342,540
Contention-Free Execution of Automotive Applications on a Clustered Many-Core Platform
{'venue': '2016 28th Euromicro Conference on Real-Time Systems (ECRTS)', 'journal': '2016 28th Euromicro Conference on Real-Time Systems (ECRTS)', 'mag_field_of_study': ['Computer Science']}
7,822
Djupt lärande har skapat många nya toppmoderna lösningar under det senaste årtiondet inom områden som objekt, scen och taligenkänning. I synnerhet Convolutional Neural Network (CNN) är en kategori av djupt lärande som får utmärkta resultat i objekt detektering och igenkänning uppgifter. Dess arkitektur är verkligen väl lämpad för objektanalys genom att lära sig och klassificera komplexa (djupa) funktioner som representerar delar av ett objekt eller objektet självt. Vissa av dess egenskaper är dock mycket lika texturanalysmetoder. CNN lager kan ses som filterbanker av komplexitet ökar med djupet. Filterbanker är kraftfulla verktyg för att extrahera texturfunktioner och har i stor utsträckning använts i texturanalys. I detta dokument utvecklar vi en enkel nätverksarkitektur som heter Texture CNN (T-CNN) som utforskar denna observation. Det bygger på tanken att den övergripande forminformation som extraheras av de helt anslutna skikten i en klassisk CNN är av mindre betydelse i texturanalys. Därför samlar vi ett energimått från det sista konvolutionslagret som vi ansluter till ett helt uppkopplat lager. Vi visar att vårt tillvägagångssätt kan förbättra prestandan i ett nätverk samtidigt avsevärt minska minnesanvändning och beräkning.
Som förklaras i REF, en CNN metod är väl lämpad för texturanalys eftersom det kan tätt poola textur funktioner.
5,322,454
Using Filter Banks in Convolutional Neural Networks for Texture Classification
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
7,823
Neurala språkmodeller lär sig ordrepresentationer, eller inbäddningar, som fångar rik språklig och konceptuell information. Här undersöker vi inbäddningar inlärda av neurala maskinöversättningsmodeller, en nyligen utvecklad klass av neural språkmodell. Vi visar att inbäddningar från översättningsmodeller överträffar dem som lärs av enspråkiga modeller vid uppgifter som kräver kunskap om både begreppsmässig likhet och lexikalsyntaktisk roll. Vi visar vidare att dessa effekter håller vid översättning från både engelska till franska och engelska till tyska, och hävdar att de önskvärda egenskaper översättning inbäddade bör uppstå i stort sett oberoende av källan och målspråk. Slutligen tillämpar vi en ny metod för att träna neurala översättningsmodeller med mycket stora ordförråd, och visar att denna vokabulärexpansionsalgoritm resulterar i minimal nedbrytning av inbäddande kvalitet. Våra inbäddade utrymmen kan ställas i en online demo och laddas ner från vår webbsida. Sammantaget visar våra analyser att översättningsbaserade inbäddningar bör användas i tillämpningar som kräver att begreppen är organiserade efter likhet och/eller lexikal funktion, medan enspråkiga inbäddningar är bättre lämpade för modellering (icke-specifik) mellanordsrelativitet.
REF fann att ordvektorer från maskinöversättningsmodeller överträffar dem som lärt sig från enspråkiga modeller i ordlikviditet.
12,268,909
Embedding Word Similarity with Neural Machine Translation
{'venue': 'ICLR 2014', 'journal': 'arXiv: Computation and Language', 'mag_field_of_study': ['Computer Science']}
7,824
I detta dokument behandlas planeringsproblem för oberoende uppgifter i den marknadsbaserade nätmiljön. I marknadsbaserade nät kan resursleverantörer debitera användare baserat på den mängd resurser som de begär. I detta fall bör schemaläggningsalgoritmer beakta användarnas vilja att utföra sina tillämpningar på det mest ekonomiska sättet. Som en lösning på detta problem, en hybrid genetisk algoritm och variabel kvarterssökning presenteras för att minska den totala kostnaden för att utföra uppgifter utan märkbar ökning i system makespan. Simuleringsresultat visar att vår algoritm presterar mycket bättre än andra algoritmer när det gäller kostnader för utförande av uppgifter. Med tanke på den negativa korrelationen mellan kostnad och makepan i rutnätsmiljöer, minskade kostnader för utförande resultat i makepan ökning. Det bör nämnas att i värsta fall, makepan av miljön ökade mindre än 17 procent vilket är tolerabelt, särskilt för användare utan någon hård deadline på uppgifter utföranden.
Moghaddam m.fl. REF presenterade en hybrid-GA och VNS för att minska den totala kostnaden för utförande av uppgifter i nätmiljön.
42,443,251
A Hybrid Genetic Algorithm and Variable Neighborhood Search for Task Scheduling Problem in Grid Environment
{'venue': None, 'journal': 'Procedia Engineering', 'mag_field_of_study': ['Computer Science']}
7,825
Abstract-This paper presenterar en automatisk metod för att generera giltiga SDRAM kommando scheman som följer tidsbegränsningarna för DDR2 minne från en uppsättning minnesreferenser. Dessa genererade scheman kan implementeras med hjälp av en statisk minneskontroll. En fullständig kunskap om sekvensen av minnesreferenser i ett program gör det möjligt för schemaläggningsalgoritmen att omordna minneskommandon effektivt för att minska latensen och förbättra genomströmningen. Även om statiskt schemalagda kommandoscheman kan anses vara alltför oflexibla för att vara användbara i maskdefinierade enheter, är de väl lämpade för implementering inom en FPGA där nya program kan inriktas på omkompilering och omkonfigurering. Statiska SDRAM scheman som genereras med vår strategi visar en median 4× minskning av antalet minnesstånd cykler som uppstår i ett urval av riktmärken jämfört med scheman som produceras dynamiskt av Altera High Performance Memory Controller.
REF använder ett statiskt kommandoschema som beräknas vid designtidpunkten.
9,996,383
Methodology for designing statically scheduled application-specific SDRAM controllers using constrained local search
{'venue': '2009 International Conference on Field-Programmable Technology', 'journal': '2009 International Conference on Field-Programmable Technology', 'mag_field_of_study': ['Computer Science']}
7,826
Automatiserade datadrivna beslutssystem används i allt större utsträckning för att hjälpa eller till och med ersätta människor i många miljöer. Dessa system fungerar genom att lära av historiska beslut, ofta tagna av människor. För att maximera nyttan av dessa system (eller, klassificeringar), deras utbildning innebär att minimera fel (eller felklassificeringar) över de givna historiska data. Det är dock fullt möjligt att den optimalt utbildade klassifieraren fattar beslut för personer som tillhör olika samhällsgrupper med olika felklassificeringsgrad (t.ex. är felklassificeringsgraden för kvinnor högre än för män), vilket innebär att dessa grupper missgynnas på ett orättvist sätt. För att ta hänsyn till och undvika sådan orättvisa inför vi i detta dokument ett nytt begrepp om orättvisa, olikartad misshandel, som definieras i termer av felklassificeringsgrader. Vi föreslår sedan intuitiva åtgärder för olika behandling av beslutsgränsbaserade klassificeringar, som lätt kan införlivas i deras formulering som konvex-konkav begränsningar. Experiment på syntetiska såväl som verkliga dataset visar att vår metodik är effektiv för att undvika olika dålig behandling, ofta till en liten kostnad i form av noggrannhet.
I REF infördes ett nytt begrepp om otillbörlighet, olika behandling som definieras i termer av felaktig klassificering.
1,911,971
Fairness Beyond Disparate Treatment&Disparate Impact: Learning Classification without Disparate Mistreatment
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
7,827
Abstract-State-of-the-art objekt detekteringsnätverk är beroende av region förslag algoritmer för att hypothesize objekt platser. Framsteg som SPPnet [1] och Fast R-CNN [2] har minskat drifttiden för dessa detektionsnät, vilket exponerar beräkning av regionförslag som flaskhals. I detta arbete introducerar vi ett regionförslagsnätverk (RPN) som delar fullbildskonvolutionella funktioner med detektionsnätverket, vilket möjliggör nära nog kostnadsfria regionförslag. Ett RPN är ett helt konvolutionellt nätverk som samtidigt förutsäger objektgränser och objektitetspoäng vid varje position. RPN är utbildad end-to-end för att generera högkvalitativa regionförslag, som används av Fast R-CNN för detektion. Vi slår ytterligare samman RPN och Fast R-CNN till ett enda nätverk genom att dela deras konvolutionella funktioner-med hjälp av den nyligen populära terminologin för neurala nätverk med "attention" mekanismer, RPN komponenten talar om för det enhetliga nätverket var man ska leta. För den mycket djupa VGG-16-modellen [3] har vårt detektionssystem en bildhastighet på 5 fps (inklusive alla steg) på en GPU, samtidigt som vi uppnår toppmoderna objektdetektionsnoggrannhet på PASCAL VOC 2007, och MS COCO-datauppsättningar med endast 300 förslag per bild. I ILSVRC och COCO 2015 tävlingar, Snabbare R-CNN och RPN är grunden för den 1: a plats vinnande poster i flera spår. Koden har gjorts tillgänglig för allmänheten. Regionens förslagsmetoder är vanligtvis beroende av billiga funktioner och ekonomiska slutledningssystem. Selektiv sökning [4], en av de mest populära metoderna, sammansmälter girigt superpixel baserat på konstruerade låg nivå funktioner. Ändå jämfört med effektiva detektionsnätverk [2], Selektiv sökning är en storleksordning långsammare, på 2 sekunder per bild i en CPU-implementation. EdgeBoxar [6] ger för närvarande den bästa kompromissen mellan förslagskvalitet och hastighet, med 0,2 sekunder per bild. Trots detta konsumerar regionförslaget lika mycket drifttid som nätverket för upptäckt. Man kan notera att snabba regionbaserade CNN dra nytta av GPU, medan de regionala förslag metoder som används i forskning genomförs på CPU, vilket gör sådana runtime jämförelser ojämförliga. Ett självklart sätt att påskynda beräkningen av förslag är att återinföra det för GPU. Detta kan vara en effektiv teknisk lösning, men omgenomförandet bortser från down-stream detektion nätverk och därför missar viktiga möjligheter att dela beräkningar. I detta dokument visar vi att en algoritmisk förändringskomputerande förslag med en djup konvolutionell neural nätverk-leads till en elegant och effektiv lösning där förslagsberäkning är nästan gratis med tanke på detektionsnätverkets beräkning. I detta syfte introducerar vi nya regionala förslagsnätverk (RPN) som delar konvolutionella skikt med toppmoderna nätverk för objektdetektering [1], [2]. Genom att dela konvolutioner vid testtid är marginalkostnaden för datorförslag liten (t.ex. 10 ms per bild). Vår iakttagelse är att de konvolutionella funktionskartor som används av regionbaserade detektorer, som Fast R-CNN, också kan användas för att generera regionförslag. Ovanpå dessa konvolutionella funktioner konstruerar vi en RPN genom att lägga till några ytterligare konvolutionella lager som samtidigt regresserar regiongränser och objektitet poäng på varje plats på ett vanligt rutnät. RPN är således ett slags fullständigt konvolutionsnätverk [7] och kan utbildas från början till slut särskilt för uppgiften att ta fram förslag på detektering. RPN är utformade för att effektivt förutsäga regionala förslag med ett brett spektrum av skalor och proportioner. I motsats till vanliga metoder [1], [2], [8], [9] som använder pyramider av bilder (Fig. 1a) eller filterpyramider (Fig. 1b), Vi introducerar nya "anchor" rutor som fungerar som referenser på flera skalor och proportioner. Vårt schema kan ses som en pyramid av regressionsreferenser (Fig. 1c), som undviker att räkna upp bilder eller filter av flera skalor eller proportioner. Denna modell fungerar bra när den är tränad och testad med enskaliga bilder och därmed gynnar körhastigheten. För att förena RPNs med snabba R-CNN [2] objektdetekteringsnätverk, föreslår vi ett utbildningsprogram som alternerar S. Ren är med
Som en av de mest representativa tvåstegsmetoden har effektiviteten och ändamålsenligheten hos Snabbare R-CNN REF visats.
10,328,909
Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
7,828
Vektor-rymd ord representationer har varit mycket framgångsrik under de senaste åren på att förbättra prestanda för en mängd olika NLP uppgifter. Men, gemensamt för de flesta befintliga verk, ord betraktas som oberoende enheter utan något uttryckligt samband mellan morfologiskt relaterade ord som modelleras. Som ett resultat är sällsynta och komplexa ord ofta dåligt uppskattade, och alla okända ord representeras på ett ganska grovt sätt med bara en eller några vektorer. Detta dokument tar upp denna brist genom att föreslå en ny modell som kan skapa representationer för morfologiskt komplexa ord från deras morfem. Vi kombinerar rekursiva neurala nätverk (RNNs), där varje morpheme är en grundläggande enhet, med neurala språkmodeller (NLMs) att överväga kontextuell information i lärande morfologiskt medvetna ord representationer. Våra lärda modeller överträffar befintliga ordrepresentationer med god marginal på ordliknande uppgifter i många datauppsättningar, bland annat en ny datauppsättning som vi introducerar med fokus på sällsynta ord för att komplettera befintliga ord på ett intressant sätt.
REF undersökte problemet med ordrepresentationer för sällsynta och komplexa ord.
14,276,764
Better Word Representations with Recursive Neural Networks for Morphology
{'venue': 'CoNLL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
7,829
Abstrakt. Närmaste granne frågor är en viktig frågetyp för vanliga funktionsdatabaser. Inom många olika tillämpningsområden, t.ex. Sensordatabaser, platsbaserade tjänster eller system för ansiktsigenkänning, avstånd mellan objekt måste beräknas på grundval av vaga och osäkra uppgifter. Ett lyckat tillvägagångssätt är att uttrycka avståndet mellan två osäkra objekt med sannolikhetstäthetsfunktioner som tilldelar ett sannolikhetsvärde till varje möjligt avståndsvärde. Genom att integrera den fullständiga probabilistiska distansfunktionen som helhet direkt i frågealgoritmen utnyttjas den fullständiga information som tillhandahålls av dessa funktioner. Resultatet av en sådan probabilistisk frågealgoritm består av tupler som innehåller resultatobjektet och ett sannolikhetsvärde som anger sannolikheten för att objektet uppfyller frågepredikatet. I detta dokument introducerar vi en effektiv strategi för att behandla probabilistiska närmaste granne frågor, eftersom beräkningen av dessa sannolikhetsvärden är mycket dyr. I en detaljerad experimentell utvärdering visar vi fördelarna med vår probabilistiska frågesyn. Experimenten visar att vi kan uppnå högkvalitativa frågeresultat med ganska låga beräkningskostnader.
Det tillvägagångssätt som föreslås i Ref möjliggör en effektiv beräkning av probabilistiska närmaste grannars frågor.
9,584,156
Probabilistic nearest-neighbor query on uncertain objects
{'venue': 'in DASFAA', 'journal': None, 'mag_field_of_study': ['Computer Science']}
7,830
Abstract-Several styrsystem i säkerhetskritiska applikationer innebär samverkan mellan en autonom styrenhet och en eller flera mänskliga operatörer. Exempel är piloter som interagerar med ett autopilotsystem i ett flygplan och en förare som interagerar med automatiska förarassistansfunktioner i en bil. Korrektheten i sådana system beror inte bara på den autonoma regulatorn, utan också på den mänskliga regulatorns handlingar. I detta dokument presenterar vi en formalism för kontrollsystemen i det mänskliga kretsloppet. Särskilt fokuserar vi på problemet med att syntetisera en semi-autonom regulator från hög nivå tidsspecifikationer som förväntar sig enstaka mänskliga ingrepp för korrekt drift. Vi presenterar en algoritm för detta problem, och visar dess funktion på problem relaterade till förarassistans i bilar.
Löjtnant m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m för m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. REF fokuserade på problemet med att syntetisera en semiautonom kontrollant som förväntar sig enstaka mänskliga ingrepp för korrekt drift.
5,726,460
Synthesis for Human-in-the-Loop Control Systems
{'venue': 'TACAS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
7,831
Vi föreslår en ny automatisk segmenteringsalgoritm för objekt som integrerar både nedifrån-och-upp-stimuli och objektnivåform tidigare, d.v.s. ett betydande objekt har en väldefinierad sluten gräns. Vårt tillvägagångssätt formaliseras som en iterativ energiminimering ram, vilket leder till binär segmentering av det framträdande objektet. Sådan energiminimering initieras med en solid karta som beräknas genom kontextanalys baserad på flerskaliga superpixlar. Objektnivå form tidigare extraheras sedan kombinera salthalt med objektgräns information. Både styrka karta och form föregående uppdatering efter varje iteration. Experimentella resultat på två offentliga referensdatauppsättningar visar att vårt föreslagna tillvägagångssätt överträffar de senaste metoderna.
Jiang m.fl. REF utförde betydande objektsegmentering med flerskalig superpixelbaserad salthalt och sluten gräns tidigare.
874,176
Automatic salient object segmentation based on context and shape prior
{'venue': 'In Proc. British Machine Vision Conference (BMVC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
7,832
Under de senaste åren har övervakad inlärning med konvolutionella nätverk (CNN) fått en enorm spridning i tillämpningar för datorseende. Jämförande, oövervakad inlärning med CNNs har fått mindre uppmärksamhet. I detta arbete hoppas vi kunna bidra till att överbrygga klyftan mellan CNN:s framgångar när det gäller övervakat lärande och oövervakat lärande. Vi introducerar en klass av CNN som kallas djupa konvolutionella generativa kontrariska nätverk (DCGANS), som har vissa arkitektoniska begränsningar, och visar att de är en stark kandidat för oövervakat lärande. Träning på olika bilddataset visar övertygande bevis för att vårt djupa kontradiktoriska par lär sig en hierarki av representationer från objektdelar till scener i både generatorn och discriminatorn. Dessutom använder vi de inlärda funktionerna för nya uppgifter - demonstration av deras tillämplighet som allmänna bildrepresentationer.
Bland dessa introducerar DCGAN REF en uppsättning begränsningar för att stabilisera träningsdynamiken mellan generatorn och discriminatorn.
11,758,569
Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks
{'venue': 'ICLR 2016', 'journal': 'arXiv: Learning', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
7,833
Abstract-Data leverans är en viktig funktion av sensor nätverksprogram. Många tillämpningar, såsom militär övervakning, kräver upptäckt av intresserade händelser som ska rapporteras till en kommandocentral inom en angiven tidsram, och därför införa en realtid bunden på kommunikationsfördröjning. Å andra sidan, för att spara energi, en av de mest effektiva metoder är att hålla sensorn noder i vilande tillstånd så länge som möjligt och samtidigt uppfylla tillämpningskraven. Uppenbarligen kan en nod inte kommunicera om den inte är aktiv. Därför, för att leverera data i rätt tid för sådana extremt låga duty-cycle sensor nätverk, kommunikation måste hanteras noggrant bland sensornoder. I detta arbete inför vi tre olika tillvägagångssätt för att i realtid garantera kommunikationsförseningar. För det första presenterar vi en metod för att öka duty-cycle på individuell nod. Sedan beskriver vi en plan för placering av diskbänk noder. Baserat på tidigare två metoder diskuterar vi en hybridstrategi som visar bättre balans mellan kostnad och effektivitet vid begränsad kommunikationsfördröjning. Vår lösning är global och optimal när det gäller att minimera energiförbrukningen för att begränsa pairwise endto-end fördröjning. För många-till-ett och många-till-många fall, som är NP-hårda, föreslår vi motsvarande heuristiska algoritmer för dem. Enligt vår kunskap är dessa de mest allmänna och uppmuntrande resultaten hittills i denna nya forskningsriktning. Vi utvärderar vår design med en omfattande simulering av 5000 noder samt med en småskalig testbädd på TinyOS/Mote plattform. Resultaten visar effektiviteten i vårt tillvägagångssätt och betydande förbättringar jämfört med en befintlig lösning.
Gu m.fl. I Ref presenterade tre olika tillvägagångssätt för att ge en realtidsgaranti för kommunikationsförseningar.
17,700,515
Spatiotemporal Delay Control for Low-Duty-Cycle Sensor Networks
{'venue': '2009 30th IEEE Real-Time Systems Symposium', 'journal': '2009 30th IEEE Real-Time Systems Symposium', 'mag_field_of_study': ['Computer Science']}
7,834
I detta dokument överväger vi problemet med att minimera en konvex funktion med hjälp av en randomiserad blockkoordinat nedstigningsmetod. Ett av de viktigaste stegen vid varje iteration av algoritmen är att bestämma uppdateringen till ett block av variabler. Befintliga algoritmer antar att för att beräkna uppdateringen, ett visst underproblem är löst exakt. I detta arbete slappnar vi av detta krav, och gör det möjligt för subproblemet att lösas inexakt, vilket leder till en inexakt block koordinat nedstigningsmetod. Vårt tillvägagångssätt inkluderar de mest kända resultaten för exakta uppdateringar som ett specialfall. Dessutom kompletteras dessa teoretiska garantier med praktiska överväganden: användning av iterativa tekniker för att bestämma uppdateringen samt användning av förkonditionering för ytterligare acceleration.
För tidigare arbete med randomiserad blockkoordinat nedstigning hänvisar vi till REF.
9,185,581
Inexact Coordinate Descent: Complexity and Preconditioning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
7,835
Abstract-We initierar studien av följande problem: Antag Alice och Bob skulle vilja outsourca sina krypterade privata datamängder till molnet, och de vill också genomföra den inställda skärningspunkten operation på deras klartext datauppsättningar. Den enkla lösningen för dem är att ladda ner sina outsourcade chiffertexts, dekryptera chiffertexts lokalt, och sedan köra en vara två-part set skärningsprotokoll. Tyvärr är denna lösning inte praktisk. Vi motiverar och introducerar därför det nya begreppet Verifiable Delegated Set Intersection på outsourcade krypterade data (VDSI). Den grundläggande idén är att delegera den inställda skärningspunkten till molnet, medan (i) inte ger dekrypteringskapaciteten till molnet, och (ii) att kunna hålla felhavande molnet ansvarig. Vi formaliserar VDSI:s säkerhetsfastigheter och presenterar en konstruktion. I vår lösning är kostnaderna för beräkning och kommunikation för användarna linjära till skärningspunktens storlek, vilket innebär att effektiviteten är optimal upp till en konstant faktor.
I REF-klienter delegerar också beräkningen till en server.
12,421,709
Verifiable Delegated Set Intersection Operations on Outsourced Encrypted Data
{'venue': '2015 IEEE International Conference on Cloud Engineering', 'journal': '2015 IEEE International Conference on Cloud Engineering', 'mag_field_of_study': ['Computer Science']}
7,836
Att utveckla skalbara lösningsalgoritmer är ett av de centrala problemen i beräkningsteorin. Vi presenterar en iterativ algoritm för att beräkna en exakt Nash jämvikt för två spelare nollsummor omfattande-form spel med ofullständig information. Vår strategi kombinerar två nyckelelement: (1) den kompakta sekvensform representation av extensiveform spel och (2) den algoritmiska ramen för dubbel-orakel metoder. Huvudidén med vår algoritm är att begränsa spelet genom att låta spelarna spela endast utvalda sekvenser av tillgängliga åtgärder. Efter att ha löst det begränsade spelet läggs nya sekvenser till genom att hitta de bästa svaren på den nuvarande lösningen med hjälp av snabba algoritmer. Vi utvärderar vår algoritm experimentellt på en uppsättning spel inspirerade av patrulleringsscenarier, brädspel och kortspel. Resultaten visar betydande runtime förbättringar i spel som medger en jämvikt med litet stöd, och betydande förbättring av minnesanvändning även på spel med stort stöd. Förbättringen i minnesanvändning är särskilt viktig eftersom det gör det möjligt för vår algoritm att lösa mycket större spel instanser än befintliga linjära programmeringsmetoder. Våra huvudsakliga bidrag inkluderar (1) en generisk sekvens-form dubbel-orrakle algoritm för att lösa nollsumma omfattande-form spel; (2) snabba metoder för att upprätthålla en giltig begränsad spelmodell när du lägger till nya sekvenser; (3) en sökalgoritm och beskärning metoder för att beräkna bäst-respons sekvenser; (4) teoretiska garantier om konvergens av algoritmen till en Nash jämvikt; (5) experimentell analys av vår algoritm på flera spel, inklusive en ungefärlig version av algoritmen.
Slutligen utvecklar REF en iterativ dubbelorkelalgoritm för exakt jämviktsberäkning.
18,581,471
An Exact Double-Oracle Algorithm for Zero-Sum Extensive-Form Games with Imperfect Information
{'venue': 'J. Artif. Intell. Res.', 'journal': 'J. Artif. Intell. Res.', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
7,837