src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
Sammanfattning av denna webbsida: För trådlösa sensornätverk (WSNs) innebär många faktorer, såsom ömsesidig störning av trådlösa länkar, slagfältstillämpningar och noder som utsätts för miljön utan bra fysiskt skydd, att sensornoder blir mer sårbara för angrepp och risker. För att ta itu med detta nätsäkerhetsproblem föreslås en ny trustutvärderingsalgoritm definierad som NBBTE (Node Beteendestrategier Bandning Belief Theory of the Trust Evaluation Algorithm) som integrerar tillvägagångssättet av noder beteendestrategier och modifierade bevisteori. Enligt beteendet hos sensornoder, en mängd olika trustfaktorer och koefficienter relaterade till nätverket ansökan är etablerade för att få direkta och indirekta förtroende värden genom att beräkna viktat genomsnitt av trustfaktorer. Samtidigt används den fuzzy set-metoden för att bilda den grundläggande indatavektorn för bevis. På grundval av detta beräknas bevisskillnaden mellan indirekta och direkta förtroendevärden, som kopplar den reviderade D-S beviskombinationsregeln till att slutligen syntetisera det integrerade förtroendevärdet för noder. Simuleringsresultaten visar att NBBTE effektivt kan identifiera skadliga noder och återspeglar egenskaperna hos förtroendevärde som är svårt att förvärva och lätt att förlora. Dessutom är det uppenbart att det föreslagna systemet har en enastående fördel när det gäller att illustrera de olika nodernas verkliga bidrag till utvärderingen av förtroendet.
Feng et al. (Feng m.fl.) REF föreslog en nod behavioral trosteori utvärderingsalgoritm, som kombinerar metoden för nod beteendestrategier och modifierad evidensteori.
227,685
A Trust Evaluation Algorithm for Wireless Sensor Networks Based on Node Behaviors and D-S Evidence Theory
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Computer Science', 'Medicine']}
2,243
Abstrakt. Under de kommande åren förväntas trådlösa sensornätverk användas i allt större utsträckning. För att öka deras prestanda utan att öka nodernas densitet, är en lösning att lägga till några ställdon som har förmågan att röra sig. Men även ställdon är beroende av batterier som inte förväntas bytas ut. I detta dokument introducerar vi MEGAN (Mobility Assisted Energy efficient Georouting in energy skörde actuator and sensor Networks), ett beacon-less protokoll som använder kontrollerad rörlighet, och tar hänsyn till energiförbrukningen och energiskörden för att välja nästa humle. MEGAN syftar till att förlänga den totala nätlivslängden snarare än att minska energiförbrukningen på en enda väg. När nod s måste skicka ett meddelande till diskbänken d, beräknar den först den "ideala" positionen för skotarnoden baserat på tillgänglig och behövlig energi, och sänder sedan denna data. Varje nod inom överföringsområdet för s i den främre riktningen mot d kommer att starta en backoff timer. Backoff-tiden är baserad på dess tillgängliga energi och på dess avstånd från den idealiska positionen. Den första noden vars backoff timer går av är skotarnoden. Denna nod informerar sitt grannskap och rör sig sedan mot den idealiska positionen. Om den på sin väg finner en bra plats för energiupptagning, kommer den faktiskt att stoppa sin rörelse och vidarebefordra det ursprungliga meddelandet med hjälp av MEGAN, som kommer att köras på alla mellanliggande noder tills destinationen nås. Simuleringar visar att MEGAN minskar energiförbrukningen med upp till 50 % jämfört med algoritmer där rörlighet och skördekapacitet inte utnyttjas.
Mobilitetsassisterad Energieffektiv Georouting i energiskörd actuator och sensor Networks (MEGAN) REF är en geografisk routing, som minskar energiförbrukningen genom att flytta sensorn noderna mot positionerna i framåtriktningen.
14,387,526
Beacon-less mobility assisted energy efficient georouting in energy harvesting actuator and sensor networks
{'venue': 'ADHOC-NOW', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,244
Abstract-Automatic program transformation verktyg kan vara värdefulla för programmerare för att hjälpa dem med refaktoring uppgifter, och för Computer Science studenter i form av handledningssystem som föreslår reparationer till programmeringsuppgifter. Att manuellt skapa kataloger över transformationer är dock komplext och tidskrävande. I den här artikeln presenterar vi REFAZER, en teknik för automatiskt lärande programomvandlingar. REFAZER bygger på observationen att kodredigeringar utförda av utvecklare kan användas som input-output exempel för lärande program transformationer. Exempelredigeringar kan dela samma struktur men involverar olika variabler och underuttryck, som måste generaliseras i en omvandling på rätt abstraktionsnivå. För att lära sig transformationer, REFAZER utnyttjar state-of-the-art programmering-by-example-metodik med hjälp av följande nyckelkomponenter: a) ett nytt domänspecifika språk (DSL) för att beskriva programtransformationer, b) domänspecifika deduktiva algoritmer för att effektivt syntetisera transformationer i DSL, och c) funktioner för rankning av syntetiserade transformationer. Vi omedelbart och utvärdera REFAZER inom två områden. För det första, givet exempel på kodredigeringar som används av studenter för att rätta felaktiga inlämningar av programmeringsuppgifter, lär vi oss programomvandlingar som kan rätta andra studenters inlämningar med liknande fel. I vår utvärdering utförd på 4 programmeringsuppgifter utförda av 720 studenter, vår teknik hjälpte till att fixa felaktiga inlämningar för 87% av studenterna. I den andra domänen använder vi repetitiva kodredigeringar som tillämpas av utvecklare till samma projekt för att syntetisera en programomvandling som tillämpar dessa redigeringar på andra platser i koden. I vår utvärdering utförd på 56 scenarier av repetitiva redigeringar tagna från tre stora C# open-source-projekt, REFAZER lär sig den avsedda programomvandlingen i 84% av fallen med bara 2,9 exempel i genomsnitt.
Refazer REF lär sig programomvandlingar från exempelkodredigeringar gjorda av studenter med hjälp av ett handdesignat domänspecifikt språk, och använder sedan dessa omvandlingar för att reparera buggiga studentinlagor.
11,216,724
Learning Syntactic Program Transformations from Examples
{'venue': '2017 IEEE/ACM 39th International Conference on Software Engineering (ICSE)', 'journal': '2017 IEEE/ACM 39th International Conference on Software Engineering (ICSE)', 'mag_field_of_study': ['Computer Science']}
2,245
Sentimentanalys på Twitter-data har rönt stor uppmärksamhet på senare tid. I detta dokument fokuserar vi på målberoende Twitter-känslor; nämligen, med tanke på en fråga, klassificerar vi tweets känslor som positiva, negativa eller neutrala beroende på om de innehåller positiva, negativa eller neutrala känslor om den frågan. Här tjänar frågan som mål för känslorna. De senaste strategierna för att lösa detta problem antar alltid den måloberoende strategin, som kan ge det givna målet irrelevanta känslor. Dessutom tar de state-of-the-art metoder endast tweet som ska klassificeras när man klassificerar känslan; de ignorerar dess sammanhang (dvs. relaterade tweets). Men eftersom tweets oftast är korta och mer tvetydiga, ibland är det inte tillräckligt att bara överväga den nuvarande tweet för känslor klassificering. I detta dokument föreslår vi att man förbättrar den målberoende Twitter-klassificeringen genom att 1) införliva målberoende funktioner, och 2) ta hänsyn till relaterade tweets. Enligt de experimentella resultaten förbättrar vårt tillvägagångssätt i hög grad prestandan hos den målberoende känsloklassificeringen.
För att förbättra den målberoende Twitter-känslaklassificeringen innehåller REF målberoende funktioner och tar hänsyn till förhållandet mellan twitter, t.ex. retweet, svar och twitter som publiceras av samma person.
7,137,476
Target-dependent Twitter Sentiment Classification
{'venue': 'Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,246
Abstrakt. Vi föreslår en modell för att kombinera per ram och per spår för erkännande av åtgärder. Med flera mål i en scen, fångar vår modell samtidigt den naturliga harmonin av en individs agerande i en scen och flödet av åtgärder av en individ i en videosekvens, vilket innebär giltiga spår i processen. Vår motivation är baserad på den osannolika disharmonin av en handling i en strukturerad scen, både på spårnivå och ramnivå (t.ex. en person som dansar i en publik av joggare). Samtidigt som vi kan använda provtagningsmetoder för att dra slutsatser i vår modell, utvecklar vi istället en global inferencealgoritm genom att bryta ner problemet och lösa subproblemen exakt och effektivt, och i flera fall återställa en globalt optimal gemensam lösning. Slutligen förbättrar vi de senaste resultaten från erkännandet av åtgärder för två allmänt tillgängliga datauppsättningar.
Khamis m.fl. Ref kombinerade information på spår- och ramnivå för uppgiften att erkänna åtgärder.
6,010,741
Combining Per-Frame and Per-Track Cues for Multi-Person Action Recognition
{'venue': 'ECCV', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,247
Uppgiften att extrahera en otillfredsställande kärna för en given Boolesk formel har varit att hitta fler och fler applikationer under de senaste åren. Den enda befintliga metod som skalar väl för stora verkliga formler utnyttjar förmågan hos moderna SAT-lösare att producera resolution vederläggningar. De resulterande otillfredsställande kärnorna är dock suboptimala. Vi föreslår en ny algoritm för minimal otillfredsställande kärnextrahering, baserad på en djupare undersökning av upplösningsförkastande egenskaper. Vi tillhandahåller experimentella resultat på formella verifieringsriktmärken som bekräftar att vår algoritm hittar mindre kärnor än suboptimala algoritmer, och att det går snabbare än de algoritmer som garanterar minimalitet i kärnan.
En skalbar algoritm REF, antar en djupare undersökning av upplösning vederläggning, föreslås för minimal otillfredsställande kärnor extraktion.
2,845,982
A Scalable Algorithm for Minimal Unsatisfiable Core Extraction
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
2,248
Smidig och grön framtida utvidgning/skalbarhet (t.ex. från gles till tät, från små områden täta till stora områden täta, eller från normal-dens till super-dens) är en viktig fråga i heterogena nätverk. I detta dokument studerar vi energieffektivitet i heterogena nätverk för både glesa och täta (två-tier och multi-tier) utplaceringar av små celler. Vi formulerar problemet som ett hierarkiskt (Stackelberg) spel där makrocellen är ledaren medan den lilla cellen är följaren. Båda aktörerna vill strategiskt besluta om sin politik för maktfördelning för att maximera energieffektiviteten för sina registrerade användare. En bakåtinduktionsmetod har använts för att erhålla ett slutet formuttryck av jämvikten i Stackelberg. Det visas att energieffektivitet maximeras när endast ett delband utnyttjas för spelarna i spelet beroende på deras kanal blekning vinster. Simuleringsresultaten presenteras för att visa hur effektivt det föreslagna systemet är.
I REF föreslog författarna spelteoretiska ramar i heterogena nätverk, vilket gör det möjligt för både små celler och makroceller att strategiskt besluta om sina policyer för nedlänkskontroll.
5,913,817
A game theoretic analysis for energy efficient heterogeneous networks
{'venue': '2014 12th International Symposium on Modeling and Optimization in Mobile, Ad Hoc, and Wireless Networks (WiOpt)', 'journal': '2014 12th International Symposium on Modeling and Optimization in Mobile, Ad Hoc, and Wireless Networks (WiOpt)', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
2,249
Abstrakt. En Lombardi ritning av en graf definieras som en där hörn representeras som punkter, kanter representeras som cirkulära bågar mellan sina slutpunkter, och varje vertex har perfekt vinkelupplösning (vinklar mellan på varandra följande kanter, mätt med tangenterna till de cirkulära bågarna vid vertex, alla har samma grad). Vi beskriver två algoritmer som skapar "Lombardi-stil" ritningar (som vi också kallar nära-Lombardi ritningar), där alla kanter är fortfarande cirkulära bågar, men vissa hörn kanske inte har perfekt vinkelupplösning. Båda dessa algoritmer tar en kraftriktad, fjäder-bäddning strategi, med en med hjälp av krafter vid kanten tangenter för att producera böjda kanter och den andra med overksam hörn på kanter för detta ändamål. Som vi visar, dessa metoder både producerar nära-Lombardi ritningar, med en är något bättre på att uppnå nära perfekt vinkelupplösning och den andra är något bättre på att balansera vertex placeringar.
Chernobelskiy m.fl. REF slappna av den perfekta vinkelupplösningen i Lombardi ritningar och beskriva funktionella kraftriktade algoritmer, som producerar estetiskt tilltalande nära-Lombardi ritningar.
531,963
Force-directed Lombardi-style graph drawing
{'venue': 'IN: PROC. 19TH INT. SYMP. ON GRAPH DRAWING', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,250
Vi anser att byggandet av del-av-tal taggers för resursfattiga språk. Nyligen, manuellt konstruerade tagg ordböcker från Wiktionary och ordböcker projiceras via bitext har använts som typ begränsningar för att övervinna bristen på kommenterade data i denna inställning. I detta dokument visar vi att ytterligare symboliska begränsningar kan projiceras från ett resursrikt källspråk till ett resursfattigt målspråk via ordanknuten bitext. Vi presenterar flera modeller för detta ändamål; i synnerhet en delvis observerad villkorlig slumpmässig fältmodell, där kopplade token och typ begränsningar ger en partiell signal för utbildning. I genomsnitt över åtta tidigare studerade indoeuropeiska språk, vår modell uppnår en 25% relativ felminskning jämfört med tidigare state of the art. Vi presenterar också framgångsrika resultat på ytterligare sju språk från olika familjer, vilket empiriskt visar tillämpligheten av kopplade token och typ begränsningar över en rad olika språk.
Ref kombinerade både symbolisk information (från direkt projicerade data) och typbegränsningar (från Wiktionarys ordbok) för att bilda den senaste flerspråkiga taggern.
14,760,908
Token and Type Constraints for Cross-Lingual Part-of-Speech Tagging
{'venue': 'Transactions of the Association for Computational Linguistics', 'journal': 'Transactions of the Association for Computational Linguistics', 'mag_field_of_study': ['Computer Science']}
2,251
Gester anses ofta vara giltiga bevis för att språk och kognition förkroppsligas. Eftersom människor använder sina kroppar (dvs. gester) för att uttrycka kunskap, hävdas det, själva kunskapen måste vara djupt bunden till kroppen (Alibali & Nathan, 2007; Gallagher, 2005; Gibbs, 2006; Hostetter & Alibali, 2004; McNeill, 2005; Nuñez, 2005). Detta påstående kan innehålla en del sanning, men hittills har det inte funnits några uttryckliga förslag om hur förkroppsligad kunskap kommer att återspeglas i talkompletterande gester. Målet med denna artikel är att undersöka hur gester kan uppstå från förkroppsligat tänkande; vi kommer att närma oss detta mål genom att integrera forskning om perception, handling, kognition, språk, mentala bilder och gestproduktion. En mängd olika hand- och kroppsrörelser kan anses vara gester, och mycket tidigare forskning har försökt beskriva dessa olika typer av gester (t.ex. Efron, 1972; Kendon, 2004; McNeill, 1992). I den här artikeln begränsar vi vår diskussion till representationella gester - det vill säga rörelser som representerar talets innehåll genom att peka på en referens i den fysiska miljön (deiktiska gester), avbilda en referens med händernas rörelse eller form (ikoniska gester), eller avbilda en konkret referens eller ange en rumslig plats för en abstrakt idé (metaforiska gester). Vi använder termen gester för att specifikt hänvisa till representationsgester. Andra typer av gester, inklusive beat gester (rörelser som betonar prosody eller strukturen av tal utan att förmedla semantisk information) och interaktiva gester (rörelser som används för att hantera turn ta och andra aspekter av en interaktion mellan flera talare), faller utanför räckvidden för denna artikel. Vårt mål är att beskriva en mekanism som möjligen kan ge upphov till gester. Vi försöker inte ta upp frågan om gesters funktioner (t.ex. i kommunikation, i talproduktion). Även om vi granskar några idéer om gesters funktioner, intar vi inte en stark hållning här när det gäller gestfunktion. Målet med vår ram är att förklara vilka gester som är, snarare än vad de gör. Artikeln fortsätter i sju avsnitt. I det första avsnittet går vi igenom idéer om kopplingar mellan perception och handling och hur dessa länkar är viktiga i minne och kognition. I den andra delen granskar vi bevis för att språkbehandling är knuten till kroppen. I det tredje avsnittet går vi igenom bevis för att mentalbild också är en förkroppsligad process. I det fjärde avsnittet granskar vi bevis på förhållandet mellan gestproduktion och mentala bilder, och i det femte föreslår vi en teoretisk ram som förklarar hur gester kan uppstå genom aktivering av perception och handling. I det sjätte avsnittet jämför vi vårt ramverk med andra modeller av gestproduktion. Slutligen, i den sjunde delen, formulerar vi förutsägelser som härrör från ramen. Många teoretiker har föreslagit att perception är för handling (J. J. Gibson, 1979; Sperry, 1952); det vill säga förmågan att uppfatta utvecklades från ett behov av att interagera med världen. Perception gör det möjligt för oss att känna till fördelarna med objekt i vår miljö och därmed göra det möjligt för oss att styra våra handlingar på ett målinriktat sätt (se t.ex. Adolph, 1997). Utan denna kunskap skulle det vara praktiskt taget omöjligt att veta vilket objekt som är bäst för att gömma sig bakom, sitta på, klättra upp, eller ett antal andra potentiella åtgärder som förmodligen var viktiga för överlevnaden i förfädernas miljö. Det är därför svårt att föreställa sig att uppfattningen har utvecklats som något annat än en "pågående process för att finna lämpliga reaktioner på miljön" (Borghi, 2005, s. 9). Perception är anpassningsbar eftersom det möjliggör snabba och effektiva reaktioner på den stimuli vi stöter på. Om uppfattningen verkligen utvecklades i första hand för att underlätta åtgärder, kan man förutsäga att uppfattningar bör framkalla lämpliga åtgärder helt automatiskt. Det finns faktiskt samlade bevis för att handlingsplaner är ofrivilliga konsekvenser av våra uppfattningar. Tucker och Ellis (1998) fann att svar som indikerade om ett visuellt uppfattat objekt Copyright 2008 Psyconomic Society, Inc. Spontana gester som åtföljer tal är relaterade till både verbala och rumsliga processer. Vi hävdar att gester uppstår ur perceptuella och motoriska simuleringar som ligger bakom förkroppsligade språk och mentala bilder. Vi går först igenom nuvarande tänkande om förkroppsligad kognition, förkroppsligat språk, och förkroppsligade mentala bildspråk. Vi ger sedan bevis för att gester härrör från rumsliga representationer och mentala bilder. Vi föreslår sedan gester-som-simulerad-handlingsram för att förklara hur gester kan uppstå från ett förkroppsligat kognitivt system. Slutligen jämför vi detta ramverk med andra aktuella modeller för gestproduktion, och vi beskriver kortfattat förutsägelser som härrör från ramverket.
Systemet behandlar representationsgester REF, t.ex. rörelser som pekar på en referens i den fysiska miljön (deiktiska gester) eller gester som beskriver ett begrepp med rörelse eller form av händerna (ikoniska gester).
371,637
Visible embodiment: Gestures as simulated action
{'venue': 'Psychonomic bulletin & review', 'journal': 'Psychonomic bulletin & review', 'mag_field_of_study': ['Psychology', 'Medicine']}
2,252
För många program, särskilt heltalskoder, tolererade belastningsinstruktion latenser står för en betydande del av den totala verkställighetstiden. [i detta dokument presenterar vi utformningen och utvärderingen av en mekanism för snabb generering av adresser som kan eliminera de förseningar som orsakas av effektiv adressberäkning för många laster och butiker. Vårt tillvägagångssätt fungerar genom att tidigt i pipeline (del av) förutsäga den effektiva adressen till en minnesåtkomst och använda denna förutsagda adress för att spekulativt få tillgång till datacachen. Om prognosen är korrekt överlappas åtkomsten till cache med icke-spekulativ effektiv adressberäkning. Annars nås cache igen i följande cykel, denna gång med rätt effektiv adress. Inverkan på den kritiska sökvägen för cacheåtkomst är minimal; prediktionskretsen lägger bara till en enda operation för cacheåtkomst innan cacheåtkomst kan påbörjas. Dessutom är kontrollen av den förväntade effektiva adressen helt frikopplad från den kritiska sökvägen för cacheåtkomst. Analyser av programmets referensbeteende och efterföljande prestandaanalys av detta tillvägagångssätt visar att denna design är en bra en, servar tillräckligt tillgångar tillräckligt tidigt för att resultera i speedups för alla program som vi testade. Vår strategi svarar också väl på programvarusupport. vilket avsevärt kan minska antalet mi spredicted effektiva adresser, i många fall ger bättre program upphastigheter och minska kraven på cache bandbredd.
I REF föreslås att man använder snabba adressberäkningar för att få tillgång till hela L1 DC tidigare i rörledningen, för att minska genomförandetiden genom att lösa databeroendena tidigare.
9,791,472
Streamlining data cache access with fast address calculation
{'venue': "ISCA '95", 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,253
Gemensamma beräkningsmetoder för automatisk detektering av ögonrörelser - d.v.s. uppgiften att upptäcka olika typer av ögonrörelser i en kontinuerlig ström av ögondata - är begränsad i det att de antingen innebär tröskelmärkning på handgjorda signalfunktioner, kräver individuella detektorer som var och en endast upptäcker en enda rörelse, eller kräver förhandssegmenterade data. Vi föreslår en ny metod för att upptäcka ögonrörelser som endast innebär att lära sig en enda detektor end-to-end, d.v.s. direkt från den kontinuerliga blickdataströmmen och samtidigt för olika ögonrörelser utan någon manuell funktionsbearbetning eller segmentering. Vår metod är baserad på konvolutionella neurala nätverk (CNN) som nyligen visat överlägsen prestanda i en mängd olika uppgifter i datorseende, signalbehandling och maskininlärning. Vi introducerar vidare en ny multi-participant dataset som innehåller scripted och fri-viewing sekvenser av mark-truth kommenterade sakkader, fixeringar, och smidiga strävanden. Vi visar att vår CNN-baserade metod överträffar state-of-the-art basics med stor marginal på denna utmanande datauppsättning, vilket understryker den betydande potentialen i detta tillvägagångssätt för holistisk, robust och korrekt analys av ögonrörelseprotokoll.
Dessutom visades en Convolutional Neural Network (CNN) effektiv för att klassificera fixeringar, sakkader och smidiga strävanden i en datauppsättning som innehåller fri visning stimuli experiment REF.
5,938,282
End-to-End Eye Movement Detection Using Convolutional Neural Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
2,254
I tidigare arbete förespråkade vi en fortsatt utveckling av specifikationer i händelse av inkonsekvens. För att stödja detta använde vi klassisk logik för att representera partiella specifikationer och för att identifiera inkonsekvenser mellan dem. Vi presenterar nu en anpassning av klassisk logik, som vi kallar kvasiklassisk (QC) logik, som tillåter fortsatt resonemang i närvaro av inkonsekvens. Anpassningen är en försvagning av den klassiska logiken som förbjuder alla triviala härledningar, men ändå gör det möjligt att härleda alla resolvanter av antagandena. Dessutom beter sig bindväven på ett klassiskt sätt. Därefter presenterar vi en utveckling kallad QC-logik som registrerar och spårar antaganden som används i resonemanget. Detta underlättar en logisk analys av inkonsekvent information. Vi diskuterar tillämpningen av märkt QC-logik i analysen av multiperspektiva specifikationer. Sådana specifikationer utvecklas av flera deltagare som har överlappande, ofta inkonsekventa, åsikter om de system de utvecklar.
Andra krav tekniska metoder REF lämnar inkonsekvenser i specifikationer och använda en lämplig logik för att fortsätta resonemanget, även i närvaro av en inkonsekvens.
1,228,816
Managing inconsistent specifications: reasoning, analysis, and action
{'venue': 'TSEM', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,255
Vi presenterar en metod för att härleda 3D-pose och form av fordon från en enda bild. För att ta itu med detta illvilliga problem optimerar vi tvåskalig projektionskonsistens mellan de genererade 3D-hypoteserna och deras tvådimensionella pseudomätningar. I synnerhet använder vi en formbar trådramsmodell för att generera en finskalad representation av fordonets form och ställning. För att minska känsligheten för 2D-markmärken modellerar vi tillsammans 3D-bården som en grov representation som förbättrar robustheten. Vi integrerar även tre tidigare uppgifter, inklusive oövervakat monokulärt djup, markplansrestriktion samt tidigare fordonsform, med projiceringsfel framåt i en övergripande energifunktion.
I Mono3D++ REF, 3D form och pose för bilar tillhandahålls genom att använda en morfable wireframe, och det optimerar projektionskonsistens mellan genererade 3D-hypoteser och motsvarande, 2D pseudo-mätningar.
57,825,785
Mono3D++: Monocular 3D Vehicle Detection with Two-Scale 3D Hypotheses and Task Priors
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
2,256
Haskell-koden är utvecklad för två sätt att lista strängarna i det språk som definieras av ett reguljärt uttryck: direkt genom inställda operationer och indirekt genom att konvertera till och simulera en likvärdig automaton. Övningen illustrerar tekniker för att hantera oändligt ordnade domäner och leder till en effektiv standardform för icke-deterministiska ändliga automata. Lata språk är väl lämpade för sekvensgenerering på grund av den lätthet med vilken de hanterar oändliga sekvenser. Problemet med att räkna upp strängarna i ett vanligt språk föreslogs av Jay Misra som ett vackert fall i punkt, enkelt att säga, men svårt att lösa. I detta dokument utvecklas två koncisa och radikalt olika lösningar i Haskell (Peterson et al., 1998), en direkt och en indirekt. Båda tillvägagångssätten utnyttjar Haskells enastående kondition för strukturell induktion. Det direkta tillvägagångssättet tolkar reguljära uttryck som recept för byggsatser. Här är huvudfrågan att programmera de primitiva för att kombinera uppsättningar: union, tvärprodukt, och stängning under en binär operation. De primitiva gäller alla välordnade domäner. Den indirekta metoden avleder genom automata, först konstruera en likvärdig icke-deterministisk finita automaton, sedan spåra utförandet vägar automaton i bredd-först ordning. Automaten har en ovanlig form: förutom ett enda sluttillstånd finns det exakt ett tillstånd per symbol i det reguljära uttrycket och detta tillstånd tar bara emot en symbol. De åtgärder som utvecklats för den första lösningen används igen, denna gång för att kombinera uppsättningar av stater snarare än uppsättningar av strängar. Använda Haskell kod är tillgänglig elektroniskt. (McIlroy, 2003) 1 Problemet Devise ett program för att räkna upp de distinkta strängar i det reguljära språket som betecknas med ett givet reguljärt uttryck. Den resulterande listan bör beställas efter stränglängd och lexikografiskt inom varje längd. Tolkning är inte aktuell; reguljära uttryck anses redan vara tolkade datastrukturer.
REF genomför uppräkning av alla strängar av ett vanligt språk i Haskell.
46,580,211
Enumerating the strings of regular languages
{'venue': 'J. Funct. Program.', 'journal': 'J. Funct. Program.', 'mag_field_of_study': ['Computer Science']}
2,257
Abstrakt. Digitaliserade vetenskapliga dokument bör markeras enligt domänspecifika XML-scheman, för att maximalt använda sitt innehåll. Sådana markeringar möjliggör avancerad, semantikbaserad åtkomst till dokumentsamlingen. Många NLP-tillämpningar har utvecklats för att stödja automatisk notering. Men NLP-resultaten är ofta inte tillräckligt exakta, och manuella korrigeringar är oumbärliga. Vi har därför utvecklat GoldenGATE-editorn, ett verktyg som integrerar NLP-applikationer och assistansfunktioner för manuell XML-redigering. Enkel XML-redigerare har inte en så snäv integration: Användare måste skapa markeringen manuellt eller flytta dokumenten fram och tillbaka mellan editorn och (främst kommandoraden) NLP-verktyg. Detta dokument innehåller den första empiriska utvärderingen av hur användarna drar nytta av en så snäv integration när de skapar semantiskt rika digitala bibliotek. Vi har utfört experiment med människor som var tvungna att utföra märkningsuppgifter på en dokumentsamling från en generisk domän. Resultaten visar tydligt att markup redigeringshjälp i tight kombination med NLP-funktionalitet avsevärt minskar användarens arbete med att kommentera dokument.
GoldenGATE-redigeraren REF integrerar NLP-verktyg och assistansfunktioner för manuell XML-redigering.
15,016,185
Empirical evaluation of semi-automated XML annotation of text documents with the GoldenGATE editor
{'venue': 'ECDL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,258
Aktiva konturmodeller är mycket populära inom bildsegmentering. Olika funktioner såsom medelgrå och varians väljs för olika ändamål. Men för bild med intensitet inhomogeniteter, det finns inga funktioner för segmentering med hjälp av den aktiva konturmodellen. Bilderna med intensitet inhomogeniteter inträffade ofta i verkliga världen, särskilt i medicinska bilder. För att hantera de svårigheter som uppstår vid bildsegmentering med intensitetsinhomogeniteter föreslås en ny aktiv konturmodell med spridningsmetod med högre ordning. Med tillägg av gradient och Laplace information kan den aktiva konturmodellen konvergera till kanten av bilden även med intensiteten inhomogeniteter. På grund av införandet av Laplace-information blir skillnaden svårare. För att öka effektiviteten i segmenteringen är den snabba Split Bregman-algoritmen utformad för genomförandet av segmenteringen. Prestandan av vår metod demonstreras genom numeriska experiment av vissa medicinska bildsegmenteringar med intensitet inhomogeniteter.
Wang m.fl. REF har presenterat en medicinsk bildsegmenteringsteknik baserad på aktiv konturmodell för att hantera problemet med intensitetsinhomogeniteter i bildsegmentering.
6,654,323
Active Contour Model Coupling with Higher Order Diffusion for Medical Image Segmentation
{'venue': 'International Journal of Biomedical Imaging', 'journal': 'International Journal of Biomedical Imaging', 'mag_field_of_study': ['Computer Science', 'Medicine']}
2,259
Nätbeskärning används i stor utsträckning för att minska de tunga beräkningskostnaderna för djupa modeller. En typisk beskärningsalgoritm är en trestegs pipeline, dvs. utbildning (en stor modell), beskärning och finjustering. Vid beskärning, enligt ett visst kriterium, redundanta vikter beskärs och viktiga vikter hålls för att bäst bevara noggrannheten. I detta arbete gör vi flera överraskande observationer som motsäger vanliga uppfattningar. För alla de sex toppmoderna beskärningsalgoritmerna vi undersökte ger finjustering av en beskuren modell bara jämförbar eller ännu sämre prestanda än att träna den modellen med slumpmässigt initierade vikter. För beskärning algoritmer som antar en fördefinierad målnätverk arkitektur, kan man bli av med hela rörledningen och direkt träna målnätverket från grunden. Våra observationer är konsekventa för ett brett utbud av beskärningsalgoritmer med flera nätverksarkitekturer, datauppsättningar och uppgifter. Våra resultat har flera implikationer: 1) att träna en stor, överparameteriserad modell är inte nödvändigt för att få en effektiv slutmodell, 2) att lära sig "viktiga" vikter av den stora modellen är inte nödvändigtvis användbara för den lilla beskurna modellen, 3) den beskurna arkitekturen själv, snarare än en uppsättning nedärvda "vikter", är vad som leder till effektivitetsvinsten i den slutliga modellen, vilket tyder på att vissa beskärningsalgoritmer kan ses som att utföra sökning av nätverksarkitektur. I detta arbete visar vi att båda de trosuppfattningar som nämns ovan inte nödvändigtvis är sanna. Baserat på en omfattande empirisk utvärdering av toppmoderna beskärningsalgoritmer på flera datauppsättningar med flera nätverksarkitekturer, gör vi två överraskande observationer. För det första, för beskärning algoritmer med fördefinierade mål nätverk arkitekturer (Figur 2), direkt utbildning den lilla målmodellen från slumpmässig initiering kan uppnå samma, om inte bättre, prestanda, som den modell som erhålls från tre steg pipeline. I detta fall är det inte nödvändigt att börja med en stor modell och man kunde i stället direkt träna målmodellen från grunden. För det andra, för beskärning algoritmer utan ett fördefinierat målnätverk, utbildning den beskurna modellen från scratch kan också uppnå jämförbara eller till och med bättre prestanda än finjustering. Denna observation visar att för dessa beskärningsalgoritmer är det viktiga den erhållna arkitekturen, i stället för de bevarade vikterna, trots att den stora modellen krävs för att hitta den målarkitekturen. Motsättningen mellan våra resultat och de som rapporteras i litteraturen kan förklaras med mindre noga valda hyperparametrar, system för dataförstärkning och orättvis beräkningsbudget för utvärdering av denna baslinjemetod. Fördefinierad: plommon x% kanaler i varje lager Automatisk: plommon a%, b%, c%, d% kanaler i varje lager A 4-lager modell
REF delar in beskärningsmetoderna i två kategorier baserat på hur målmodellens arkitektur bestäms, dvs. fördefinierad beskärning om målmodellen är fördefinierad av användaren och automatiskt om den bestäms av beskärningsalgoritmen.
52,978,527
Rethinking the Value of Network Pruning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
2,262
I en färsk konferenstidning har vi rapporterat en rytm transkriptionsmetod baserad på en sammanslagen output dold Markov modell (HMM) som uttryckligen beskriver flerröststrukturen av polyfonisk musik. Denna modell löser ett stort problem med konventionella metoder som inte korrekt kunde beskriva karaktären av flera röster som i polyrytmiska poäng eller i fenomenet med lös synkroni mellan röster. I detta dokument presenterar vi en fullständig beskrivning av den föreslagna modellen och utvecklar en slutledningsteknik, som är giltig för alla sammanslagna utdata HMMs, för vilka utdata sannolikheter beror på tidigare händelser. Vi undersöker också hur metodens arkitektur och parametrar påverkar accuracies för rytm transkription och röstseparation och utför jämförande utvärderingar med sex andra algoritmer. Med hjälp av MIDI-inspelningar av klassiska pianostycken fann vi att den föreslagna modellen överträffade andra metoder med mer än 12 poäng i noggrannheten för polyrytmiska föreställningar och utförde nästan lika bra som den bästa för icke-polyrytmiska föreställningar. Detta avslöjar de toppmoderna metoderna för rytm transkription för första gången i litteraturen. Det finns också allmänt tillgängliga källkoder för framtida jämförelser. Index Terms-Hidden Markov modeller, modell för polyfoniska musikresultat, musik performance modell, rytm transkription, statistisk musik språk modell.
Nyligen har en sammanslagen HMM med flera röststrukturer föreslagits.
2,541,164
Rhythm Transcription of Polyphonic Piano Music Based on Merged-Output HMM for Multiple Voices
{'venue': 'TASLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,263
Abstrakt. -Vi introducerar en ny distribuerad algoritm för att anpassa grafer eller hitta substrukturer inom en given graf. Det är baserat på hålighetsmetoden och används för att studera maximal-klick och graf-anpassning problem i slumpmässiga grafer. Algoritmen gör det möjligt att analysera stora grafer och kan hitta tillämpningar inom områden som beräkningsbiologi. Som ett bevis på konceptet använder vi vår algoritm för att anpassa likhetsdiagram över två interagerande proteinfamiljer som är involverade i bakteriell signaltransduktion, och för att förutsäga faktiskt interagerande proteinpartners mellan dessa familjer. Under det senaste årtiondet har användningen av grafer för beskrivning av relationer mellan komponenter i komplexa system blivit allt populärare [1]. Den största delen av den nuvarande litteraturen koncentreras dock på lokala egenskaper som nodgrader (beräkningsmässigt tillgängliga), medan fullt utnyttjande av större näts mer globala egenskaper fortfarande ofta är svårfångat på grund av deras inneboende algoritmiska komplexitet. De flesta studier av globala egenskaper kräver att man löser NP-hårda problem eller ännu svårare problem om någon form av osäkerhet eller brist på information ingår i definitionen av problemet. I båda fallen måste heuristiska algoritmer utvecklas. Särskilda exempel, som omfattas av denna artikel, inkluderar jämförelse av två olika nätverk, det s.k. graf-alignment problem (GA) [2] [3] [4], och sub-graf isomorfism (SGI), som ett särskilt fall som vi anser att den allmänt studerade maximal-clique problem [5] [6] [7]. Nyligen har det funnits ett stort intresse för distribuerade algoritmer för att hantera optimeringsproblem över nätverk. I samband med statistisk fysik har en ny generation algoritmer utvecklats (t.ex. [8, 9] ) som har visat lovande resultat i flera ansökningar (för en granskning, se [10] ). Dessa tekniker är baserade på den så kallade hålighetsmetoden och är kända som meddelandepasserande algoritmer (MP). De är helt fördelade och lätta att köra på parallella maskiner. Ett nytt resultat i detta ramverk är en algoritm för att hitta en ansluten delgraf av en given graf som optimerar en given faktoriserad kostnadsfunktion [11]. Här strävar vi efter att ta ett steg framåt genom att införa nya tekniker för SGI och GA. Vi utvecklar två alternativa MP-strategier och testar deras prestanda på tre urvalsproblem. De två första är väldefinierade teoretiska riktmärken, där våra resultat kan jämföras med rigorösa gränser: (i) det maximala klickproblemet i slumpmässiga grafer för SGI-problemet; och (ii) anpassningen av två slumpmässiga grafer av kontrollerad likhet. Det tredje provet problem anses som en proof-of-concept tillämpning i beräkningsbiologi: Vi studerar (iii) anpassningen av likhet nätverk av två interagerande protein-domäner som är involverade i bakteriell signalöverföring, för att identifiera faktiska signalvägar. Detta fall, som omfattar stora nätverk av >2500 noder, utnyttjar co-evolutionära processer mellan interagerande proteiner för att identifiera interaktionspartner [12]. Modellen -Både problemen, SGI och GA, kan sättas in i den gemensamma ramen för att matcha två diagram av möjligen olika storlek. Låt G = (V, E, w) och G ′ = (V ′, E ′, w ′ ) vara två viktade grafer med noder V, V ′, kanter E, E ′ och kantvikter w, w ′. I de tillämpningar som visas i denna bokstav, vikter är icke-negativa, men detta är inte ett nödvändigt villkor för tillämpligheten av meddelandepasserande algoritmer. I fallet med oviktade grafer, antar vi w och w ′ för att beskriva adjacency matriser, dvs.. Vikter är en om en kant finns mellan två hörn, och noll annars. Ytterligare mer betecknar vi nodnumret med N = och V (N ), och kantnumret med M =,, (M =,,, ),,,,,,,, ),,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,, ),,,,,,,,,,,, ),,,,,,,,,,,,,,, ),,,,,,,,,,,,,, ),,,,,,,,,,,.,,,,,,,,,,,,,,,,,,,.,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,.,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,, ),,,,,,,,,,,,,,,,,,,,,,,,,,,, Grannar till en nod jag är monterade i ∂i. För att underlätta notifieringen hänvisar man alltid till G (särskilt knutpunktsindex).
Även om både REF och detta arbete delar användningen av en BP metod, faktorgrafen och algoritmerna är olika.
14,254,075
Aligning graphs and finding substructures by a cavity approach
{'venue': '2010 Europhys. Lett. 89 37009', 'journal': None, 'mag_field_of_study': ['Physics', 'Biology', 'Computer Science']}
2,264
En särskild egenskap hos programvaruintensiva system är att programvara är en grundläggande komponent tillsammans med andra komponenter. För programvarudesign motpart, både för strukturella och dynamiska vyer, UML är en av de mest använda modellering språk. UML är dock svagt när det gäller modellering av delar av ett programvaruintensivt system som inte är programvara. Detta är den främsta anledningen till att System Modelling Language (SysML), en UML profil, infördes av OMG. Ett mål med denna artikel är att kombinera SysML Block diagram och UML klass diagram för att utforma den strukturella bilden av en programvara-intensiv systemarkitektur. En metamodell som beskriver förhållandet mellan de två diagrammen och en automatisk modelldriven omvandling med hjälp av ATL-språket föreslås. Utvärderingen genomfördes genom att metamodellen i praktiken användes för att utveckla programvaruintensiva system inom området trafikledning, vilket framgår av fallstudien.
Författarna till papper REF kombinerade SysML Block diagram med UML klass diagram för att utforma den strukturella bilden av en programvaruintensiv systemarkitektur.
11,987,767
Model-driven Structural Design of Software-intensive Systems Using SysML Blocks and UML Classes
{'venue': 'ICEIS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,265
Vi anser att beräkningen av kortaste vägar på Grafiska bearbetningsenheter (GPU). Den blockerade rekursiva elimineringsstrategi vi använder är tillämplig på en klass av algoritmer (såsom alla-par kortaste-vägar, transitiv stängning, och LU nedbrytning utan pivoting) med liknande data åtkomst mönster. Med hjälp av alla-par kortaste-vägar problem som exempel, avslöjar vi potentiella vinster över denna klass av algoritmer. Den imponerande beräkningskraften och minnesbandbredden hos GPU gör det till en attraktiv plattform för att köra sådana beräkningsintensiva algoritmer. Även om förbättringar över CPU-implementationer tidigare har uppnåtts för dessa algoritmer i form av rå hastighet, var utnyttjandet av de underliggande beräkningsresurserna ganska låg. Vi implementerade en rekursivt partionerade alla-par kortaste-vägar algoritm som utnyttjar kraften i GPUs bättre än befintliga implementationer. Det alternativa schemat för vägberäkningar gjorde det möjligt för oss att kasta nästan alla operationer i matris-matris multiplikationer på en semiring. Eftersom matris-matris multiplikation är högt optimerad och har ett högt förhållande av beräkning till kommunikation, vårt genomförande lider inte av för tidig mättnad av bandbredd resurser som iterativa algoritmer gör. Genom att öka temporal lokalitet, vår implementering kör mer än två storleksordningar snabbare på en NVIDIA 8800 GPU än på en Opteron. Vårt arbete ger bevis för att programmerare bör tänka om algoritmer i stället för att direkt överföra dem till GPU.
I REF beräknade författare kortaste vägar på grafiska bearbetningsenheter.
1,415,614
Solving Path Problems on the GPU
{'venue': 'Parallel Comput.', 'journal': 'Parallel Comput.', 'mag_field_of_study': ['Computer Science']}
2,266
Dagens kompilatorer har en uppsjö av optimeringar att välja mellan, och rätt val av optimeringar kan ha en betydande inverkan på prestandan hos den kod som optimeras. Dessutom har valet av rätt ordning för att tillämpa dessa optimeringar varit ett långvarigt problem i sammanställningsforskningen. Var och en av dessa optimeringar samverkar med koden och i sin tur med alla andra optimeringar på komplicerade sätt. Traditionella kompilatorer tillämpar vanligtvis samma uppsättning av optimering i en fast ordning på alla funktioner i ett program, utan hänsyn till att koden är optimerad. Att förstå samverkan mellan optimeringar är mycket viktigt för att bestämma en bra lösning på fasordningsproblemet. Detta dokument utvecklar ett nytt tillvägagångssätt som automatiskt väljer bra optimeringsbeställningar per metod inom en dynamisk kompilator. Vår strategi formulerar fas-ordering problem som en Markov process och använder en karakterisering av nuvarande tillstånd av koden som optimeras för att skapa en bättre lösning på fas beställning problem. Vår teknik använder neuro-evolution för att konstruera ett artificiellt neuralt nätverk som kan förutsäga fördelaktig optimering beställning för en kod som optimeras. Vi implementerade vår teknik i Jikes RVM och uppnådde betydande förbättringar på en uppsättning standard Java-riktmärken över en välkonstruerad fast order.
Det är en vanlig praxis att tillämpa samma uppsättning optimeringar i en fast ordning, tidigare handjusterad av kompilator författare baserat på deras erfarenhet och insikt REF.
2,647,577
Mitigating the compiler optimization phase-ordering problem using machine learning
{'venue': "OOPSLA '12", 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,267
Abstract-Ett av de viktigaste fenomenen i vissa system är kaos som orsakas av icke-linjär dynamik. I detta dokument, det nya 3-dimensionella kaotiska systemet först undersökas och sedan använda en intelligent controller som bygger på hjärnan emotionell inlärning (BELBIC), detta nya kaotiska system synkroniseras. BELBIC består av belöningssignal som accepterar positiva värden. Felaktigt val av parametrar orsakar ett felaktigt beteende som kan orsaka allvarliga problem såsom instabilitet i systemet. Det behövs för att optimera dessa parametrar. Genetisk Algoritm (GA), Cuckoo Optimization Algoritm (COA), Partikel Swarm Optimization Algoritm (PSO) och Imperialist Competitive Algorithm (ICA) används för att beräkna de optimala parametrarna för belöningssignalen av BELBIC. Dessa algoritmer kan välja lämpliga och optimala värden för parametrarna. Dessa minimerar kostnadsfunktionen, så de optimala värdena för parametrarna kommer att grundas. Vald kostnadsfunktion definieras för att minimera de minsta kvadratfelen. Kostnadsfunktionen tvingar systemfelen att snabbt förfalla till noll. Numeriska simuleringsresultat presenteras för att visa den föreslagna metodens effektivitet.
ICA har använts för synkronisering av kaotiska system baserade på en intelligent controller som bygger på hjärnan emotionell inlärning (BELBIC) REF.
41,727,812
Synchronization New 3D Chaotic System Using Brain Emotional Learning Based Intelligent Controller
{'venue': None, 'journal': 'International Journal of Information Technology and Computer Science', 'mag_field_of_study': ['Computer Science']}
2,268
Cloud computing har fått stor uppmärksamhet från forskarsamhället på grund av den snabba migrationen av informationstekniktjänster till sitt område. Framsteg inom virtualiseringsteknik har gjort molntjänster mycket populära som ett resultat av enklare distribution av applikationstjänster. Uppgifter skickas till cloud datacenter för att behandlas på lön när du går mode. Schemaläggning av uppgifter är en av de stora forskningsutmaningarna i molndatamiljön. Den nuvarande formuleringen av problem med schemaläggning av uppgifter har visat sig vara NP-komplett, varför det är svårt att hitta den exakta lösningen särskilt för stora problemstorlekar. Den heterogena och dynamiska funktionen hos molnresurser gör optimal uppgift schemaläggning icke-trivial. Därför krävs effektiva schemaläggningsalgoritmer för optimalt resursutnyttjande. Symbiotiska Organisms Search (SOS) har visat sig prestera konkurrenskraftigt med Partikel Swarm Optimization (PSO). Syftet med denna studie är att optimera schemaläggningen av uppgifter i molndatamiljön baserat på en föreslagen Simulated Annealing (SA) baserad SOS (SASOS) för att förbättra SOS-lösningens konvergenshastighet och kvalitet. SOS-algoritmen har en stark global prospekteringskapacitet och använder färre parametrar. Den systematiska resonemang förmåga SA används för att hitta bättre lösningar på lokala lösningar regioner, vilket ökar prospektering förmåga till SOS. Dessutom föreslås en fitness funktion som tar hänsyn till utnyttjandegraden av virtuella maskiner (VM) som minskar makepan och graden av obalans bland virtuella maskiner. CloudSim verktygslåda användes för att utvärdera effektiviteten i den föreslagna metoden med hjälp av både syntetisk och standard arbetsbelastning. Resultaten av simuleringen visade att hybrid SOS presterar bättre än SOS när det gäller konvergenshastighet, svarstid, grad av obalans och makespan.
Arbetet i REF presenterar en modifierad version av SOS baserat på SA-förfarandet för att lösa problemet med schemaläggning i molndata.
18,766,892
Hybrid Symbiotic Organisms Search Optimization Algorithm for Scheduling of Tasks on Cloud Computing Environment
{'venue': 'PLoS ONE', 'journal': 'PLoS ONE', 'mag_field_of_study': ['Medicine', 'Computer Science']}
2,269
I detta dokument studeras komplexiteten i den distribuerade konstruktionen av rent additiva skiftnycklar i CONGEST-modellen. Vi beskriver algoritmer för att bygga sådana skiftnycklar i flera fall. På grund av behovet av att samtidigt fatta beslut på långt skilda platser använder algoritmerna ytterligare mekanismer jämfört med sina sekventiella motsvarigheter. Vi kompletterar våra algoritmer med en lägre gräns för antalet rundor som krävs för att beräkna parvisa skiftnycklar. Standardnedskärningarna från set-dislectionness och jämlikhet verkar olämpliga för denna uppgift eftersom ingen specifik kant behöver tas bort från diagrammet. För att få vår lägre gräns definierar vi istället ett nytt kommunikationskomplex problem som minskar till att beräkna en gles skiftnyckel och visar sig vara en lägre gräns för dess kommunikationskomplexitet. Denna teknik utökar avsevärt den nuvarande verktygslådan som används för att erhålla
Flera lägre gränser för tids komplexiteten av skiftnyckelkonstruktion i den överbelastade modellen där presenteras i REF, men dessa är endast tillämpliga på parvis skiftnycklar med ett begränsat antal par, och inte för alla-par skiftnycklar.
5,334,429
Distributed construction of purely additive spanners
{'venue': 'Distributed Computing', 'journal': 'Distributed Computing', 'mag_field_of_study': ['Mathematics', 'Computer Science', 'Engineering']}
2,270
Tips, som en kompakt och koncis form av recensioner, ägnades mindre uppmärksamhet av forskare. I detta dokument undersöker vi uppgiften att ge tips genom att överväga "persona"-informationen som fångar användarens egen språkstil eller produkternas olika egenskaper. För att utnyttja personainformationen föreslår vi ett ramverk baserat på kontradiktoriska variationer i autokodrar (avaE) för personamodellering från historiska tips och recensioner av användare och objekt. De latenta variablerna från avaE betraktas som persona inbäddningar. Förutom att representera persona med hjälp av latenta inbäddningar, designar vi ett personaminne för att lagra persona relaterade ord för användare och objekt. Pointer Network används för att hämta personliga formuleringar från minnet när du genererar tips. Dessutom används persona inbäddningar som latenta faktorer av en bedömningsförutsägelse komponent för att förutsäga känslan av en användare över ett objekt. Slutligen, persona inbäddningar och känslor information införlivas i en återkommande neurala nätverk baserade tips generation komponent. Omfattande experimentella resultat rapporteras och diskuteras för att utveckla särdragen i vårt ramverk.
REF genererade tips genom att överväga "persona"-information som kan fånga användarnas språkstil och objektens egenskaper.
70,350,032
Persona-Aware Tips Generation?
{'venue': "WWW '19", 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,271
Abstract-Malware forskare förlitar sig på observation av skadlig kod i utförandet för att samla in dataset för ett brett utbud av experiment, inklusive generering av detektionsmodeller, studie av longitudinellt beteende, och validering av tidigare forskning. För att sådan forskning ska återspegla försiktig vetenskap måste arbetet ta itu med ett antal frågor som rör korrekt och representativ användning av datamängderna, presentation av metoder på ett sätt som är tillräckligt öppet för att möjliggöra reproducerbarhet och vederbörlig hänsyn till behovet av att inte skada andra. I denna uppsats studerar vi metodologiska rigor och försiktighet i 36 akademiska publikationer från 2006-2011 som förlitar sig på malware exekvering. 40 % av dessa uppsatser utkom vid de sex högst rankade akademiska säkerhetskonferenserna. Vi finner ofta brister, inklusive problematiska antaganden om användningen av exekveringsdrivna dataset (25 % av papperen), avsaknad av beskrivning av säkerhetsåtgärder som vidtagits under experimenten (71 % av artiklarna) och ofta otillräcklig beskrivning av försöksuppställningen. Brister förekommer i topp arenor och på andra håll, belyser ett behov av att gemenskapen för att förbättra sin hantering av malware dataset. I hopp om att hjälpa författare, granskare och läsare, vi utforma riktlinjer för transparens, realism, korrekthet och säkerhet för att samla in och använda malware dataset.
I en nyligen genomförd undersökning av 36 forskningsrapporter om dynamisk analysteknik påpekade REF att de gemensamma bristerna i dynamisk analysteknik är de problematiska och något oklara antagandena om användningen av exekveringsdrivna dataset och bristen på detaljer och motivation för de säkerhetsåtgärder som har vidtagits under försöksfasen.
242,671
Prudent Practices for Designing Malware Experiments: Status Quo and Outlook
{'venue': '2012 IEEE Symposium on Security and Privacy', 'journal': '2012 IEEE Symposium on Security and Privacy', 'mag_field_of_study': ['Computer Science']}
2,272
Automatiska metoder för att utvärdera den perceptuella kvaliteten på en digital videosekvens har utbredda tillämpningar där slutanvändaren är en människa. Det finns flera algoritmer för objektiv videokvalitetsbedömning (VQA), vars prestanda normalt utvärderas med hjälp av resultaten från en subjektiv studie som utfördes av videokvalitetsexpertgruppen (VQEG) 2000. Det finns ett stort behov av en gratis, offentligt tillgänglig subjektiv studie av videokvalitet som förkroppsligar state-of-the-art inom videobehandlingsteknik och som är effektiv i utmanande och benchmarking objektiva VQA algoritmer. I detta dokument presenterar vi en studie och en resulterande databas, känd som LIVE Video Quality Database, där 150 förvrängda videosekvenser som erhållits från 10 olika källvideoinnehåll utvärderades subjektivt av 38 mänskliga observatörer. Vår studie inkluderar videor som har komprimerats av MPEG-2 och H.264, samt videor som erhållits genom simulerad överföring av H.264 komprimerade strömmar genom fel benägen IP och trådlösa nätverk. Den subjektiva utvärderingen utfördes med hjälp av ett enda stimulansparadigm med dold referens borttagning, där observatörerna ombads att lämna sina synpunkter på videokvalitet i kontinuerlig skala. Vi presenterar också prestandan av flera fritt tillgängliga objektiva, fullständiga referens (FR) VQA algoritmer på LIVE Video Quality Database. Det senaste MOtion-baserade Video Integrity Evaluation (MOVIE) index framträder som det ledande målet VQA algoritm i vår studie, medan prestanda för Video Quality Metric (VQM) och Multi-Scale Structural SIMilarity (MS-SSIM) index är anmärkningsvärt. LIVE Video Quality Database är fritt tillgänglig för nedladdning 1 och vi hoppas att vår studie ger forskare ett värdefullt verktyg för att jämföra och förbättra prestandan hos objektiva VQA algoritmer.
Verket REF ger en studie och en resulterande databas, känd som LIVE Video Quality Database, där 150 förvrängda videosekvenser som erhållits från 10 olika videoinnehållskällor utvärderades subjektivt av 38 mänskliga observatörer.
16,565,968
A subjective study to evaluate video quality assessment algorithms
{'venue': 'Electronic Imaging', 'journal': None, 'mag_field_of_study': ['Engineering', 'Computer Science']}
2,273
Abstract-Man-made objekt uppvisar vanligtvis beskrivande böjda funktioner (dvs. kurva nätverk). Ett objekts kurvanät förmedlar dess geometriska och topologiska struktur på hög nivå. Vi presenterar en ram för att extrahera funktionskurva nätverk från ostrukturerade punktmoln data. Vårt ramverk genererar först en uppsättning initiala böjda segment som passar mycket böjda regioner. Vi optimerar sedan dessa böjda segment för att respektera både datamontering och strukturella regulariteter. Slutligen utvidgas och ansluts de optimerade böjda segmenten till kurvnät med hjälp av en klustermetod. För att underlätta effektiviteten vid svår saknad data och lösa oklarheter utvecklar vi ett användargränssnitt för att slutföra kurvnätverken. Experiment på olika ofullständiga punktmolnsdata validerar effektiviteten i vårt ramverk för kurvanätverksextraktion. Vi visar nyttan av de extraherade kurvnätverken för ytrekonstruktion från ofullständiga punktmoln.
REF detekterar karakteristiska kurvor i bullriga punktmoln och använder sedan kurvorna för ytrekonstruktion.
14,508,557
Curve Networks for Surface Reconstruction
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
2,274
Neurala nätverk är både beräkningsintensiva och minnesintensiva, vilket gör dem svåra att distribuera på inbyggda system med begränsade hårdvaruresurser. För att ta itu med denna begränsning, introducerar vi "djup kompression", en trestegs pipeline: beskärning, utbildad kvantisering och Huffman kodning, som arbetar tillsammans för att minska lagringskravet för neurala nätverk med 35× till 49× utan att påverka deras noggrannhet. Vår metod först beskär nätverket genom att lära sig bara viktiga anslutningar. Därefter kvantifierar vi vikterna för att tvinga fram viktdelning, slutligen använder vi Huffman-kodning. Efter de två första stegen tränar vi om nätverket för att finjustera de återstående anslutningarna och de kvantiserade centroiderna. Beskärning, minskar antalet anslutningar med 9× till 13×; Kvantisering minskar sedan antalet bitar som representerar varje anslutning från 32 till 5. På ImageNet dataset, vår metod minskade lagring som krävs av AlexNet med 35×, från 240MB till 6,9MB, utan förlust av noggrannhet. Vår metod minskade storleken på VGG-16 med 49× från 552MB till 11,3MB, igen utan förlust av noggrannhet. Detta gör det möjligt att montera modellen i on-chip SRAM cache snarare än off-chip DRAM minne. Vår komprimeringsmetod underlättar också användningen av komplexa neurala nätverk i mobila applikationer där applikationens storlek och nedladdningsbandbredd begränsas. Benchmarked på CPU, GPU och mobil GPU, komprimerat nätverk har 3× till 4× lagervis speedup och 3× till 7× bättre energieffektivitet.
Han och Al. REF introducerar djupkompression, som använder flera steg såsom viktbeskärning, viktdelning och Huffman kodning för att minska neurala nätverksstorlek.
2,134,321
Deep Compression: Compressing Deep Neural Networks with Pruning, Trained Quantization and Huffman Coding
{'venue': 'ICLR 2016', 'journal': 'arXiv: Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
2,275
I detta dokument behandlas additiva och rent additiva skiftnycklar. Vi presenterar en ny rent additiv skiftnyckel av siz på O(n 7/5
Chechik REF presenterade en (1, 4)-spanner O(n 7/5 ) kanter.
10,297,037
New Additive Spanners
{'venue': 'SODA', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
2,276
I denna artikel föreslås en strategi för att förbättra användarnas upplevelse av videostreaming i samband med smarta städer. Det föreslagna tillvägagångssättet bygger på begreppet MEC som en nyckelfaktor för att förbättra QoS. Den upprätthåller QoS genom att se till att applikationer/tjänster följer användarnas rörlighet och förverkligar konceptet "Följ Me Edge". Genom det föreslagna systemet införs autonoma MEC-tjänster som gör det möjligt att när som helst få tillgång till data med optimal QoE och minskad latens. Med tanke på dess tillämpning i smarta stadsscenarier utgör det föreslagna systemet en viktig lösning för att minska stomnätstrafiken och säkerställa ultrakort latens genom en smart MEC-arkitektur som kan uppnå 1 ms latency-drömmen för de kommande 5G-mobilsystemen.
Mobility management results using the concept of follow-me edge (FME) studeras i REF.
11,163,718
Mobile Edge Computing Potential in Making Cities Smarter
{'venue': 'IEEE Communications Magazine', 'journal': 'IEEE Communications Magazine', 'mag_field_of_study': ['Computer Science']}
2,277
Abstract Palmprint verifiering är en relativt ny men lovande personlig autentisering teknik för sin höga noggrannhet och snabb matchning hastighet. Tvådimensionellt (2D) handavtrycksigenkänning har studerats väl under det senaste årtiondet, och nyligen tredimensionellt (3D) handavtrycksigenkänning Exakt och robust personlig autentisering är en avgörande fråga i den moderna e-världen, och biometriska tekniker är lovande lösningar på detta problem. Palmprint är en relativt ny men viktig medlem av biometriska egenskaper. Den innehåller en rik mängd stabila textur funktioner, vilket leder till mycket hög igenkänning noggrannhet. Samtidigt gör fördelarna som låg kostnad, användarvänlighet och hög matchningshastighet det praktiskt möjligt att använda i stor skala. Många metoder har föreslagits för erkännande av 2D-palmavtryck [1] [2] [3] [5] [6] [7] [8] [9] [10] [11] [12] [13] [15] [16] [17]. I allmänhet kan de nuvarande 2D-metoderna för igenkänning av handavtryck klassificeras i tre kategorier: kodbaserade metoder [3, 4, 6, 8, 13] Sådana metoder använder inte förkunskaper om objektet, men de behöver en utbildningsprocess. Även om 2D palmprint erkännande har uppnått hög noggrannhet, har det fortfarande vissa nackdelar. Till exempel är 2D-handavtryck lätt att förfalska, och bildkvaliteten kan påverkas mycket av ljusförändringar och klotter. För att övervinna dessa problem av 2D palmprint igenkänning, 3D palmprint igenkänning tekniker har nyligen utvecklats [18], där 3D palmprint data fångas genom att använda strukturerad-ljus avbildning [20]. I 3D-palmavtryckssystemet [18] samlas informationen om innerytans djup in och en krökningsbaserad metod används för extraktion och matchning av 3D-palmavtryck. Eftersom 2D- och 3D-handavtrycksbilderna kan fångas samtidigt kan 2D- och 3D-handavtrycksfunktionerna lätt sammansmältas. Under [18] och [19] användes några enkla sammansmältningsmetoder och bättre resultat än att endast använda 2D- eller 3D-funktioner erhölls. Syftet med detta dokument är att utveckla ett effektivt system för matchning av 2D- och 3D-handavtryck för mer exakt och robust personlig autentisering. För att bättre kunna använda 2D- och 3D-handavtrycksinformationen föreslår vi ett par nya regler för matchning av funktioner. Vi klassificerar Palmprint funktioner i tre olika nivåer: formnivå, linjenivå och textur
I REF, Li et al. extraherade tre nivåer av 2D och 3D palmprint funktioner, inklusive form funktioner, huvudsakliga linje funktioner, och textur funktioner.
13,931,229
Efficient joint 2D and 3D palmprint matching with alignment refinement
{'venue': '2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition', 'journal': '2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
2,278
Abstract-Distribuerad dynamisk kanalallokering (DDCA) är ett grundläggande resurshanteringsproblem i mobila cellulära nätverk. Den har en smak av distribuerad ömsesidig uteslutning men är inte precis ett ömsesidigt uteslutande problem (eftersom en kanal kan återanvändas i olika celler). I detta dokument fastställer vi det exakta sambandet mellan de två problemen. I synnerhet introducerar vi problemet med avslappnat ömsesidigt utanförskap för att modellera en viktig aspekt av DDCA-problemet. Vi utvecklar en allmän algoritm som garanterar ett minskat ömsesidigt utanförskap för en enda resurs och som visar sig nödvändiga och tillräckliga villkor för informationsstrukturen. Med tanke på distribuerad dynamisk kanalallokering som ett specialfall av avslappnad ömsesidig uteslutning, tillämpar och utökar vi algoritmen för att ytterligare ta itu med de problem som uppstår i distribuerad kanalallokering såsom dödlägesupplösning, hantering av flera kanaler, utformning av effektiva informationsstrukturer och kanalurvalsstrategier. Utifrån dessa resultat föreslår vi ett system för fördelning av kanaler med hjälp av en av de föreslagna informationsstrukturerna. Analys- och simuleringsresultat tillhandahålls och visar att resultaten av denna forskning kan användas för att utforma effektivare distribuerade kanalalgoritmer.
Författarna till REF föreslår en allmän algoritm som säkerställer ett avslappnat ömsesidigt uteslutande av en enda resurs (i detta fall en kanal).
2,791,147
On Distributed Dynamic Channel Allocation in Mobile Cellular Networks
{'venue': 'IEEE Trans. Parallel Distrib. Syst.', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,279
Abstract-This paper syftar till att effektivt känna igen mänskliga ansikten från bilder, vilket är ett viktigt problem i multimediainformationsprocessen. Efter att ha analyserat de relaterade forskningsarbetena illustreras ramen för ansiktsigenkänningssystemet som först, som innehåller utbildningsprocessen och testprocessen. Framför allt används den förbättrade PCA-algoritmen i funktionens extraktionsmodul. De viktigaste nyheterna i detta papper ligger i att, i den förbättrade PCA, använder vi en radial bas funktion för att konstruera en kärnmatris genom att beräkna avståndet mellan två olika vektorer, som beräknas med parametern 2-norm exponentiellt. Efteråt kan människoansikten kännas igen genom att beräkna avståndet mellan testbilden och träningsbilderna av närmaste grannklassare, av vilka cosinusavståndet används. Slutligen utförs experiment för att göra prestandautvärderingar. Jämfört med de befintliga metoderna för ansiktsigenkänning är det föreslagna systemet effektivare när det gäller att erkänna mänskliga ansikten med hög effektivitet.
Samma år föreslog Yue Ref att man skulle använda en radiell basfunktion för att konstruera en kärnmatris genom att beräkna avståndet mellan två olika vektorer beräknade med parametern 2-norm exponentiellt och sedan tillämpa ett cosinusavstånd för att beräkna det matchande avståndet som leder till högre igenkänningshastighet över en traditionell PCA.
14,336,640
Human Face Recognition based on Improved PCA Algorithm
{'venue': 'Journal of Multimedia', 'journal': 'Journal of Multimedia', 'mag_field_of_study': ['Computer Science']}
2,280
Abstract-Several styrsystem i säkerhetskritiska applikationer innebär samverkan mellan en autonom styrenhet och en eller flera mänskliga operatörer. Exempel är piloter som interagerar med ett autopilotsystem i ett flygplan och en förare som interagerar med automatiska förarassistansfunktioner i en bil. Korrektheten i sådana system beror inte bara på den autonoma regulatorn, utan också på den mänskliga regulatorns handlingar. I detta dokument presenterar vi en formalism för kontrollsystemen i det mänskliga kretsloppet. Särskilt fokuserar vi på problemet med att syntetisera en semi-autonom regulator från hög nivå tidsspecifikationer som förväntar sig enstaka mänskliga ingrepp för korrekt drift. Vi presenterar en algoritm för detta problem, och visar dess funktion på problem relaterade till förarassistans i bilar.
Löjtnant m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m för m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. REF fokuserade på problemet med att syntetisera en semiautonom kontrollant som förväntar sig enstaka mänskliga ingrepp för korrekt drift.
5,726,460
Synthesis for Human-in-the-Loop Control Systems
{'venue': 'TACAS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,281
Abstrakt. Denna uppsats visar hur Ptolemaios II diskreta event (DE) modeller kan analyseras formellt med hjälp av Real-Time Maude. Vi formaliserar i Real-Time Maude semantiken i en undergrupp av hierarkiska Ptolemaios II DE-modeller, och förklarar hur kodgenereringsinfrastrukturen i Ptolemaios II har använts för att automatiskt syntetisera en Real-Time Maude-verifieringsmodell från en Ptolemaios II-designmodell. Detta möjliggör en modellutvecklingsprocess som kombinerar bekvämligheten av Ptolemaios II DE modellering och simulering med formell verifiering i Real-Time Maude.
Semantiken hos icke-hierarkiska Ptolemaios II DE-modeller beskrivs i det senaste dokumentet REF som vi utvidgar till hierarkiska modeller i detta dokument.
2,506,385
Verifying Ptolemy II Discrete-Event Models Using Real-Time Maude
{'venue': 'ICFEM', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,282
Nyligen, flera modeller baserade på djupa neurala nätverk har uppnått stor framgång både i fråga om återuppbyggnad noggrannhet och beräkningsprestanda för en enda bild super-upplösning. I dessa metoder uppgraderas indatabilden med låg upplösning (LR) till högupplösningsutrymmet (HR) med ett enda filter, vanligen bikubisk interpolering, före rekonstruktion. Detta innebär att superupplösningsoperationen (SR) utförs i HR-utrymme. Vi visar att detta är suboptimalt och tillför beräkningskomplexitet. I detta papper presenterar vi det första konvolutionella neurala nätverket (CNN) som kan i realtid SR av 1080p videor på en enda K2 GPU. För att uppnå detta föreslår vi en ny CNN-arkitektur där funktionskartorna extraheras i LR-utrymmet. Dessutom introducerar vi ett effektivt sub-pixel-konvolutionsskikt som lär sig en rad uppskalningsfilter för att skala upp de slutliga LR-funktionskartorna till HR-utgången. Genom att göra det ersätter vi effektivt det handgjorda bikubiska filtret i SR-ledningen med mer komplexa uppskalningsfilter som är särskilt utbildade för varje funktionskarta, samtidigt som den totala SR-driftens beräkningskomplex minskar. Vi utvärderar det föreslagna tillvägagångssättet med hjälp av bilder och videor från allmänt tillgängliga dataset och visar att det presterar betydligt bättre (+0.15dB på bilder och +0.39dB på videor) och är en storleksordning snabbare än tidigare CNN-baserade metoder.
Shi och Al. I REF föreslogs ett effektivt subpixelkonvolutionsskikt som lär sig en rad uppskalningsfilter för att skala upp LR-funktionskartorna.
7,037,846
Real-Time Single Image and Video Super-Resolution Using an Efficient Sub-Pixel Convolutional Neural Network
{'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
2,283
Programvarudefinierat nätverk (SDN) revolutionerar nätverksindustrin, men nuvarande SDN-programmeringsplattformar tillhandahåller inte automatiserade mekanismer för att uppdatera globala konfigurationer i farten. Att genomföra uppdateringar för hand är en utmaning för SDN-programmerare eftersom nätverk distribueras med hundratals eller tusentals interagerande noder. Även om inledande och slutliga konfigurationer är korrekta, naivt uppdatera enskilda noder kan leda till felaktiga övergående beteenden, inklusive slingor, svarta hål, och åtkomstkontroll överträdelser. Detta dokument presenterar ett tillvägagångssätt för automatisk synthesizing uppdateringar som är garanterade att bevara angivna egenskaper. Vi formaliserar nätverksuppdateringar som ett distribuerat programmeringsproblem och utvecklar en syntesalgoritm baserad på motexempelstyrd sökning och inkrementell modellkontroll. Vi beskriver en prototypimplementering, och presenterar resultat från experiment på verkliga topologier och egenskaper som visar att våra verktyg skalar till uppdateringar som involverar över en tusen noder.
McClurg m.fl. REF presenterade en metod för att syntetisera uppdateringar som garanterades att bevara angivna egenskaper.
6,342,115
Efficient synthesis of network updates
{'venue': 'PLDI 2015', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,284
Sammanfattning Vi presenterar en algoritm för att uppskatta styrpropellrar konfigurationer av undervattensfordon med omkonfigurerbara styrpropellrar. Algoritmen uppskattar varje styrpropellers effekt på fordonets inställning och position. De uppskattade parametrarna används för att bibehålla robotens attityd och position. Algoritmen fungerar genom att mäta impulsresponsen hos enskilda styrraketer och styrraketkombinationer. Statistiska mått används för att välja ut dataprover. Slutligen beräknar vi en Moore-Penrose pseudoinverse, som används för att projicera den önskade inställningen och positionsändringar på styrraketerna. Vi verifierar vår algoritm experimentellt med hjälp av vår robot AMOUR. Roboten består av en huvudkropp med ett variabelt antal styrraketer som kan monteras på godtyckliga platser. Den använder en IMU och en trycksensor för att kontinuerligt beräkna dess attityd och djup. Vi använder algoritmen för att uppskatta olika styrpropellerkonfigurationer och visar att de uppskattade parametrarna framgångsrikt styr roboten. Insamlingen av prover tillsammans med skattningsberäkningen tar cirka 40 sekunder. Vidare visar vi att prestandan hos den uppskattade styrenheten matchar prestandan hos en manuellt avstämd styrenhet. Vi visar också att estimeringsalgoritmen kan anpassa styrenheten till oväntade förändringar i styrpropellerpositioner. Den uppskattade regulatorn förbättrar avsevärt stabiliteten och manöverförmågan hos roboten jämfört med den manuellt inställda regulatorn.
Detta arbete följs upp i REF, som föreslår en algoritm för att lära sig trustor konfiguration av roboten.
6,296,653
Estimation of Thruster Configurations for Reconfigurable Modular Underwater Robots
{'venue': 'ISER', 'journal': None, 'mag_field_of_study': ['Engineering', 'Computer Science']}
2,285
Detta papper undersöker preferens-baserade top-K rank aggregation problem. Antag att en samling av objekt jämförs upprepade gånger i par, och man vill återställa en konsekvent beställning som betonar de topp-K rangordnade objekten, baserat på delvis avslöjade preferenser. Vi fokuserar på Bradley-Terry-Luce (BTL) modell som postulerar en uppsättning latent preferens poäng underliggande alla objekt, där oddsen för parade jämförelser beror endast på de relativa poäng av de berörda objekten. Vi karakteriserar minimax-gränserna för identififiability för topp-K rangordnade objekt, i närvaro av slumpmässig och icke-adaptiv provtagning. Våra resultat belyser ett separationsmått som kvantifierar skillnaden i preferenspoäng mellan K th och (K + 1) th rangordnade objekt. Den minsta urvalskomplexitet som krävs för tillförlitliga topp-K-rankningsskalor omvänt med separationsmåttet oberoende av andra mått för preferensfördelning. För att närma sig denna minimax-gräns föreslår vi ett nästan linjärt tidsrankningssystem, kallat Spectral MLE, som returnerar indexen för topp-K-objekten i enlighet med en noggrann värdering. I ett nötskal börjar Spectral MLE med en första värdering med minimal squared förlust (som erhålls via en spektral metod), och förfinar sedan varje komponent successivt med hjälp av koordinatmässigt MLE. Uppmuntrande, Spectral MLE möjliggör perfekt top-K objekt identifiering under minimal prov komplexitet. Den praktiska tillämpligheten av Spectral MLE bekräftas ytterligare av numeriska experiment.
Ref studerade identifieringen av top-K-kandidaterna enligt BTL-modellen och dess urvalskomplexitet.
16,239,576
Spectral MLE: Top-$K$ Rank Aggregation from Pairwise Comparisons
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
2,286
Abstract-Coordinated aggregering av en stor population av termostatiskt kontrollerade laster (TCL) ger en stor potential att tillhandahålla olika sidotjänster till nätet. En av de viktigaste utmaningarna med att integrera TCL:er i systemnivådrift och kontroll är att utveckla en enkel och bärbar modell för att exakt fånga upp deras aggregerade flexibilitet. I detta dokument föreslår vi ett geometriskt tillvägagångssätt för att modellera TCL:s sammanlagda flexibilitet. Vi visar att uppsättningen tillåtna effektprofiler för en enskild TCL är en polytop, och deras sammanlagda flexibilitet är Minkowski summan av de enskilda polytoperna. För att representera deras aggregerade flexibilitet på ett intuitivt sätt och uppnå en dragbar approximation utvecklar vi optimeringsbaserade algoritmer för att approximera polytoperna genom homoteterna i ett givet konvext set. Som en speciell applikation väljs denna uppsättning som en virtuell batterimodell och motsvarande optimala approximationer löses effektivt genom motsvarande linjära programmeringsproblem. Numeriska resultat visar att våra algoritmer ger betydande förbättringar i karakteriseringen av den aggregerade flexibiliteten jämfört med befintliga modelleringsmetoder. Vi genomför också fallstudier för att visa effektiviteten i våra strategier genom att samordna TCL:er för att spåra en frekvensregleringssignal från Pennsylvania-New Jersey-Maryland (PJM) sammanlänkning.
Zhao m.fl. studerade ett geometriskt tillvägagångssätt som kan aggregera flexibilitet från TCL (representerat som ett "virtuellt" batteri) och där uppsättningen genomförbara effektprofiler för varje TCL har visat sig vara ett polytope Ref.
8,821,038
A Geometric Approach to Aggregate Flexibility Modeling of Thermostatically Controlled Loads
{'venue': None, 'journal': None, 'mag_field_of_study': ['Mathematics', 'Engineering']}
2,287
Motivering: Trots framsteg i hög genomströmningsmetoder för att upptäcka protein-proteininteraktioner är interaktionsnätverken hos även välstuderade modellorganismer i bästa fall skepticy, vilket belyser det fortsatta behovet av beräkningsmetoder för att hjälpa direkta experimentister i sökandet efter nya interaktioner. Resultat: Vi presenterar en kärnmetod för att förutsäga proteinproteininteraktioner med hjälp av en kombination av datakällor, inklusive proteinsekvenser, Gene Ontology annotations, lokala egenskaper hos nätverket, och homologa interaktioner hos andra arter. Medan proteinkärnor som föreslås i litteraturen ger en likhet mellan enskilda proteiner, förutsägelse av interaktioner kräver en kärna mellan par av proteiner. Vi föreslår en parvis kärna som omvandlar en kärna mellan enskilda proteiner till en kärna mellan par av proteiner, och vi illustrerar kärnans effektivitet tillsammans med en stödvektorklassare. Dessutom får vi förbättrad prestanda genom att kombinera flera sekvensbaserade kärnor baserade på k-mer frekvens, motiv och domäninnehåll och genom att ytterligare utöka den parvisa sekvenskärnan med funktioner som är baserade på andra datakällor. Vi använder vår metod för att förutsäga fysiska interaktioner i jäst med hjälp av data från BIND-databasen. Med en falsk positiv frekvens av 1% klassifieraren hämtar nära 80% av en uppsättning betrodda interaktioner. Vi visar därmed vår metods förmåga att göra exakta förutsägelser trots den betydande del av falska positiva som är kända för att existera i interaktionsdatabaser. Tillgänglighet: Klassificeringsförsöken utfördes med hjälp av PyML som finns på http://pyml.sourceforge.net.
Den parvisa kärnan som vi kommer att jämföra vår metod med i våra experiment (avsnitt 7) föreslogs för att förutsäga proteinproteininteraktioner REF.
7,923,324
Kernel methods for predicting protein-protein interactions
{'venue': 'Bioinformatics', 'journal': 'Bioinformatics', 'mag_field_of_study': ['Computer Science', 'Medicine']}
2,288
Sammanfattning De nyaste övervakningstillämpningarna försöker sig på mer komplexa uppgifter som analys av individers och folkmassors beteende. Dessa komplexa uppgifter kan använda ett distribuerat visuellt sensornätverk för att få täckning och utnyttja den inneboende redundansen i det överlappade vyfältet. I den här artikeln presenteras en multiagentarkitektur baserad på modellen Belief-Desire-Intention (BDI) för behandling av information och säkringsdata i ett distribuerat visuellt sensornätverk. I stället för att utbyta råa bilder mellan de agenter som är involverade i det visuella nätverket utförs lokal signalbehandling och endast de viktigaste observerade funktionerna delas. Efter en registrerings- eller kalibreringsfas utför den föreslagna arkitekturen spårning, datafusion och samordning. Med hjälp av den föreslagna multiagentarkitekturen fokuserar vi på sättet att sammansmälta de uppskattade positionerna på markplanet från olika agenter som appliceras på samma objekt. Denna fusionsprocess används för två olika ändamål: 1) för att uppnå kontinuitet i spårningen av de kameror som ingår i det distribuerade nätverket, 2) för att förbättra kvaliteten på spårningen med hjälp av fusionsteknik och genom att kassera icke-tillförlitliga sensorer. Experimentella resultat på två olika scenarier visar att den designade arkitekturen framgångsrikt kan spåra ett objekt även när ocklusioner eller sensorns fel inträffar. Sensorns fel minskas genom att man utnyttjar redundansen hos ett visuellt sensornätverk med överlappat vyfält.
Komplementärt, Castanedo et al. REF beskriver en MAS baserad på BDI-modellen för behandling av information och lagring av data från ett distribuerat visuellt sensornätverk.
4,517,607
A Multi-agent Architecture Based on the BDI Model for Data Fusion in Visual Sensor Networks
{'venue': None, 'journal': 'Journal of Intelligent & Robotic Systems', 'mag_field_of_study': ['Engineering', 'Computer Science']}
2,289
Sociala nätverk online har nyligen blivit en effektiv och innovativ kanal för att sprida information och inflytande bland hundratals miljoner slutanvändare. Det mesta av det tidigare arbetet har antingen utförts empiriska studier eller fokuserat på informationsspridningsmodellering i timlig dimension, föga försök har gjorts att förstå informationsspridning över både timliga och rumsliga dimensioner. I detta dokument föreslår vi en partiell differentialekvation (PDE), särskilt en Diffusive Logistic (DL) ekvation för att modellera tids- och rumsliga egenskaper för informationsspridning. Vi presenterar tids- och rumsliga mönster i en verklig datauppsättning som samlats in från en social nyhetsaggregeringsplats, Digg, och validerar den föreslagna DL-ekvationen när det gäller att förutsäga informationsspridningsprocessen. Våra experimentresultat visar att DL-modellen kan karakterisera och förutsäga informationsspridningsprocessen i sociala nätverk online. Till exempel, för de mest populära nyheterna med 24,099 röster i Digg, är den genomsnittliga förutsägelse noggrannhet DL modell över alla avstånd under de första 6 timmarna 92,08%. Såvitt vi vet är detta dokument det första försöket att använda PDE-baserad modell för att studera informationsspridningsprocessen i både tidsmässiga och rumsliga dimensioner i sociala nätverk online.
I ett nyligen publicerat dokument föreslog REF den första modellen för att karakterisera informationsspridning i både rumsliga och tidsmässiga dimensioner och verifierade modellen med de mest populära nyheterna i en Digg-datauppsättning.
5,754,460
Diffusive Logistic Model Towards Predicting Information Diffusion in Online Social Networks
{'venue': '2012 32nd International Conference on Distributed Computing Systems Workshops', 'journal': '2012 32nd International Conference on Distributed Computing Systems Workshops', 'mag_field_of_study': ['Computer Science', 'Mathematics', 'Physics']}
2,290
Bakgrund: Användningen av vetenskapens kunskap för att främja människors hälsa är det främsta målet med translationell medicin. För att göra det möjligt behöver vi beräkningsmetoder för att hantera den stora mängd information som uppstår från bänk till säng och för att hantera dess heterogenitet. En uppgiftsuppgift som måste mötas är att främja integreringen av kliniska, sociodemografiska och biologiska data. I detta arbete spelar ontologier en viktig roll som en kraftfull artefakt för kunskapsrepresentation. Chado är en modulär ontologiorienterad databasmodell som blev populär på grund av dess robusthet och flexibilitet som en generisk plattform för lagring av biologiska data, men saknar stöd för representation av klinisk och sociodemografisk information. Resultat: Vi har implementerat en förlängning av Chadothe Clinical Module - för att tillåta representation av denna typ av information. Vårt tillvägagångssätt består av en ram för dataintegration genom användning av en gemensam referens ontologi. Utformningen av detta ramverk har fyra nivåer: datanivå, för att lagra data; semantisk nivå, för att integrera och standardisera data genom användning av ontologier; applikationsnivå, för att hantera kliniska databaser, ontologier och dataintegrationsprocessen; och webbgränssnittsnivå, för att möjliggöra interaktion mellan användaren och systemet. Den kliniska modulen byggde på modellen Entity-Attribute-Value (EAV). Vi föreslog också en metod för att migrera data från äldre kliniska databaser till det integrerade ramverket. En Chado instans initierades med hjälp av ett relationsdatabashanteringssystem. Den kliniska modulen implementerades och ramverket laddades med data från en faktabaserad klinisk forskningsdatabas. Kliniska och demografiska data samt biomaterialdata erhölls från patienter med tumörer i huvud och hals. Vi implementerade IPTrans-verktyget som är en komplett miljö för datamigrering, vilket omfattar: konstruktion av en modell för att beskriva de äldre kliniska data, baserat på en ontologi; Processen Extraction, Transformation and Load (ETL) för att extrahera data från källans kliniska databas och ladda den i den kliniska modulen i Tchad; utveckling av ett webbverktyg och ett Bridge Layer för att anpassa webbverktyget till Tchad, samt andra applikationer. Slutsatser: Beräkningslösningar med öppen källkod som för närvarande finns tillgängliga för translationell vetenskap har ingen modell för att representera biomolekylär information och är inte heller integrerade med de befintliga verktygen för bioinformatik. Å andra sidan representerar befintliga genomiska datamodeller inte kliniska patientdata. Ett ramverk utvecklades för att stödja translationell forskning genom att integrera biomolekylär information från olika "omik"-teknologier med patientens kliniska och sociodemografiska data. Denna ram bör innehålla några inslag: flexibilitet, kompression och robusthet. Experimenten från ett användningsfall visade att det föreslagna systemet uppfyller kraven på flexibilitet och robusthet, vilket leder till önskad integration. Den kliniska modulen kan nås i
Ett försök att utveckla ett ramverk som stöder translationell forskning genom att integrera biomolekylär information med patientens kliniska data beskrivs i REF.
9,560,337
Computational framework to support integration of biomolecular and clinical data within a translational approach
{'venue': 'BMC Bioinformatics', 'journal': 'BMC Bioinformatics', 'mag_field_of_study': ['Computer Science', 'Medicine']}
2,291
Djuplärande algoritmer har visat sig prestera extremt bra på många klassiska maskininlärningsproblem. Nyligen genomförda studier har dock visat att djupt lärande, liksom andra tekniker för maskininlärning, är sårbart för kontradiktoriska prover: ingångar skapade för att tvinga ett djupt neuralt nätverk (DNN) att ge motståndare utvalda utgångar. Sådana attacker kan allvarligt undergräva säkerheten i det system som stöds av DNN, ibland med förödande konsekvenser. Till exempel kan autonoma fordon kraschas, olagligt eller olagligt innehåll kan kringgå innehållsfilter, eller biometriska autentiseringssystem kan manipuleras för att möjliggöra felaktig åtkomst. I detta arbete inför vi en defensiv mekanism som kallas defensiv destillation för att minska effektiviteten hos kontradiktoriska prover på DNN. Vi undersöker analytiskt de generaliserings- och robusthetsegenskaper som ges genom användning av defensiv destillation vid utbildning av DNN. Vi studerar också empiriskt effektiviteten i våra försvarsmekanismer på två DNN placerade i kontradiktoriska miljöer. Studien visar att defensiv destillation kan minska effektiviteten av provgenerering från 95 % till mindre än 0,5 % på en undersökt DNN. Sådana dramatiska vinster kan förklaras av det faktum att destillation leder gradienter som används i kontradiktoriska prov skapande minskas med en faktor på 10 30. Vi finner också att destillationen ökar det genomsnittliga minsta antalet egenskaper som behöver ändras för att skapa kontradiktoriska prover med cirka 800 % på en av de DNN som vi testade.
Deras studie visade att defensiv destillation kan minska effektiviteten av kontradiktoriskt prov skapande från 95% till mindre än 0,5% på en undersökt DNN REF.
2,672,720
Distillation as a Defense to Adversarial Perturbations Against Deep Neural Networks
{'venue': '2016 IEEE Symposium on Security and Privacy (SP)', 'journal': '2016 IEEE Symposium on Security and Privacy (SP)', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
2,292
Produktmatchning är en utmanande variant av företagets upplösning för att identifiera representationer och erbjudanden som avser samma produkt. Produktmatchning är mycket svårt på grund av det breda spektrum av produkter, många liknande men olika produkter, ofta saknas eller fel värden, och text naturen av produkttitlar och beskrivningar. Vi föreslår användning av skräddarsydda metoder för produktmatchning baserat på en förbearbetning av produkterbjudanden för att extrahera och rengöra nya attribut som kan användas för matchning. I synnerhet föreslår vi en ny metod för att extrahera och använda så kallade produktkoder för att identifiera produkter och skilja dem från liknande produktvariationer. Vi utvärderar effektiviteten av de föreslagna tillvägagångssätten med utmanande verkliga dataset med produkterbjudanden från online-butiker. Vi visar också att UPC-informationen i produkterbjudanden ofta är felbenägen och kan leda till otillräckliga matchbeslut.
Hanna m.fl. REF presenterar en metod för att skräddarsy företagets upplösning för att matcha ostrukturerade produkterbjudanden genom att extrahera produktkod.
2,654,261
Tailoring entity resolution for matching product offers
{'venue': "EDBT '12", 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,293
Abstrakt. När dagens pendlare i tåget eller i en bil vill komma åt Internet, ser de sig själva begränsas till enkla webbsurfing eller e-post. Interaktiva multimediatjänster, som onlinespel eller videokonferenser, är fortfarande inte tillgängliga för dem, även med lovande ny teknik som UMTS eller WiMAX. Inverkan av hög bithastighetsmultimediatrafik på accessnätet och aggregeringsnätet är ett viktigt ämne, som inte har behandlats tillräckligt detaljerat tidigare. Vi designade en nätverksarkitektur för att erbjuda dessa multimediatjänster till snabbrörliga användare. Vi hänvisar till den övergripande nätverksarkitekturen som FAMOUS-nätverksarkitekturen, som består av två delar: (i) en accessnätverksdel som måste hantera ett stort antal användare, som ber om en hög bandbredd, samtidigt som man upplever en hög avlämningsfrekvens och (ii) en aggregeringsnätverksdel som måste hantera dynamiska tunnlar med mycket hög bandbredd, samtidigt som man upplever en låg avlämningsfrekvens. I detta dokument beskriver vi FAMOUS-arkitekturen, tillsammans med optimerade handhavandestrategier, en optisk kopplingsarkitektur, en designmetodik för dimensionering av aggregeringsnät och automatisk tunnelkonfigurering och aktivering. Dessutom kommer resultat från dessa aspekter att presenteras.
FAMOUS REF-arkitekturen föreslås erbjuda multimediatjänster till snabbrörliga användare.
33,026,449
FAMOUS: A Network Architecture for Delivering Multimedia Services to FAst MOving USers
{'venue': None, 'journal': 'Wireless Personal Communications', 'mag_field_of_study': ['Computer Science']}
2,294
Det är ABSTRACT. Harmony Search Algorithm (HSA) är en relativt ny naturinspirerad algoritm. Den utvecklar lösningar i problemsökrummet genom att härma den musikaliska improvisationsprocessen i strävan efter behaglig harmoni mätt enligt estetiska standarder. Syster Rostering Problem (NRP) är ett välkänt NP-hård schemaläggning problem som syftar till att fördela den nödvändiga arbetsbördan till tillgänglig personal sjuksköterskor vid hälso- och sjukvårdsorganisationer för att uppfylla de operativa kraven och en rad preferenser. I detta arbete undersöks forskningsfrågor kring parameterinställningarna i HSA och tillämpningen av HSA för att effektivt lösa komplexa NRP. På grund av det välkända faktum att de flesta NRPs algoritmer är mycket problem (eller till och med exempel) beroende, prestandan hos vår föreslagna HSA utvärderas på två uppsättningar av mycket olika sjuksköterska rostning problem. Den första uppsättningen representerar ett verkligt dataset från ett stort sjukhus i Malaysia. Experimentella resultat visar att vår föreslagna HSA producerar bättre kvalitetslistor för alla tänkbara fall än en genetisk algoritm (som implementeras häri). Den andra är en uppsättning välkända NRP som används i stor utsträckning av forskare i litteraturen. Den föreslagna HSA får goda resultat (och nya lägre gräns för några fall) jämfört med det nuvarande tillståndet av meta-heuristiska algoritmer i den senaste litteraturen.
Harmony search, en metaheuristisk algoritm, användes för sjuksköterska schemaläggning problem på ett sjukhus i Malaysia REF.
16,569,649
A Harmony Search Algorithm for Nurse Rostering Problems
{'venue': 'Inf. Sci.', 'journal': 'Inf. Sci.', 'mag_field_of_study': ['Computer Science']}
2,295
Om jag ger dig en ansiktsbild av min (utan att berätta den faktiska åldern när jag tog bilden) och en stor mängd ansiktsbilder som jag kröp (innehåller märkta ansikten i olika åldrar men inte nödvändigtvis parade), kan du visa mig hur jag skulle se ut när jag är 80 eller hur jag var när jag var 5?" Svaret är förmodligen ett "nej". De flesta befintliga ansiktsåldrande verk försöker lära sig omvandlingen mellan åldersgrupper och därmed skulle kräva parade prover samt den märkta frågebilden. I detta dokument tittar vi på problemet ur ett generativt modelleringsperspektiv så att inga parade prover krävs. Dessutom, med tanke på en omärkt bild, den generativa modellen kan direkt producera bilden med önskad ålder attribut. Vi föreslår en villkorlig adversarial autoencoder (CAAE) som lär sig ett ansiktsgrenrör, traversing på vilken jämn ålder progression och regression kan realiseras samtidigt. I CAAE, är ansiktet först kartlagt till en latent vektor genom en convolutional encoder, och sedan vektorn projiceras till ansiktet mångfald villkorad av ålder genom en dekonvolutional generator. Den latenta vektorn bevarar personliga ansiktsdrag (dvs personlighet) och ålderstillståndet kontrollerar progression vs regression. Två kontradiktoriska nätverk påtvingas kodaren och generatorn, respektive tvingar till att generera mer fotorealistiska ansikten. Experimentella resultat visar på den tilltalande prestandan och flexibiliteten i den föreslagna ramen genom att jämföra med den senaste och verkliga sanningen.
Zhang m.fl. I REF föreslogs en villkorlig adversarial autoencoder (CAAE) för att uppnå åldersprogression och regression genom att traversera i lågdimensionellt grenrör.
810,708
Age Progression/Regression by Conditional Adversarial Autoencoder
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
2,296
Abstract-Millimeter-våg (mmWave) är lovande teknik för hög datahastighet (multi-Gbps) Wireless Personal Area Networks (WPAN). I detta dokument introducerar vi först begreppet exklusiv region (ER) för att tillåta samtidiga sändningar att utforska den rumsliga multiplexing-vinsten av trådlösa nätverk. Med tanke på de unika egenskaperna hos mmWave-kommunikation och användningen av allsidiga eller riktade antenner, härleder vi ER-förhållandena som säkerställer att samtidiga sändningar alltid kan överträffa seriella TDMA-transmissioner i en mmWave WPAN. Vi föreslår sedan REX, en randomiserad ER-baserad schemaläggning, att bestämma en uppsättning avsändare som kan överföra samtidigt. Dessutom erhålls det förväntade antalet flöden som kan schemaläggas för samtidiga överföringar analytiskt. Omfattande simuleringar genomförs för att validera analysen och visa hur effektivt och ändamålsenligt det föreslagna REX-schemat är. Resultaten bör ge viktiga riktlinjer för framtida spridning av mmWave baserade WPAN. Index Terms-Resource management, exklusiv region, service schemaläggning, rumslig multiplexing vinst, mmWave WPAN.
Referensreferensreferensen föreslog en exklusiv regionbaserad schemaläggningsalgoritm för att utnyttja samtidig överföring.
7,032,393
Rex: A randomized EXclusive region based scheduling scheme for mmWave WPANs with directional antenna
{'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
2,297
Abstrakt. Iris-baserad personlig identifiering har rönt stor uppmärksamhet under de senaste åren. Nästan alla toppmoderna algoritmer för irisigenkänning är baserade på statistisk klassificering och lokala bildfunktioner, som är bullerkänsliga och knappast för att ge perfekt igenkänningsprestanda. I detta dokument föreslår vi en ny metod för irisigenkänning med hjälp av histogrammet för lokalt binärt mönster för global irisstrukturrepresentation och grafmatchning för strukturell klassificering. Målet med vår idé är att komplettera de toppmoderna metoderna med ortogonala egenskaper och klassificering. I den texturrika iris-bilddatabasen UPOL uppnår vår metod högre diskriminabilitet än den senaste tekniken. Men vår algoritm fungerar inte bra i CASIA-databasen vars bilder är mindre texturerade. Då visas värdet av vårt arbete genom att ge kompletterande information till de toppmoderna systemen för irisigenkänning. Efter enkel fusion med vår metod kan samma felfrekvens för Daugmans algoritm halveras.
I REF föreslogs en iris igenkänningsmetod baserad på histogrammet av lokala binära mönster för att representera iris textur och en graf matchande algoritm för strukturell klassificering.
18,944,178
Graph matching iris image blocks with local binary pattern
{'venue': 'ICB', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,298
Abstract-Sparse representation modeller koda en bild patch som en linjär kombination av några atomer som valts ut från en överfullständig ordbok, och de har visat lovande resultat i olika bild restaureringsprogram. På grund av försämringen av den observerade bilden (t.ex. bullriga, suddiga, och / eller ned-provtagna), kan de glesa representationerna av konventionella modeller inte vara tillräckligt exakta för en trogen rekonstruktion av den ursprungliga bilden. För att förbättra prestandan hos den sparsamma representationsbaserade bildrenoveringen introduceras i detta papper begreppet glest kodningsbuller, och målet med bildrenovering vänder sig till hur man dämpar det glesa kodningsbullret. I detta syfte utnyttjar vi bilden icke-lokal självlikhet för att få bra uppskattningar av de glesa kodningskoefficienterna för den ursprungliga bilden, och sedan centralisera de glesa kodningskoefficienterna för den observerade bilden till dessa uppskattningar. Den så kallade icke-lokalt centraliserade sparse representation (NCSR) modellen är lika enkel som standard sparse representation modell, medan våra omfattande experiment på olika typer av bild restaurering problem, inklusive denoisering, deblurring och super-upplösning, validera generalitet och state-of-the-art prestanda för den föreslagna NCSR algoritm.
Med hjälp av den icke-lokala medelteorin, Dong et al. I REF föreslås en icke-lokal centraliserad representationsmodell för att få en uppskattning av den ursprungliga bildens glesa kodningskoefficienter.
6,329,825
Nonlocally Centralized Sparse Representation for Image Restoration
{'venue': 'IEEE Transactions on Image Processing', 'journal': 'IEEE Transactions on Image Processing', 'mag_field_of_study': ['Mathematics', 'Medicine', 'Computer Science']}
2,299
Abstrakt. CWI och University of Twente använde PF/Tijah, ett flexibelt XML-hämtningssystem, för att utvärdera strukturerad dokumenthämtning, multimediahämtning och rankning av företag inom ramen för INEX 2007. För hämtning av text- och multimediaelement i Wikipedia-data, undersökte vi olika längd tidigare och fann att partiskhet mot längre element än de som hämtas av vår språkmodellering metod kan vara användbart. För att hämta bilder isolerat fann vi att deras tillhörande text är en mycket bra källa till bevis i Wikipedia-samlingen. För rankningen av företaget använde vi slumpmässiga promenader för att modellera flerstegsrelevansutbredning från artiklarna som beskriver enheter till alla närstående enheter och vidare.
Slumpmässiga promenader för att modellera flerstegsrelevansutbredning från artiklarna som beskriver enheter till alla närstående enheter och vidare används i REF.
14,658,347
Structured Document Retrieval, Multimedia Retrieval, and Entity Ranking Using PF/Tijah
{'venue': 'INEX', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics', 'Mathematics']}
2,300
Att minska det rådande intresset för dataspel bland högskolestuderande, både för underhållning och som en möjlig karriärväg, är en viktig orsak till den ökande förekomsten av datorspelsdesignkurser i datavetenskapliga läroplaner. Eftersom genomförandet av ett datorspel kräver starka programmeringskunskaper, är speldesignkurser oftast begränsade till mer avancerade datavetenskap studenter, men verklig speldesign innebär ett varierat och kreativt team. Detta dokument rapporterar om en färdig speldesign och experimentram, som genomförs i Java, vilket gör spelprogrammering mer allmänt tillgänglig. Detta ramverk, som kallas Labyrint, gör det möjligt för studenter på alla programmeringsnivåer att delta i datorspelsdesign. Vi beskriver ramens arkitektur och diskuterar programmeringsprojekt som lämpar sig för en mängd olika kurser inom datavetenskap, från berggrund till icke-stor.
Labyrinth REF genomförs i Java och är en flexibel och lättanvänd datorspelsram.
13,974,257
Inclusive computer science education using a ready-made computer game framework
{'venue': "ITiCSE '07", 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,301
Vi presenterar en konceptuellt enkel, flexibel och allmän ram för objekt som segmentering. Vår strategi upptäcker effektivt objekt i en bild samtidigt som den genererar en högkvalitativ segmenteringsmask för varje instans. Metoden, som kallas Mask R-CNN, utökar Snabbare R-CNN genom att lägga till en gren för att förutsäga en objektmask parallellt med den befintliga grenen för att avgränsa boxigenkänning. Mask R-CNN är enkelt att träna och lägger bara till en liten overhead till Faster R-CNN, som körs vid 5 fps. Dessutom är Mask R-CNN lätt att generalisera till andra uppgifter, t.ex., så att vi kan uppskatta mänskliga poser inom samma ram. Vi visar de bästa resultaten i alla tre spåren av COCO svit av utmaningar, inklusive exempel segmentering, avgränsande-box objekt upptäckt, och person keypoint upptäckt. Utan trick, Mask R-CNN överträffar alla befintliga, en modell poster på varje uppgift, inklusive COCO 2016 utmaning vinnare. Vi hoppas att vårt enkla och effektiva tillvägagångssätt kommer att fungera som en solid grund och bidra till att underlätta framtida forskning i till exempel erkännande. Kod kommer att göras tillgänglig.
En toppmodern instans segmentering metod är Mask R-CNN REF.
206,771,194
Mask R-CNN
{'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
2,302
Detta dokument behandlar design och VLSI implementation av MOS-baserade RC-nätverk som kan utföra tidsstyrd Gaussian filtrering. I dessa nätverk ersätts alla motstånd en med en med en enda MOS transistor partisk i den ohmiska regionen. Utformningen av denna elementära transistor är noggrant genomförd i enlighet med värdet av den ideala resistor som skall emuleras. För ett förskrivet signalområde ger MFOSET i triodregionen ett intervall av momentana motståndsvärden. Vi visar att för det elementära 2-node nätverket garanterar upprättandet av konstruktionsekvationen vid en viss punkt inom detta intervall minsta fel. Denna ekvation bekräftas sedan för nätverk av godtycklig storlek genom att analysera dem ur en stokastisk synvinkel. Enligt den föreslagna designmetoden är det fel som begåtts av ett MOS-baserat nät jämfört med dess motsvarande ideala RC-nätverk, trots transistorernas inneboende icke-linjäritet, mindre än 1 % även under 10 %. När det gäller bildbehandling påverkar detta fel knappast resultatet, vilket perceptuellt motsvarar det ideala nätverkets resultat. Dessa resultat, extraherade från simulering, verifieras i en prototyp vision chip med QCIF upplösning tillverkad i AMS 0,35μm CMOS-OPTO-processen. Denna prototyp innehåller ett fokalplansbaserat MOS-baserat RC-nätverk som utför fullt programmerbar Gaussisk filtrering.
Vi demonstrerade i REF att en korrekt approximation av ett idealiskt RC-nätverk kan uppnås genom att ersätta varje motstånd med en MOS transistor partisk i den ohmiska regionen.
3,802,757
All-MOS implementation of RC networks for time-controlled Gaussian spatial filtering
{'venue': 'I. J. Circuit Theory and Applications', 'journal': 'I. J. Circuit Theory and Applications', 'mag_field_of_study': ['Computer Science']}
2,303
Abstract-A city erbjuder tusentals sociala evenemang om dagen, och det är svårt för invånarna att göra val. Kombinationen av mobiltelefoner och rekommendationssystem kan förändra hur man hanterar sådant överflöd. Mobiltelefoner med positioneringsteknik är nu allmänt tillgängliga, vilket gör det enkelt för människor att sända sina platser; rekommenderade system kan nu identifiera mönster i människors rörelser för att till exempel rekommendera händelser. För att göra det är systemet beroende av att ha mobila användare som delar sin närvaro vid ett stort antal sociala evenemang: kallstartsanvändare, som inte har någon platshistorik, kan inte få rekommendationer. Vi bestämde oss för att ta itu med det mobila kallstartsproblemet genom att svara på följande forskningsfråga: hur kan sociala evenemang rekommenderas till en kallstartsanvändare baserat enbart på hans hemort? För att besvara denna fråga genomför vi en studie av förhållandet mellan preferenser för sociala händelser och geografi, den första i sitt slag i ett stort storstadsområde. Vi urval plats uppskattningar av en miljon mobiltelefonanvändare i Greater Boston, kombinera provet med sociala evenemang i samma område, och dra slutsatsen de sociala evenemang som 2 519 invånare. På denna data testar vi en mängd olika algoritmer för att rekommendera sociala händelser. Vi finner att den mest effektiva algoritmen rekommenderar händelser som är populära bland invånare i ett område. Den minst effektiva rekommenderar istället händelser som ligger geografiskt nära området. Detta sista resultat har intressanta konsekvenser för platsbaserade tjänster som betonar att rekommendera närliggande händelser.
Var och en av dessa metoder utmanas av kallstartsproblemet, och rekommendationer bevis kan tillgripa de händelser som är geografiskt närmast REF.
238,273
Recommending Social Events from Mobile Phone Location Data
{'venue': '2010 IEEE International Conference on Data Mining', 'journal': '2010 IEEE International Conference on Data Mining', 'mag_field_of_study': ['Computer Science']}
2,304
Abstrakt. Webbarkiven är vanligtvis mycket omfattande och extremt omfattande. Detta gör att dataanalys verkar skrämmande, särskilt för icke-datorforskare. Dessa samlingar utgör en allt viktigare källa för forskare inom samhällsvetenskap, historiska vetenskaper och journalister som är intresserade av att studera tidigare händelser. Det finns dock för närvarande inga åtkomstmetoder som hjälper användarna att på ett effektivt sätt få tillgång till information, särskilt om specifika händelser, utöver hämtning av enskilda frånkopplade dokument. Därför föreslår vi en ny metod för att extrahera händelsecentrerade dokumentsamlingar från storskaliga webbarkiv. Denna metod bygger på en specialiserad fokuserad extraktionsalgoritm. Våra experiment på det tyska webbarkivet (som täcker en tidsperiod på 19 år) visar att vår metod möjliggör utvinning av händelsecentrerade samlingar för olika händelsetyper.
I ett liknande arbete, Gossen et al. REF anpassade vissa delar av ämnet och händelsen fokuserad undersamling i en metod för att extrahera händelse-centrerade dokument från webbarkiv baserat på en specialiserad fokuserad extraktionsalgoritm.
2,185,444
Extracting Event-Centric Document Collections from Large-Scale Web Archives
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
2,305
Parameterslutsats för stokastiska differentialekvationer är utmanande på grund av förekomsten av en latent diffusionsprocess. Genom att arbeta med en EulerMaruyama diskretisering för diffusionen använder vi variationsinferens för att gemensamt lära oss parametrarna och spridningsvägarna. Vi använder en standard genomsnittlig-fält variations approximation av parametern bakre, och införa ett återkommande neuralt nätverk för att approximera den bakre för diffusionsvägarna villkorat av parametrarna. Detta neurala nätverk lär sig hur man ger Gaussian tillstånd övergångar som överbryggar mellan observationer som den konditionerade diffusionsprocessen gör. Den resulterande Black-box-slutmetoden kan tillämpas på alla SDE-system med ljusinställningskrav. Vi illustrerar metoden på ett LotkaVolterra-system och en epidemimodell, som producerar exakta parameteruppskattningar på några timmar.
REF använder stokastisk variationsinferens för att återställa lösningen av en given stokastisk differentialekvation.
51,882,380
Black-box Variational Inference for Stochastic Differential Equations
{'venue': 'ICML', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
2,306
Smarta kontrakt är program som kör autonomt på blockkedjor. Deras huvudsakliga användningsområden (t.ex. Finansiella instrument) kräver att de konsumerar data från utanför blockkedjan (t.ex. börsnoteringar). Tillförlitliga dataflöden som stöder ett brett spektrum av dataförfrågningar kommer därför att vara avgörande för smarta kontraktsekosystem. Vi presenterar en autentiserad data feed system som kallas Town Crier (TC). TC fungerar som en bro mellan smarta kontrakt och befintliga webbplatser, som redan är allmänt betrodda för icke-blockkedjeapplikationer. Den kombinerar en blockchain front end med en betrodd hårdvara back end för att skrapa HTTPSenabled webbplatser och tjäna käll-autenticated data att förlita sig smarta kontrakt. TC stöder också sekretess. Det möjliggör privata dataförfrågningar med krypterade parametrar. Dessutom, i en generalisering som utför smarta kontrakt logik inom TC, systemet tillåter säker användning av användarbehörigheter för att skrapa åtkomst-kontrollerade online datakällor. Vi beskriver TC:s designprinciper och arkitektur och rapporterar om en implementering som använder Intels nyligen införda Software Guard Extensions (SGX) för att tillhandahålla data till Ethereums smarta kontraktssystem. Vi modellerar formellt TC och definierar och bevisar dess grundläggande säkerhetsegenskaper inom ramen för Universal Composibility (UC). Våra resultat inkluderar definitioner och tekniker av allmänt intresse relaterade till resursförbrukning (Ethereums "gas"-avgiftssystem) och TCB-minimering. Vi rapporterar också om experiment med tre exempeltillämpningar. Vi planerar att lansera TC snart som en online public service.
Town Crier REF är ett system som är utformat för att förstärka SC med autentiserade dataflöden.
14,281,802
Town Crier: An Authenticated Data Feed for Smart Contracts
{'venue': "CCS '16", 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,307
I detta dokument undersöks NLP:s robusthet mot förvrängda ordformer. Medan neurala tillvägagångssätt kan uppnå (nästan) mänsklig-liknande noggrannhet för vissa uppgifter och villkor, de är ofta känsliga för små förändringar i indata såsom icke-kanoniska indata (t.ex., stavfel). Men både stabilitet och robusthet är önskvärda egenskaper i tillämpningar som involverar användargenererat innehåll, och ju mer som människor lätt klarar av sådana bullriga eller motståndare villkor. I detta dokument studerar vi effekterna av bullriga insatser. Vi överväger olika bullerfördelningar (en typ av buller, kombination av bullertyper) och missmatchade bullerfördelningar för utbildning och testning. Dessutom utvärderar vi empiriskt robustheten hos olika modeller (konvolutionella neurala nätverk, återkommande neurala nätverk, icke-neurala modeller), olika basenheter (tecken, byteparkodningsenheter) och olika NLP-uppgifter (morfologisk taggning, maskinöversättning).
REF undersöker robustheten av teckenbaserade ord inbäddningar i maskinöversättning mot ord scrambling och slumpmässiga buller.
19,009,822
How Robust Are Character-Based Word Embeddings in Tagging and MT Against Wrod Scramlbing or Randdm Nouse?
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
2,308
Abstract-This paper presenterar och undersöker ett dynamiskt bufferthanteringssystem för QoS-kontroll av multimediatjänster i ett 3,5G trådlöst system d.v.s. Hög hastighet Downlink Packet Access (HSDPA). HSDPA infördes för att förbättra UMTS för höghastighetspaketkopplade tjänster. Med HSDPA kräver paketplanering och HARQ-mekanismer i basstationen att man buffrar data vid luftgränssnittet och på så sätt introducerar en potentiell flaskhals till end-to-end-kommunikation. För multimediatjänster med multiplexade parallella olika flöden, såsom video och data vid samma slutanvändarsession, är därför bufferthanteringssystem i basstationen av avgörande betydelse för att stödja tillhandahållandet av end-to-end QoS. Vi föreslår ett dynamiskt bufferthanteringssystem för HSDPA-multimediasessioner med aggregerade realtids- och icke-realtidsflöden i tidningen. Systemets end-to-end-effekt utvärderas med ett exempel på multimediasession som omfattar ett realtidsströmningsflöde samtidigt med TCP-baserat icke-realtidsflöde via omfattande HSDPA-simuleringar. Resultaten visar att systemet kan garantera end-to-end QoS i realtidsströmningen, samtidigt som det skyddar icke-realtidsflödet från svält vilket resulterar i bättre end-to-end genomströmningsprestanda.
I REF föreslogs ett dynamiskt bufferthanteringssystem för HSDPA-multimediasessioner med aggregerade realtids- och icke-realtidsflöden.
7,093,774
Dynamic Buffer Management for Multimedia Services in 3.5G Wireless Networks
{'venue': "ICWN'09 2009", 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,309
I detta papper presenterar vi neuro-robotiska modeller med ett djupt artificiellt neuralt nätverk som kan generera fingerräkningspositioner och taluppskattning. Vi tränar först modellen på ett oövervakat sätt där varje lager behandlas som en begränsad Boltzmann maskin eller en autoenkoder. En sådan modell utbildas ytterligare på ett övervakat sätt. Denna typ av förutbildning testas på vår baslinjemodell och två metoder för förträning jämförs. Nätverket utökas för att producera fingerräkningspositioner. Prestanda i antal uppskattning av en sådan utökad modell utvärderas. Vi testar hypotesen om subiteringsprocessen kan erhållas med en enda modell som också används för uppskattning av högre numerositeter. Resultaten bekräftar vikten av oövervakad träning i vår uppräkningsuppgift och visar vissa likheter med mänskligt beteende när det gäller subitering.
Nyligen, Pecyna et al. REF presenterade neuro-robotiska modeller med ett djupt artificiellt neuralt nätverk som kan uppskatta antalet via fingerräkning.
195,886,160
A Deep Neural Network for Finger Counting and Numerosity Estimation
{'venue': '2019 IEEE Symposium Series on Computational Intelligence (SSCI)', 'journal': '2019 IEEE Symposium Series on Computational Intelligence (SSCI)', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
2,310
Samförfattarnätverket av forskare utgör en prototyp av komplexa nätverk som utvecklas. Dessutom erbjuder den en av de mest omfattande databaserna hittills på sociala nätverk. Genom att kartlägga den elektroniska databasen som innehåller alla relevanta tidskrifter inom matematik och neurovetenskap under en åttaårsperiod (1991-1998) drar vi slutsatsen om de dynamiska och strukturella mekanismer som styr utvecklingen och topologin i detta komplexa system. Tre kompletterande metoder gör det möjligt för oss att få en detaljerad karakterisering. För det första gör empiriska mätningar det möjligt för oss att upptäcka de topologiska åtgärder som kännetecknar nätverket vid ett givet tillfälle, liksom den tidsmässiga utvecklingen av dessa mängder. Resultaten visar att nätverket är skalfritt och att nätutvecklingen styrs av preferensanslutning, vilket påverkar både interna och externa länkar. Men i motsats till de flesta modellprognoser ökar den genomsnittliga graden i tid, och nodseparationen minskar. För det andra föreslår vi en enkel modell som fångar nätverkets tidsutveckling. I vissa gränser kan modellen lösas analytiskt, vilket förutser en tvåregleringsskalning i överensstämmelse med mätningarna. För det tredje, numeriska simuleringar används för att avslöja beteendet hos mängder som inte kunde förutsägas analytiskt. De kombinerade numeriska och analytiska resultaten understryker den viktiga roll som interna länkar spelar för att bestämma det observerade skalningsbeteendet och nätverkstopologin. De resultat och metoder som utvecklats inom ramen för nätverket med upphovsmän skulle kunna vara användbara för en systematisk undersökning av även andra komplexa nätverk som utvecklas, t.ex. den globala webben, Internet eller andra sociala nätverk.
Barabasi et al REF analysera medförfattare grafer med hjälp av en databas som innehåller relevanta tidskrifter i matematik och neurovetenskap för en 8-årsperiod (1991-1998).
6,606,000
Evolution of the social network of scientific collaborations
{'venue': 'Physica A 311, (3-4) (2002), pp. 590-614', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Physics']}
2,311
Abstrakt. RDF är en av de tekniker som föreslås för att förverkliga visionen av den semantiska webben och den används i allt större utsträckning i distribuerade webbaserade applikationer. Användningen av roterugn i tillämpningar som kräver snabb anmälan av metadataändringar ökar behovet av mekanismer för övervakning och behandling av sådana ändringar. Regler för händelse-villkor-åtgärder (ECA) är en naturlig kandidat för att uppfylla detta behov. I detta dokument studerar vi ECA-regler om RDF-metadata i P2P-miljöer. Vi beskriver ett språk för att definiera ECA-regler för RDF metadata, inklusive dess syntax och utförande semantik. Vi utvecklar också konservativa tester för att bestämma när ordern för genomförande av par av regler, eller fall av samma regel, är oväsentlig för det slutliga tillståndet för RDF metadata efter regel exekvering upphör. Vi beskriver en arkitektur för att stödja sådana regler i P2P-miljöer, och diskuterar tekniker för att lindra isolering och atomicitet krav transaktioner.
I REF definieras ett ECA-språk för RDF, som kallas RDFTL, och en arkitektur för att stödja RDFTL regelutförande i P2P-miljöer.
3,142,339
Event–Condition–Action Rules on RDF Metadata in P2P Environments
{'venue': 'In 2nd Workshop on Metadata Management in Grid and P2P Systems (MMGPS): Models, Services and Architectures', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,312
Abstract-The 3: e Generation Partnership Project (3GPP) nyligen börjat standardisera "Licensed-Assisted Access using LTE" för små celler, kallas Dual Band Femtocell (DBF) i detta papper, som använder LTE luftgränssnitt i både licensierade och olicensierade band baserat på Long Term Evolution (LTE) bäraraggregation funktionen. Alternativt introducerade Small Cell Forum den integrerade femto-WiFi (IFW) liten cell som samtidigt kommer åt både det licensierade bandet (via cellulärt gränssnitt) och det olicensierade bandet (via WiFi-gränssnitt). I detta dokument beskrivs en praktisk algoritm för IFW och DBF att automatiskt balansera sin trafik i licensierade och olicensierade band, baserat på realtidskanalen, störningar och trafikförhållanden för båda banden. Algoritmen anser att vissa "smarta" enheter (enheter) har både cellulära och WiFi-radio medan vissa WiFi-enheter (wDevices) endast kan ha WiFi-radio. Dessutom överväger algoritmen ett realistiskt scenario där en enda liten cellanvändare samtidigt kan använda flera sDevices och wDevices via antingen IFW, eller DBF tillsammans med ett trådlöst lokalt nätverk (WLAN). Målet är att maximera den totala användarnöjdheten/användningen hos den lilla cellanvändaren, samtidigt som interferensen mellan små celler och makroceller hålls under fördefinierade tröskelvärden. Algoritmen kan implementeras vid Radio Link Control (RLC) eller nätverksskiktet av IFW och DBF små cellbasstationer. Resultaten visar att den föreslagna trafikbalanseringsalgoritm som tillämpas på antingen IFW eller DBF avsevärt ökar den totala nyttan för alla makrocells- och småcellsanvändare jämfört med nuvarande praxis. Slutligen behandlas olika genomförandefrågor för IFW och DBF.
Liu m.fl. REF undersöker den rättvisa fördelningen av flygtid för båda scenarierna LTE-U/WiFi samexistens och Integrated Femto-WiFi (IFW) liten cell där LTE-användare kan få tillgång till det olicensierade bandet via WiFi-gränssnittet.
12,397,171
Small Cell Traffic Balancing Over Licensed and Unlicensed Bands
{'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,313
Införandet av fasförändrat minne (PCM) [6]. PCM innebär dock utmaningar som måste åtgärdas för att den ska kunna användas som huvudminnesersättning. Specifikt lider PCM av begränsad uthållighet (dvs. det slits ut på grund av skrivande verksamhet) och dyra skrivoperationer (dvs. hög latens och energi). Faktum är att alltför många skriver till en PCM huvudminnet kommer att leda till en kort enhet livstid, dålig prestanda och hög energiförbrukning. Andra minnestekniker lider också av begränsad uthållighet och dyra skriver -Flash [7], [8] är det vanligaste exemplet. Mycket uppmärksamhet har ägnats åt att förbättra Flash minne livstid och prestanda [7], [9]. Som exempel kan nämnas Mylavarapu et al. införa algoritmer som undviker att radera operationer och tillämpa slitage utjämning (WL) för att förbättra livslängd och prestanda [7]. Eftersom problemen i samband med Flash uthållighet / prestanda [8], [9] skiljer sig från dem för PCM, Flash WL algoritmer är av begränsad användning i ett PCM huvudminne. Flash WL algoritmer [7] undvika radering en sida på varje skriva genom att tilldela en ny ren fysisk sida. Denna tilldelning är onödig för PCM på grund av dess bit-adresser. PCM har också en större total uthållighet (dvs, det kan upprätthålla 10 7 skriver snarare än 10 4 till 10 6 skriver för Flash) och kräver inte fördefinierad blockering. Användningen av PCM i huvudminnet har nyligen föreslagits med tekniker som tillämpas för att öka PCM livslängd. Den PCM-lagringsenhet som presenteras i [10] implementerar en read-fore-write-slinga (RW) på bitnivå för att förbättra tillförlitligheten och förlänga livslängden. Arbetet i [5] använder readfore-write, rad-level rotation (RL) och segment swapping (SS) som uthållighetsförbättringar på enhetsnivå. RL utjämnar slitage på radnivå genom roterande cachelinjer. SS görs genom att byta två segment: det som för närvarande skrivs och det som minst sällan skrivs (LFW). Den stora segmentstorlek (1MByte) som används i SS [5] försämrar dock livslängden jämfört med en liten segmentstorlek eftersom distributionen av skriver till ett stort segment kan skeva. Stora segment används dock i [5] för att minska kostnaderna i samband med sökandet efter LFW-segmentet under ett byte. En systemnivåmetod används i [3] för att införliva PCM i minneshierarkin. Detta arbete föreslår ett hybridminne, där ett stort PCM-minne utökas med ett litet DRAM-minne som fungerar som en "page cache" för PCM-minnet. Sidan cache hjälper prestanda genom att buffra ofta behövliga sidor. Det hjälper också uthållighet genom att minska antalet skriver till PCM med skrivkombinering och sammansmältning. Även om sidcache filter skriver till PCM, det inte helt lindra uthållighet problem. Ytterligare tekniker tillämpas vid cachelinjen och blocknivåerna. På cacheradens nivå skrivs endast de rader som ändras på en sida till PCM. För att undvika obalanserade skador från skriver, cache rader roteras på en sida. Slutligen används byte på blocknivå för förslitning. I detta dokument föreslår vi tre nya metoder för att ta itu med problemet med uthållighet när PCM används i huvudminnet. För det första tillämpas en ny policy för cacheersättning för att minska nedskrivningar från DRAM till PCM. För det andra används läs-Write-Read (RWR) och sidpartitioneringstekniker för att ta bort onödiga skrifter och fungera som en feldetekteringsmekanism. Denna teknik liknar enhetsnivåskriftsdifferentiering [10], [5] ; dock vår 978-3-981081-6-2/DATE10
REF föreslog PMMA-arkitektur som integrerar DRAM-sidecache med PCM-huvudminne med hjälp av en förbättrad sidersättningspolicy.
14,498,175
Increasing PCM main memory lifetime
{'venue': "DATE '10", 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,314
Komplexa flernivåapplikationer som används i molnbaserade datormiljöer kan uppleva snabba förändringar i sin arbetsbelastning. För att säkerställa att sådana tillämpningar är redo för marknaden måste tillräckliga resurser ställas till förfogande så att ansökningarna kan uppfylla kraven på fastställda arbetsbelastningsnivåer och samtidigt säkerställa att servicenivåavtal uppfylls. Multi-tier molnapplikationer kan ha komplexa distributionskonfigurationer med lastbalansörer, webbservrar, programservrar och databasservrar. Komplexa beroenden kan finnas mellan servrar i olika nivåer. För att stödja beslut om tillhandahållande och kapacitetsplanering används prestandatestmetoder med syntetisk arbetsbelastning. Noggrannheten i en prestandatestningsmetod bestäms av hur nära de genererade syntetiska arbetsbelastningarna efterliknar den realistiska arbetsbelastningen. Eftersom tillämpningar på flera nivåer kan ha varierande installationskonfigurationer och karakteristisk arbetsbelastning finns det ett behov av en generisk prestandatestmetod som gör det möjligt att exakt modellera applikationernas prestanda. Vi föreslår en metodik för prestandatester av komplexa tillämpningar på flera nivåer. Arbetsbelastningen för molnapplikationer i flera nivåer fångas upp i två olika modeller-benchmark program och arbetsbelastning modeller. En arkitekturmodell fångar installationskonfigurationer för multi-tier-applikationer. Vi föreslår en snabb installationsprototypningsmetod som kan hjälpa till att välja de bästa och mest kostnadseffektiva installationerna för flernivåapplikationer som uppfyller de angivna prestandakraven. Vi beskriver också ett system flaskhals detektion metod baserad på experimentell utvärdering av multi-tier applikationer.
I REF föreslås en metod för utvärdering av prestanda för komplexa molntillämpningar på flera nivåer som fångar upp applikationsbelastningen via tre olika modeller: riktmärke, arbetsbelastning och arkitektur.
46,589,317
Performance Evaluation Approach for Multi-Tier Cloud Applications
{'venue': None, 'journal': 'Journal of Software Engineering and Applications', 'mag_field_of_study': ['Computer Science']}
2,315
Abstract-Peer-till-Peer fildelningsprogram på Internet, såsom BitTorrent, Gnutella, etc., har varit oerhört populärt. Tidigare forskning fokuserar främst på peer and content discovery, overlay topologi formation, rättvisa och incitamentsfrågor, etc. Det har dock inte ägnats någon större uppmärksamhet åt att undersöka problemet med datadistributionen, vilket också är en kärnkomponent i alla program för fildelning. I detta dokument presenterar vi den första insatsen för att ta itu med detta problem med fildistributionssamarbete och definierar formellt schemaläggningsproblemet i ett förenklat sammanhang. Vi utvecklar flera algoritmer för att lösa problemet och studera deras prestanda. Vi härleder en teoretisk gräns för den minsta nedladdningstid som användare upplever och utför även simuleringar för att utvärdera våra algoritmer. Simuleringsresultat visar att vår grafbaserade dynamiskt viktade maximalflödesalgoritm överträffar alla andra algoritmer. Därför anser vi att vår algoritm är en lovande lösning som ska användas som den centrala schemaläggningsmodulen i P2P-fildelningsapplikationer.
I REF har vi undersökt problemet med fildistribution i ett homogent peer-to-peer-nätverk, där alla deltagare har asymmetriska uppladdnings- och nedladdningsbandbredder och överföringstiderna mellan olika deltagare är desamma.
9,587,875
Performance comparison of scheduling algorithms for peer-to-peer collaborative file distribution
{'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science']}
2,316
Gemenskapens upptäckt och analys är en viktig metod för att förstå organisationen av olika verkliga nätverk och har tillämpningar i problem som är så olika som samförståndsbildning i sociala samhällen eller identifiering av funktionella moduler i biokemiska nätverk. För närvarande används algoritmer som identifierar samhällsstrukturer i storskaliga verkliga nätverk kräver en priori information såsom antal och storlek på samhällen eller är beräkning dyrt. I det här dokumentet undersöker vi en enkel algoritm som använder nätverksstrukturen ensam som sin guide och som varken kräver optimering av en fördefinierad objektiv funktion eller förhandsinformation om samhällena. I vår algoritm initieras varje nod med en unik etikett och vid varje steg antar varje nod den etikett som de flesta av dess grannar för närvarande har. I denna iterativa process bildar tätt sammankopplade grupper av noder ett samförstånd om en unik märkning för att bilda samhällen. Vi validerar algoritmen genom att tillämpa den på nätverk vars samhällsstrukturer är kända. Vi visar också att algoritmen tar nästan linjär tid och därför är det beräkningsmässigt billigare än vad som hittills varit möjligt.
Copra [7] är en förlängning av beteckningen för spridningsalgoritm REF för överlappande gemenskapsdetektering.
18,741,059
Near linear time algorithm to detect community structures in large-scale networks
{'venue': 'Physical Review E 76, 036106 (2007)', 'journal': None, 'mag_field_of_study': ['Physics', 'Medicine']}
2,317
Domänanpassning är en stor utmaning för neural maskinöversättning (NMT). Med tanke på okända ord eller nya domäner tenderar NMT-system att generera flytande översättningar på bekostnad av tillräcklighet. Vi presenterar en stack-baserad lattice sökning algoritm för NMT och visar att begränsa dess sökutrymme med lattices som genereras av fras-baserad maskinöversättning (PBMT) förbättrar robustheten. Vi rapporterar konsekventa BLEU poängvinster över fyra olika domänanpassningsuppgifter som omfattar medicinska, IT, Koranen, eller texttexter.
REF föreslog en lattice-sökalgoritm för NMT-anpassning, men denna algoritm förutsätter tillgång till lattices som genereras från en frasbaserad maskinöversättningssystem.
33,854,118
Neural Lattice Search for Domain Adaptation in Machine Translation
{'venue': 'IJCNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,318
En lovande applikationsdomän för Semantic Web-teknik är noteringen av produkter och tjänster på webben så att konsumenter och företag kan söka efter lämpliga leverantörer med hjälp av produkter och tjänster ontologier. Även om det har gjorts betydande framsteg när det gäller att utveckla ontologier för olika typer av produkter och tjänster, nämligen eClassOWL, tillhandahåller detta enbart inte de representationsmedel som krävs för e-handel på Semantic Web. Särskilt saknas en ontologi som gör det möjligt att beskriva förhållandet mellan (1) webbresurser, (2) erbjudanden som görs med hjälp av dessa webbresurser, (3) juridiska enheter, (4) priser, (5) villkor och ovan nämnda ontologier för produkter och tjänster (6). Till exempel måste vi kunna säga att en viss webbplats beskriver ett erbjudande om att sälja mobiltelefoner för en viss göra en modell till ett visst pris, att ett pianohus erbjuder underhåll för pianon som väger mindre än 150 kg, eller att ett biluthyrningsföretag hyr ut bilar av en viss fabrikat och modell från en uppsättning filialer över hela landet. I denna uppsats analyserar vi komplexiteten i produktbeskrivningen på Semantic Web och definierar GoodRelations ontology som täcker representationsbehoven i typiska affärsscenarier för varor och tjänster.
GoodRelations REF är en ontologi som utvecklats för e-handel för att beskriva produkter.
897,941
GoodRelations: An Ontology for Describing Products and Services Offers on the Web
{'venue': 'EKAW', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,319
ABSTRACT Cache-stödda småcelliga nätverk blir en effektiv metod för att förbättra överföringshastigheten och minska backhaul belastningen. På grund av den begränsade kapaciteten hos backhaul, bör mindre effekt tilldelas användare vars begärda innehåll inte finns i de lokala cache för att maximera prestanda caching. I detta dokument anses energiallokering förbättra prestandan hos småcelliga cache-anslutna nät med begränsad backhaul, där störningsjustering används för att hantera störningar bland användare. I synnerhet föreslås tre effektalgoritmer. Först kommer vi fram till en kraftalgoritm för att maximera den totala överföringshastigheten i nätverket, med tanke på begränsningen av backhaul. För det andra, för att få fler användare att uppfylla sina hastighetskrav, föreslås också en energialgoritm för att minimera den genomsnittliga avbrottsannolikheten. För det tredje, för att ytterligare förbättra användarnas upplevelse, är en energialgoritm som maximerar den genomsnittliga tillfredsställelsen för alla användare också utformad. Simuleringsresultat tillhandahålls för att visa effektiviteten hos de tre föreslagna energialgoritmerna för cache-stödda småcelliga nätverk med begränsad backhaul. INDEX TERMS Caching, störningsjustering, begränsad backhaul, avbrottsannolikhet, strömfördelning, småcelliga nätverk.
Cheng m.fl. I REF föreslås tre effektalgoritmer med olika mål i cache-stödda små cellnätverk med begränsad backhaul.
3,667,937
Power Allocation for Cache-Aided Small-Cell Networks With Limited Backhaul
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
2,320
Gemenskapens struktur är en viktig egenskap hos komplexa nätverk. En automatisk upptäckt av en sådan struktur är en grundläggande uppgift inom många discipliner, däribland sociologi, biologi, ingenjörsvetenskap och datavetenskap. Nyligen har flera community discovery algoritmer föreslagits baserat på optimering av en kvantitet som kallas modularitet (Q). Problemet med modularitetsoptimering är dock NP-hård, och de befintliga tillvägagångssätten lider ofta av oöverkomligt lång körtid eller dålig kvalitet. Dessutom har det nyligen påpekats att algoritmer baserade på optimering Q kommer att ha en upplösningsgräns, d.v.s. grupper under en viss skala kanske inte upptäcks. I denna forskning föreslår vi först en effektiv heuristisk algoritm, Qcut, som kombinerar spektral grafpartitionering och lokal sökning för att optimera Q. Med hjälp av både syntetiska och verkliga nätverk visar vi att Qcut kan hitta högre modulära egenskaper och är mer skalbar än de befintliga algoritmerna. Dessutom, med Qcut som en viktig komponent, föreslår vi en rekursiv algoritm, HQcut, för att lösa problemet med upplösningsgräns. Vi visar att HQcut framgångsrikt kan upptäcka samhällen på en mycket finare skala och med en högre noggrannhet än de befintliga algoritmerna. Slutligen använder vi Qcut och HQcut för att studera ett protein-protein interaktion nätverk, och visar att kombinationen av de två algoritmerna kan avslöja intressanta biologiska resultat som annars kan vara odetekterbara. Tilläggsfil: http://cic.cs.wustl.edu/qcut/komplemental.pdf.
För att lösa detta problem Ruan el al al. 2008 introducerades två nya algoritmer QCUT och HQCUT REF.
73,052
Identifying network communities with a high resolution
{'venue': 'Phys. Rev. E 77, 016104 (2008)', 'journal': None, 'mag_field_of_study': ['Physics', 'Medicine']}
2,321
Abstract-Med den ökande komplexiteten i konsumentinbäddade produkter och förbättringar i processteknik, Multi-Processor System-On-Chip (MPSoC) arkitekturer har blivit utbredd. Dessa nya system är mycket komplexa att designa eftersom de måste köra flera komplexa realtidsapplikationer (t.ex. Videobehandling, eller videospel), samtidigt som flera ytterligare konstruktionsbegränsningar uppfylls (t.ex. energiförbrukning eller tidsåtgång till marknaden). Mekanismer för att effektivt utforska olika möjliga HW-SW-designinteraktioner i kompletta MPSoC-system är därför i stort behov. I detta dokument presenterar vi ett nytt FPGA-baserat emuleringsramverk som gör det möjligt för designers att snabbt utforska ett stort utbud av MPSoC-designalternativ på cykelnoggrannhetsnivå. Våra resultat visar att det föreslagna ramverket kan extrahera ett antal kritisk statistik från bearbetning av kärnor, minne och sammankopplingssystem, med en hastighetsökning på tre storleksordningar jämfört med cykelaccurate MPSoC simulatorer.
I REF Del Valle et al presentera en FPGA-baserad emuleringsram för multiprocessorsystem-on-chip (MPSoC) arkitekturer.
9,144,471
A Complete Multi-Processor System-on-Chip FPGA-Based Emulation Framework
{'venue': '2006 IFIP International Conference on Very Large Scale Integration', 'journal': '2006 IFIP International Conference on Very Large Scale Integration', 'mag_field_of_study': ['Engineering', 'Computer Science']}
2,322
Abstract-Använda tangentbordet lysdioder för att skicka data optiskt föreslogs 2002 av Loughry och Umphress [1] (bilaga A). I detta dokument utforskar vi i stor utsträckning detta hot i samband med en modern cyberattack med aktuell hårdvara och optisk utrustning. I denna typ av attack använder ett avancerat ihållande hot (APT) tangentbordets lysdioder (Caps-Lock, Num-Lock och Scroll-Lock) för att koda information och exfiltrera data från airgappade datorer optiskt. Särskilt denna exfiltrationskanal övervakas inte av befintliga system för att förebygga dataläckage (DLP). Vi undersöker denna attack och dess gränser för dagens tangentbord med USB-styrenheter och känsliga optiska sensorer. Vi introducerar även smartphone- och smartwatch-kameror som komponenter till skadliga insider- och "onda hembiträdes" attacker. Vi ger den nödvändiga vetenskapliga bakgrunden om optisk kommunikation och egenskaperna hos moderna USB-tangentbord på hård- och programvarunivå, och presentera ett överföring protokoll och modulering system. Vi implementerar exfiltration malware, diskutera dess design och genomförande frågor, och utvärdera det med olika typer av tangentbord. Vi testar också olika mottagare, inklusive ljussensorer, fjärrkameror, "extrema" kameror, säkerhetskameror och smartphonekameror. Vårt experiment visar att data kan läckas från luftstyrda datorer via tangentbordets lysdioder med en maximal bithastighet på 3000 bit/s per LED med en ljussensor som mottagare, och mer än 120 bit/s om smartphones används. Angreppet kräver ingen ändring av tangentbordet på hårdvaru- eller firmware-nivåer.
Med hjälp av tangentbordet LEDs för dold kanal diskuteras utforskades i 2019 med moderna tangentbord och smartphones REF.
196,471,087
CTRL-ALT-LED: Leaking Data from Air-Gapped Computers via Keyboard LEDs
{'venue': '2019 IEEE 43rd Annual Computer Software and Applications Conference (COMPSAC)', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Engineering']}
2,323
Abstract-Med ett stort antal videoövervakningssystem installerade för krav från industriell säkerhet, är uppgiften att objektspårning, som syftar till att lokalisera objekt av intresse för videor, mycket viktigt. Även om många spårningsalgoritmer för RGB-videor har utvecklats under årtiondet, kan spårningsprestandan och robustheten hos dessa system försämras dramatiskt när informationen från RGB-videon är opålitlig (t.ex. dåliga belysningsförhållanden eller mycket låg upplösning). För att ta itu med denna fråga presenterar detta dokument ett nytt spårningssystem, som syftar till att kombinera information från RGB och infraröda metoder för objektspårning. De föreslagna spårningssystemen bygger på vår föreslagna modell för maskininlärning. I synnerhet kan inlärningsmodellen lindra problemet med diskrepans i fråga om modalitet inom ramen för den föreslagna modalitetskonsistensen, som begränsas av både representationsmönster och diskriminabilitet, och skapa discriminativa mallar för samverkande representationer och diskriminering i heterogena former. Experiment på en mängd utmanande RGB-infraröda videor visar effektiviteten i den föreslagna algoritmen. Index Terms-Multimodal sensor fusion, spårningssystem, videoövervakningssystem.
Även om könsigenkänning baserad på människokroppen inte utfördes, föreslog tidigare forskning ett nytt spårningssystem som syftar till att samla information från RGB och infraröda metoder baserade på maskininlärning modell för objektspårning REF.
117,578,034
Learning Modality-Consistency Feature Templates: A Robust RGB-Infrared Tracking System
{'venue': 'IEEE Transactions on Industrial Electronics', 'journal': 'IEEE Transactions on Industrial Electronics', 'mag_field_of_study': ['Engineering', 'Computer Science']}
2,324
Motivering: Flera sekvensanpassningar är av central betydelse för bioinformatik och beräkningsbiologi. Även om ett stort antal algoritmer för beräkning av en flera sekvens anpassning har utformats, är den effektiva beräkningen av mycket noggranna flera justeringar fortfarande en utmaning. Resultat: Vi presenterar MSAProbs, en ny och praktisk multijusteringsalgoritm för proteinsekvenser. Designen av MSAProbs är baserad på en kombination av par dolda Markov modeller och partition funktioner för att beräkna bakre sannolikheter. Dessutom ingår två kritiska bioinformatiska tekniker, nämligen viktad probabilistisk konsistensomvandling och viktad profilprofiljustering, för att förbättra anpassningsnoggrannheten. Bedöms med hjälp av de populära riktmärkena: Balibase, PREFAB, SABmark och OXBENCH, MSAProbs uppnår statistiskt signifikanta noggrannhetsförbättringar över de befintliga topp presterande anpassningarna, inklusive ClustalW, MAFFT, MUSCLE, ProbCons och Probalign. Dessutom är MSAProbs optimerad för flerkärniga processorer genom att använda en flertrådig design, vilket leder till en konkurrenskraftig genomförandetid jämfört med andra konfigurerare. Tillgänglighet: Källkoden för MSAProbs, skriven i C++, är fritt och allmänt tillgänglig från http://msaprobs.sourceforge.net.
MSAProbs optimerades för moderna flerkärniga processorer genom att använda en flertrådig design REF.
14,826,951
MSAProbs: multiple sequence alignment based on pair hidden Markov models and partition function posterior probabilities
{'venue': 'Bioinformatics', 'journal': 'Bioinformatics', 'mag_field_of_study': ['Computer Science', 'Medicine']}
2,325
I detta dokument granskas den senaste tekniken inom it-säkerhetsriskbedömning av system för övervakning och datainsamling (SCADA). Vi väljer och detaljgranskar 24 riskbedömningsmetoder som utvecklats för eller tillämpas inom ramen för ett SCADA-system. Vi beskriver kärnan i metoderna och sedan analyserar dem i termer av mål, tillämpningsområde, de faser av riskhantering som behandlas, centrala riskhanteringskoncept som omfattas, effektmätning, källor till probabilistiska data, utvärdering och verktygsstöd. Utifrån analysen föreslår vi ett intuitivt system för kategorisering av metoder för bedömning av cybersäkerhetsrisker för SCADA-system. Vi beskriver också fem forskningsutmaningar som domänen står inför och pekar på de strategier som kan användas.
I REF presenteras en översyn och klassificering av tjugofyra metoder för riskbedömningsmetoder för system för övervakning och datainsamling (SCADA).
18,740,719
A review of cyber security risk assessment methods for SCADA systems
{'venue': 'Comput. Secur.', 'journal': 'Comput. Secur.', 'mag_field_of_study': ['Computer Science']}
2,326
Abstract Modellbaserade designmetoder används ofta inom industrin för utveckling av komplexa it-fysiska system (CPS). Det finns många olika språk, verktyg och formalismer för modellbaserad design, var och en med sina styrkor och svagheter. I stället för att acceptera vissa svagheter i ett visst verktyg, ett alternativ Communicated av Prof. J. Sztipanovits, M. Broy, och H. Daembkes. Detta arbete är delvis baserat på tidigare verk publicerade av författarna [7, 8, 15] är att omfamna heterogenitet, och att utveckla verktyg integrationsplattformar och protokoll för att dra nytta av styrkor från olika miljöer. Ett ganska nyligen gjort försök i denna riktning är den funktionella mock-up-standarden (FMI) som inkluderar stöd för samsimulering. Även om denna standard har nått acceptans i industrin, ger det endast begränsat stöd för simulering av system som blandar kontinuerlig och diskret beteende, som är typiska för CPS. I detta dokument identifieras tiden som ett centralt problem, eftersom FMI-representationen inte på ett bra sätt stöder de diskreta händelser som vanligtvis inträffar vid den it-fysiska gränsen. Vi analyserar alternativ för att representera tid i hybrid co-simulering och drar slutsatsen att en superdense modell av tid med hjälp av heltal endast löser många av dessa problem. Vi visar hur en exekveringsmotor kan välja en lämplig tidsupplösning, och hur skillnader mellan tidsrepresentationer interna till samsimulerade komponenter och de resulterande effekterna av tidsquantisering kan hanteras. Vi föreslår en konkret utvidgning till FMI-standarden för att stödja hybridsamsimulering som inkluderar heltalstid, automatiskt val av tidsupplösning och användning av frånvarande signaler. Vi förklarar hur dessa förlängningar kan genomföras modulärt inom ramen för befintliga simuleringsmiljöer.
Även om många utmaningar fortfarande är öppna, till exempel att fastställa riktigheten i samimuleringen av blandningskontinuerligt och diskret beteende REF, finns det insatser för att tillämpa denna standard inom industrin.
23,559,346
Hybrid co-simulation: it’s about time
{'venue': 'Software & Systems Modeling', 'journal': 'Software & Systems Modeling', 'mag_field_of_study': ['Computer Science']}
2,327
Hur man effektivt distribuerar alla trådlösa sensorer och sparar ett systems energiförbrukning är en nyckelfråga i nuvarande trådlösa sensornätverk (WSN) applikationer. Teoretisk analys har visat att en hexagonal struktur är den bästa topologin i det tvådimensionella nätverket, som kan ge den maximala täckningsområdet med det minsta antalet sensornoder och minsta energiförbrukning. Nyligen presenterade många forskare sina självdistributionsstrategier baserade på olika virtuella krafter och diskuterade motsvarande effektivitet via flera fallstudier. Enligt vår statistiska analys kan dock vissa virtuella kraftalgoritmer, t.ex. virtuell fjäderkraft, fortfarande orsaka hål eller vriden struktur i en liten region av den slutliga nätdistributionen, som inte kan uppnå den idealiska nättopologin och kommer att slösa systemets energi i verkliga tillämpningar. I detta dokument analyserade vi först statistiskt konvergensen och spridningseffekten av den virtuella fjäderkraftsalgoritmen för att härleda vår fråga. Sedan presenterade vi en optimerad strategi som sensor distribution börjar från mitten av målregionen genom att lägga till en extern central kraft. I det tidiga skedet, den yttre kraften kommer att läggas till de mest perifera noder för att främja bildandet av hexagonal topologi och undvika att täcka hål eller ovanlig struktur. Slutligen visade en serie oberoende simuleringsförsök och motsvarande statistiska resultat att vår optimerade installationslösning är mycket stabil och effektiv, vilket kan förbättra energiförbrukningen i hela sensornätverket och användas vid tillämpning av en storskalig WSN.
I REF användes den förbättrade virtuella fjäderkraftalgoritmen (VSFA) för att distribuera den vanliga sexkantiga nätverkstopologin, vilket effektivt minskar sårbarheten i sensornätverket.
122,331,240
An Optimized Node Deployment Solution Based on a Virtual Spring Force Algorithm for Wireless Sensor Network Applications
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Medicine', 'Engineering', 'Computer Science']}
2,328
Vi bevisar att för en L-lager fullt anslutna linjära neurala nätverk, om bredden på varje dolt lager är och L · r · dout · σ 3, där r och σ är rangen och tillståndsnumret för ingångsdata, och dout är utgångsdimensionen, då lutning nedstigning med Gaussian slumpmässig initialisering konvergerar till ett globalt minimum vid en linjär hastighet. Antalet iterationer för att hitta en "suboptimal lösning" är O(σ log( 1 på )). Vår polynom övre gräns på den totala löptiden för breda djupa linjära nätverk och den nedre gränsen för smala djupa linjära neurala nätverk [Shamir, 2018] tillsammans visar att breda lager är nödvändiga för att optimera djupa modeller. 1 Vi utelämnar beroendet av andra parametrar här. Se Theorem 4.1 för de exakta kraven.
REF visar att om bredden på varje lager är större än L log(L), konvergerar lutningsnedstigningen till globala minima med en hastighet av O(log(1/ε)).
59,222,861
Width Provably Matters in Optimization for Deep Linear Neural Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
2,329
Abstract-Medan tidig betoning av Infrastruktur som en tjänst (IaaS) moln var på att ge resurser elasticitet till slutanvändare, leverantörer är alltmer intresserade av att överkomponera sina resurser för att maximera utnyttjandet och avkastningen av sina kapitalinvesteringar. I princip säkrar alltför stora resurser att användare i genomsnitt bara behöver en liten del av sina leasade resurser. När en sådan säkring misslyckas (dvs. resursefterfrågan överstiger långt tillgänglig fysisk kapacitet), måste leverantörerna minska denna leverantörsinducerade överbelastning, vanligtvis genom att migrera virtuella maskiner (VM) till underutnyttjade fysiska maskiner. Nya arbeten med placering av virtuella maskiner och migration förutsätter att målmaskiner finns tillgängliga [1], [2]. Men i ett övertaget molndatacenter är detta inte fallet. Migrering av virtuella maskiner kan till och med utlösa överbelastning av kaskad om den utförs slumpmässigt. I det här dokumentet utformar vi en ny algoritm för VM-migrering (s.k. scattered) som minimerar VM-migreringar i överkomponerade datacenter. Jämfört med en traditionell implementering, kan vår algoritm balansera värdanvändning över alla tidsperioder. Med hjälp av verkliga dataspår från ett företagsmoln visar vi att vår migrationsalgoritm minskar risken för överbelastning, minimerar antalet nödvändiga migreringar och har minimal inverkan på kommunikationskostnaderna mellan virtuella maskiner.
REF har föreslagit en VM-migreringsalgoritm, scatterbar, som minimerar VM-migreringar i överkomponerade datacenter.
18,755,579
Virtual machine migration in an over-committed cloud
{'venue': '2012 IEEE Network Operations and Management Symposium', 'journal': '2012 IEEE Network Operations and Management Symposium', 'mag_field_of_study': ['Computer Science']}
2,330
Abstract-En viktig aspekt av människans perception är förväntan, som vi i stor utsträckning använder i våra dagliga aktiviteter när vi interagerar med andra människor såväl som med vår omgivning. Att förutse vilka aktiviteter en människa kommer att göra härnäst (och hur) kan göra det möjligt för en hjälprobot att planera framåt för reaktiva reaktioner. Dessutom kan förväntan till och med förbättra detektionsnoggrannheten i tidigare aktiviteter. Utmaningen är dock tvåfaldig: Vi måste fånga den rika kontexten för att modellera aktiviteter och objektförmögenhet, och vi måste förutse fördelningen över ett stort utrymme av framtida mänskliga aktiviteter. I detta arbete representerar vi varje möjlig framtid med hjälp av ett förutseende temporalt villkorligt slumpmässigt fält (ATCRF) som modellerar de rika rumsliga-temporala relationerna genom objektförmågor. Vi betraktar sedan varje ATCRF som en partikel och representerar fördelningen över potentiella framtider med hjälp av en uppsättning partiklar. I en omfattande utvärdering av CAD-120 human aktivitet RGB-D dataset visar vi först att förväntan förbättrar resultaten från hjärtdetektering. Vi visar sedan att för nya ämnen (som inte setts i träningssetet) får vi en aktivitetsförväntning noggrannhet (definierad som om en av de tre bästa förutsägelserna faktiskt inträffade) på 84,1, 74,4 och 62,2 procent för en förväntanstid på 1, 3 respektive 10 sekunder. Slutligen visar vi också en robot som använder vår algoritm för att utföra några reaktiva svar.
Koppula m.fl. REF använder ett villkorat slumpmässigt fält med underaktiviteter, mänskliga poser, objektförmågor och objektplatser över tid.
1,121,245
Anticipating Human Activities Using Object Affordances for Reactive Robotic Response
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
2,331
Införandet av smarta mätare ger en enorm mängd data för kraftnätsoperatörer och energileverantörer. Genom att använda dessa data kan ett mer effektivt och flexibelt kraftnät förverkligas. Dessa uppgifter ger dock också upphov till oro för privatlivet, eftersom de innehåller mycket känslig information om kunderna. I detta dokument presenterar vi ett säkerhets- och sekretessbevarande mätsystem för gemenskapens kunder, genom att använda lösenordet autentiserad nyckel utbyte (PAKE) protokoll och Elliptic Curve Cryptosystem (ECC). Det föreslagna systemet kommer att skydda gemenskapsnätverket från eventuellt skadligt beteende, och säkerhetsanalys ges också i tidningen.
REF tillhandahöll ett förenklat tillvägagångssätt med lösenordsautentisering av nyckelutbyte (PAKE) och ECC.
36,770,478
Security and Privacy-Preserving Metering Service in the Smart Grid
{'venue': None, 'journal': "Int'l J. of Communications, Network and System Sciences", 'mag_field_of_study': ['Computer Science']}
2,332
Kodkloning antas inte bara blåsa upp underhållskostnader utan också anses defekt-bene som inkonsekventa ändringar av kod dubbletter kan leda till oväntat beteende. Följaktligen har identifieringen av duplikat av kod, klondetektering, varit ett mycket aktivt forskningsområde under de senaste åren. Hittills har det dock inte gjorts någon omfattande undersökning av konsekvenserna av kodkloning för programmens korrekthet. För att avhjälpa denna brist presenterar detta dokument resultaten av en omfattande fallstudie som genomfördes för att ta reda på om inkonsekventa ändringar av klonad kod kan tyda på fel. För de analyserade kommersiella och öppna källkodssystem vi inte bara fann att inkonsekventa förändringar av kloner är mycket frekventa men också identifierade ett betydande antal fel som orsakas av sådana förändringar. Klondetekteringsverktyget som används i fallstudien implementerar en ny algoritm för att upptäcka inkonsekventa kloner. Det finns som öppen källkod för att andra forskare ska kunna använda det som grund för ytterligare undersökningar.
Juergens m.fl. REF studerade vilka konsekvenser kodklonerna hade för programkorrektheten.
6,196,921
Do Code Clones Matter?
{'venue': "Proc. 31st International Conference on Software Engineering (ICSE '09). IEEE, 2009", 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,333
Vi presenterar sublinjär-tid (randomized) algoritmer för att hitta enkla cykler av längd minst k ≥ 3 och träd-minors i begränsad grad grafer. Komplexiteten av dessa algoritmer är relaterad till avståndet av grafen från att vara C k-minor fri (resp., fri från att ha motsvarande träd-minor). I synnerhet, om grafen är.(1)-långt från att vara cykelfri (dvs. en konstant bråkdel av kanterna måste tas bort för att göra grafen cykelfri), då algoritmen finner en cykel av polylogaritmisk längd i tid O ( ❌ N ), där N betecknar antalet hörn. Denna tids komplexitet är optimal upp till polylogaritmiska faktorer. Ovanstående resultat är resultatet av vår studie av komplexiteten hos ensidiga fel egenskapstestningsalgoritmer i den avgränsade grafmodellen. Till exempel visar vi att cykel-frihet av N-vertex grafer kan testas med ensidigt fel inom tid komplexitet O(poly(1/ på) · ε N ), där påvisar närhet parametern. Detta matchar den kända enkel felcykel-frihets-testning, och kontraster med det faktum att någon mindre-fri egenskap medger en dubbelsidig feltestare av fråge komplexitet som bara beror på. Vi visar att samma övre gräns håller för att testa om inmatningskurvan har en enkel längdcykel på minst k, för varje k ≥ 3. Å andra sidan, för alla fasta träd T, Vi visar att T - minor freeness har en ensidig feltestare av frågekomplexitet som bara beror på närheten parameter på. Vår algoritm för att hitta cykler i avgränsade grafer sträcker sig till allmänna grafer, där avstånd mäts med avseende på det faktiska antalet kanter. En sådan förlängning är inte möjlig när det gäller att hitta trädminorer i o( ε N ) komplexitet.
En lägre gräns för frågor som inte omfattas av direktivet fastställdes i referensreferensreferensreferensdokumentet (Reference Ref.).
1,697,154
Finding Cycles and Trees in Sublinear Time
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
2,334
I detta dokument föreslås en strategi för att förbättra ordanpassningen för språk med knappa resurser med hjälp av tvåspråkig korpora av andra språkpar. För att utföra ordanpassning mellan språk L1 och L2, introducerar vi ett tredje språk L3. Även om endast små mängder tvåspråkiga uppgifter finns tillgängliga för det önskade språkparet L1-L2, finns det en stor tvåspråkig corpora i L1-L3 och L2-L3. Baserat på dessa två ytterligare corpora och med L3 som pivot språk, bygger vi ett ord anpassning modell för L1 och L2. Detta tillvägagångssätt kan bygga ett ord anpassning modell för två språk även om ingen tvåspråkig corpus finns i detta språkpar. Dessutom bygger vi ett annat ord anpassning modell för L1 och L2 med hjälp av den lilla L1-L2 tvåspråkiga corpus. Därefter interpolerar vi ovanstående två modeller för att ytterligare förbättra ordjusteringen mellan L1 och L2. Experimentella resultat tyder på en relativ felfrekvensminskning på 21,30 % jämfört med metoden endast med hjälp av små tvåspråkiga corpus i L1 och L2.
REF förbättrade ordanpassningen för språkpar med knappa resurser med hjälp av tvåspråkig korpora av pivotspråk.
2,035,805
Word Alignment For Languages With Scarce Resources Using Bilingual Corpora Of Other Language Pairs
{'venue': 'International Conference On Computational Linguistics And Annual Meeting Of The Association For Computational Linguistics - Poster Sessions', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,335
I detta dokument presenteras de grundläggande principerna bakom tabu sökning som en strategi för kombinatoriska optimeringsproblem. Tabu sökande har uppnått imponerande praktiska framgångar i applikationer som sträcker sig från schemaläggning och datorkanalbalansering till klusteranalys och rymdplanering, och på senare tid har visat sitt värde i att behandla klassiska problem som resande säljare och graf färgproblem. Strategin är dock fortfarande i sin linda, och det återstår fortfarande en hel del att upptäcka om dess mest effektiva genomförandeformer och om det spektrum av problem som den är bäst lämpad för. I detta dokument åtar sig man att presentera de viktigaste idéerna och resultaten hittills och att ange utmaningar för framtida forskning. Del I i denna studie visar de grundläggande principerna, allt från korttidsminnesprocessen i kärnan av sökningen till de mellanliggande och långsiktiga minnesprocesserna för att intensifiera och diversifiera sökningen. Här ingår illustrativa datastrukturer för att genomföra de tabuvillkor (och tillhörande aspirationskriterier) som ligger till grund för dessa processer. Del I avslutas med en diskussion om probabilistisk tabusökning och en sammanfattning av beräkningserfarenhet för en mängd olika tillämpningar. Del I1 i denna studie (för att framträda i ett senare nummer) undersöker mer avancerade överväganden, tillämpar de grundläggande idéerna på speciella miljöer och beskriver en dynamisk rörelsestruktur för att försäkra ändlighet. Del I1 beskriver också tabu sökmetoder för att lösa problem med blandade heltal programmering och ger en kort sammanfattning av ytterligare praktisk erfarenhet, inklusive användningen av tabu sökning för att vägleda andra typer av processer, såsom de av neurala nätverk. T a b u sökning är en strategi för att lösa kombinatoriska optimeringsproblem vars tillämpningar sträcker sig från grafteori och matrisinställningar till allmänna rena och blandade heltal programmeringsproblem. Det är en adaptiv procedur med förmågan att använda sig av många andra metoder, såsom linjära programmeringsalgoritmer och specialiserade heuristiker, som den leder till att övervinna begränsningarna av lokal optimalitet. Tabu sökning har sitt ursprung i kombinatoriska förfaranden tillämpas på icke-linjära täcka problem i slutet av 1970~,[~1 och därefter tillämpas på en mångfald av problem som sträcker sig från schemaläggning och datorkanalbalansering till klusteranalys och rymdplanering."3.4,6.71 Senaste forsknings- och beräkningsjämförelser som involverar resande säljare, graffärgning, arbetsbutiksflöde sekvensering, integrerad kretsdesign och tidsingivande problem har också avslöjat förmågan av tabu sökning för att få högkvalitativa lösningar med blygsam beräkningsansträngning, allmänt dominerande alternativa metoder testade. ['. Det är ingen fara. - Jag vet inte. 12-13. En ny oberoende utveckling av flera av dess idéer [lol har också framgångsrikt tillämpats på maximal tillfredsställelse problem.[''] Sådana tillämpningar, för problem som varierar i storlek från hundratals till miljontals variabler, utarbetas i avsnitt 10.
Tabu search (TS) algoritm REF är en mycket speciell algoritm som vanligtvis används för att lösa kombinatoriska optimeringsproblem.
5,617,719
Tabu Search - Part I
{'venue': 'INFORMS J. Comput.', 'journal': 'INFORMS J. Comput.', 'mag_field_of_study': ['Computer Science']}
2,336
Abstract-Medan maktsystem organisation har utvecklats från en hierarkisk struktur till en mer decentraliserad modell, elmarknaderna är fortfarande inte uppdaterade med den pågående omvandlingen mot mer konsumentcentrerade ekonomier. Eftersom informations- och kommunikationsteknik används i stor utsträckning gör de det möjligt för prosumenter att spela en mer proaktiv roll i kraftsystemdriften. Detta arbete introducerar begreppet energikollektiv, som en samhällsbaserad elmarknadsstruktur. Vi finner att när prosumenter tillåts dela energi på gemenskapsnivå, återspeglar den totala elanskaffningen för samhället prosumenters preferenser. Vi visar att gemenskapens medlemmar kan påverkas av en övervakande tredje part som ansvarar för samverkan med marknaden och den systemansvarige och för att garantera de gemensamma kollektivavtalen. Vi simulerar ett antal testfall och tillämpar typiska principer från analys av kommunikationsnät och distribuerade system för att bedöma rättvisa i samhället.
I REF föreslås en distribuerad marknadsstruktur, där alla prosumenter ansvarar för att optimera sina tillgångar individuellt.
52,237,577
Energy Collectives: A Community and Fairness Based Approach to Future Electricity Markets
{'venue': 'IEEE Transactions on Power Systems', 'journal': 'IEEE Transactions on Power Systems', 'mag_field_of_study': ['Engineering']}
2,337
I det senaste statistiska parametriska talsyntessystemet, en talanalysmodul, t.ex. STRAIGHT spektralanalys, används i allmänhet för att erhålla exakta och stabila spektralhöljen, och sedan lågdimensionella akustiska egenskaper som extraheras från erhållna spektralhöljen används för utbildning akustiska modeller. Emellertid, en spektral kuvert estimering algoritm som används i en sådan talanalysmodul innehåller olika bearbetning som härrör från mänsklig kunskap. I detta dokument presenterar vi vår undersökning av djup autoenkoder baserad, icke-linjär, datadriven och oövervakad lågdimensionell funktionsextraktion med hjälp av FFT-spektrala kuvert för statistisk parametrisk talsyntes. Experimentella resultat visade att en text-till-tal syntessystem med hjälp av djup auto-encoder baserad låg-dimensionell funktion extraktion från FFT spektral kuvert är verkligen ett lovande tillvägagångssätt.
I REF används en autoencoderbaserad, icke-linjär och datadriven metod för att extrahera lågdimensionella funktioner från FFT-spektralen, istället för att använda talanalysmodulen baserad på mänsklig kunskap.
10,893,790
A deep auto-encoder based low-dimensional feature extraction from FFT spectral envelopes for statistical parametric speech synthesis
{'venue': '2016 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP)', 'journal': '2016 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP)', 'mag_field_of_study': ['Computer Science']}
2,338
Programöversättning är ett viktigt verktyg för att migrera äldre kod på ett språk till ett ekosystem byggt på ett annat språk. I detta arbete är vi de första att använda djupa neurala nätverk för att ta itu med detta problem. Vi observerar att programöversättning är en modulär procedur, där ett underträd av källträdet översätts till motsvarande delträd i varje steg. För att fånga denna intuition, vi utforma ett träd-till-träd neurala nätverk för att översätta ett källträd till ett mål ett. Samtidigt utvecklar vi en uppmärksamhetsmekanism för träd-till-träd-modellen, så att när avkodaren expanderar en icke-terminal i målträdet, lokaliserar uppmärksamhetsmekanismen motsvarande underträd i källträdet för att vägleda utbyggnaden av avkodaren. Vi utvärderar programöversättningsförmågan hos vår träd-till-träd modell mot flera state-of-the-art metoder. Jämfört med andra neurala översättningsmodeller, observerar vi att vår strategi är konsekvent bättre än baslinjerna med en marginal på upp till 15 poäng. Vidare kan vår strategi förbättra de tidigare toppmoderna programöversättningar med en marginal på 20 punkter om översättning av verkliga projekt.
Chen och Al. använda träd-till-träd nätverk för programöversättning REF.
600,040
Tree-to-tree Neural Networks for Program Translation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
2,339
Abstrakt. Att använda Wi-Fi-signaler för lokalanpassning inomhus är den huvudsakliga lokaliseringsmodaliteten i de befintliga personliga lokalanpassningssystem för inomhusbruk som fungerar på mobila enheter. WiFi-fingeravtryck används också för mobila robotar, eftersom WiFi-signaler vanligtvis finns inomhus och kan ge grov uppskattning av utgångsläget eller kan användas tillsammans med andra positioneringssystem. För närvarande är de bästa lösningarna beroende av filtrering, manuell dataanalys och tidskrävande parameterinställning för att uppnå tillförlitlig och korrekt lokalisering. I detta arbete föreslår vi att använda djupa neurala nätverk för att avsevärt minska arbetsbelastningen av lokaliseringssystemets utformning, samtidigt som man uppnår tillfredsställande resultat. Om vi utgår från den senaste hierarkiska metoden använder vi DNN-systemet för byggnads-/golvklassificering. Vi visar att staplade autokodrar gör det möjligt att effektivt minska funktionsutrymmet för att uppnå robust och exakt klassificering. Den föreslagna arkitekturen verifieras på offentligt tillgängliga UJIIndoorLoc dataset och resultaten jämförs med andra lösningar.
Nowicki och Wietrzykowski REF undersöker med hjälp av det djupa neurala nätverket för att klassificera byggnader och golv.
19,017,850
Low-effort place recognition with WiFi fingerprints using deep learning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Engineering', 'Computer Science']}
2,340
De flesta av de befintliga multimodal hämtningsmetoderna använder sig av märkta data för att lära sig projektionsmatriser för olika modaldata. Dessa metoder lär sig vanligtvis det ursprungliga semantiska utrymmet för att överbrygga den heterogena klyftan och ignorerar den rika semantiska informationen i omärkta data. Följaktligen föreslås en semantisk cross-modal hämtning med semi-övervakad grafreglering (SCCMR) algoritm, som integrerar förutsägelsen av etiketter och optimeringen av projektionsmatriser i ett enhetligt ramverk för att säkerställa att den erhållna lösningen är globalt optimal. Samtidigt använder metoden grafen inbäddning för att överväga de närmaste grannarna i den potentiella subrymden av parade bilder och texter samt bilder och texter med samma semantik. l 21 -normrestriktion tillämpas på projektionsmatriserna för att välja de diskriminerande egenskaperna för olika modaldata. Resultaten visar att vår metod överträffar flera avancerade metoder på fyra vanliga multimodala datauppsättningar. INDEX TERMS cross-modal hämtning, halvövervakad, grafreglering, subrymdsinlärning.
Xu och al. Ref tillämpad graf inbäddning metod för att säkerställa approximationen av parade bilder och texter i gemensamma inbäddning utrymme.
210,972,034
Semantic Consistency Cross-Modal Retrieval With Semi-Supervised Graph Regularization
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
2,341
Abstrakt. Vi presenterar Adaptive Hybrid Cursor, en ny målinköpsteknik för pennbaserade gränssnitt. För att hjälpa en användare i en målvalsuppgift anpassar denna teknik automatiskt markörens storlek och/eller dess sammanhang (målstorleken och urvalsbakgrunden) baserat på penntrycksinmatning. Vi utvärderade systematiskt den nya tekniken med olika 2D mål förvärv uppgifter. De experimentella resultaten visade att Adaptive Hybrid Cursor hade bättre urvalsprestanda och var särskilt effektiv för småmåls- och högdensitetsmiljöer där den vanliga markören och Bubble Cursor [13] inte uppvisade några betydande fördelar. Adaptive Hybrid Cursor är ett nytt sätt att förbättra målförvärvet genom tryckinmatning, och vår studie visade dess livskraft och potential för pennbaserade gränssnitt.
År 2007, Ren m.fl. I REF föreslogs adaptiv Hybrid Cursor för att underlätta valet av mål genom att automatiskt anpassa markörens storlek baserat på pennpres-Copyright c 2009 Institutet för elektronik, information och kommunikationstekniker säker inmatning.
588,690
The Adaptive Hybrid Cursor: A Pressure-based Target Selection Technique for Pen-based User Interfaces
{'venue': 'INTERACT', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,342
Abstract-De flesta allmänt tillgängliga bildkvalitetsdatabaser har skapats under mycket kontrollerade förhållanden genom att man infört graderade simulerade snedvridningar på högkvalitativa fotografier. Dock är bilder som fångas med hjälp av typiska verkliga mobila kameraenheter oftast drabbade av komplexa blandningar av flera snedvridningar, som inte nödvändigtvis väl modelleras av de syntetiska snedvridningar som finns i befintliga databaser. Upphovsmännen till befintliga äldre databaser genomförde vanligtvis psykometriska studier på människor för att få statistiskt meningsfulla uppsättningar av bedömningar av mänskliga åsikter om bilder i en strikt kontrollerad visuell miljö, vilket resulterade i små datainsamlingar i förhållande till andra typer av databaser för bildanalys. För att övervinna dessa begränsningar har vi designat och skapat en ny databas som vi kallar LIVE I databasen Wild Image Quality Challenge, som innehåller vitt skilda autentiska bildförvrängningar på ett stort antal bilder som fångas med hjälp av en representativ mängd moderna mobila enheter. Vi har också utformat och implementerat ett nytt online crowdsourcing-system, som vi har använt för att genomföra en mycket storskalig, flermånaders bildkvalitetsbedömning (IQA) subjektiv studie. Vår databas består av över 350 000 opinionssiffror på 1162 bilder utvärderade av över 8100 unika mänskliga observatörer. Trots bristen på kontroll över de många studiedeltagarnas experimentella miljöer visar vi på en utmärkt intern konsekvens i den subjektiva datamängden. Vi utvärderar också flera topppresterande blinda IQA-algoritmer på den och presenterar insikter om hur blandningar av snedvridningar utmanar både slutanvändare och automatiska perceptuella kvalitetsförutsägelsemodeller. Den nya databasen finns tillgänglig för allmänheten på http://live.ece.utexas.edu/research/ChallengeDB/index.html. Index Terms-Perceptuell bildkvalitet, subjektiv bildkvalitetsbedömning, crowdsourcing, autentiska förvrängningar.
Ghadiyaram och Bovik REF utvecklade LIVE I databasen Wild Image Quality Challenge med 1162 bilder som innehåller olika, autentiska, verkliga förvrängningar som bedömts av mer än 8 100 unika ämnen.
8,531,217
Massive Online Crowdsourced Study of Subjective and Objective Picture Quality
{'venue': 'IEEE Transactions on Image Processing', 'journal': 'IEEE Transactions on Image Processing', 'mag_field_of_study': ['Computer Science', 'Medicine']}
2,343
ABSTRACT Vi anser att problemet med att styra ett smart belysningssystem av flera armaturer med colocated beläggning och ljussensorer. Målet är att uppnå belysningsnivåer som är högre än angivna värden (eventuellt förändras över tid) på arbetsplatsen genom att anpassa dimnivåer med hjälp av sensorinformation, samtidigt som energiförbrukningen minimeras. Vi föreslår att belysningsnivåerna på arbetsplatsen beräknas utifrån belysningsmätningarna i taket. Mer specifikt baseras denna ljusskattning på en modell byggd på data som samlats in av ljussensorer placerade på arbetsplatsens referenspunkter och på armaturerna i en träningsfas. Tre skattningsmetoder beaktas: regulariserade minst kvadrater, lokalt viktade regulariserade minst kvadrater, och klusterbaserade regulariserade minst kvadrater. Denna modell används sedan i driftsfasen av belysningsregulatorn för att beräkna dimningsnivåer genom att lösa ett linjärt programmeringsproblem, där effektförbrukningen minimeras under begränsningen att den uppskattade belysningen är högre än ett angivet målvärde. Den föreslagna metodens prestanda med de tre estimeringsmetoderna utvärderas med hjälp av en öppen kontorsbelysningsmodell med olika dagsljusförhållanden. Vi visar att det föreslagna tillvägagångssättet erbjuder minskad underbelysning och energiförbrukning jämfört med befintliga alternativa tillvägagångssätt. INDEX TERMS Ljusstyrningssystem, dagsljusuppskattning, beläggning och dagsljusanpassning, minst kvadrater, linjär programmering.
Bidraget från arbetet i REF har tagit hänsyn till problemet med att kontrollera flera armaturer med colocated beläggning och ljussensorer.
21,100,146
A Data-Driven Daylight Estimation Approach to Lighting Control
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
2,344