src
stringlengths 100
134k
| tgt
stringlengths 10
2.25k
| paper_id
int64 141
216M
| title
stringlengths 9
254
| discipline
stringlengths 67
582
| __index_level_0__
int64 0
83.3k
|
---|---|---|---|---|---|
Abstract-Automatisk beslutsfattande metoder, såsom förstärkning lärande (RL), har tillämpats för (delvis) lösa resurs tilldelning problem adaptively i molnet datorsystem. Ett komplett ramverk för tilldelning av molnresurser uppvisar dock höga dimensioner i tillstånds- och aktionsutrymmen, vilket förbjuder nyttan av traditionella RL-tekniker. Dessutom har hög energiförbrukning blivit en av de kritiska frågorna när det gäller design och styrning av molndatasystem, vilket försämrar systemets tillförlitlighet och ökar kylkostnaderna. En effektiv dynamisk energisparpolicy (DPM) bör minimera energiförbrukningen samtidigt som prestandanedbrytningen bibehålls inom en godtagbar nivå. Således är en gemensam virtuell maskin (VM) resursallokering och energihanteringsram avgörande för det övergripande molndatasystemet. Dessutom behövs en ny lösningsram för att ta itu med de ännu högre dimensionerna i tillstånds- och åtgärdsutrymmen. I detta dokument föreslår vi en ny hierarkisk ram för att lösa det övergripande resursfördelningen och energihanteringsproblemen i molnbaserade datorsystem. Det föreslagna hierarkiska ramverket omfattar en global nivå för tilldelning av virtuella datorers resurser till servrarna och en lokal nivå för distribuerad strömhantering av lokala servrar. Den framväxande tekniken för djupt förstärkande lärande (DRL), som kan hantera komplicerade kontrollproblem med stort tillståndsutrymme, antas för att lösa det globala nivåproblemet. Dessutom antas en autoenkoder och en ny viktdelningsstruktur för att hantera det högdimensionella tillståndsutrymmet och öka konvergenshastigheten. Å andra sidan består den lokala nivån av distribuerade servereffekthanteringar av en LSTM-baserad prediktor för arbetsbelastning och en modellfri RL-baserad effekthanterare som arbetar på ett distribuerat sätt. Experimentella resultat med hjälp av verkliga Google-klusterspår visar att vårt föreslagna hierarkiska ramverk avsevärt sparar energiförbrukningen och energianvändningen än utgångsvärdet samtidigt som ingen allvarlig latensnedbrytning uppnås. Samtidigt kan den föreslagna ramen uppnå den bästa kompromissen mellan latens och energi-/energiförbrukning i ett serverkluster. | I Ref ) föreslogs en hierarkisk ram för att lösa det övergripande problemet med resurstilldelning och energihantering i molndatasystem med DRL. | 4,774,976 | A Hierarchical Framework of Cloud Resource Allocation and Power Management Using Deep Reinforcement Learning | {'venue': '2017 IEEE 37th International Conference on Distributed Computing Systems (ICDCS)', 'journal': '2017 IEEE 37th International Conference on Distributed Computing Systems (ICDCS)', 'mag_field_of_study': ['Computer Science']} | 80,803 |
Abstrakt. Tidsbestämning är ett viktigt steg i utformningen av tillförlitliga realtidsinbäddade system. I detta papper presenterar vi GameTime, en verktygslåda för exekveringstid analys av programvara. GameTime bygger på en kombination av spelteoretisk online-inlärning och systematisk testning med hjälp av satisfiability modulo-teorier (SMT). I motsats till många befintliga verktyg för timing analys, GameTime kan användas för en rad uppgifter, inklusive att uppskatta värsta fall genomförandetid, förutsäga fördelningen av genomförandetider för en uppgift, och hitta timing relaterade buggar i program. Vi beskriver viktiga genomförandedetaljer av GameTime och illustrerar dess användning genom exempel. | En tidsanalys baserad på spelteoretisk inlärning presenterades i REF. | 8,029,850 | GameTime: A toolkit for timing analysis of software | {'venue': 'in Proceedings of the 17th International Conference on Tools and Algorithms for the Construction and Analysis of Systems (TACAS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 80,804 |
Abstract -Ransomware är för närvarande det viktigaste hotet för enskilda såväl som företags Internetanvändare. Särskilt farlig är crypto ransomware som krypterar viktiga användardata och det är bara möjligt att återställa det när en lösensumma har betalats. Därför är det allt viktigare att utforma effektiva och effektiva motåtgärder. I detta papper presenterar vi en ny Software-definierad Networking (SDN) baserad detektion metod som använder egenskaper av ransomware kommunikation. Baserat på observation av nätverkskommunikation av två crypto ransomware familjer, nämligen CryptoWall och Locky vi drar slutsatsen att analys av HTTP-meddelanden sekvenser och deras respektive innehållsstorlekar är tillräckligt för att upptäcka sådana hot. Vi visar genomförbarheten av vår strategi genom att utforma och utvärdera det proof-of-concept SDN-baserade detektionssystemet. Experimentella resultat bekräftar att det föreslagna tillvägagångssättet är genomförbart och effektivt. | Å andra sidan i REF, Det visas att SDN-baserad detektion metod som använder egenskaperna hos ransomware kommunikation kan vara effektiv mot två krypto ransomware familjer, nämligen CryptoWall och Locky. | 3,961,819 | Software-Defined Networking-based Crypto Ransomware Detection Using HTTP Traffic Characteristics | {'venue': 'Computers and Electrical Engineering, 2018', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 80,805 |
Semantiska 3D-modeller av byggnader kodar geometrin samt identiteten på nyckelkomponenter i en anläggning, såsom väggar, golv och tak. Att manuellt konstruera en sådan modell är en tidskrävande och felbenägen process. Vårt mål är att automatisera denna process med hjälp av 3D-punktdata från en laserscanner. Vår hypotes är att kontextuell information är viktig för tillförlitlig prestanda i omodifierade miljöer, som ofta är mycket belamrade. Vi använder en Conditional Random Field (CRF) modell för att upptäcka och utnyttja kontextuell information, klassificera planar patchar extraherade från punktmolnsdata. Vi jämför resultaten av vår kontextbaserade CRF-algoritm med en kontextfri metod baserad på L 2 norm legaliserad Logistik Regression (RRR). Vi finner att användningen av viss kontextuell information tillsammans med lokala funktioner leder till bättre klassificeringsresultat. | REF använder en CRF-modell för att upptäcka och utnyttja kontextuell information, klassificera planar patchar extraherade från punktmolnsdata. | 2,346,257 | Using context to create semantic 3d models of indoor environments | {'venue': 'in BMVC', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 80,806 |
Abstract-Accurate upptäckt av rörliga objekt är en viktig föregångare till stabil spårning eller igenkänning. I detta dokument presenterar vi ett system för att upptäcka objekt som har tre innovationer jämfört med befintliga strategier. För det första ifrågasätts modellen av intensiteten av bild pixlar som oberoende slumpmässiga variabler och det hävdas att användbar korrelation finns i intensiteter av rumsligt proximala bildpunkter. Denna korrelation utnyttjas för att upprätthålla höga nivåer av detektionsnoggrannhet i närvaro av dynamiska bakgrunder. Genom att använda en icke-parametrisk densitetsuppskattningsmetod över en gemensam domänomfångsrepresentation av bildpixlar, modelleras multimodala rumsliga osäkerheter och komplexa beroenden mellan domänen (lokalisering) och området (färg) direkt. Vi föreslår en bakgrundsmodell som en enda sannolikhetstäthet. För det andra föreslås tidsbeständighet som ett detektionskriterium. Till skillnad från tidigare metoder för objektdetektering som detekterar objekt genom att bygga adaptiva modeller av bakgrunden, är förgrunden modellerad för att öka upptäckten av objekt (utan explicit spårning) eftersom objekt som detekteras i den föregående ramen innehåller väsentliga bevis för detektion i den aktuella ramen. Slutligen används bakgrunds- och förgrundsmodellerna konkurrenskraftigt i ett MAP-MRF-beslutsramverk, där rumsliga sammanhang betonas som ett villkor för att upptäcka intressanta objekt och den bakre funktionen maximeras effektivt genom att man hittar den minsta skärningen av en kapacierad graf. Experimentell validering av den föreslagna metoden utförs och presenteras på en rad olika dynamiska scener. | I REF modelleras bakgrunden av en enda sannolikhetstäthetsfunktion med en icke-parametrisk täthetsberäkningsmetod över en gemensam domänomfångsrepresentation av bildpixlar. | 1,961,889 | Bayesian modeling of dynamic scenes for object detection | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 80,807 |
Denna uppsats presenterar en ny semiövervakad inlärningsalgoritm som kallas Active Deep Networks (ADN), för att ta itu med det semiövervakade känsloklassificeringsproblemet med aktivt lärande. Först föreslår vi ADN:s halvövervakade inlärningsmetod. ADN är konstruerat av Restrikted Boltzmann Machines (RBM) med oövervakad inlärning med hjälp av märkta data och rikligt med omärkta data. Sedan den konstruerade strukturen finjusteras av gradient-descent baserad övervakad inlärning med en exponentiell förlustfunktion. För det andra tillämpar vi aktivt lärande i det halvövervakade utbildningsramverket för att identifiera recensioner som bör märkas som utbildningsdata. Därefter tränas ADN-arkitekturen av utvalda märkta data och alla omärkta data. Experiment på fem känsloklassificeringsdata visar att ADN överträffar den halvövervakade inlärningsalgoritm och djupinlärningsteknik som tillämpas för känsloklassificering. | Zhou REF gav den halvt övervakade metoden för klassificering av maskininlärningskänslor baserat på det aktiva djupa nätverket. | 14,908,610 | Active Deep Networks for Semi-Supervised Sentiment Classification | {'venue': 'COLING - POSTERS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 80,808 |
Traditionella inlärningsbaserade coreference resolvers fungerar genom att utbilda ett omnämnandepair clasfier för att avgöra om två omnämnanden är coreferent eller inte. Två oberoende linjer av den senaste forskningen har försökt att förbättra dessa omnämnande-par klassificerare, en genom att lära sig en omnämnanderanking modell för att rangordna tidigare omnämnanden för en given anafor, och den andra genom att utbilda en enhet-mentation klassificerare för att avgöra om en föregående kluster är coreferent med ett givet omnämnande. Vi föreslår ett klusterrankande tillvägagångssätt för samreferensresolution som kombinerar styrkan av att nämna rankare och entemention modeller. Vi visar dessutom hur vårt klusterrankade ramverk naturligt gör det möjligt att lära sig diskursens nya enhetsdetektering tillsammans med coreferensupplösningen. Experimentella resultat av ACE-datauppsättningarna visar att de är överlägsna konkurrerande metoder. | Rahman och Ng Ref föreslog en klusterrankingsmodell för samreferensupplösning som kombinerar fördelarna med omnämnande-enhetsmodeller och omnämnande-rankingsmodeller. | 7,177,672 | Supervised Models for Coreference Resolution | {'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 80,809 |
Bakgrund: Behandlingen av negation och säkring i naturligt språk bearbetning har fått mycket intresse nyligen, särskilt inom biomedicinsk domän. Dock är open access corpora noterade för negation och / eller spekulation knappast tillgängliga för utbildning och testning, och även om de är, de ibland följer olika designprinciper. I den här artikeln jämförs de två största corpora-anmärkningarna för negation och spekulation -BioScope och Genia Event. BioScope markerar språkliga signaler och deras omfattning för negation och säkring medan biologiska händelser i Genia är markerade för osäkerhet och/eller negation. Resultat: Skillnaderna mellan kommentarerna i de två corpora kategoriseras tematiskt och frekvensen för varje kategori uppskattas. Vi fann att den största mängden skillnader beror på att omfattningen - som täcker text spänner - handlar om de viktigaste händelserna och varje argument (inklusive händelser inom evenemang) av dessa händelser också omfattas. Genia arbetar däremot självständigt med händelsesättet inom händelserna. Slutsatser: Analysen av flera lager av annotering (linguistiska omfattningar och biologiska händelser) visade att upptäckten av negation/hedge sökord och deras omfattning kan bidra till att fastställa hur viktiga händelser (betecknas av huvudpredikatet). För att upptäcka händelsernas negation och spekulationsstatus inom händelserna måste man å andra sidan använda sig av ytterligare syntaxbaserade regler för att undersöka beroendet mellan modaliteten och händelseförloppet. | REF presenterar en kvantitativ jämförelse av skärningspunkten mellan två engelska corpora kommenterade för negation och spekulation (BioScope och Genia Event) ur två olika perspektiv (lingvistik och händelseorienterad). | 6,958,650 | Linguistic scope-based and biological event-based speculation and negation annotations in the BioScope and Genia Event corpora | {'venue': 'Journal of Biomedical Semantics', 'journal': 'Journal of Biomedical Semantics', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 80,810 |
Vi studerar flera varianter av samordnat samförstånd i dynamiska nätverk. Vi utgår från en synkron modell, där kommunikationskurvan för varje omgång väljs av en motståndare i värsta fall. Nätverkstopologin är alltid ansluten, men kan ändras helt från en runda till en annan. Modellen fångar upp mobila och trådlösa nätverk, där kommunikation kan vara oförutsägbar. I detta sammanhang studerar vi de grundläggande problemen med ett eventuellt, samtidigt och samordnat samförstånd, liksom deras förhållande till andra distribuerade problem, såsom att bestämma nätverkets storlek. Vi visar att i avsaknad av en bra initial övre gräns på nätverkets storlek, är det slutliga samförståndet lika svårt som att beräkna deterministiska funktioner av indata, t.ex. det minsta eller högsta antalet ingångar till noderna. Vi ger också en algoritm för att beräkna sådana funktioner som är optimala i varje utförande. Därefter visar vi att samtidigt samförstånd aldrig kan uppnås i mindre än n − 1 rundor i varje utförande, där n är storleken på nätverket; följaktligen är samtidig konsensus lika svårt som att beräkna en övre gräns för antalet noder i nätverket. För Δ-koordinerat samförstånd visar vi att om förhållandet mellan noder med indata 0 och indata 1 begränsas bort från 1, är det möjligt att bestämma i tid n − på ( Δ nΔ), där Δ begränsar tiden från det första beslutet tills alla noder bestämmer. Om den dynamiska grafen har diametern D, är tiden att bestämma min {O(nD/Δ), n − (nΔ/D)}, även om D inte är känd i förväg. Slutligen visar vi att (a) det finns en dynamisk graf så att ingen nod kan bestämma innan tiden n − O(Δ 0.28 n 0,72 ), och (b) för någon diameter D = O(Δ), det finns en körning med diameter D där ingen nod kan bestämma innan tiden och (nD/Δ). Såvitt vi vet utgör vårt arbete den första studien av Δ-koordinerat samförstånd i allmänna grafer. | REF studerar problem med överenskommelser i detta sammanhang. | 17,462,891 | Coordinated consensus in dynamic networks | {'venue': "PODC '11", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 80,811 |
Program skrivna på osäkra språk som C och C++ lider ofta av fel som buffertspill, dinglar pekare och minnesläckage. Dynamiska analysverktyg som Valgrind kan upptäcka dessa fel, men deras overhead-huvudsakligen på grund av kostnaden för att instrumentera varje minne läsa och skriva-gör dem för tungviktig för användning i utplacerade applikationer och gör testning med dem smärtsamt långsam. Resultatet är att mycket utplacerad programvara fortfarande är mottaglig för dessa buggar, som är notoriskt svåra att spåra. I detta dokument presenteras evidensbaserad dynamisk analys, en metod som möjliggör dessa analyser samtidigt som minimala omkostnader (under 5 %), vilket gör det praktiskt för första gången att utföra dessa analyser i utplacerade miljöer. Den viktigaste insikten i evidensbaserad dynamisk analys är att det för en klass av fel är möjligt att se till att bevis som inträffat någon gång i det förflutna förblir för senare upptäckt. Evidensbaserad dynamisk analys gör det möjligt för utförandet att fortsätta i nästan full fart fram till slutet av en epok (t.ex. en tungviktssystemanrop). Den undersöker sedan programtillståndet för att kontrollera bevis för att ett fel uppstod någon gång under den epoken. I så fall rullar den tillbaka utförandet och kör om koden med instrumentering aktiverad för att identifiera felet. Vi presenterar DOUBLETAKE, en prototyp evidensbaserad dynamisk analysram. DOUBLETAKE är praktiskt och enkelt att distribuera, kräver varken anpassad hårdvara, kompilator eller operativsystem stöd. Vi demonstrerar DOUBLETAKEs generalitet och effektivitet genom att bygga dynamiska analyser som hittar buffertspill, minnesanvändning-efter-fria fel och minnesläckage. Vår utvärdering visar att DOUBLETAKE är effektiv, införa mindre än 5% overhead i genomsnitt, vilket gör det snabbast sådana system hittills. | Liu m.fl. REF utvecklat DoubleTake, som använder felsökningsregister för att identifiera buffertspill, användning efter gratis, och minnesläckor. | 14,540,610 | DoubleTake: fast and precise error detection via evidence-based dynamic analysis | {'venue': "ICSE '16", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 80,812 |
Automatisk rubrikgenerering är ett viktigt forskningsområde inom textsammanfattning och meningskomprimering. Nyligen, neurala huvudgeneration modeller har föreslagits att dra nytta av vältränade neurala nätverk i lärande mening representationer och kartläggning sekvens till sekvens. Icke desto mindre använder traditionella neurala nätverk kodare maximal sannolikhet uppskattning för parameteroptimering, vilket i huvudsak begränsar det förväntade utbildningsmålet inom ordnivå istället för mening nivå. Dessutom är prestandan hos modellprognoserna i hög grad beroende av spridning av utbildningsdata. För att övervinna dessa nackdelar använder vi oss av en minimistrategi för riskutbildning i detta dokument, som direkt optimerar modellparametrar med avseende på utvärderingsmått och statistiskt leder till betydande förbättringar för rubrikgenerering. Experimentella resultat visar att vår strategi överträffar toppmoderna system på både engelska och kinesiska huvudgeneration uppgifter. | För att ta hänsyn till utvärderingsmåtten tillämpar REF metoden för minimiriskutbildning på generationsmodellen. | 18,318,429 | Neural Headline Generation with Minimum Risk Training | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 80,813 |
ABSTRACT Bilddeformation har framgångsrikt tillämpats i många olika typer av fält. Men hur man får en strategi med hög effektivitet och perfekt visuell effekt är fortfarande en utmanande uppgift. I detta papper presenterar vi en vektorfält interpoleringsmetod för icke-rigid bilddeformation, som bygger på att flytta regulariserade minst kvadrater (MRLS) optimering med en tunn platta spline (TPS). Den föreslagna metoden tar användarkontrollerade punkter som indata och uppskattar den rumsliga omvandlingen för varje pixel vid styrpunkterna. För att uppnå en realistisk deformation formulerar vi deformationen som ett nytt problem med uppskattning av sluten form av omvandling med hjälp av MRL-värden. Till skillnad från att flytta minst kvadrater (MLS), modellerar vi kartfunktionen av en icke-rigid TPS-funktion med en regulariseringskoefficient. Därför uppfyller deformationen inte bara den globala linjära afffinomvandlingen utan anpassar sig också till lokal icke-rigid deformation. När det gäller omvandlingen tar vi fram en sluten lösning och uppnår ett snabbt genomförande. Dessutom kan tillvägagångssättet visa oss en underbar användarupplevelse och ge oss en snabb och bekväm manipulering. Omfattande experiment på 2D-bilder och 3D-ytor visade att den föreslagna metoden fungerar bättre än andra toppmoderna metoder som MLS och den kommersiella programvaran som Adobe PhotoShop CS 6, särskilt när det gäller flexibel objektrörelse. INDEX TERMS Deformation, interpolering av vektorfält, MRLS-TPS. | Zhou m.fl. I REF föreslogs en interpoleringsmetod för vektorfält för icke-rigid bilddeformation, som beräknar den rumsliga omvandlingen av varje pixel genom TPS-funktionen. | 56,599,065 | Image Deformation With Vector-Field Interpolation Based on MRLS-TPS | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 80,814 |
2010 i2b2/VA Workshop on Natural Language Processing Challenges for Clinical Records presenterade tre uppgifter: ett konceptextraheringsarbete inriktat på utvinning av medicinska begrepp från patientrapporter; ett påstående klassificering uppgift fokuserad på att tilldela påståenden typer för medicinska problem begrepp; och en relation klassificering uppgift fokuserade på att tilldela relationstyper som håller mellan medicinska problem, tester och behandlingar. I2b2 och VA tillhandahöll en kommenterad referensstandard för de tre uppgifterna. Med hjälp av denna referensstandard utvecklades 22 system för konceptextrahering, 21 för påståendesklassificering och 16 för relationsklassificering. Dessa system visade att maskininlärningsmetoder kunde utökas med regelbaserade system för att bestämma begrepp, påståenden och relationer. Beroende på uppgiften kan de regelbaserade systemen antingen ge input för maskininlärning eller efterbehandling av produktionen av maskininlärning. Ensembler med klassificeringar, information från omärkta data och externa kunskapskällor kan vara till hjälp när utbildningsuppgifterna är otillräckliga. INLEDNING OCH DÄRMED SAMMANHÄNGANDE ARBETE | Å andra sidan definierades i 2010 års REF tre klasser (test, problem och behandling). | 30,029,552 | 2010 i2b2/VA challenge on concepts, assertions, and relations in clinical text | {'venue': 'Journal of the American Medical Informatics Association : JAMIA', 'journal': 'Journal of the American Medical Informatics Association : JAMIA', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 80,815 |
Mekaniska anordningar som motorer, fordon, flygplan, etc., är vanligtvis instrumenterade med många sensorer för att fånga beteende och hälsa hos maskinen. Det finns dock ofta externa faktorer eller variabler som inte fångas upp av sensorer som leder till tidsserier som i sig är oförutsägbara. Till exempel kan manuella kontroller och/eller oövervakade miljöförhållanden eller belastning leda till i sig oförutsägbara tidsserier. Att upptäcka anomalier i sådana scenarier blir utmanande med hjälp av standardmetoder baserade på matematiska modeller som bygger på stationaritet, eller förutsägelsemodeller som använder förutsägelsefel för att upptäcka anomalier. Vi föreslår en Long Short Term Memory Networks baserad Encoder-Decoder system för Anomaly Detection (EncDec-AD) som lär sig att rekonstruera "normala" tidsserie beteende, och därefter använder rekonstruktion fel för att upptäcka avvikelser. Vi experimenterar med tre allmänt tillgängliga nästan förutsägbara tidsseriedataset: strömförbrukning, rymdfärja och EKG, och två verkliga motordataset med både prediktivt och oförutsägbart beteende. Vi visar att EncDec-AD är robust och kan upptäcka avvikelser från förutsägbara, oförutsägbara, periodiska, aperiodiska och kvasiperiodiska tidsserier. Vidare visar vi att EncDec-AD kan upptäcka anomalier från korta tidsserier (längd så liten som 30) samt långa tidsserier (längd så stor som 500). | På liknande sätt, Malhotra et al. REF föreslog en LSTM-baserad kodare för anomalidetektering på maskinsignaler. | 9,286,983 | LSTM-based Encoder-Decoder for Multi-sensor Anomaly Detection | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 80,817 |
Eftersom känsligare data delas och lagras av webbplatser från tredje part på Internet kommer det att finnas ett behov av att kryptera data som lagras på dessa webbplatser. En nackdel med att kryptera data, är att det kan selektivt delas endast på en grov-kornig nivå (dvs. att ge en annan part din privata nyckel). Vi utvecklar ett nytt kryptosystem för finkornig delning av krypterad data som vi kallar Key-Policy Attribut-Based Encryption (KP-ABE). I vårt kryptosystem är chiffertexter märkta med uppsättningar av attribut och privata nycklar associerade med åtkomststrukturer som styr vilka chiffertexter en användare kan dekryptera. Vi demonstrerar tillämpligheten av vår konstruktion på delning av revisions-logg information och sända kryptering. Vår konstruktion stöder delegering av privata nycklar som subsumerar Hierarchical Identity-Based Encryption (HIBE). | Baserat på ABE, Goyal et al. REF föreslog ett system för nyckelpolicyattributbaserad kryptering (KP-ABE) och införde konceptet chiffertext-policyattributbaserad kryptering (CP-ABE). | 5,131,034 | Attribute-based encryption for fine-grained access control of encrypted data | {'venue': "CCS '06", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 80,818 |
När designen av programvaruarkitekturer framträder som en disciplin inom programvaruteknik blir det allt viktigare att stödja arkitektonisk beskrivning och analys med verktyg och miljöer. I thk paper beskriver vi ett system för att utveckla arkitektoniska designmiljöer som utnyttjar arkitektoniska stilar för att vägleda programvaruarkitekter i att producera specifika system. De primära bidragen från denna forskning är a) en allmän objektmodell för att representera arkitektoniska mönster; b) karakterisering av arkhekturala stilar som specialiseringar av denna objektmodell; och c) en verktygslåda för att skapa en öppen arkitektonisk designmiljö från en beskrivning av en specifik arkitektonisk stil. Vi använder vår erfarenhet av att implementera dessa koncept för att illustrera hur stilorienterad arkhektisk design väcker nya utmaningar för programvarustödmiljöer. | Detta beslut träder i kraft dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. I REF föreslås en objektmodell för att representera arkitektoniska mönster. | 14,238,711 | Exploiting style in architectural design environments | {'venue': "SIGSOFT '94", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 80,819 |
Abstract-I detta papper, vårt mål är att söka efter ett nytt objekt, där vi har en tidigare karta över miljön och kunskap om några av objekten i det, men ingen information om platsen för det specifika nya objektet. Vi utvecklar en probabilistisk modell över möjliga objekt platser som använder objektobjekt och objekt-scen sammanhang. Denna modell kan frågas för någon av över 25,000 naturligt förekommande objekt i världen och är utbildad från märkta data som förvärvats från bildtexterna på Flickr webbplats. Vi visar att dessa enkla modeller baserade på objektsammankomster presterar förvånansvärt bra på att lokalisera godtyckliga objekt i en kontorsmiljö. Dessutom visar vi hur man beräknar vägar som minimerar det förväntade avståndet till frågeobjektet och visar att detta tillvägagångssätt fungerar bättre än ett girigt tillvägagångssätt. Slutligen ger vi preliminära resultat för grundläggning vår strategi i objekt klassificerare. | Kollar et al. REF använde begreppet objekt till objekt och objekt till scen sammanhang för att resonera om den geometriska strukturen i miljön för att förutsäga platsen för objekten. | 12,414,470 | Utilizing object-object and object-scene context when planning to find things | {'venue': '2009 IEEE International Conference on Robotics and Automation', 'journal': '2009 IEEE International Conference on Robotics and Automation', 'mag_field_of_study': ['Engineering', 'Computer Science']} | 80,820 |
ABSTRACT Industrisystem föredrar alltid att minska sina driftskostnader. För att stödja sådana minskningar behöver de lösningar som kan ge stabilitet, feltolerans och flexibilitet. En sådan lösning för industriella system är cyber fysiska system (CPS) integration med Internet of Things (IoT) använder molntjänster. Dessa CPS kan betraktas som smarta industriella system, med sina mest utbredda tillämpningar inom smarta transporter, smarta nät, smarta medicinska och e-hälsovårdssystem, och många fler. Dessa industriella CPS använder främst system för kontroll och datainsamling (SCADA) för att kontrollera och övervaka deras kritiska infrastruktur (CI). WebSCADA är till exempel en applikation som används för smart medicinsk teknik, vilket möjliggör förbättrad patientövervakning och snabbare beslut. Fokus i den studie som presenteras i detta dokument är att belysa de säkerhetsutmaningar som de industriella SCADA-systemen står inför i en IoT-molnmiljö. Klassiska SCADA-system saknar redan ordentliga säkerhetsåtgärder, men med integreringen av komplexa nya arkitekturer för framtidens Internet baserat på koncepten IoT, cloud computing, mobila trådlösa sensornätverk, och så vidare, det finns stora problem som står på spel i säkerheten och utbyggnaden av dessa klassiska system. Därför krävs det mer forskning för att integrera dessa framtida Internetkoncept. Detta dokument, tillsammans med att belysa säkerhetsutmaningarna för dessa gemenskapsföretag, ger också de befintliga bästa metoderna och rekommendationerna för att förbättra och upprätthålla säkerheten. Slutligen beskriver detta dokument kortfattat framtida forskningsinriktningar för att säkra dessa kritiska CPS och hjälpa forskarvärlden att identifiera forskningsluckorna i detta avseende. INDEX TERMS APT, industriella kontrollsystem, sakernas Internet (IoT), NIST, PRECYSE, övervakning kontroll och datainsamling system, SOA. | Sajid m.fl. REF förklarade integrationen av IoT- och SCADA-system med fokus på säkerhet och hur man integrerar och skapar intelligenta ICS-system med hjälp av Internet. | 2,332,366 | Cloud-Assisted IoT-Based SCADA Systems Security: A Review of the State of the Art and Future Challenges | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 80,821 |
Abstract-kapaciteten för trådlösa nätverk är i grunden begränsad av störningar. Men lite forskning har fokuserat på interferens korrelation, vilket i hög grad kan öka den lokala fördröjningen (nämligen det antal tider som krävs för en nod för att framgångsrikt överföra ett paket). Detta dokument fokuserar på frågan om ökad slumpmässighet i MAC, särskilt frekvenshoppning multipel access (FHMA) och ALOHA, bidrar till att minska effekten av interferens korrelation. Vi härleder slutna formresultat för medelvärdet och variansen av den lokala fördröjningen för de två MAC-protokollen och utvärderar de optimala parametrarna som minimerar den genomsnittliga lokala fördröjningen. Baserat på de optimala parametrarna identifierar vi två operativa system, det korrelationsbegränsade systemet och det bandbreddsbegränsade systemet. Våra resultat visar att medan medel lokala förseningar för FHMA med N-delband och för ALOHA med överföringsannolikhet p i huvudsak sammanfaller när p = 1 N, finns en grundläggande diskrepans mellan deras varianser. Vi diskuterar också implikationer från analysen, inklusive en intressant genomsnittlig delay-jitter kompromiss, och bekväma gränser på svansen sannolikheten för den lokala fördröjningen, som ger användbara insikter i systemdesign. | Arbetet i Ref fokuserar på den lokala fördröjningsanalysen med BWP för den fasta SIR-kravmetoden och beaktar inte tillförlitlighetsaspekten. | 8,179,708 | Managing Interference Correlation Through Random Medium Access | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 80,822 |
Känslig information finns på våra telefoner, diskar, klockor och datorer. Dess skydd är nödvändigt. Påtagligt förnekande av lagrade data gör det möjligt för individer att förneka att deras enhet innehåller en del känslig information. Detta är ett viktigt verktyg i kampen mot förtryckande regeringar och censur. Tyvärr kan befintliga lösningar, såsom den nu avbrutna TrueCrypt [5], endast försvara mot en motståndare som kan få tillgång till en användares enhet som mest en gång ("single-snapshot motståndare"). Nya lösningar har handlat betydande prestanda overheads för förmågan att hantera mer kraftfulla motståndare som kan komma åt enheten vid flera tidpunkter ("multi-snapshot motståndare"). I detta dokument visar vi att detta offer inte är nödvändigt. Vi introducerar och bygger DataLair 1, en praktisk rimlig förnekelse mekanism. Jämfört med befintliga metoder är DataLair två storleksordningar snabbare för offentliga dataåtkomster och fem gånger snabbare för dolda dataåtkomster. En viktig komponent i DataLair är en ny skrivskyddad ORAM-konstruktion som förbättrar komplexiteten i den moderna skrivskyddade ORAM med en faktor av O(logN ), där N betecknar den underliggande lagringsdiskens storlek. Trolig förnekelse (PD) föreslogs först i samband med förnekande av kryptering [8]. Deniable kryptering använder kryptografiska tekniker för att tillåta avkodning av samma chiffertext till olika enkla texter. Filsystemnivåpolisen. För lagringsanordningar, Anderson et al. först utforskade idén om steganografiska filsystem och föreslog två lösningar för att dölja data i [6]. Den första lösningen är att använda en uppsättning omslagsfiler och deras linjära kombinationer för att rekonstruera dolda filer. Förmågan att korrekt beräkna den linjära kombination som krävs för att rekonstruera en fil baserades på kunskap om ett användardefinierat lösenord. Den andra lösningen var att använda ett hashbaserat system för att lagra filer på platser som bestäms av filnamnets hash. Detta kräver att flera kopior av samma fil lagras på olika platser för att förhindra dataförlust. Macdonald och Kahn [14] utformade och implementerade ett optimerat steganografiskt filsystem för Linux, som härleds från den andra lösningen som föreslås i [6]. Pang m.fl. [17] De tidigare konstruktionerna förbättrades ytterligare genom att man undviker haschkollisioner och effektivare lagring. De lösningar som bygger på steganografiskt filsystem försvarar bara mot en enda snapshot motståndare. Han och Al. [11] utformade ett steganografiskt filsystem som gör det möjligt för flera användare att dela samma dolda fil. Vidare säkerställer omlokalisering av data i körning att en motståndare kan förnekas med flera ögonblicksbilder. Lösningen skalas dock inte väl till praktiska scenarier, eftersom möjligheten att förneka känsliga data tillskrivs samägande. Defy [18] är ett loggstrukturerat filsystem för flash-enheter som erbjuder PD med hjälp av säker radering. Även om Defy skyddar mot en multi-snapshot motståndare, det gör det genom att lagra alla filsystem relaterade metadata i minnet, som inte skalar väl för minne begränsade system med stora externa lagringsenheter. Blockera enhetsnivå PD. På enhetsnivå ger diskkrypteringsverktyg som Truecrypt [5] och Rubberhose [4] förnekelse men kan inte skydda mot en multisnapshot-motståndare. Mobiflage [20] ger också PD för mobila enheter mot en en-snapshot motståndare. Blass m.fl. [7] var de första som behandlade möjligheten att förneka en multisnapshot-motståndare på enhetsnivå. Lösningen i [7] använder en skrivskyddad ORAM för att kartlägga data från logiska volymer till en underliggande lagringsenhet och dölja åtkomstmönster för dolda data inom läsningar till icke dolda (offentliga) data. | Chakraborti m.fl. REF-användning skriver till offentliga data för att dölja åtkomst till dolda data baserat på en annan skrivskyddad ORAM som inte behöver rekursiva kartor. | 3,518,055 | DataLair: Efficient Block Storage with Plausible Deniability against Multi-Snapshot Adversaries | {'venue': None, 'journal': 'Proceedings on Privacy Enhancing Technologies', 'mag_field_of_study': ['Computer Science']} | 80,823 |
Abstract-Genetisk förbättring (GI) använder automatiserad sökning för att hitta förbättrade versioner av befintlig programvara. Vi presenterar en omfattande kartläggning av detta nya forskningsområde med fokus på kärndokumenten inom området som publicerades mellan 1995 och 2015. Vi identifierade centrala publikationer inklusive empiriska studier, av vilka 96% använder evolutionära algoritmer (genetisk programmering i synnerhet). Även om vi kan spåra grunden för GI tillbaka till ursprunget av datavetenskapen själv, vår analys visar en betydande ökning av verksamheten sedan 2012. GI har resulterat i dramatiska prestandaförbättringar för en mängd olika egenskaper som exekveringstid, energi- och minnesförbrukning, samt resultat för att fixera och utöka befintlig systemfunktionalitet. Dessutom presenterar vi exempel på forskningsarbete som ligger på gränsen mellan GI och andra områden, såsom programomvandling, approximativ databehandling och programvarureparation, i syfte att uppmuntra vidare utbyte av idéer mellan forskare inom dessa områden. | Detta arbete med testförstärkning bidrar till området genetisk förbättring (GI) REF. | 30,314,751 | Genetic Improvement of Software: A Comprehensive Survey | {'venue': 'IEEE Transactions on Evolutionary Computation', 'journal': 'IEEE Transactions on Evolutionary Computation', 'mag_field_of_study': ['Computer Science']} | 80,824 |
Tidigare arbete har använt enspråkig parallell corpora för att extrahera och generera parafraser. Vi visar att denna uppgift kan göras med hjälp av tvåspråkig parallellkorpora, en mycket mer allmänt tillgänglig resurs. Med hjälp av anpassningstekniker från frasbaserad statistisk maskinöversättning, visar vi hur parafraser på ett språk kan identifieras med en fras på ett annat språk som en pivot. Vi definierar en parafrassannolikhet som gör det möjligt att rangordna parafraser som hämtats från en tvåspråkig parallellkorpus med hjälp av översättningsannolikhet, och visa hur den kan förfinas för att ta hänsyn till kontextuell information. Vi utvärderar våra parafrasextrahering och rankningsmetoder med hjälp av en uppsättning manuella ordjusteringar, och jämför kvaliteten med parafraser som extraheras från automatiska justeringar. | REF-lärda ordparafraser med hjälp av tvåspråkig parallellkorpora. | 15,728,911 | Paraphrasing With Bilingual Parallel Corpora | {'venue': 'Annual Meeting Of The Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 80,825 |
Åtgärdsförväntningar syftar till att upptäcka en åtgärd innan den inträffar. Många verkliga tillämpningar inom robotik och övervakning är relaterade till denna prediktiva förmåga. Nuvarande metoder tar itu med detta problem genom att först förutse visuella representationer av framtida ramar och sedan kategorisera de förväntade representationerna till åtgärder. Men förväntan bygger på en enda tidigare ram representation, som ignorerar den historiska trenden. Dessutom kan den bara förutse en bestämd framtid. Vi föreslår ett nätverk av förstärkta kodare (RED) för att föregripa åtgärder. RED tar flera historiska representationer som ingång och lär sig att förutse en sekvens av framtida representationer. En framträdande aspekt av RED är att en förstärkning modul antas för att ge sekvensnivå övervakning; belöningsfunktionen är utformad för att uppmuntra systemet att göra korrekta förutsägelser så tidigt som möjligt. Vi testar RED på TVSeries, THUMOS-14 och TV-Human-interaction dataset för att förutse åtgärder och uppnå toppmodern prestanda på alla datauppsättningar. | Gao m.fl. I REF föreslås ett nätverk av förstärkta encoderDecoder (RED) och en förstärkningsförlust för att uppmuntra erkännande av åtgärder så tidigt som möjligt. | 41,037,339 | RED: Reinforced Encoder-Decoder Networks for Action Anticipation | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 80,826 |
Detta dokument är en introduktion till naturligt språk gränssnitt till databaser (Nlidbs). En kort översikt över Nlidbs historia ges först. Några fördelar och nackdelar med Nlidbs diskuteras sedan, jämföra Nlidbs med formella frågespråk, formbaserade gränssnitt och grafiska gränssnitt. En introduktion till några av de språkliga problem som Nlidbs måste ta itu med följer, till förmån för läsare som är mindre förtrogna med beräkningslingvistik. Diskussionen går sedan vidare till Nlidb-arkitekturer, portabilitetsfrågor, begränsade naturliga språkinmatningssystem (inklusive menybaserade Nlidbs) och Nlidbs med resonemangsförmåga. Några mindre utforskade områden av Nlidb forskning presenteras sedan, nämligen databasuppdateringar, meta-kunskap frågor, temporal frågor, och multi-modala Nlidbs. Tidningen avslutas med reflektioner över den aktuella tekniken. Leds de av JLB eller DS? Det förra. Syftet med detta dokument är att fungera som en introduktion till vissa nyckelbegrepp, problem, metoder och forskningslinjer inom området gränssnitt mot databaser i naturligt språk. Detta dokument är inte på något sätt en fullständig diskussion om alla frågor som är relevanta för Nlidbs. Läsaren hänvisas också till [29] och [79] för alternativa undersökningar inom samma område. 1 En detaljerad beskrivning av ett naturligt språk front-end som återspeglar den aktuella tekniken finns i [2] och [3]. Även om dokumentet innehåller tips om befintliga Nlidbs kapacitet, innehåller det inte fullständiga beskrivningar av särskilda system, och inte heller är syftet med detta dokument att jämföra vissa Nlidbs. Detta dokument grundar sig huvudsakligen på information från publicerade dokument. Författarna har inte personlig praktisk erfarenhet av de flesta av Nlidbs som kommer att nämnas. När ett systems funktion nämns innebär detta att de dokument som nämns anger att det särskilda systemet tillhandahåller denna funktion, och det är inte underförstått att andra system inte har liknande kapacitet. Slutligen förutsätter detta dokument att användarens önskemål förmedlas till Nlidb genom att skriva på ett tangentbord. Frågor som rör talbehandling diskuteras inte. I avsnitt 3 behandlas fördelarna och nackdelarna med Nlidbs; i avsnitt 4 presenteras några av de språkliga problem Nlidbs måste hantera; i avsnitt 5 beskrivs arkitekturer som antagits i befintliga Nlidbs; i avsnitt 6 diskuteras portabilitetsfrågor relaterade till Nlidbs; i avsnitt 7 introduceras Nlidbs som uttryckligen begränsar uppsättningen naturliga språkuttryck användaren tillåts att mata in, så att användaren kan få en tydligare bild av vilka typer av frågor systemet kan förstå; i avsnitt 8 beskrivs Nlidbs med resonemangsmoduler; i avsnitt 9 betonas några mindre utforskade områden av Nlidb-forskningen, nämligen databasuppdateringar, meta-kunskapsfrågor, temporalfrågor och multimodala gränssnitt; slutligen sammanfattas det aktuella läget i avsnitt 10. Prototyp Nlidbs hade redan dykt upp i slutet av sextiotalet och början av sjuttiotalet. Den mest kända Nlidb av denna period är Lunar [106], ett naturligt språkgränssnitt till en databas som innehåller kemiska analyser av månsten. Lunar och andra tidiga naturliga språkgränssnitt byggdes var och en med en särskild databas i åtanke, och kunde därför inte lätt ändras för att användas med olika databaser. (Även om de interna representationsmetoder som användes i Lunar hävdades underlätta oberoendet mellan databasen och andra moduler [105], var det sätt på vilket dessa användes något specifikt för projektets behov. Frågor om tillgänglighet diskuteras i avsnitt 6.) I slutet av sjuttiotalet hade flera Nlidbs dykt upp. Rendezvous [27] engagerade användaren i dialoger för att hjälpa honom/henne att formulera sina frågor. Stege [58] kan användas med stora databaser, och den kan konfigureras till gränssnitt mot olika underliggande databashanteringssystem (Dbmss). Stege använde semantisk grammatik (diskuteras i avsnitt 5.3), 1 Avsnitt 4 och 5 påverkades kraftigt av [79]. 2 Avsnitt 2 bygger till stor del på information från [29], [79] och [89]. | De flesta tidiga naturliga språkgränssnitt för relationsdatabaser var begränsade till en enda domän REF. | 3,033,151 | Natural Language Interfaces to Databases - An Introduction | {'venue': 'ArXiv', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 80,827 |
Abstract-Energibesparing optimering blir en av de största problemen i det trådlösa sensornätverket (WSN) routing protokoll design, på grund av det faktum att de flesta sensorn noder är utrustade med den begränsade icke uppladdningsbara batterieffekt. I detta dokument fokuserar vi på att minimera energiförbrukningen och maximera nätverkets livslängd för datarelä i ettdimensionellt (1-D) könät. Enligt principen om opportunistisk routing teori, multihop relä beslut att optimera nätet energieffektivitet görs baserat på skillnaderna mellan sensorn noder, både i fråga om deras avstånd till sjunka och restenergi av varandra. Speciellt är en energibesparingar via opportunistiska routing-algoritm (ENS_OR) utformad för att säkerställa minsta effektkostnad under datareläet och skydda noderna med relativt låg restenergi. Omfattande simuleringar och verkliga testbäddsresultat visar att den föreslagna lösningen ENS_OR avsevärt kan förbättra nätverksprestandan på energibesparing och trådlös anslutning jämfört med andra befintliga WSN routing-system. Index Terms-Energi effektivitet, endimensionell (1-D) kö nätverk, opportunistisk routing, relä nod, trådlöst sensornätverk (WSN). | ENS-OR-algoritmen REF beräknar det optimala humleavståndet för att uppnå bättre nätenergianvändning och längre nätverkslivslängd. | 14,646,317 | Opportunistic Routing Algorithm for Relay Node Selection in Wireless Sensor Networks | {'venue': 'IEEE Transactions on Industrial Informatics', 'journal': 'IEEE Transactions on Industrial Informatics', 'mag_field_of_study': ['Computer Science']} | 80,828 |
ABSTRACT Trådlösa sensornätverk (WSN) distribuerar hundratals till tusentals billiga mikrosensornoder i sina regioner, och dessa noder är viktiga delar av Internet of Things (IoT). I WSN-stödda IoT, noderna är resurs begränsad på många sätt, såsom lagring resurser, datorresurser, energiresurser, och så vidare. Robusta routingprotokoll krävs för att upprätthålla en lång nätverkslivslängd och uppnå högre energianvändning. I detta dokument föreslår vi ett nytt energieffektivt centroidbaserat routingprotokoll (EECRP) för WSN-stödd IoT för att förbättra nätverkets prestanda. Det föreslagna EECRP innehåller tre nyckeldelar: en ny distribuerad klusterbildningsteknik som möjliggör självorganisering av lokala noder, en ny serie algoritmer för att anpassa kluster och rotera klusterhuvudet baserat på centroidpositionen för att jämnt fördela energibelastningen mellan alla sensornoder, och en ny mekanism för att minska energiförbrukningen för fjärrkommunikation. I synnerhet beaktas restenergin från noderna i EECRP för beräkning av centroidernas position. Våra simuleringsresultat visar att EECRP presterar bättre än LEACH, LEACH-C och GEE. Dessutom lämpar sig EECRP för nät som kräver lång livslängd och vars basstation (BS) är belägen i nätet. INDEX TERMS Sakernas Internet, trådlösa sensornätverk, energihantering, kluster. | Det Centroid-baserade Routing Protocol (CBRP) REF föreslog ett energieffektivt data routing protokoll för Internet of Things med hjälp av en sensorenhet för att förbättra den totala nätverksprestandan. | 1,314,700 | An Efficient Centroid-Based Routing Protocol for Energy Management in WSN-Assisted IoT | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 80,829 |
Scenariobaserade specifikationer såsom textsekvensdiagram (MSC) erbjuder ett intuitivt och visuellt sätt att beskriva designkrav. MSC-grafer möjliggör bekvämt uttryck av flera scenarier, och kan ses som en tidig modell av systemet som kan utsättas för en mängd olika analyser. Problem som LTL modellkontroll är obeslutbara för MSC-grafer i allmänhet, men är kända för att vara decidable för klassen av avgränsade MSC-grafer. Vår första uppsättning resultat handlar om att kontrollera realiserbarheten av avgränsade MSC-grafer. En MSC-graf är realizable om det finns en distribuerad implementation som genererar just beteendena i grafen. Det finns två begrepp om genomförbarhet, svag och säker, beroende på om vi kräver att genomförandet ska vara dödlägesfritt eller inte. Det är känt att för en ändlig uppsättning MSC, svag realizability är coNPfullständig medan säker realizability har en polynom-tid lösning. Vi fastslår att för avgränsade MSC-grafer, är svag realiserbarhet, överraskande, obeslutbar, medan säker realiserbarhet är i Expspace. Vår andra uppsättning resultat gäller verifiering av MSC-grafer. Vid kontroll av egenskaperna hos en graf G, förutom att kontrollera alla scenarier i uppsättningen L(G) av MSC som anges av G, är det önskvärt att kontrollera alla scenarier i uppsättningen L w (G) - stängningen av G, som innehåller de underförstådda scenarier som ett distribuerat genomförande av G måste innehålla. För att kontrollera om en given MSC M är ett möjligt beteende, att kontrollera M och L (G) är NP-komplett, men att kontrollera M för L w (G) har en kvadratisk lösning. För tidslogik specifikationer, med tanke på stängningen gör verifieringsproblemet svårare: medan kontrollera LTL egenskaper L(G) är Pspace-komplett för avgränsade grafer G, att kontrollera även enkla "lokala" egenskaper L w (G) är oavgjort. | Referensreferensreferensen är det seminala arbete som först övervägde realiserbarheten av samlingar av MSC. | 11,472,766 | Realizability and Verification of MSC-Graphs | {'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science']} | 80,830 |
Grafer används ofta för att modellera verkliga objekt och deras relationer, och stora grafdatauppsättningar är vanliga inom många tillämpningsområden. För att förstå de underliggande egenskaperna hos stora grafer, grafsammanfattning tekniker är kritiska. Befintliga grafsammanfattningsmetoder är dock främst statistiska (studiestatistik såsom gradfördelningar, humleplot och klusterkoefficienter). Dessa statistiska metoder är mycket användbara, men besluten i sammanfattningarna är svåra att kontrollera. I det här dokumentet introducerar vi två databasliknande operationer för att sammanfatta grafer. Liksom OLAP-stilen aggregeringsmetoder som gör det möjligt för användare att borra ner eller rulla upp för att styra upplösningen av summering, våra metoder ger en analog funktionalitet för stora grafdataset. Den första åtgärden, kallad SNAP, producerar en sammanfattande graf genom att gruppera noder baserat på användarvalda nodattribut och relationer. Den andra operationen, som kallas k-SNAP, gör det dessutom möjligt för användare att kontrollera upplösningar av sammanfattningar och ger "borra ner" och "roll-up" förmåga att navigera genom sammanfattningar med olika upplösningar. Vi föreslår en effektiv algoritm för att utvärdera SNAP-operationen. Dessutom bevisar vi att k-SNAP-beräkningen är NPfullständig. Vi föreslår två heuristiska metoder för att approximera k-SNAP-resultaten. Genom omfattande experiment på en mängd olika verkliga och syntetiska datauppsättningar visar vi hur effektiva och effektiva de föreslagna metoderna är. | Å andra sidan, Tian et al. REF föreslog OLAP-liknande aggregeringsmetoder för att sammanfatta stora grafer genom att gruppera noder baserade på användarvalda attribut och relationer. | 15,850,185 | Efficient aggregation for graph summarization | {'venue': 'SIGMOD Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 80,831 |
Med den senaste tidens framsteg i grafik, har det blivit mer dragbart att träna modeller på syntetiska bilder, potentiellt undvika behovet av dyra kommentarer. Att lära sig av syntetiska bilder kan dock inte uppnå önskad prestanda på grund av ett gap mellan syntetiska och verkliga bilddistributioner. För att minska detta gap föreslår vi Simulated+Oövervakad (S+U) inlärning, där uppgiften är att lära sig en modell för att förbättra realismen i en simulators utdata med hjälp av omärkta verkliga data, samtidigt som annotationsinformationen från simulatorn bevaras. Vi utvecklar en metod för S+U-inlärning som använder ett kontradiktoriskt nätverk som liknar Generative Adversarial Networks (GANS), men med syntetiska bilder som ingångar istället för slumpmässiga vektorer. Vi gör flera viktiga ändringar i standarden GAN algoritm för att bevara kommentarer, undvika artefakter, och stabilisera utbildning: (i) en "självreglering" term, (ii) en lokal kontrarimal förlust, och (iii) uppdatera discriminator med hjälp av en historia av förfinade bilder. Vi visar att detta möjliggör generering av mycket realistiska bilder, som vi demonstrerar både kvalitativt och med en användarstudie. Vi utvärderar kvantitativt de bilder som genereras av träningsmodeller för blickuppskattning och handuppskattning. Vi visar en betydande förbättring jämfört med att använda syntetiska bilder, och uppnå state-of-the-art resultat på MPIIGaze dataset utan någon märkt verkliga data. | Generering av realistiska syntetiska bilder är ett aktivt forskningsämne och REF har föreslagit en metod baserad på ett kontradiktoriskt nätverk för att förbättra realismen hos simulerade bilder med hjälp av omärkta verkliga data. | 8,229,065 | Learning from Simulated and Unsupervised Images through Adversarial Training | {'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 80,832 |
Hur kan vi lokalisera källan till diffusion i ett komplext nätverk? På grund av den enorma storleken på många verkliga nätverk-såsom Internet eller den mänskliga sociala grafen-det är vanligtvis omöjligt att observera tillståndet för alla noder i ett nätverk. Vi visar att det i grunden är möjligt att uppskatta källans läge från mätningar som samlats in av glest placerade observatörer. Vi presenterar en strategi som är optimal för godtyckliga träd, uppnå maximal sannolikhet för korrekt lokalisering. Vi beskriver effektiva implementeringar med komplexitet O(N α ), där α = 1 för godtyckliga träd, och α = 3 för godtyckliga grafer. I samband med flera fallstudier bestämmer vi hur lokaliseringsnoggrannheten påverkas av olika systemparametrar, inklusive nätverkets struktur, observatörernas densitet och antalet observerade kaskader. Att lokalisera källan till ett smittämne eller ett virus är en mycket önskvärd men utmanande uppgift. I naturen är många djur i sig kapabla att utföra källlokalisering. Genom cytostatika, till exempel, vissa bakterier kan analysera koncentrationsgradienter runt dem för att snabbt gå mot källan till ett näringsämne, eller snabbt undvika källan till ett gift [1, 2]. Djur som Stillahavslaxen och de gröna havssköldpaddorna kan använda olfaction för att navigera i luktplymer, för födosök eller fortplantning [3, 4]. I vissa system måste emellertid uppgiften att lokalisera källan utföras i ett nätverk snarare än i det kontinuerliga utrymmet. Så är till exempel fallet när en infektionssjukdom sprids genom människor över en stor region, vilket konstaterades i samband med den världsomspännande H1N1-viruspandemin 2009. Här är systemet mer bekvämt modellerat som ett nätverk av sammankopplade människor, och källlokalisering minskar till att identifiera vilken person i nätverket först smittades. Under de senaste åren har det gjorts betydande ansträngningar för att studera dynamiken i epidemiutbrott på nätverk [5] [6] [7] [7] [8] [9] [10] [11]. I synnerhet har fokus legat på det framtida problemet med epidemier: att förstå spridningsprocessen och dess beroende av antalet infektioner och botemedel samt nätverkets struktur. I detta brev fokuserar vi på det omvända problemet med att härleda den ursprungliga källan till diffusion, med tanke på infektionsdata som samlats in vid några av noderna i nätverket. Förmågan att uppskatta källan är ovärderlig när det gäller att hjälpa myndigheterna att begränsa epidemin eller kontaminationen. I detta sammanhang studerades slutsatsen av det underliggande förökningsnätverket i [12], medan slutsatsen av den okända källan analyserades i [13], i båda fallen förutsatt att vi vet tillståndet för alla noder i nätverket. På senare tid har kontrollmöjligheterna för komplexa nätverk beaktats i [14], med hjälp av lämpligt utvalda förarnoder. Här är vårt mål att lokalisera källan till diffusion under den praktiska begränsningen att endast en liten del av noderna kan observeras. Så är till exempel fallet när man lokaliserar en spammare som skickar oönskade e-postmeddelanden över Internet, där det helt klart är omöjligt att övervaka alla noder. Därför är den största svårigheten att utveckla dragbara skattningar som kan genomföras effektivt (dvs. med subexponentiell komplexitet), och att källuppskattning på en godtycklig graf G. Vid den okända tiden t = t *, informationskällan s * initierar diffusionen. De blå kanterna betecknar de över vilka informationen redan har spridit sig. I detta exempel finns det tre observatörer, som mäter från vilka grannar och vid vilken tidpunkt de fick informationen. Målet är att utifrån dessa observationer uppskatta vilken nod i G som är informationskällan. prestera bra på flera topologier. Vi introducerar först vår nätverksmodell. Det underliggande nätverket på vilket diffusion äger rum är modellerat av en ändlig, oriktad graf G = {V, E}, där vertex uppsättning V har N noder, och kanten uppsättning E har L kanter (Fig. 1).................................................................. Grafen G antas vara känd, åtminstone ungefärligt, vilket ofta bekräftas i praktiken, t.ex. rykten som sprider sig i ett socialt nätverk, eller elektriska störningar som sprider sig på elnätet. Informationskällan, s * på G, är den vertex som ger upphov till informationen och initierar diffusionen. Vi modellerar s * som en slumpmässig variabel (RV) vars tidigare distribution är enhetlig över den inställda V, dvs., någon nod i nätverket är lika sannolikt att vara källan a priori. Spridningsprocessen är modellerad enligt följande. Vid tidpunkten t, varje vertex u på G har en av två möjliga stater: i) informerade, om den redan har fått informationen från någon granne, eller ii) okunniga, om den inte har informerats hittills. Låt V(u) betecknar uppsättningen hörn direkt ansluten till u, dvs, grannskapet eller närheten av u. Antag att u är i okunnigt tillstånd och, vid tiden t u, får informationen för första gången från en granne-säga, s-därmed bli informerad. Och sen... | Men, REF antar att för var och en av dessa observerade noder, vi vet infektionstiden för den noden, och från vilken angränsande nod infektionen kommer. | 14,526,887 | Locating the Source of Diffusion in Large-Scale Networks | {'venue': 'Physical review letters', 'journal': 'Physical review letters', 'mag_field_of_study': ['Physics', 'Medicine', 'Computer Science']} | 80,833 |
Word sense induktion syftar till att upptäcka olika sinnen av ett ord från en corpus genom att använda oövervakade lärande metoder. När en sense-inventering har erhållits för ett tvetydigt ord väljer ordet sense-diskriminering den bäst lämpade enskilda känslan för ett givet sammanhang från den inducerade sense-inventeringen. Men det kanske inte finns någon tydlig skillnad mellan en känsla och en annan, även om mer än en framkallad känsla kan vara lämplig för ett sammanhang. Graderad ordförnimmelse metod gör det möjligt att märka ett ord i mer än en betydelse. I motsats till den vanligaste metoden som är att tillämpa klusterbildning eller grafpartitionering på en representation av första eller andra ordningens samtidiga förekomster av ett ord, föreslår vi ett system som skapar en ersättande vektor för varje målord från de mest sannolika substitut som föreslås av en statistisk språkmodell. Ordprover tas sedan enligt sannolikheterna för dessa substitut och resultaten av co-occurrence-modellen samlas. Detta tillvägagångssätt överträffar de andra systemen på graderade word sense induktion uppgift i SemEval-2013. | REF representerar sammanhanget för varje tvetydigt ord genom att använda de mest sannolika ersättningarna enligt en 4-grams LM. | 1,990,867 | AI-KU: Using Substitute Vectors and Co-Occurrence Modeling For Word Sense Induction and Disambiguation | {'venue': '*SEM', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 80,834 |
Abstrakt. Interaktionen mellan att samtidigt utföra trådar av ett program resulterar i försåtliga programmeringsfel som är svåra att reproducera och fixa. Tyvärr är problemet med att verifiera ett samtidigt booleskt program obeslutsamt [24]. I detta dokument bevisar vi att problemet är avgörande, även i närvaro av obunden parallellism, om analysen begränsas till avrättningar där antalet sammanhangsbyten begränsas av en godtycklig konstant. Att begränsa analysen till utföranden med ett begränsat antal sammanhangsbrytare är osundt. Analysen kan dock fortfarande upptäcka invecklade fel och ljuder upp till gränsen eftersom en tråd i varje sammanhang är helt utforskad för obundet stackdjup. Vi presenterar en analys av ett verkligt samtidigt system av Zing-modellen checker som visar att förmågan att modellera kontrollera med godtyckliga men fasta sammanhang bundna i närvaro av obegränsad parallellism är värdefullt i praktiken. Implementering av kontextbunden modellkontroll i zing är kvar för framtida arbete. | Medan arbetet i REF begränsar antalet sammanhangsbyten. | 6,828,853 | Context-bounded model checking of concurrent software | {'venue': 'In TACAS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 80,835 |
Hastighetsförvrängningsfunktionen för källkodning med sidoinformation vid dekoder (problemet \Wyner-Ziv") ges i form av en extra slumpmässig variabel, som bildar en Markov-kedja med källan och sidoinformationen. Denna Markov-kedjestruktur, som är typisk för lösningen av problem med kodning av multiterminalkällor, motsvarar en förlust i kodningsfrekvensen med avseende på den villkorliga funktion för förvrängning av hastigheten, dvs. det fall där kodaren är fullt informerad. Vi visar att för dierens (eller balanserade) förvrängningsåtgärder begränsas denna förlust av en universell konstant, vilket är minimax-kapaciteten hos en lämplig additiv bruskanal. Dessutom är denna förlust i värsta fall lika med den maximala redundansen över hastighetsstörningsfunktionen hos kanalen för additivt buller \test". Till exempel är förlusten i Wyner-Ziv problemet mindre än 0:5 bit per prov i kvadrat-terror distorsion fall, och det är mindre än 0:22 bitar för en binär källa med Hamming-avstånd. Dessa resultat har också implikationer i universell kvantifiering med sidoinformation, och i mer allmänna multiterminala källkodsproblem. | Ränteförlusten i WynerZiv-problemet visade sig begränsas av en konstant i REF. | 17,797,591 | The Rate Loss in the Wyner-Ziv Problem | {'venue': 'IEEE Trans. Inform. Theory', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 80,836 |
Många djupa neurala nätverk tränas på naturliga bilder uppvisar ett märkligt fenomen gemensamt: på det första lagret de lär sig funktioner som liknar Gabor filter och färg blobs. Sådana första lager funktioner verkar inte vara specifika för en viss datauppsättning eller uppgift, men allmänt i det att de är tillämpliga på många datauppsättningar och uppgifter. Funktionerna måste så småningom övergå från allmän till specifik av det sista skiktet av nätverket, men denna övergång har inte studerats i stor utsträckning. I detta papper kvantifierar vi experimentellt generalitet kontra specificitet av neuroner i varje lager av ett djupt konvolutionellt neuralt nätverk och rapporterar några överraskande resultat. Överförbarheten påverkas negativt av två olika problem: (1) specialiseringen av högre lagerneuroner till deras ursprungliga uppgift på bekostnad av prestanda på måluppgiften, vilket förväntades, och (2) optimering svårigheter relaterade till delning av nätverk mellan co-anpassade neuroner, som inte förväntades. I ett exempel nätverk tränas på ImageNet, visar vi att någon av dessa två frågor kan dominera, beroende på om funktioner överförs från botten, mitten eller toppen av nätverket. Vi dokumenterar också att överförbarheten av funktioner minskar när avståndet mellan basuppgiften och måluppgiften ökar, men att överföra funktioner även från avlägsna uppgifter kan vara bättre än att använda slumpmässiga funktioner. Ett sista överraskande resultat är att initiering av ett nätverk med överförda funktioner från nästan alla lager kan ge en boost till generalisering som dröjer även efter finjustering till målet dataset. | För att förstå om en funktion kan överföras till målnätverket, Yosinki et al. REF kvantifierade överförbarheten av funktioner från varje lager med hänsyn till resultatvinsten. | 362,467 | How transferable are features in deep neural networks? | {'venue': 'Advances in Neural Information Processing Systems 27, pages 3320-3328. Dec. 2014', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 80,837 |
Särskilda nätverk för fordon har nyligen föreslagits som ett effektivt verktyg för att förbättra både trafiksäkerheten och komforten under körning. Fordon kan sprida information om potentiellt farliga händelser, t.ex. körfältsförändringar eller plötsliga avmattningar till fordon i deras närhet. Dessutom kan de informera fordon som närmar sig från andra områden om olyckor och eventuella trafikstockningar. I båda fallen måste uppgifterna föras till särskilda områden, längs vägar som bestäms av de underliggande trafikförhållandena. I detta dokument föreslår vi en ny strategi för att ta itu med detta routingproblem. För det första definierar vi en meddelandeutbredningsfunktion som kodar information om både målområden och föredragna rutter. För det andra visar vi hur denna funktion kan utnyttjas i flera routingprotokoll, och slutligen utvärderar vi effektiviteten i vår strategi genom simulering. Resultaten belyser den goda prestandan i vår routing strategi i glesa såväl som i täta nätverk. | I REF styrs larm- eller varningsmeddelanden mot målområden med hjälp av en spridningsfunktion som kodar för målområdena samt de vägar som ska följas. | 1,815,520 | Towards lightweight information dissemination in inter-vehicular networks | {'venue': "VANET '06", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 80,838 |
Abstrakt. Taxonomisk kunskap ger varje organismgrupp ett vetenskapligt namn och är därför oumbärlig information för att förstå den biologiska mångfalden. De olika perspektiven på klassificering av organismer och förändringar i taxonomisk kunskap har dock lett till inkonsekventa klassificeringsuppgifter mellan olika databaser och databaser. För att få en exakt förståelse för taxonomi måste man integrera relevanta data i taxonomiska databaser. Detta är svårt att fastställa på grund av tvetydigheten i tolkningen av taxonomin. De flesta forskare i tidigare skeden använde tekniken Linked Open Data (LOD) för att etablera länkar i taxonomiövergång. De förbisåg dock taxas tidsmässiga representation och underliggande kunskap om förändringen i taxonomi, så det är svårt för inlärare att få perspektiv på hur vissa identifierare av taxa är kopplade. I detta syfte syftar denna forskning till att utveckla en modell för att presentera och bevara förändringen i taxonomisk kunskap i ramen för resursbeskrivning (RDF). Den föreslagna modellen drar särskilt nytta av att koppla samman Internetresurser som representerar taxa, presentera historisk information om taxa och bevara bakgrundskunskapen om förändringen av taxonomisk kunskap för att möjliggöra en bättre förståelse av organismer. Vi implementerar en prototyp för att visa genomförbarheten och prestandan i vår strategi. Resultaten visar att den föreslagna modellen kan hantera olika praktiska fall av förändringar i taxonomiska verk och ger öppen och korrekt tillgång till länkade data för biologisk mångfald. | Rathachari m.fl. I Ref föreslogs en modell som underlättar förståelsen av organismer. | 33,662,828 | Presenting and preserving the change in taxonomic knowledge for linked data | {'venue': 'Semantic Web', 'journal': 'Semantic Web', 'mag_field_of_study': ['Philosophy', 'Computer Science']} | 80,839 |
Att utföra affärsprocessanalys i hälso- och sjukvårdsorganisationer är särskilt svårt på grund av den högdynamiska, komplexa, ad-hoc och tvärvetenskapliga karaktären av vårdprocesser. Processbrytning är ett lovande tillvägagångssätt för att få en bättre förståelse för dessa processer genom att analysera händelsedata som registrerats i hälso- och sjukvårdsinformationssystem. Det är dock inte alla processbrytningstekniker som fungerar bra när det gäller att fånga de kliniska arbetsflödenas komplexa och ad-hoc-karaktär. I detta arbete introducerar vi en metod för tillämpning av processbrytningstekniker som leder till identifiering av regelbundet beteende, processvarianter och exceptionella medicinska fall. Tillvägagångssättet visas i en fallstudie som utförs vid en akutmottagning på sjukhus. För detta ändamål implementerade vi metoden i ett verktyg som integrerar de viktigaste stegen i processanalysen. Verktyget är specifikt för fallstudien, men samma metod kan användas i andra vårdmiljöer. | I REF föreslås en metod baserad på processbrytning för att göra affärsprocessanalys i vårdmiljöer för att identifiera regelbundet beteende, processvarianter och exceptionella medicinska fall. | 8,203,798 | Business Process Analysis in Healthcare Environments: a Methodology based on Process Mining | {'venue': 'Inf. Syst.', 'journal': 'Inf. Syst.', 'mag_field_of_study': ['Computer Science']} | 80,840 |
3D FC-CRF Raw 3D Point Cloud Voxelized Point Cloud Voxel Förutsägelser säng väggbild golv lampa kudde Trilinear Interpolation 3D Point Segmentation Point Cloud Uniaries 3D FCNN Förbearbetning Figur 1: SEGCloud: En 3D-punkt moln är voxelized och matas genom en 3D helt konvolutional neurala nätverk för att producera grov ned sampled voxel etiketter. Ett trilinjärt interpoleringsskikt överför denna grova utmatning från voxels tillbaka till den ursprungliga 3D-punktsrepresentationen. De erhållna 3D-poängpoängen används för att dra slutsatsen i 3D:s fullt anslutna CRF för att producera slutresultatet. Vårt ramverk är utbildat från början till slut. Abstract 3D semantisk scenmärkning är grundläggande för agenter som verkar i den verkliga världen. I synnerhet, märkning rå 3D-punktsset från sensorer ger finkornig semantik. Nya arbeten utnyttjar Neural Networks kapacitet (NN), men är begränsade till grova voxel förutsägelser och inte uttryckligen genomdriva global konsekvens. Vi presenterar SEG-Cloud, en end-to-end ram för att få 3D-punkt-nivå segmentering som kombinerar fördelarna med NNs, trilinear interpolation (TI) och fullt anslutna villkorliga Random Fields (FC-CRF). Coarse voxel förutsägelser från en 3D Fully Convolutional NN överförs tillbaka till råa 3D-punkter via trilinjär interpolation. Därefter upprätthåller FC-CRF global konsekvens och ger finkornig semantik på punkterna. Vi implementerar det senare som en differentiable Recurrent NN för att möjliggöra gemensam optimering. Vi utvärderar ramverket på två 3D-dataset inomhus och utomhus (NYU V2, S3DIS, KITTI, Semantic3D.net) och visar prestanda jämförbar eller överlägsen den senaste tekniken på alla dataset. | Hybridmetoder som SEGCloud REF förvandlar punktmolnen till volymer för förutsägelse med ett neuralt nätverk och sprider sedan resultaten tillbaka till det ursprungliga punktmolnet. | 30,687,430 | SEGCloud: Semantic Segmentation of 3D Point Clouds | {'venue': '2017 International Conference on 3D Vision (3DV)', 'journal': '2017 International Conference on 3D Vision (3DV)', 'mag_field_of_study': ['Computer Science']} | 80,841 |
De flesta befintliga forskning anser homogena sensornätverk, som lider av prestanda flaskhals och dålig skalbarhet. I detta dokument antar vi en heterogen sensornätverksmodell för att lösa dessa problem. Sensing täckning är ett grundläggande problem i sensornätverk och har studerats väl under de senaste åren. De flesta täckningsalgoritmer tar dock bara hänsyn till det enhetliga täckningsproblemet, det vill säga alla områden har samma täckningsgradskrav. I många scenarier behöver vissa nyckelområden hög täckningsgrad, medan andra områden bara behöver låg täckningsgrad. Vi föreslår en differentierad täckningsalgoritm som kan ge olika täckningsgrader för olika områden. Algoritmen är energieffektiv eftersom den bara håller minsta antal sensorer för att fungera. Den differentierade täckningsalgoritmens prestanda utvärderas genom omfattande simuleringsförsök. Våra resultat visar att algoritmen presterar mycket bättre än någon annan differentierad täckningsalgoritm. | Du och Lin REF föreslog en differentierad täckningsalgoritm som kan ge olika täckningsgrader för olika områden. | 3,243,776 | Maintaining Differentiated Coverage in Heterogeneous Sensor Networks | {'venue': None, 'journal': 'EURASIP Journal on Wireless Communications and Networking', 'mag_field_of_study': ['Computer Science']} | 80,842 |
Abstract-I detta dokument, en ny multihop virtuell multi-input-multiple-output (MIMO) kommunikationsprotokoll föreslås av cross-layer design för att gemensamt förbättra energieffektivitet, tillförlitlighet och end-to-end (ETE) QoS provisioning i trådlöst sensornätverk (WSN). I protokollet utvidgas det traditionella protokollet om en adaptiv klusterhierarki med låg energinivå genom att man införlivar de kooperativa MIMO-kommunikations-, multihop-routing- och hop-by-hop-återhämtningssystemen. Baserat på protokollet är den totala energiförbrukningen per paketöverföring modellerad och den optimala uppsättningen överföringsparametrar hittas. Därefter övervägs frågorna om ETE QoS tillhandahållande av protokollet. ETE latency och genomströmning av protokollet är modellerade i termer av bit-terror-rate (Ber) prestanda för varje länk. Därefter utvecklas en icke-linjär begränsad programmeringsmodell för att hitta den optimala BER-prestandan för varje länk för att uppfylla ETE QoS-kraven med en minsta energiförbrukning. Partikelsvärmens optimeringsalgoritm (PSO) används för att lösa problemet. Simuleringsresultat visar hur effektivt det föreslagna protokollet är när det gäller energibesparing och QoS-försörjning. Index Terms-Cross-layer design, energieffektivitet, QoS avsättning, tillförlitlighet, virtuell multi-input-multiple-output (MIMO), trådlöst sensornätverk (WSN). | Yuan m.fl. REF utvecklade en multi-hop virtuell multi-input-multiple-output (VMIMO)-baserad cross-layer routing protokoll design som ökar energieffektivitet, tillförlitlighet och end-to-end QoS tillhandahållande över WSNs. | 9,968,621 | Virtual MIMO-based cross-layer design for wireless sensor networks | {'venue': 'IEEE Transactions on Vehicular Technology', 'journal': 'IEEE Transactions on Vehicular Technology', 'mag_field_of_study': ['Computer Science']} | 80,843 |
Abstract-In cloud computing är sökbart krypteringssystem över outsourcade data ett hett forskningsområde. Men de flesta befintliga verk på krypterad sökning över outsourcade molndata följer modellen av "en storlek passar alla" och ignorerar personlig sökning avsikt. Dessutom stöder de flesta av dem endast exakt sökordssökning, vilket i hög grad påverkar data användbarhet och användarupplevelse. Så hur man utformar ett sökbart krypteringssystem som stöder personlig sökning och förbättrar användarens sökupplevelse förblir en mycket utmanande uppgift. I detta papper, för första gången, studerar och lösa problemet med personlig multi-keyword rankad sökning över krypterade data (PRSE) samtidigt som integritet i molndata. Med hjälp av semantisk ontologi WordNet bygger vi en användarintressemodell för enskilda användare genom att analysera användarens sökhistorik och anta en poängsättningsmekanism för att uttrycka användarens intresse på ett smart sätt. För att ta itu med begränsningarna i modellen med "en storlek passar alla" och nyckelord exakt sökning, föreslår vi två PRSE system för olika sökning intentioner. Omfattande experiment på verkliga dataset validerar vår analys och visar att vår föreslagna lösning är mycket effektiv och effektiv. | I REF föreslås ett kontrollerbart söksystem för mångfaldsrankning över krypterade utkontrakterade data. | 7,147,132 | Enabling Personalized Search over Encrypted Outsourced Data with Efficiency Improvement | {'venue': 'IEEE Transactions on Parallel and Distributed Systems', 'journal': 'IEEE Transactions on Parallel and Distributed Systems', 'mag_field_of_study': ['Computer Science']} | 80,844 |
Lasso är en attraktiv teknik för legalisering och variabelt urval av högdimensionella data, där antalet prediktorvariabler pn är potentiellt mycket större än antalet prover n. Emellertid upptäcktes det nyligen att gleshetsmönstret hos Lasso-skattaren endast kan vara asymptotiskt identiskt med det sanna sparhetsmönstret om designmatrisen uppfyller det så kallade orepresenterbara tillståndet. Det senare villkoret kan lätt brytas i närvaro av mycket korrelerade variabler. Här undersöker vi Lassoskattarnas beteende om det oersättliga tillståndet är avslappnat. Även om Lasso inte kan återställa den korrekta sparity mönster, visar vi att uppskattningen är fortfarande konsekvent i l2-norm känsla för fasta konstruktioner under förhållanden på (a) antalet sn av nonzero komponenter i vektorn βn och (b) minimala singular värden av designmatriser som induceras genom att välja små undergrupper av variabler. Dessutom erhålls ett konvergensresultat på l2-felet med ett lämpligt val av utjämningsparameter. Hastigheten visas vara optimal under villkor av avgränsade maximala och minimala glesa eigenvärden. Våra resultat innebär att alla viktiga variabler väljs ut med stor sannolikhet. Den uppsättning utvalda variabler är en meningsfull minskning av den ursprungliga uppsättningen variabler. Slutligen illustreras våra resultat med upptäckten av närliggande frekvenser, ett problem inom astrofysiken. | Enligt ett avslappnat "osammanhängande design" antagande, REF visar att estimatorn fortfarande är konsekvent i l 2 -norm känsla för fasta konstruktioner, och dessutom är det möjligt att göra hård-threshold på den vanliga Lasso estimator för att uppnå variabel urvalskonsistens. | 9,212,916 | Lasso-type recovery of sparse representations for high-dimensional data | {'venue': 'Annals of Statistics 2009, Vol. 37, No. 1, 246-270', 'journal': None, 'mag_field_of_study': ['Mathematics']} | 80,845 |
Vi presenterar ett nytt system, Genesis, som bearbetar mänskliga fläckar för att automatiskt infer kod transformeras för automatisk patchgenerering. Vi presenterar resultat som kännetecknar effektiviteten av Genesis inference algoritmer och det kompletta Genesis lappgenereringssystem som arbetar med verkliga fläckar och defekter som samlats in från 372 Java projekt. Såvitt vi vet, Genesis är det första systemet att automatiskt sluta patch generation omvandlar eller kandidat patch sökplatser från tidigare framgångsrika patcher. • Programvara och dess konstruktion → Automatisk programmering; Testning och felsökning av programvara; | De föreslog vidare ett nytt system, Genesis REF, som automatiskt kan sluta patch generation omvandlar från utvecklare inlämnade patchar för program reparation. | 11,847,452 | Automatic inference of code transforms for patch generation | {'venue': 'ESEC/FSE 2017', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 80,846 |
Flera varianter av Long Short-Term Memory (LSTM) arkitektur för återkommande neurala nätverk har föreslagits sedan starten 1995. Under de senaste åren har dessa nätverk blivit toppmoderna modeller för en mängd olika maskininlärningsproblem. Detta har lett till ett förnyat intresse för att förstå roll och nytta av olika beräkningskomponenter i typiska LSTM-varianter. I den här artikeln presenterar vi den första storskaliga analysen av åtta LSTM-varianter på tre representativa uppgifter: taligenkänning, handstilsigenkänning och polyfonisk musikmodellering. Hyperparametrarna för alla LSTM-varianter för varje uppgift optimerades separat med hjälp av slumpmässig sökning och deras betydelse bedömdes med hjälp av det kraftfulla FANOVA-ramverket. Totalt summerar vi resultaten av 5400 experimentkörningar (15 års CPU-tid), vilket gör vår studie till den största i sitt slag på LSTM-nätverk. Våra resultat visar att ingen av varianterna kan förbättras på standard LSTM-arkitekturen avsevärt, och visar att den glömda porten och utmatningsfunktionen är dess mest kritiska komponenter. Vi observerar vidare att de studerade hyperparametrarna är praktiskt taget oberoende och härleder riktlinjer för deras effektiva justering. | Intressant nog tyder resultaten i REF på att ingen av varianterna avsevärt förbättrar standarden LSTM. | 3,356,463 | LSTM: A Search Space Odyssey | {'venue': 'IEEE Transactions on Neural Networks and Learning Systems ( Volume: 28, Issue: 10, Oct. 2017 ) Pages: 2222 - 2232', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Medicine']} | 80,847 |
Abstrakt. Denna uppsats beskriver den teoretiska bakgrunden och genomförandet av dbrec, ett musikrekommendationssystem byggt ovanpå DBpedia, som erbjuder rekommendationer för mer än 39 000 band och soloartister. Vi diskuterar de olika utmaningar och lärdomar som dragits när vi bygger den, vilket ger relevanta insikter för människor som utvecklar applikationer som konsumerar länkad data. Dessutom ger vi en användarcentrerad utvärdering av systemet, särskilt genom att jämföra det med last.fm. | REF utvecklade dbrec – ett system byggt på DBpedia som beräknar semantiska avstånd mellan koncept för att rekommendera relaterade musikband och soloartister. | 17,614,355 | dbrec — Music Recommendations Using DBpedia | {'venue': 'International Semantic Web Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 80,848 |
Grafiska användargränssnitt (GUI) är viktiga komponenter i dagens programvara. Eftersom grafiska gränssnitt har andra egenskaper än traditionell programvara, konventionella testtekniker inte gäller för grafiska gränssnitt programvara. I tidigare arbete presenterade vi en metod för att generera GUI-testfall, som tar formen av sekvenser av åtgärder. I detta papper utvecklar vi en test oracle teknik för att avgöra om ett grafiskt gränssnitt beter sig som förväntat för ett givet test fall. Vårt orakel använder en formell modell av ett grafiskt gränssnitt, uttryckt som uppsättningar av objekt, objektegenskaper och handlingar. Med tanke på den formella modellen och ett testfall får vårt orakel automatiskt det förväntade tillståndet för varje åtgärd i testfallet. Vi representerar det faktiska tillståndet för ett verkställande grafiskt gränssnitt när det gäller objekt och deras egenskaper som härrör från det grafiska gränssnittets utförande. Med hjälp av det faktiska tillstånd som förvärvats från en exekveringsövervakare, jämför vårt oraklet automatiskt de förväntade och faktiska tillstånden efter varje åtgärd för att verifiera riktigheten av det grafiska gränssnittet för testfallet. Vi implementerade oraklet som en komponent i vårt GUI testsystem, som kallas Planning Assisted Tester för grapHical user interface.Systems (PATHS), som bygger på AI planering. Vi experimentellt utvärderat praktiskheten och effektiviteten av vår orakle teknik och rapportera om resultaten av experiment för att testa och verifiera beteendet hos vår version av Microsoft WordPad's GUI. | Memon och kollegor REF använder en testspecifikation av interna objektinteraktioner som ett sätt att upptäcka inkonsekvenser mellan testspecifikationen och den resulterande händelsesekvensen för varje testfall. | 2,786,937 | Automated test oracles for GUIs | {'venue': "SIGSOFT '00/FSE-8", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 80,849 |
ABSTRACT Detta dokument presenterar ett optimeringsramverk för att maximera livslängden för trådlösa sensornätverk för strukturell hälsoövervakning med och utan energiupptagning. Vi utvecklar en matematisk modell och formulerar problemet som ett storskaligt blandat heltal icke-linjärt programmeringsproblem. Vi föreslår också en lösning baserad på algoritmen Branch-and-Bound förstärkt med att minska sökutrymmet. Den föreslagna strategin bygger upp den optimala rutten från varje källa till diskbänksnoden genom att tillhandahålla den bästa uppsättningen humle i varje rutt och den optimala krafttilldelningen för varje sensornod. För att minska komplexiteten föreslår vi heuristiska routingalgoritmer. I denna heuristiska algoritm, de effektnivåer väljs från de optimala fördefinierade värden, är problemet formuleras av ett heltal icke-linjär programmering, och Branch-and-Bound reducerad utrymme algoritm används för att lösa problemet. Dessutom föreslår vi två suboptimala algoritmer för att minska beräknings komplexiteten. I den första algoritmen, efter att ha valt den optimala överföring effektnivåer från ett fördefinierat värde, en genetisk algoritm används för att lösa heltal icke-linjärt problem. I den andra suboptimala algoritmen löser vi problemet genom att frikoppla det optimala kraftfördelningssystemet från det optimala valet av rutt. Därför är problemet formuleras av ett heltal icke-linjär programmering, som löses med hjälp av Branch-and-Bound rumsreducerad metod med reducerade binära variabler (dvs. minskad komplexitet), och efter det optimala valet av rutt, den optimala effekten tilldelas för varje nod. De numeriska resultaten visar att den presenterade algoritmen kan förlänga nätverkets livslängd betydligt jämfört med de befintliga systemen. Dessutom formulerar vi matematiskt den adaptiva perioden för energiupptagning för att öka nätverkets livslängd med möjlighet att närma sig oändligheten. Slutligen erhålls den minsta skördeperioden för att ha obegränsad livstid. INDEX TERMS Strukturell hälsoövervakning, trådlösa sensornätverk, nätverkets livslängd, energiupptagning. | Arbetet i REF ) presenterar en ram för att maximera livslängden för WSN för strukturell hälsoövervakning med och utan energiupptagning. | 26,775,310 | Maximizing Lifetime in Wireless Sensor Network for Structural Health Monitoring With and Without Energy Harvesting | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 80,850 |
Många språk använder hedersbetygelser för att uttrycka artighet, socialt avstånd eller den relativa sociala statusen mellan talaren och deras mottagare. I maskinöversättning från ett språk utan hedersbetygelser såsom engelska, är det svårt att förutsäga lämplig heder, men användare kan vilja kontrollera graden av artighet i produktionen. I denna uppsats utför vi en pilotstudie för att kontrollera honorifics i neural maskinöversättning (NMT) via sidobegränsningar, med fokus på engelska→tyska. Vi visar att genom att markera (engelska) källsidan av träningsdata med en funktion som kodar användningen av hedersbetygelser på (tyska) målsidan, kan vi kontrollera de hedersbetygelser som produceras vid provtillfället. Experiment visar att valet av hedersbetygelser har en stor inverkan på översättningens kvalitet mätt med BLEU, och orakelexperiment visar att betydande förbättringar är möjliga genom att begränsa översättningen till önskad nivå av artighet. | För det andra försökte REF kontrollera hedern i uppgiften för engelsk-tyska NMT. | 845,121 | Controlling Politeness in Neural Machine Translation via Side Constraints | {'venue': 'HLT-NAACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 80,851 |
Djupinlärning är ett lovande tillvägagångssätt för att extrahera korrekt information från rå sensordata från IoT-enheter som används i komplexa miljöer. På grund av dess flerskiktsstruktur är djupt lärande också lämpligt för den egg computing miljön. Därför, i den här artikeln, introducerar vi först djupt lärande för sakernas internet i kanten datormiljö. Eftersom befintliga edge noder har begränsad bearbetningskapacitet, utformar vi också en ny offloading strategi för att optimera prestandan för IoT djupt lärande applikationer med egg computing. I prestandautvärderingen testar vi prestandan av att utföra flera djupinlärningsuppgifter i en egg computing-miljö med vår strategi. Utvärderingsresultaten visar att vår metod överträffar andra optimeringslösningar på djupt lärande för sakernas internet. Under de senaste åren har djupinlärning blivit en viktig metod inom många informatikområden såsom synigenkänning, bearbetning av naturligt språk och bioinformatik [1, 2]. Djupt lärande är också ett starkt analytiskt verktyg för enorma mängder data. I Internet of Things (IoT), ett öppet problem är hur man tillförlitligt minera verkliga IoT-data från en bullrig och komplex miljö som förvirrar konventionella maskininlärning tekniker. Djupt lärande anses vara det mest lovande sättet att lösa detta problem [3]. Djupt lärande har införts i många uppgifter relaterade till sakernas internet och mobila applikationer med uppmuntrande tidiga resultat. Till exempel kan djupt lärande exakt förutsäga elförbrukningen i hemmet med de data som samlas in av smarta mätare, vilket kan förbättra elförsörjningen av smarta elnät [4]. På grund av dess höga effektivitet i att studera komplexa data, djupt lärande kommer att spela en mycket viktig roll i framtida IoT-tjänster. Edge computing är en annan viktig teknik för IoT-tjänster [5] [6] [7]. På grund av dataöverföring med begränsad nätverksprestanda blir den centraliserade molndatastrukturen ineffektiv för behandling och analys av enorma mängder data som samlas in från IoT-enheter [8, 9]. Som kant computing offloads datoruppgifter från det centraliserade molnet till kanten nära IoT-enheter, överförs data är enormt minskas av förbehandlingsprocedurer. Således, i den här artikeln, introducerar vi djupt lärande för sakernas internet i kanten datormiljö för att förbättra lärande prestanda samt för att minska nätverkstrafiken. Vi formulerar en elastisk modell som är kompatibel med olika djupinlärningsmodeller. Således, på grund av de olika mellanliggande datastorlek och förbehandling overhead av olika djupinlärningsmodeller, anger vi ett schemaläggningsproblem för att maximera antalet djupinlärningsuppgifter med den begränsade nätverksbandbredd och servicekapacitet kant noder. Vi försöker också att garantera kvaliteten på tjänsten (QoS) för varje djupinlärningstjänst för sakernas internet i schemaläggningen. Vi designar offline och online schemaläggning algoritmer för att lösa problemet. Vi utför omfattande simuleringar med flera djupinlärningsuppgifter och givna edge computing-inställningar. De experimentella resultaten visar att vår lösning överträffar andra optimeringsmetoder för djupt lärande för sakernas internet. De viktigaste bidragen i denna artikel sammanfattas på följande sätt. Vi introducerar först djupinlärning för IoT i egg computing-miljön. Såvitt vi vet är detta ett innovativt arbete med fokus på djupinlärning för sakernas internet med kantdator. Vi formulerar en elastisk modell för varierande djupinlärningsmodeller för IoT in edge computing. Vi utformar också en effektiv online-algoritm för att optimera servicekapaciteten hos eggdatormodellen. Slutligen testar vi djupt lärande modellen för IoT med omfattande experiment i en given kant computing miljö. Vi jämför också vår edge computing-metod med traditionella lösningar. Resten av denna artikel kan beskrivas relAted arbete I detta avsnitt introducerar vi först relaterade tekniker om djupt lärande för sakernas internet och sedan diskutera kant computing och djupt lärande. Djupt lärande håller på att bli en ny teknik för IoT-tillämpningar och IoT-system. Den viktigaste fördelen med djupt lärande över maskininlärning är bättre prestanda med stor dataskala eftersom många IoT-tillämpningar genererar en stor mängd data för bearbetning. En annan fördel är att djupinlärning automatiskt kan ta fram nya funktioner för olika problem. Vid bearbetningen av multimediainformation, prestandan av traditionell maskininlärning beror på exaktheten av de funktioner som identifieras och extraheras. Eftersom den just kan lära sig funktioner på hög nivå som mänskliga ansikten i bilder och språkord i röster, kan djupt lärande förbättra effektiviteten i behandlingen av multimediainformation. Under tiden tar djupt lärande mycket mindre tid att sluta sig till information än traditionella maskininlärningsmetoder. Därför ger utvecklingen av IoT-enheter och teknik förutsättningar för komplexa djupinlärningsuppgifter. På grund av begränsad energi- och datorkapacitet är en viktig fråga att utföra djupt lärande applikationer i IoT-enheter. Allmän kommersiell hårdvara och programvara misslyckas med att stödja högparallell databehandling i djupinlärningsuppgifter. Lane och Al. [10] föreslog nya accelerationsmotorer, såsom DeepEar och DeepX, för att stödja olika djupinlärningsprogram i de senaste mobila systemen på chips (SoCs). Från de experimentella resultaten, mobila IoT-enheter med high-spec SoCs kan stödja en del av inlärningsprocessen. Att införa djupinlärning i fler IoT-tillämpningar är en annan viktig forskningsfråga [11]. Effektiviteten av djupt lärande för IoT har utvärderats i många viktiga IoT-tillämpningar. Till exempel, vissa verk fokuserar på applikationer i bärbara IoT-enheter som används i dynamiska och komplexa miljöer som ofta förvirrar traditionella maskininlärningsmetoder. Bhattacharya m.fl. [12] föreslog en ny modell för djupinlärning för bärbara IoT-enheter som förbättrar noggrannheten i ljudigenkänningsuppgifter. De flesta befintliga djupinlärningsprogram (t.ex. taligenkänning) behöver fortfarande vara moln-assisterade. Alsheikh m.fl. [13] föreslog ett ramverk för att kombinera djuplärande algoritmer och Apache Spark för IoT-dataanalys. Inferensfasen utförs på mobila enheter, medan Apache Spark används i molnservrar för att stödja datautbildning. Denna två-lager design är mycket lik kant computing, vilket visar att det är möjligt att avlasta bearbetningsuppgifter från molnet. Edge computing föreslås för att flytta datorkapacitet från centraliserade molnservrar till edge noder nära användarens slut. Edge computing ger två stora förbättringar av den befintliga molndatorn. Den första är att kant noder kan förbehandla stora mängder data innan de överförs till de centrala servrarna i molnet. Den andra är att molnresurserna optimeras genom att möjliggöra kant noder med datorkapacitet [14]. På grund av den potential som egg computing medför kan de ovannämnda problemen med molninfrastrukturen hanteras väl. Liu m.fl. [15] föreslog det första arbetet med att införa djupinlärning i den avancerade datormiljön. De föreslog en djupt lärandebaserad ansökan om erkännande av livsmedel genom att använda nätbaserad tjänsteinfrastruktur. Deras arbete visar att spetsdatorer kan förbättra prestandan hos djupinlärningsprogram genom att minska svarstiden och minska energiförbrukningen. Men detta arbete anses mobiltelefoner som kant noder, vilket inte är lämpligt för IoT-tjänster eftersom de flesta IoT-enheter är utrustade endast med låg-spec marker. Eftersom vi fokuserar på allmänna IoT-enheter utan tillräckligt med energi tillägg och högspec-chips, är kantservrar utplaceras i IoT gateways, som har tillräcklig servicekapacitet för att utföra djupt lärande algoritmer. I detta avsnitt introducerar vi först scenariot med djupt lärande för sakernas internet och sedan presentera den kant computing ram för djupt lärande för sakernas internet. Vanligtvis, IoT-enheter genererar stora mängder data och överföra data till molnet för vidare behandling. Dessa data omfattar multimediainformation, såsom video, bilder och ljud, eller strukturerade data, såsom temperatur, vibrationer och ljusflödesinformation. Det finns många mogna tekniker för att bearbeta strukturerade data och sedan automatiskt kontrollera IoT-enheter. Traditionell multimediabehandlingsteknik, som kräver komplexa beräkningar, är inte lämplig för IoT-tjänster. Eftersom tekniken för djupinlärning förbättrar effektiviteten i behandlingen av multimediainformation, har allt fler arbeten börjat införa djupinlärning i multimedia IoT-tjänster. Videoanalys är ett viktigt IoT-program, som integrerar bildbehandling och datorseende i IoT-nätverk. Det är fortfarande en utmaning att känna igen objekt från videodata av låg kvalitet som registrerats av IoT-enheter. Eftersom djupt lärande visar mycket lovande noggrannhet i videoigenkänning, anser vi att det är ett typiskt IoT-program med djupt lärande. Således, som visas i Fig. 1, Vi använder en videoigenkänning IoT-applikation som exempel för att införa djupt lärande för IoT. Det finns flera trådlösa videokameror som övervakar miljön och känner igen föremål. De trådlösa kamerorna samlar 720p videodata Den viktigaste fördelen med djupinlärning över maskininlärning är den bättre prestandan med stor dataskala eftersom många IoT-applikationer genererar en stor mängd data för bearbetning. En annan fördel är att djupinlärning automatiskt kan ta fram nya funktioner för olika problem. 98 med en bithastighet på 3000 kb/s. Sedan överför kamerorna insamlade data till IoT-gatewayen genom allmänna WiFi-anslutningar. IoT gateways vidarebefordrar alla insamlade data till molntjänsten genom Internetkommunikation efter kodning och komprimera rå videodata. Molntjänsten känner igen objekten i insamlade videodata genom ett nätverk för djupinlärning. Ett djupt lärande nätverk har vanligtvis flera lager. Indata kommer att behandlas i dessa lager. Varje lager bearbetar de mellanliggande funktionerna som genereras av det föregående lagret och genererar sedan nya funktioner. Slutligen, de extraherade funktioner som genereras av den sista djupinlärning nätverk lager kommer att behandlas av en klassificerare och erkänns som utdata. I djupinlärningsnätverk anser vi att lagren nära ingångsdata är lägre lager; andra är högre lager. I exemplet använder vi AlexNet för att identifiera objektet i insamlade videodata. AlexNet har åtta lager där de första fem lagren är konvolutionella lager, och följande tre lager är helt anslutna lager. Vi tränar först det djupa lärnätverket med ett öppet dataset från Kaggle, som består av 25.000 hund- och kattbilder. Den djupinlärning ansökan vill upptäcka rätt djur i den korrigerade videodata. Vi använder en överföring lärteknik för att bygga klassificeringen, som ger texten "katt" eller "hund" efter att ha bearbetat alla extraherade funktioner. Djupt lärande förbättrar effektiviteten i multimediabehandling för IoT-tjänster eftersom funktioner extraheras av flera lager i stället för traditionell komplex förbehandling. Kommunikationsprestandan kommer dock att bli flaskhalsen med förbättrad processeffektivitet. Den insamlade multimedia datastorleken är mycket större än traditionell strukturerad datastorlek, men det är svårt att förbättra prestandan för nätverket för överföring av insamlade data från IoT-enheter till molntjänsten. I exemplet behöver varje kamera en bandbredd på 3 Mb/s för att uppgradera videodata, medan IoT-gateway behöver 9 Mb/s. Edge computing är en möjlig lösning på problemet med att överföra insamlade data från IoT-enheter till molnet. I IoT-nätverket finns det två lager, kantlagret och molnlagret, för att ansluta IoT-enheter och molntjänsten. Kantlagret består vanligtvis av IoT-enheter, en IoT-gateway och nätverksåtkomstpunkter i lokala nätverk. I molnskiktet ingår Internetanslutningar och molnservrar. Edge computing innebär att behandlingen utförs i kantlagret istället för molnlagret. I egg computing-miljön, eftersom endast de mellanliggande data eller resultat behöver överföras från enheterna till molntjänsten, är trycket på nätverket lättas med mindre överföring av data. Edge computing är mycket lämplig för de uppgifter där storleken på mellanliggande data är mindre än inmatningsdata. Därför är edge computing effektivt för djupinlärning uppgifter, eftersom storleken på extraherade funktioner skalas ner av filtren i djupinlärning nätverk lager. I exemplet är den mellanliggande datastorleken som genereras av det första skiktet 134 på 89 B/ram och 2300 kb/s om vi vill känna igen varje ram. Om vi bara vill bearbeta nyckelramar i videodata, storleken på de genererade mellandata är bara 95 kb/s. Som visas i bild. 2, Vi presenterar en kant computing struktur för IoT djupt lärande uppgifter. Strukturen består av två lager samt en typisk edge computing struktur. I kantlagret är kantservrar utplacerade i IoT-gateways för behandling av insamlade data. Vi tränar först de djupa nätverken i molnservern. Efter utbildningsfasen delar vi upp lärnätverken i två delar. En del innehåller de lägre lagren nära ingångsdata, medan en annan del innehåller de högre lagren nära utgångsdata. Vi distribuerar den del med lägre lager i kantservrar och den del med högre lager i molnet för avlastning bearbetning. De insamlade uppgifterna matas alltså in i det första lagret i kantservrarna. Kantservrarna laddar de mellanliggande data från de lägre lagren och överför sedan data till molnservern som indata för de högre lagren. I exemplet, om vi distribuerar det första lagret i IoT-gateway, kommer de mellanliggande data med storleken 134 × 89 × 1 B/frame att skickas till det andra lagret i molnservern för vidare behandling. Ett problem är hur man delar varje nätverk för djupinlärning. Vanligtvis är storleken på de mellanliggande data som genereras av de högre skikten mindre än den som genereras av de lägre skikten. Att placera fler lager i kantservrar kan minska mer nätverkstrafik. Serverkapaciteten för kantservrar är dock begränsad jämfört med molnservrar. Det är omöjligt att bearbeta oändliga uppgifter i kantservrar. Varje lager i ett djupt lärande nätverk kommer att ge ytterligare beräknings omkostnader till servern. Vi kan bara distribuera en del av det djupa lärnätverket till kantservrar. Samtidigt, eftersom olika djupinlärning nätverk och uppgifter har olika storlekar av mellanliggande data och beräkning overhead, effektiv schemaläggning behövs för att 99 optimera djupt lärande för IoT i kanten datorstruktur. Vi utformar en effektiv schemaläggningsstrategi för detta problem och diskuterar det i nästa avsnitt. I detta avsnitt anger vi först schemaläggning problem i kanten datorstruktur för IoT djupt lärande och sedan presentera lösningen. I en given edge computing-miljö använder vi en uppsättning E för att beteckna alla edge-servrar och e i för att beteckna en edge-server i uppsättning E. Från edge-server e i till moln-servern använder vi ett värde c i för att beteckna servicekapaciteten och b i för att beteckna nätverksbandbredden. Vi lägger också till ett tröskelvärde som betecknas av V för att undvika överbelastning av nätet eftersom det finns viss interaktionstrafik mellan kantservrarna och molnservrarna. Således är den maximala tillgängliga bandbredden mellan e i och molnservern betecknad med b i · V. Låta uppsättningen T betecknar alla djupinlärningsuppgifter och t j betecknar en djupinlärning uppgift i uppsättning T. Antalet uppgift t j's djupinlärning nätverk lager är N j. Vi antar att den reducerade datastorleken är nära ett medelvärde för varje uppgift med olika indata. Den genomsnittliga kvoten mellan den mellanliggande datastorleken som genereras av kth-skiktet (k... [1, N j ]) och den totala indatastorleken betecknas med r kj. För uppgift t j och kant server e i, tilldelad bandbredd betecknas av b ij. Låt d ij betecknar indatastorleken per tidsenhet för aktivitet t j i kanten server e i. Således överföring latency av uppgift t j i kant server e i kan betecknas d ij · r kj /b ij, om k lager av uppgift t j placeras i kant server e i. För att garantera QoS, bör överföringen latens vara mindre än ett högsta värde som anges av Q j. För uppgift t j, den beräkningsmässiga overhead för en enhet av indata efter kth skiktet betecknas med l kj. Därför, för uppgift t j, den beräknade overhead in edge server e i är l kj · d ij. Problemet med schemaläggning IoT Deep Learning Network Layers in Edge Computing: Med tanke på en kant computing struktur, försöker schemaläggning problem att tilldela maximala uppgifter i kanten datorstruktur genom att distribuera djupinlärning lager i IoT edge servrar sådan att den nödvändiga överföring latency för varje uppgift kan garanteras, betecknar med var X ij = 1 om uppgift t j är utplacerad i edge server e i; annars X ij = 0. Vi föreslår en offlinealgoritm och en onlinealgoritm för att lösa schemaläggningsproblemet. Den offline schemaläggning algoritm först får reda på k j m, som maximerar värdet av r kj · l kj, och edge server i j m, som har den största indata uppgift t j. Därefter sorterar algoritmen alla uppgifter i stigande ordning efter den största indatastorleken. Schemaläggningen distribuerar först aktivitet t j med minsta indatastorlek till kantservrar. Algoritmen passerar alla kantservrar för att kontrollera om en kantserver har tillräcklig servicekapacitet och nätverksbandbredd för att distribuera aktivitet t j. Om alla edge-servrar har tillräcklig servicekapacitet och bandbredd, distribuerar algoritmen aktivitet t j till alla edge-servrar. Om en eggserver inte har tillräckligt med uppladdningsbandbredd eller servicekapacitet, ändrar algoritmen värdet på k och tar reda på en lämplig k för att distribuera aktivitet t j i alla eggservrar. Om eggservern inte har tillräcklig servicekapacitet eller nätverksbandbredd även efter varierande k, kommer schemaläggningsalgoritmen inte att distribuera aktivitet t j i eggservrar. I värsta fall är komplexiteten hos offline-algoritmen O( på engelska) 2 · K) där K är det maximala antalet djupinlärningsnätverksskikt av varje uppgift. Eftersom antalet uppgifter är mycket större än antalet edge servrar och djupinlärning nätverk lager, komplexiteten i den föreslagna algoritmen är O( på engelska), vilket är tillräckligt bra för praktisk schemaläggning. Vi analyserar också algoritmens effektivitet och finner att det ungefärliga förhållandet är 2/V. Samtidigt utformar vi en online schemaläggningsalgoritm som bestämmer utplaceringen när uppgift t j kommer. Eftersom uppgiften schemaläggning har lite information om funktionsuppgifter, är utplaceringsbeslutet baserat på de historiska uppgifterna. Vi använder B max och B min för att beteckna den maximala och minsta bandbredd som krävs för en uppgift, respektive. Således, för uppgift t j, vi först beräkna k j m och i j m. Då definierar vi ett värde F(c ij m) ← (B min · e/B max ) I detta avsnitt beskriver vi först experimentinställningarna och sedan diskutera resultatet prestandautvärdering. I experimenten har vi två miljöer, en för insamling av data från djupinlärningsuppgifter och en för simuleringar. För att utföra djupinlärningsprogram använder vi en arbetsstation utrustad med en Intel Core i7 7770 CPU och NVIDIA Geforce GTX 1080 grafiskt kort. Vi använder Caffe som CNN-ramverk och definierar 10 olika CNN-nätverk. Vi utför 10 CNN uppgifter FIGURE 2. Edge computing struktur för IoT djupt lärande. | Löjtnant Al. REF undersökte möjligheten av DL i egg computing-miljön och utformade en ny offloading-metod för att avlasta djupinlärningsuppgiften från moln till kantlager i IoT. Författarna visade att DL-uppgiften kan utföras genom att träna det lägre lagret av DL vid kantknutpunkterna och det högre lagret av DL vid molnlagret. | 42,367,028 | Learning IoT in Edge: Deep Learning for the Internet of Things with Edge Computing | {'venue': 'IEEE Network', 'journal': 'IEEE Network', 'mag_field_of_study': ['Computer Science']} | 80,852 |
Vi studerar sociala nätverk online där relationer kan vara antingen positiva (vägledande relationer som vänskap) eller negativa (vägledande relationer som opposition eller antagonism). En sådan blandning av positiva och negativa länkar uppstår i en mängd olika online-inställningar; vi studerar datauppsättningar från Epinions, Slashdot och Wikipedia. Vi finner att tecken på länkar i de underliggande sociala nätverken kan förutsägas med hög noggrannhet, med hjälp av modeller som generaliserar över detta olika utbud av webbplatser. Dessa modeller ger insikt i några av de grundläggande principer som driver bildandet av signerade länkar i nätverk, kastar ljus över teorier om balans och status från socialpsykologi; de föreslår också sociala datortillämpningar genom vilka en användares inställning till en annan kan beräknas utifrån bevis som tillhandahålls av deras relationer med andra medlemmar i det omgivande sociala nätverket. ACM 978-1-60558-799-8/10/04. Den grundläggande frågan är då följande: Hur samverkar tecknet på en given länk med mönstret av länkskyltar i sin lokala närhet, eller mer allmänt i hela nätverket? Dessutom, vilka är de rimliga konfigurationerna av länkskyltar i verkliga sociala nätverk? Svar på dessa frågor kan hjälpa oss att resonera om hur negativa relationer används i online-system, och svar som generaliseras över flera domäner kan hjälpa till att belysa några av de underliggande principerna. Effektiva svar på sådana frågor kan också bidra till att informera utformningen av sociala datortillämpningar där vi försöker dra slutsatsen (oobserved) attityd av en användare mot en annan, med hjälp av de positiva och negativa relationer som har observerats i närheten av denna användare. En gemensam uppgift i nätgemenskaper är att föreslå nya relationer till en användare genom att föreslå att man skapar länkar till andra användare med vilka man delar vänner, intressen eller andra egenskaper. Utmaningen här är att användarna mycket väl kan ha redan befintliga attityder och åsikter - både positiva och negativa - gentemot andra som de delar vissa egenskaper med, och därmed innan de godtyckligt ger sådana förslag till användare, är det viktigt att kunna uppskatta dessa attityder från befintliga bevis i nätverket. Om A till exempel är känt för att ogilla människor som B tycker om, kan detta mycket väl ge bevis för A:s inställning till B. Förutsägelse av kanttecken. Med detta i åtanke, vi börjar med att formulera en konkret underliggande uppgift - kanten tecken förutsägelse problem - som vi kan direkt utvärdera och jämföra olika tillvägagångssätt. Kantteckens förutsägelseproblem definieras enligt följande. Antag att vi får ett socialt nätverk med tecken på alla dess kanter, men tecknet på kanten från node u till node v, betecknad s(u, v), har varit "dold". Hur tillförlitligt kan vi härleda detta tecken s (u, v) med hjälp av den information som tillhandahålls av resten av nätverket? Observera att detta problem är både en konkret formulering av våra grundläggande frågor om de typiska mönster av länktecken, och också ett sätt att närma sig vår motiverande tillämpning av sluta oobserverade attityder bland användare av sociala datorer webbplatser. Det finns en analogi här med länken förutsägelse problem för sociala nätverk [16]; på samma sätt som länk förutsägelse används för att dra slutsatser latenta relationer som är närvarande men inte registreras genom explicita länkar, kan tecken förutsägelse problem användas för att uppskatta känslan av individer mot varandra, med tanke på information om andra känslor i nätverket. När vi studerar problemet med teckenprognoser följer vi ett experimentellt ramverk som formulerats av Guha et al. i sina studier av tillit och misstro mot epinioner [8]. Vi utvidgar deras tillvägagångssätt i ett antal riktningar. För det första, där deras mål var att utvärdera spridningsalgoritmer baserade på exponentiering adjacency-matrisen, närmar vi oss problemet med hjälp av en maskininlärning ram som gör det möjligt för oss att utvärdera vilka av en rad strukturella funktioner som är mest informativa för förutsägelsen uppgift. Med hjälp av denna ram får vi också betydligt bättre resultat på själva uppgiften. | Dessutom Leskovec et al. REF använde en logistisk regressionsmodell för att förutsäga positiva och negativa länkar i sociala nät online. | 7,119,014 | Predicting positive and negative links in online social networks | {'venue': "WWW '10", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science', 'Physics']} | 80,853 |
I det här dokumentet introducerar vi en ny metod för textdetektering i naturliga bilder. Metoden består av två bidrag: För det första en snabb och skalbar motor för att generera syntetiska bilder av text i skräp. Denna motor överlagrar syntetisk text till befintliga bakgrundsbilder på ett naturligt sätt, vilket förklarar den lokala 3D scengeometrin. För det andra använder vi de syntetiska bilderna för att träna en Full-Konvolutional Regression Network (FCRN) som effektivt utför textdetektering och begränsande-box regression på alla platser och flera skalor i en bild. Vi diskuterar FCRN:s förhållande till den nyligen införda YOLO-detektorn, samt andra system för att upptäcka objekt från början till slut baserade på djupinlärning. Det resulterande detektionsnätverket utför i hög grad aktuella metoder för textdetektering i naturliga bilder och uppnår en F-mätning på 84,2 % på standardriktmärket ICDAR 2013. Dessutom kan den bearbeta 15 bilder per sekund på en GPU. | Gupta m.fl. REF införde ett fullt konvolutionellt regressionsnätverk som utför textdetektering och avgränsande regression på alla platser och skalor i givna bilder. | 206,593,628 | Synthetic Data for Text Localisation in Natural Images | {'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 80,854 |
Vi föreslår en algoritm för meta-lärande som är modellagnostisk, i den meningen att den är kompatibel med alla modeller som är utbildade med lutningsnedstigning och kan tillämpas på en mängd olika inlärningsproblem, inklusive klassificering, regression och förstärkningslärande. Målet med meta-lärande är att utbilda en modell på en mängd olika inlärningsuppgifter, så att den kan lösa nya inlärningsuppgifter med bara ett litet antal träningsprover. I vårt tillvägagångssätt tränas modellens parametrar explicit så att ett litet antal gradientsteg med en liten mängd träningsdata från en ny uppgift ger bra generaliseringsprestanda på den uppgiften. I själva verket tränar vår metod modellen för att vara lätt att finjustera. Vi visar att detta tillvägagångssätt leder till state-of-the-art prestanda på två få bilder klassificering riktmärken, ger goda resultat på få-shot regression, och påskyndar finjustering för policy gradient förstärkning lärande med neurala nätverk politik. | MAML REF föreslog en allmän optimeringsalgoritm; det syftar till att hitta en uppsättning modellparametrar, så att ett litet antal gradientsteg med en liten mängd träningsdata från en ny uppgift kommer att ge stora förbättringar på den uppgiften. | 6,719,686 | Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 80,855 |
Detta arbete presenterar EddyNet, en djupinlärningsbaserad arkitektur för automatiserad virveldetektering och klassificering från kartor över havsytans höjd (SSH) som tillhandahålls av Copernicus marin- och miljöövervakningstjänst (CMEMS). EddyNet består av en konvolutionell encoder-dekoder följt av en pixel-wise klassificeringsskikt. Utmatningen är en karta med samma storlek på indatan där pixlarna har följande etiketter {'0': Non vide, '1': anticyklon-eddy, '2': cyklon-eddy}. Keras Python kod, träningsdataset och EddyNet vikter filer är opensource och fritt tillgängliga på https://github.com/redouanelg/EddyNet. | Lguensat m.fl. REF föreslog en modell som kallas EddyNet, en djuplärande arkitektur för förinställning av virveligenkänning och klassificering med hjälp av de kartor över havsytan som tillhandahålls av Copernicus marin- och lägesövervakningstjänst. | 6,656,423 | EddyNet: A Deep Neural Network For Pixel-Wise Classification of Oceanic Eddies | {'venue': 'IGARSS 2018 - 2018 IEEE International Geoscience and Remote Sensing Symposium', 'journal': 'IGARSS 2018 - 2018 IEEE International Geoscience and Remote Sensing Symposium', 'mag_field_of_study': ['Computer Science', 'Physics']} | 80,856 |
Nyligen med hjälp av konvolutionella neurala nätverk (CNNs) har vunnit popularitet i visuell spårning, på grund av dess robusta funktion representation av bilder. Nya metoder utför online-spårning genom att finjustera en förtränad CNN-modell till det specifika målobjektet med hjälp av stokastisk lutning nedstigning (SGD) back-propagation, som vanligtvis är tidskrävande. I detta dokument föreslår vi en återkommande filtergenereringsmetoder för visuell spårning. Vi matar direkt målets bildpatch till ett återkommande neuralt nätverk (RNN) för att uppskatta ett objektspecifikt filter för spårning. Eftersom videosekvensen är en spatiotemporal data, vi utökar matris multiplikationer av de fullt anslutna skikten av RNN till en convolution operation på funktionskartor, som bevarar målets rumsliga struktur och också är minneseffektiv. Det spårade objektet i efterföljande ramar kommer att matas in i RNN för att anpassa de genererade filtren till utseende variationer av målet. Observera att när den offline utbildningsprocessen i vårt nätverk är klar, det finns ingen anledning att finjustera nätverket för specifika objekt, vilket gör vår strategi mer effektiv än metoder som använder iterativ finjustering för online lära sig målet. Omfattande experiment som utförts på allmänt använda riktmärken, OTB och VOT, visar uppmuntrande resultat jämfört med andra nya metoder. | REF föreslår en filtergenereringsmetod baserad på RNN och liknar vår metod som tillämpas på den mallbaserade trackern. | 647,942 | Recurrent Filter Learning for Visual Tracking | {'venue': '2017 IEEE International Conference on Computer Vision Workshops (ICCVW)', 'journal': '2017 IEEE International Conference on Computer Vision Workshops (ICCVW)', 'mag_field_of_study': ['Computer Science']} | 80,857 |
Universitet och andra utbildningsorganisationer antar dator- och Internetbaserade bedömningsverktyg (här kallas e-exams) för att nå bred publik. Även om detta gör testerna mer tillgängliga, utsätter det dem för nya hot. För närvarande finns det mycket få strategier för att kontrollera sådana system för säkerhet, och det saknas också formella säkerhetsdefinitioner på detta område. Detta dokument fyller denna lucka: inom den formella ramen för de tillämpade π-kalkylerna definierar vi flera grundläggande autentiserings- och integritetsegenskaper och fastställer den första teoretiska ramen för säkerhetsanalysen av e-examprotokoll. Som bevis på konceptet analyserar vi två av dessa protokoll med ProVerif. Det första "säkra elektroniska tentamenssystem" som föreslås i litteraturen visar sig ha flera allvarliga problem. Det andra protokollet, Remark!, är bevisat att uppfylla alla säkerhetsegenskaper som tar tillträde kontroll på anslagstavlan. Vi föreslår en enkel ändring av protokollet som tar bort behovet av ett sådant antagande genom att garantera alla säkerhetsegenskaper. | Tillbaka till e-exams, Dreier et al. också föreslå en formell ram, baserad på π-kalkyler, för att analysera andra säkerhetsegenskaper såsom autentisering och integritet REF. | 11,519,531 | Formal analysis of electronic exams | {'venue': '2014 11th International Conference on Security and Cryptography (SECRYPT)', 'journal': '2014 11th International Conference on Security and Cryptography (SECRYPT)', 'mag_field_of_study': ['Computer Science']} | 80,858 |
ABSTRACT ε-differentiell integritet är den senaste modellen för att släppa känslig information samtidigt som integriteten skyddas. Många metoder har föreslagits för att genomdriva ε-differentiell integritet i olika analytiska uppgifter, t.ex. regressionsanalys. Befintliga lösningar för regressionsanalys är dock antingen begränsade till icke-standardtyper av regression eller oförmögna att producera korrekta regressionsresultat. Motiverade av detta föreslår vi den funktionella mekanismen, en differentialt privat metod utformad för en stor klass av optimeringsbaserade analyser. Huvudidén är att genomdriva ε-differentiell integritet genom att störa den objektiva funktionen av optimeringsproblem, snarare än dess resultat. Som fallstudier använder vi den funktionella mekanismen för att ta itu med två mest använda regressionsmodeller, nämligen linjär regression och logistisk regression. Både teoretisk analys och noggranna experimentella utvärderingar visar att den funktionella mekanismen är mycket effektiv och effektiv, och att den avsevärt överträffar befintliga lösningar. | Dessutom, för parameteruppskattning löst av ett optimeringsproblem, en alternativ algoritm för att uppnå DP är den funktionella mekanism som föreslås av REF, som stör den objektiva funktionen av optimeringsproblemet snarare än de optimerade parametrarna. | 2,264,858 | Functional Mechanism: Regression Analysis under Differential Privacy | {'venue': 'Proceedings of the VLDB Endowment (PVLDB), Vol. 5, No. 11, pp. 1364-1375 (2012)', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 80,859 |
I detta dokument föreslår vi Mobile Agent baserad Energy Efficient routing protokoll för MANET. I början protokollet använder en länk kostnad metrisk såsom Network Load i termer av nod burthen grad och bandbredd användbar grad, Minimum Drain Rate (MDR) för energiförbrukning och tillgång till länk. Mobilagenterna är slumpmässigt organiserade och överför humle med humle tills destinationen har nåtts. Därför samlar de, från varje humle de passerar, in uppgifter om ovanstående mått och en kombinerad lista kostnadsmått beräknas på grundval av dessa mätvärden. Slutligen, efter att samla in information från agenter flera vägar upprättas först och sedan källan väljer den optimala vägen med hjälp av sökvägen kostnad metrisk, vilket är summan av länk kostnad metrisk längs banan. | I Ref föreslås en mobil agent baserad Energieffektiv tillförlitlig routing protokoll som använder länkkostnad och minsta dräneringshastighet (MDR) för energiförbrukning och länktillgänglighet. | 1,754,846 | Mobile Agents based Reliable and Energy Efficient Routing Protocol for MANET | {'venue': None, 'journal': 'International Journal of Intelligent Engineering and Systems', 'mag_field_of_study': ['Computer Science']} | 80,860 |
Abstrakt. Inom cloud computing tillhandahålls en storskalig parallelldistribuerad bearbetningstjänst där en enorm uppgift delas upp i ett antal deluppgifter och dessa deluppgifter bearbetas på ett kluster av maskiner som kallas arbetare. I en sådan bearbetningstjänst gör en arbetstagare som tar lång tid på sig för att behandla en deluppgift svarstiden lång (frågan om stagglers). En av de effektiva metoderna för att lindra denna fråga är att utföra samma deluppgift av en annan arbetare som förberedelse för den långsamma arbetstagaren (backupuppgifter). I det här dokumentet överväger vi hur effektiva säkerhetskopieringsuppgifterna är. Vi modellerar aktivitetsplaneringsservern som en enda server kö, där servern består av ett antal arbetare. När en uppgift kommer in i servern delas uppgiften upp i deluppgifter, och varje deluppgift betjänas av sin egen arbetare och en alternativ särskild arbetare. I denna behandling får vi explicit uppgiftsbearbetningstidfördelningar för de två fall som en arbetstagares subtask-behandlingstid lyder Weibull eller Pareto-distributionen. Vi jämför den genomsnittliga svarstiden och den totala behandlingstiden under backuptask schemaläggning med de under normal schemaläggning. Numeriska exempel visar att effektiviteten i schemaläggningen av backup-task i hög grad beror på arbetstagarnas processtidsfördelning. 2010 Matematik Ämnesklassificering. Primärt: 60K25, 60J10; sekundärt: 68M20. Nyckelord och fraser. Cloud computing, parallelldistribuerad bearbetning, schemaläggning av uppgifter, säkerhetskopieringsuppgifter, köanalys. Granskningsprocessen av tidningen hanterades av Wuyi Yue som gästredigerare. Detta är en pre-kopia-redigering, författare-producerad PDF av en artikel som accepteras för publicering i Journal of Industrial and Management Optimization efter peer review. Den definitiva förlaget autenticated version, T. Hirai, H. Masuyama, S. Kasahara och Y. Takahashi, "Prestandaanalys av stor skala parallell-distribuerad bearbetning med säkerhetskopiering uppgifter för Cloud Computing," Journal of Industrial and Management Optimization, vol. Tio, nej. Ett, ett, två, två, tre, tre, tre, tre, tre, tre, tre, tre, tre, fyra, tre, fyra, fyra, fyra, fyra, tre, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, tre, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, 113-129, 2014, finns tillgänglig online på doi:10.3934/jimo.2014.10.113. 1. Vad är det för fel på dig? Inledning. På senare tid har cloud computing rönt stor uppmärksamhet på grund av tillgången på enorma datorresurser och dess betydande kostnadseffektivitet. Under [1] definieras cloud computing som summan av de befintliga koncepten, programvaran som en tjänst (SaaS) och verktygsdatorn. Mer exakt är cloud computing det kombinerade konceptet att tillhandahålla datorbehandlingstjänster endast när det behövs via Internet (SaaS) och använda serverresurser i ett datacenter endast när det behövs (utility computing). En anmärkningsvärd egenskap hos cloud computing är att datacenter som tillhandahåller cloud computing tjänster är extremt stora. Med den ökade kapaciteten hos hårddiskar ökar också mängden data som behandlas vid datorbehandling, och det är vanligt att det behövs en enorm tid för databehandling med en arbetsmaskin. Inom cloud computing hanteras enorma data med ett stort antal arbetare i parallelldistribuerad bearbetning mode [4, 2], och typiska tillämpningar är data mining, dokumentbehandling, och maskininlärning. I det följande kallar vi denna bearbetningsmekanism för en storskalig parallelldistribuerad bearbetning. Med en storskalig parallelldistribuerad behandling behandlas enorma data på relativt kort tid. I stort sett kan databehandling som kräver 100 timmar med en arbetstagare bearbeta på en timme med 100 anställda om overhead för parallell behandling är relativt liten. I den storskaliga parallelldistribuerade bearbetningen delas en enorm uppgift upp i ett antal deluppgifter och dessa deluppgifter bearbetas självständigt på ett kluster av maskiner som kallas arbetare. Den enorma uppgiftshanteringen avslutas när alla deluppgifter är klara. Därför ökar en arbetsmaskin som tar lång tid på sig för att bearbeta en deluppgift svarstiden (frågan om stragglers) [4]. Orsakerna till långsamma arbetstagare är maskinfel och resurskonkurrens eftersom systemet består av ett stort antal maskiner. För att komma till rätta med problemet med staggler finns det två schemaläggningssystem: lastbalansering [6] och säkerhetskopieringsuppgifter [4]. Vid lastbalansering bestäms en arbetstagares deluppgiftsstorlek enligt arbetstagarens bearbetningshastighet. Det vill säga, en liten deluppgift tilldelas en långsam bearbetningsarbetare, medan en stor deluppgift utförs av en snabbbearbetningsarbetare. Denna schemaläggning gör variansen av subtask-bearbetningstiden för arbetsmaskiner betydligt liten. Den lastbalanserande schemaläggaren måste dock i förväg känna till varje arbetstagares deluppgiftsbearbetningstid. Vid schemaläggning av backup-task, å andra sidan, schemaläggs säkerhetskopieringsutföranden av de återstående deluppgifterna under pågående arbete. Därefter avslutas processen för en deluppgift när antingen ursprungliga delaktivitets- eller säkerhetskopieringsutföranden slutförs. En stark punkt i schemaläggningen för backuptask är att schemaläggaren för backup-task aktiverar säkerhetskopieringsuppgifter för en arbetstagare i enlighet med den förfluten deltask-bearbetningstiden, dvs. ingen förhandsinformation om arbetstagarens totala deltask-tid behövs. Det rapporteras i [4] att säkerhetskopieringsuppgifterna avsevärt kan minska en uppgifts svarstid. Det finns mycket litteratur om cloud computing, och de flesta verk handlar om serviceplattform och kostnadseffektivitet ur ekonomisk synvinkel. Det finns några studier för prestandafrågor om molndata, och de är baserade på mätningsbaserad analys. (Se till exempel [5, 9].) När det gäller den teoretiska metoden för prestandafrågor på molndata, Xiong et al. [8] överväga en köande nätverksmodell som består av en webbserver kö och en servicecenter kö. Med fokus på percentilen av svarstiden som ett prestandamått på cloud computing, analyserar de ungefär svarstiden distribution. I sin modell är dock service-centerdelen modellerad som en enda server kö | Hirai m.fl. I REF har man tagit hänsyn till hur effektiva säkerhetskopieringsuppgifterna är. | 62,162,290 | Performance analysis of large-scale parallel-distributed processing with backup tasks for cloud computing | {'venue': None, 'journal': 'Journal of Industrial and Management Optimization', 'mag_field_of_study': ['Computer Science']} | 80,861 |
Att minska språkmodell (LM) storlek är en kritisk fråga när man tillämpar en LM till realistiska tillämpningar som har minnesbegränsningar. I detta dokument studeras tre åtgärder för beskärning av små och medelstora företag. De är sannolikhet, rang och entropi. Vi utvärderade resultatet av de tre beskärningskriterierna i en verklig tillämpning av kinesisk text in i termer av teckenfel (CER). Vi presenterar först en empirisk jämförelse, som visar att rangen presterar bäst i de flesta fall. Vi visar också att rangens höga prestanda ligger i dess starka korrelation med felfrekvensen. Därefter presenterar vi en ny metod för att kombinera två kriterier i modellbeskärningen. Experimentella resultat visar att det kombinerade kriteriet konsekvent leder till mindre modeller än de modeller som beskärs med användning av något av kriterierna separat, vid samma CER. | I REF studeras tre åtgärder för beskärning av språkmodell. | 3,276,484 | Improving Language Model Size Reduction Using Better Pruning Criteria | {'venue': 'Annual Meeting Of The Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 80,862 |
Att hantera problembiljetter är en nyckelfråga inom IT-tjänstebranschen. En stor tjänsteleverantör kan dagligen hantera tusentals problembiljetter från sina kunder. Effektiviteten i behandlingen av dessa biljetter beror i hög grad på biljettöverföring-överföring problembiljetter bland expertgrupper i sökandet efter rätt lösare till biljetten. Trots att många biljetthanteringssystem är tillgängliga, är biljettdragning i dessa system fortfarande manuellt drivs av supportpersonal. I denna demo introducerar vi EasyTicket, en biljett routing rekommendation motor som hjälper till att automatisera denna process. Med hjälp av uppgifter om gruvbiljetternas historia modellerar vi ett socialt nätverk som representerar de funktionella relationerna mellan olika expertgrupper inom biljettrouting. Baserat på detta nätverk, vårt system ger sedan routing rekommendationer till nya biljetter. Våra experimentella studier på 1,4 miljoner verkliga problem biljetter visar att i genomsnitt, EasyTicket kan förbättra effektiviteten i biljett routing med 35%. | Arbetet i REF bryter historiska biljettdata och utvecklar en probabilistisk modell av ett företag socialt nätverk som representerar funktionella relationer mellan olika expertgrupper i biljett routing. | 6,612,077 | EasyTicket: a ticket routing recommendation engine for enterprise problem resolution | {'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']} | 80,863 |
Abstract-Vi anser att ett it-fysiskt system bestående av två interagerande nätverk, dvs ett it-nätverk overlaying ett fysiskt-nätverk. Det förutsätts att dessa system är mer sårbara för attacker eftersom nodfel i ett nätverk kan leda till (på grund av det ömsesidiga beroendet) fel i det andra nätet, vilket orsakar en kaskad av misslyckanden som skulle kunna leda till att hela infrastrukturen kollapsar. Den robusthet av ömsesidigt beroende system mot denna typ av katastrofala fel beror starkt på fördelningen av (sammanlänkning) länkar som ansluter noder i ett nätverk till noder i det andra nätverket. I detta dokument karakteriserar vi den optimala fördelningsstrategin mellan länkar mot slumpmässiga attacker i de fall där topologin för varje enskilt nätverk är okänd. I synnerhet analyserar vi den "vanliga" fördelningsstrategin som tilldelar exakt samma antal dubbelriktade internätverkslänkar till alla noder i systemet. Vi visar, både analytiskt och experimentellt, att denna strategi ger bättre prestanda (ur ett näts motståndskraftsperspektiv) jämfört med alla möjliga strategier, inklusive strategier som använder slumpmässig allokering, enkelriktade inter-links, etc. | En algoritm för "regelbunden tilldelning" föreslogs i REF för att fördela samma antal interlinks till varje nod. | 7,088,493 | Optimal Allocation of Interconnecting Links in Cyber-Physical Systems: Interdependence, Cascading Failures and Robustness | {'venue': 'IEEE Transactions on Parallel and Distributed Systems (TPDS): Special Issue on Cyber-Physical Systems, vol. 23, no. 9, pp. 1708-1720, September 2012', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics']} | 80,864 |
Mänskliga handlingar kan representeras av skelettledernas banor. Traditionella metoder modellerar i allmänhet den rumsliga strukturen och temporal dynamiken hos det mänskliga skelettet med handgjorda egenskaper och känner igen mänskliga handlingar genom väl utformade klassificeringar. I detta dokument, med tanke på att återkommande neurala nätverk (RNN) kan modellera den långsiktiga kontextuell information av temporal sekvenser väl, föreslår vi en end-to-end hierarkisk RNN för skelettbaserade åtgärder erkännande. Istället för att ta hela skelettet som ingång, delar vi upp det mänskliga skelettet i fem delar enligt människans fysiska struktur, och matar sedan dem separat till fem subnät. Allteftersom antalet lager ökar, är de representationer som extraheras av subnäten hierarkiskt sammansmälta för att vara ingångar av högre skikt. De slutliga representationerna av skelettsekvenserna matas in i ett enda lager perceptron, och den tidsmässigt ackumulerade produktionen av perceptronet är det slutliga beslutet. Vi jämför med fem andra djupa RNN-arkitekturer som härletts från vår modell för att verifiera effektiviteten i det föreslagna nätverket, och även jämföra med flera andra metoder på tre allmänt tillgängliga dataset. Experimentella resultat visar att vår modell uppnår den toppmoderna prestandan med hög beräkningseffektivitet. | Du och Al. föreslå en end-to-end hierarkisk återkommande neurala nätverk för skelett baserad åtgärdsigenkänning genom sammansmältning av olika lager av mänskliga skelett subnät till en enda lager perceptron, för vilken den tidsmässigt ackumulerade produktionen av perceptron är det slutliga beslutet REF. | 8,040,013 | Hierarchical recurrent neural network for skeleton based action recognition | {'venue': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 80,865 |
Abstract-Energi skörd (EH) från omgivande radiofrekvens (RF) elektromagnetiska vågor är en effektiv lösning för helt autonoma och hållbara kommunikationsnät. De flesta av de relaterade verk som presenteras i litteraturen är baserade på specifika (och småskaliga) nätverksstrukturer, som även om de ger användbara insikter om de potentiella fördelarna med RF-EH-tekniken, inte kan karakterisera prestandan hos allmänna nätverk. I detta dokument, vi antar en storskalig strategi för RF-EH-teknik och vi karakteriserar prestanda ett nätverk med slumpmässigt antal sändare-mottagare par med hjälp av stokastisk-geometri verktyg. Specifikt, vi analyserar avbrottsannolikheten prestanda och den genomsnittliga skördade energi, när mottagare använder strömdelning (PS) teknik för "samtidig" information och energiöverföring. Ett icke-kooperativt system, där information/energi endast förmedlas via direkta länkar, beaktas för det första och systemets avbrottsprestanda samt den genomsnittliga avverkade energin erhålls i sluten form i funktion av kraftdelningen. För detta protokoll, ett intressant optimeringsproblem som minimerar den överförda effekten under avbrott sannolikhet och skördebegränsningar, är formulerad och löst i sluten form. Dessutom studerar vi ett samarbetsprotokoll där källöverföringar stöds av ett slumpmässigt antal potentiella reläer som slumpmässigt distribueras in i nätverket. I detta fall kan information/energi tas emot vid varje destination via två oberoende och ortogonala vägar (vid återutläggning). Vi karakteriserar både prestandamått, när ett urval kombinerar schema tillämpas på mottagarna och ett enda relä väljs slumpmässigt för kooperativ mångfald. | För det storskaliga nätverket studerade Krikidis det kooperativa reläprotokollet för att visa kompromissen mellan avbrottsprestandan och den trådlösa energiöverföringen (WET) REF. | 11,125,784 | Simultaneous Information and Energy Transfer in Large-Scale Networks with/without Relaying | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 80,866 |
Abstract-Head-pose uppskattning har många tillämpningar, såsom social händelseanalys, människa-robot och människa-dator interaktion, körhjälp, och så vidare. Uppskattning av huvudet är utmanande eftersom det måste klara av ändrade belysningsförhållanden, variationer i ansiktets orientering och utseende, partiella ocklusioner av ansiktsmarkeringar, samt gränsande-box-till-face justeringsfel. Vi föreslår tu använda en blandning av linjär regression med delvis latent utgång. Denna regressionsmetod lär sig att kartlägga högdimensionella vektorer (utdragna från avgränsande lådor av ansikten) på det gemensamma utrymmet av huvud-pose vinklar och gränsande-box skift, så att de är robust förutspådd i närvaro av omärkliga fenomen. Vi beskriver i detalj den kartläggningsmetod som kombinerar fördelarna med oövervakade mångfaldiga inlärningsmetoder och av blandningar av regression. Vi validerar vår metod med tre allmänt tillgängliga dataset och vi jämför noggrant fyra varianter av den föreslagna algoritmen med flera state-of-the-art head-pose skattningsmetoder. | Drouard m.fl. REF använde en blandning av linjär regression med delvis latent utgång som lär sig att kartlägga högdimensionella funktionsvektorer (utdragna från avgränsande lådor av ansikten) på det gemensamma utrymmet av head-pose vinklar och avgränsande-box skift genom oövervakade mångfaldiga lärande så att de kan robust förutsägas i närvaro av oobserverbara fenomen. | 13,045,665 | Robust Head-Pose Estimation Based on Partially-Latent Mixture of Linear Regressions | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Medicine', 'Computer Science']} | 80,867 |
Abstrakt. Injektionssårbarheter utgör ett stort hot mot säkerheten på applikationsnivå. Några av de vanligaste typerna är SQL injektion, crosssite scripting och skal injektion sårbarheter. Befintliga metoder för att försvara mot injektionsattacker, det vill säga attacker som utnyttjar dessa sårbarheter, är starkt beroende av programutvecklare och därför felbenägna. I den här artikeln introducerar vi CSSE, en metod för att upptäcka och förhindra injektionsattacker. CSSE arbetar genom att ta itu med grundorsaken till varför sådana attacker kan lyckas, nämligen ad-hoc serialisering av användartillhandahållen inmatning. Det ger en plattformsförstärkt separation av kanaler, med hjälp av en kombination av tilldelning av metadata till användartillhandahållen inmatning, metadatabevarande strängoperationer och kontextkänslig strängutvärdering. CSSE kräver varken programutvecklare interaktion eller program källkod ändringar. Eftersom endast ändringar i den underliggande plattformen behövs, det effektivt förskjuter bördan av att genomföra motåtgärder mot injektionsattacker från de många programutvecklare till den lilla gruppen av säkerhetskunniga plattformsutvecklare. Vår metod är effektiv mot de flesta typer av injektionsattacker, och vi visar att den också är mindre felbenägen än andra lösningar som hittills föreslagits. Vi har utvecklat en prototyp CSSE implementering för PHP, en plattform som är särskilt benägna att dessa sårbarheter. Vi använde vår prototyp med phpBB, ett välkänt anslagstavlaprogram, för att validera vår metod. CSSE upptäckte och förhindrade alla SQL-injektionsattacker som vi kunde reproducera och som endast uppkom under rimlig tid. | Pietraszek och Vanden Berghe REF presenterar en enhetlig bild av injektionssårbarheter och beskriver ett allmänt tillvägagångssätt för att upptäcka och förhindra injektionsattacker. | 6,771,976 | Defending Against Injection Attacks Through Context-Sensitive String Evaluation | {'venue': 'RAID', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 80,868 |
Scentext detektionsmetoder som bygger på djupt lärande har uppnått anmärkningsvärda resultat under de senaste åren. På grund av den stora mångfalden och komplexiteten i naturliga scener kan dock tidigare toppmoderna metoder för att upptäcka text fortfarande producera en betydande mängd falska positiva, när de tillämpas på bilder som fångas i verkliga miljöer. För att ta itu med denna fråga, främst inspirerad av Mask R-CNN, föreslår vi i detta dokument en effektiv modell för scentextdetektering, som bygger på Feature Pyramid Network (FPN) och exempelsegmentering. Vi föreslår ett övervakat pyramidkontextnätverk (SPCNET) för att exakt lokalisera textregioner och samtidigt undertrycka falska positiva. Med hjälp av vägledningen för semantisk information och delning av FPN får SPCNET betydligt bättre prestanda samtidigt som marginell extra beräkning införs. Experiment på standarddata visar att vår SPCNET klart överträffar start-of-the-art metoder. Särskilt uppnås en F-åtgärd på 92,1 % på ICDAR2013, 87,2 % på ICDAR2015, 74,1 % på ICDAR2017 MLT och 82,9 % på Total-Text. | SPCNET REF baseras på Mask R-CNN, det föreslår en metod som heter Supervised Pyramid Context Network för att lokalisera textregioner exakt. | 53,790,237 | Scene Text Detection with Supervised Pyramid Context Network | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 80,869 |
Sammanfattning —Vi föreslår en flexibel ny teknik för att enkelt kalibrera en kamera. Det krävs bara att kameran observerar ett planart mönster som visas på några (minst två) olika riktningar. Antingen kameran eller det plana mönstret kan flyttas fritt. Förslaget behöver inte vara känt. Radiell lins förvrängning är modellerad. Det föreslagna förfarandet består av en sluten lösning, följt av en icke-linjär förfining baserad på kriteriet om maximal sannolikhet. Både Vår nuvarande forskning är fokuserad på ett desktop vision system (DVS) eftersom potentialen för att använda DVS är stor. Kamerorna blir billiga och allestädes närvarande. En DVS riktar sig till allmänheten som inte är experter på datorseende. En typisk datoranvändare kommer att utföra vision uppgifter endast då och då, så de kommer inte att vara villiga att investera pengar för dyr utrustning. Därför är flexibilitet, robusthet och låga kostnader viktiga. Den kamerakalibreringsteknik som beskrivs i detta papper utvecklades med dessa överväganden i åtanke. Den föreslagna tekniken kräver bara att kameran observerar ett planarmönster som visas på några (minst två) olika riktningar. Mönstret kan skrivas ut på en laserskrivare och fästas på en areasonableo plan yta (t.ex. ett bokomslag). Antingen kameran eller det plana mönstret kan flyttas för hand. Förslaget behöver inte vara känt. Den föreslagna metoden, som använder 2D-metrisk information, ligger mellan den fotogrammetriska kalibreringen, som använder explicit 3D-modell, och självkalibrering, som använder rörelsestyvhet eller motsvarande implicit 3D-information. Både datorsimulering och verkliga data har använts för att testa den föreslagna tekniken och mycket goda resultat har erhållits. Jämfört med klassiska tekniker är den föreslagna tekniken betydligt mer flexibel: Vem som helst kan göra ett kalibreringsmönster av sig själv och installationen är mycket enkel. Jämfört med självkalibrering får den en betydande grad av robusthet. Vi tror att den nya tekniken avancerar 3D-datorseendet ett steg från laboratoriemiljöer till den verkliga världen. Observera att Triggs [22] nyligen utvecklat en självkalibreringsteknik från minst fem vyer av en planar scen. Hans teknik är mer flexibel än vår, men har svårt att initiera. Liebowitz och Zisserman [13] beskrev en metod för metrisk upprätande för perspektivbilder av plan med hjälp av metriska uppgifter, t.ex. en känd vinkel, två lika om än okända vinklar och ett känt längdförhållande. De nämnde också att kalibrering av de interna kameraparametrarna är möjlig förutsatt att minst tre sådana rektifierade plan, även om inga experimentella resultat har visats. Under revideringen av detta papper märker vi publiceringen av ett oberoende men liknande arbete av Sturm och Maybank [21].De använder en förenklad kameramodell (bildaxlar är ortogonala för varandra) och har studerat de degenererade konfigurationerna uttömmande för fallet med ett och två plan, som är mycket viktiga i praktiken om bara en eller två vyer används för kamerakalibrering. Papperet är organiserat enligt följande: Avsnitt 2 beskriver de grundläggande begränsningarna från att observera ett enda plan. I avsnitt 3 beskrivs kalibreringsförfarandet. Vi börjar med en sluten lösning, följt av ickelinjär optimering. Radiell lins förvrängning är också modellerad. Avsnitt 4 ger de experimentella resultaten. Både datorsimulering och verkliga data används för att validera den föreslagna tekniken. I tillägget ger vi ett antal detaljer, inklusive tekniker för att uppskatta homografin mellan modellplanet och dess bild. Vi undersöker begränsningarna i kamerans inneboende parametrar genom att observera ett enda plan. Vi börjar med den notation som används i denna tidning. | Dessa mittpunkter användes sedan för kamerakalibrering med Zhangs algoritm REF. | 1,150,626 | A flexible new technique for camera calibration | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 80,870 |
Vi studerar datorer alla-par kortaste vägar (APSP) på distribuerade nätverk (CONGEST-modellen). Målet är att varje nod i det (viktade) nätverket ska känna till avståndet från varje annan nod med hjälp av kommunikation. Problemet medger (1+o(1))-uppskattning Õ(n)-tidsalgoritmer [2], [3], som matchas med en (n)-tid lägre gränser [3], [4], [5] 1. Ingen nedre gräns eller o(m) övre gräns var känd för exakt beräkning. I detta dokument presenterar vi en Õ(n 5/4 )-tids randomiserad (Las Vegas) algoritm för exakt viktad APSP; detta ger den första förbättringen jämfört med den naiva O(m)-tidsalgoritmen när nätverket inte är så sparsamt. Vårt resultat håller också för fallet där kantvikter är asymmetriska (alias. Det riktade fallet där kommunikationen är dubbelriktad. Våra tekniker ger också en Õ(n 3/4 k 1/2 + n)-tidsalgoritm för ksource kortaste banor problem där vi vill att varje nod ska veta avstånd från k källor; detta förbättrar Elkin nyligen bundna [6] när k = på 1/4 ). Vi uppnår ovanstående resultat genom att utveckla distribuerade algoritmer ovanpå den klassiska skaltekniken, som vi tror används för första gången för distribuerade kortaste vägar beräkning. En ny algoritm som kan vara av oberoende intresse är för den omvända r-sänk kortaste vägar problem, där vi vill att varje r sänkor att veta sina avstånd från alla andra noder, med tanke på att varje nod redan vet sitt avstånd till varje diskbänk. Vi visar en Õ(n ε r)-tidsalgoritm för detta problem. En annan ny algoritm kallas kortdistansförlängning, där vi visar att kunskaperna om avstånd kan "utökas" för ytterligare h humle. För detta använder vi viktavrundning för att införa små additiva fel som kan fastställas senare. Anmärkning: Oberoende av vårt resultat konstaterade Elkin nyligen [6] att samma tekniker från en tidigare version av samma tidning (https://arxiv.org/abs/1703.01939v1) ledde till en O(n 5/3 log 2/3 n)-tidsalgoritm. | För den exakta viktade versionen var den första förbättringen jämfört med den naiva O(m)-tidsalgoritmen på grund av Huang et al. REF, som presenterade en randomiserad O(n 5/4 )-tid algoritm som bär likhet med våra metoder baserat på skelett noder (som de kallar "centra"). | 3,422,766 | Distributed Exact Weighted All-Pairs Shortest Paths in Õ(n^{5/4}) Rounds | {'venue': '2017 IEEE 58th Annual Symposium on Foundations of Computer Science (FOCS)', 'journal': '2017 IEEE 58th Annual Symposium on Foundations of Computer Science (FOCS)', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 80,871 |
Händelseextrahering är en särskilt utmanande typ av informationsextrahering (IE). De flesta nuvarande system för extrahering av händelser bygger på lokal information på fras- eller meningsnivå. Detta lokala sammanhang kan dock vara otillräckligt för att lösa oklarheter när det gäller att identifiera vissa typer av händelser; information från ett bredare perspektiv kan bidra till att lösa vissa av dessa tvetydigheter. I det här dokumentet använder vi dokumentnivåinformation för att förbättra prestandan för ACE-extrahering av händelser. I motsats till tidigare arbete begränsar vi oss inte till information om händelser av samma typ, utan använder information om andra typer av händelser för att göra förutsägelser eller lösa tvetydigheter gällande en viss händelse. Vi lär oss sådana relationer av träningens corpus och använder dem för att förutsäga händelser och händelseargument i en text. Experiment visar att vi kan få 9,0% (absolut) vinst i utlösa (händelse) klassificering, och mer än 8% vinst för argument (roll) klassificering i ACE händelse extraktion. | REF tillämpar dokumentnivåinformation för att förbättra prestandan vid händelseextrahering. | 11,187,670 | Using Document Level Cross-Event Inference to Improve Event Extraction | {'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 80,872 |
Semantisk bildinmålning är en utmanande uppgift där stora saknade regioner måste fyllas utifrån tillgängliga visuella data. Befintliga metoder som endast tar fram information ur en enda bild ger i allmänhet otillfredsställande resultat på grund av bristen på sammanhang på hög nivå. I detta dokument föreslår vi en ny metod för semantisk bildinmålning, som genererar det saknade innehållet genom konditionering av tillgängliga data. Med tanke på en utbildad generativ modell söker vi efter den närmaste kodningen av den skadade bilden i det latenta bildgrenröret med hjälp av vårt sammanhang och tidigare förluster. Denna kodning skickas sedan genom den generativa modellen för att härleda det saknade innehållet. I vår metod är det möjligt att dra slutsatser oavsett hur det saknade innehållet är strukturerat, medan den senaste inlärningsbaserade metoden kräver specifik information om hålen i träningsfasen. Experiment på tre datauppsättningar visar att vår metod framgångsrikt förutspår information i stora saknade regioner och uppnår pixel-nivå fotorealism, avsevärt överträffar de state-of-the-art metoder. | I ansiktet måla arbete Yeh et al. REF, de söker i garderoben kodning i latent bildgrenrör för att få en slutsats om hur det saknade innehållet bör struktureras, som förutsäger information i stora saknade regioner och uppnå tilltalande resultat. | 24,005,817 | Semantic Image Inpainting with Deep Generative Models | {'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 80,873 |
Abstract-många problem i den verkliga världen är dynamiska där miljön förändras. Själva naturen erbjuder dock lösningar för anpassning till dessa förändringar för att uppnå största möjliga nytta, dvs. Att hitta det globala optimala, när som helst. En av dessa lösningar är dvala av djur när det är ont om mat och ett djur kan använda mer energi för att söka efter mat än det skulle få av att konsumera maten. I den här artikeln tillämpade vi idén om dvala i en flervarm optimeringsalgoritm, där en moder svärm utforskar sökområdet och barn svärmar utnyttja lovande områden som finns av förälder svärmen. I den föreslagna modellen, så fort ett barns sökande efter att ha utnyttjat ett område blir improduktivt, dvalas barnet i dvala. | REF, idén om dvala tillämpades i en PSO optimering algoritm, där en förälder svärm utforskar sökområdet och barn svärmar utnyttja lovande områden som finns av förälder svärmen. | 12,385,338 | A hibernating multi-swarm optimization algorithm for dynamic environments | {'venue': '2010 Second World Congress on Nature and Biologically Inspired Computing (NaBIC)', 'journal': '2010 Second World Congress on Nature and Biologically Inspired Computing (NaBIC)', 'mag_field_of_study': ['Computer Science']} | 80,874 |
Guimerà och Amaral finner att låggradiga metaboliter som ansluter olika moduler är mer bevarade än nav vars länkar är mestadels inom en enda modul. Om man skall kunna hämta den viktiga informationen från topologin i ett stort komplext nätverk, är kunskapen om varje nods roll av avgörande betydelse. En kartografisk analogi är till hjälp för att belysa detta. Tänk på det nätverk som bildas av alla städer och städer i ett land-noder-och alla vägar som ansluter dem-länkarna. Det är uppenbart att en karta där varje stad och stad representeras av en cirkel av fast storlek och varje väg representeras av en linje med fast bredd knappast är användbar. I stället betonar verkliga kartor huvudstäder och viktiga kommunikationslinjer så att man kan få skalspecifik information med en blick. På samma sätt är det svårt, om inte omöjligt, att få information från ett nätverk med hundratals eller tusentals noder och länkar, om inte informationen om noder och länkar är bekvämt sammanfattad. Detta gäller särskilt biologiska nätverk. Här föreslår vi en metod, som bygger på anslutning av noderna, som ger en "kartografisk representation" av ett komplext nätverk. Det första steget i vår metod är att identifiera de funktionella modulerna 4,5 i nätverket. I den kartografiska bilden är modulerna jämförbara med länder eller regioner och möjliggör en grovkornig, och därmed förenklad, beskrivning av nätverket. Sedan klassificerar vi noderna i nätverket i ett litet antal systemoberoende "universella roller". Moduler. Det är en fråga om gemensam erfarenhet att sociala nätverk har samhällen med starkt sammankopplade noder som är mindre anslutna till noder i andra samhällen. Sådana modulära strukturer har rapporterats inte bara i sociala nätverk 5, 10, 11, 12, men också i livsmedelsnät 13 och biokemiska nätverk 4, 14, 15, 16. Det anses allmänt att den modulära strukturen av komplexa nätverk spelar en avgörande roll i deras funktionalitet 4, 14, 16. Det finns därför ett tydligt behov av att utveckla algoritmer för att identifiera moduler exakt 5, 11, 17,18, 19, 20. Vi identifierar moduler genom att maximera nätverkets modularitet 11,18,21 med hjälp av simulerad glödgning 22 (se Metoder). Simulerad glödgning gör det möjligt för oss att utföra en omfattande sökning och minimera problemet med att hitta suboptimala partitioner. Det är värt att notera att i vår metod, Letter to Nature Guimerà och Amaral man inte behöver ange ett priori antalet moduler; snarare, detta nummer är ett resultat av algoritmen. Vår algoritm, som avsevärt överträffar den bästa algoritmen i litteraturen, kan på ett tillförlitligt sätt identifiera moduler i ett nätverk vars noder har så många som 50% av sina anslutningar utanför sin egen modul (Fig. 1).................................................................. Roller i modulära nätverk. Det är rimligt att anta att noderna i ett nätverk är anslutna enligt den roll de fyller. Detta faktum har länge erkänts i analysen av sociala nätverk 23. Till exempel, i en klassisk hierarkisk organisation, är VD inte direkt kopplad till anläggningsanställda utan är ansluten till styrelseledamöterna. Viktigt, ett sådant uttalande innehar för praktiskt taget alla organisationer, det vill säga, rollen som VD definieras oavsett vilken organisation man anser. Vi föreslår en ny metod för att avgöra vilken roll en nod spelar i ett komplext nätverk. Vår strategi bygger på tanken att noder med samma roll ska ha liknande topologiska egenskaper 24 (se Kompletterande information för en diskussion om hur vår strategi förhåller sig till tidigare arbete). Vi antar att rollen av en nod kan bestämmas, i stor utsträckning, av dess inommodul grad och dess deltagarkoefficient, som definierar hur noden är placerad i sin egen modul och med avseende på andra moduler 25, 26 (se Metoder). Dessa två egenskaper är lätt att beräkna när modulerna i ett nätverk är kända. Den inommodul grad z i mäter hur "väl ansluten" nod i är till andra noder i modulen. Höga värden av z i indikerar hög inom modul grader och vice versa. Deltagarkoefficienten P i mäter hur "väldistribuerade" länkarna till node i är bland olika moduler. Deltagarkoefficienten P i är nära en om dess länkar är jämnt fördelade mellan alla moduler och noll om alla länkar är inom sin egen modul. Vi definierar heuritiskt sju olika "universella roller", var och en definierad av en annan region i zP-parametrarna-rymden (Fig. 2).................................................................. Enligt inommodul grad, vi klassificera noder med z ≥ 2.5 som modul nav och noder z < 2.5 som icke-hubs. Både nav och icke-hub noder kännetecknas då mer fint genom att använda värdena för deltagarkoefficienten (se Kompletterande information för en detaljerad motivering av detta klassificeringssystem, och för en 3 Letter to Nature Guimerà och Amaral diskussion om möjliga alternativ). Vi finner att icke-hub noder kan naturligt delas in i fyra olika roller: (R1) ultraperifera noder, d.v.s. noder med alla dess länkar inom sin modul (P ≤ 0,05); (R2) perifera noder, dvs. noder med de flesta länkar inom sin modul (0,05 < P ≤ 0,62); (R3) icke-hub koppling noder, dvs. noder med många länkar till andra moduler (0,62 < P ≤ 0,80); och (R4) icke-hub kinless noder, dvs. noder med länkar homogent fördelade bland alla moduler (P > 0,80). Vi finner att navnoder naturligt kan delas in i tre olika roller: (R5) provinsnav. d.v.s. navnoder med de allra flesta länkar inom sin modul (P ≤ 0,30); (R6) anslutningsnav, dvs. nav med många länkar till de flesta av de andra modulerna (0,30 < P ≤ 0,75); och (R7) kinlessnav, dvs. nav med länkar homogent fördelade mellan alla moduler (P > 0,75). För att testa tillämpligheten av vårt förhållningssätt till komplexa biologiska nätverk, anser vi det metaboliska nätverket 6,7, 14, 8,9 av tolv organismer: Därefter identifierar vi vilken roll varje metabolit har. På bild. 2b visar vi de roller som identifierats i det metaboliska nätverket av E. coli. Anmärkningsvärt nog uppvisar andra organismer en liknande fördelning av noderna i de olika rollerna, även om de motsvarar organismer som är mycket avlägsna från en evolutionär ståndpunkt (se Kompletterande Information). Roll R1, som innehåller ultraperifera metaboliter med liten grad och inga mellanmodulerade länkar, omfattar 76–86 % av alla metaboliter i nätverken. Detta förenklar avsevärt den grovkorniga representationen av nätverket eftersom dessa noder inte behöver identifieras separat. Observera att enbart detta resultat utgör ett viktigt steg mot målet att ta fram skalspecifik information från komplexa nätverk. Informationen om moduler och roller gör det möjligt för oss att bygga en "kartografisk representation" av det metaboliska nätverket av exempelvis E. coli (Fig. 3)............................................................... Denna representation gör det möjligt för oss att få tillbaka relevant biologisk information. Till exempel, vi finner att ämnesomsättningen är mestadels organiseras runt modulen som innehåller pyru- Letter to Nature Guimerà och Amaral vade, som i sin tur är starkt ansluten till modulen vars nav är acetyl-CoA. Dessa två molekyler är nyckeln till att ansluta metabolismen av kolhydrater, aminosyror och lipider till den TCA cykel från vilken ATP erhålls. Dessa två moduler är kopplade till mer perifera av viktiga metaboliter såsom D-glyceraldehyd 3-fosfat och D-fruktos 6-fosfat (som ansluter till glukos- och galaktosmetabolismen), D-ribos 5-fosfat (som ansluter till metabolismen av vissa nukleotider) och glyceronfosfat (som ansluter till metabolismen av vissa lipider). Viktigt är att vår analys också avslöjar noder med viktiga kontaktroller som endast deltar i en liten men grundläggande uppsättning reaktioner. Till exempel deltar N-karbamoyl-L-aspartat endast i tre reaktioner, men det är viktigt eftersom det kopplar pyrimidinmetabolismen, vars nav är uracil, till kärnan i metabolismen genom alanin- och aspartatmetabolismen. Den potentiella betydelsen av sådana icke-skrovkopplingar pekar på ett annat övervägande. Det är en rimlig hypotes att noder med olika roller befinner sig under olika evolutionära begränsningar och påfrestningar. I synnerhet förväntar man sig att noder med strukturellt relevanta roller är mer nödvändiga och därför mer bevarade över olika arter. För att kvantifiera relationen mellan roller och bevarande definierar vi förlusthastigheten p förlorade (R) (se Metoder). Strukturellt relevanta roller förväntas ha låga värden av p förlorade (R) och vice versa. Anmärkningsvärt nog finner vi att de olika rollerna faktiskt har olika förlustnivåer (Fig. 4)................................................................. Som förväntat har ultraperifera noder (roll R1) den högsta förlusthastigheten medan anslutningsnav (roll R6) är de mest bevarade över alla berörda arter. Resultaten för jämförelsen av p förlorade (R) för ultra-perifera noder och anslutningsnav är belysande, men knappast förvånande. Jämförelsen av p förlorade (R) för icke-hub kontakter (roll R3) och provinsiella nav (roll R5), dock ger ett överraskande och anmärkningsvärt resultat. Metaboliterna i den provinsiella nav klass har många inom modul anslutningar, ibland så mycket som fem standardavvikelser fler anslutningar än den genomsnittliga noden i modulen. Omvänt, icke-hub kontaktmetaboliter har få kopplingar i förhållande till andra noder i sina moduler-och färre totala anslutningar än metaboliterna i roll R5 (se Kompletterande figurer. S12b,c). 6 Letter to Nature Guimerà och Amaral länkar av icke-hub anslutningar, dock, är fördelade på flera olika moduler, medan länkarna till provinsiella nav är främst inom sina moduler. Vi finner att icke-hub kontakter är systematiskt och betydligt mer bevarade än provinsiella nav metaboliter (Fig. 4)................................................................. En möjlig förklaring till den höga graden av bevarande av icke-hub kontakter är följande. Anslutningsnoder är ansvariga för inter-modulflöden. Dessa moduler är, annars, dåligt anslutna eller inte alls anslutna till varandra, så elimineringen av kontaktmetaboliter kommer sannolikt att ha en stor inverkan på den globala strukturen av flöden i nätverket. Tvärtom kan de vägar där provinsiella nav är inblandade backas upp inom modulen, på ett sådant sätt att eliminering av dessa metaboliter kan ha en jämförelsevis mindre inverkan, som dessutom sannolikt skulle begränsas till modulen som innehåller provinsnav. Våra resultat pekar därför på behovet av att betrakta varje komplext biologiskt nätverk som helhet, istället för att fokusera på lokala fastigheter. I proteinnätverk, till exempel, har det rapporterats att nav är viktigare än non-hubs 30. Trots relevansen av en sådan upptäckt, våra resultat tyder på att den globala roll noderna i nätverket kan vara en bättre indikator på deras betydelse än grad 26. Vår "kartografi" ger en skalspecifik metod för att bearbeta informationen i komplexa nätverk och för att ta fram kunskap om den funktion som nätverket och dess komponenter utför. En öppen fråga är hur man anpassar nuvarande moduldetekteringsalgoritmer till nätverk med hierarkisk struktur. För metaboliska nätverk, ett jämförelsevis väl studerat och väl förstått fall, vår metod gör att vi kan återhämta fast etablerade biologiska fakta, och att avslöja viktiga nya resultat, såsom betydande bevarande av icke-hub kontaktmetaboliter. Liknande resultat kan förväntas när vår metod tillämpas på andra komplexa nätverk som inte är lika väl studerade som metaboliska nätverk. Bland dessa kan proteininteraktion och genreglering nätverk vara den mest betydande. Letter to Nature Guimerà and Amaral Methods För en given partition av noderna i ett nätverk till moduler, modularity M av denna partition är 11, 18, 21 där N M är antalet moduler, L är antalet länkar i nätverket, l s är antalet länkar mellan noder i modul s, och d s är summan av grader av noderna i modul s. Motiveringen för denna definition av moduläritet är följande. En bra delning av ett nätverk till moduler måste omfatta många inom modullänkar och så få som möjligt mellan modullänkar. Men om man bara försöker minimera antalet mellan-modul länkar (eller, motsvarande, maximera antalet inom-modul länkar) den optimala partitionen består av en enda modul och inga mellan-modul länkar. Ekvation (1) behandlar denna svårighet genom att införa att M = 0 om noder placeras slumpmässigt i moduler eller om alla noder är i samma kluster 11, 18, 21. Målet med en modulidentifieringsalgoritm är att hitta partitionen med största moduläritet, och flera metoder har föreslagits för att uppnå ett sådant mål. De flesta av dem förlitar sig på heuristiska förfaranden och använder M-eller en liknande åtgärd endast för att bedöma deras prestanda. Däremot använder vi simulerad glödgning 22 för att hitta partitionen med den största moduläriteten. Simulerad glödgning 22 är en stokastisk optimeringsteknik som gör det möjligt att hitta "låg kostnad" konfigurationer utan att fastna i "högkostnads" lokala minima. Detta uppnås genom att införa en beräkningstemperatur T. När T är hög, systemet kan utforska konfigurationer av hög kostnad medan vid låg T systemet bara utforskar låg kostnad regioner. Genom att börja vid hög T och långsamt minska T, sänker systemet gradvis mot djupa minima, så småningom övervinna små kostnadsbarriärer. Brev till naturen När moduler identifieras är målet att maximera modulariteten och därmed är kostnaden C = – M, där M är modulariteten enligt definitionen i Eq. 1 )............................................................................................................... Vid varje temperatur utför vi ett antal slumpmässiga uppdateringar och accepterar dem med sannolikhet där C f är kostnaden efter uppdateringen och C i är kostnaden innan uppdateringen. Särskilt vid varje T föreslår vi n i = f S 2 individuella nodrörelser från en modul till en annan, där S är antalet noder i nätverket. Vi föreslår också n c = f S kollektiva rörelser, som antingen innebär sammanslagning två moduler eller dela en modul. För f brukar vi välja f = 1. Efter rörelserna utvärderas vid en viss T, Systemet kyls ner till T ′ = cT, med c = 0,995. Varje modul kan organiseras på mycket olika sätt, allt från helt centraliserad-med en eller några noder anslutna till alla andra-till helt decentraliserade-med alla noder har liknande anslutningar. Noder med liknande roller förväntas ha liknande relativa inom modulanslutning. Om i är antalet länkar av node i till andra noder i dess modul s i, σ s i är genomsnittet av σ över alla noder i s i, och σ σs i är standardavvikelsen av σ in s i, sedan är den så kallade z-poäng. Den inommodul grad z-score mäter hur "väl ansluten" nod i är till andra noder i modulen. Olika roller kan också uppstå på grund av kopplingar av en nod till andra moduler än sin egen. Till exempel, två noder med samma z-poäng spelar olika roller om en av dem är ansluten till flera noder i andra moduler medan den andra inte. Vi definierar deltagarkoefficienten P i node i som brev till naturen där δ är antalet länkar av nod i till noder i modul s, och k i är den totala graden av nod i. Deltagandekoefficienten för en nod är därför nära en om dess länkar är jämnt fördelade mellan alla moduler och noll om alla dess länkar är inom sin egen modul. För att kvantifiera relationen mellan roller och bevarande beräknar vi i vilken utsträckning metaboliter bevaras i de olika arterna beroende på vilken roll de spelar. Särskilt för ett par arter, A och B, definierar vi förlustfrekvensen som sannolikheten för att en metabolit inte finns i en av arterna (R A = 0) med tanke på att den spelar roll R i den andra arten (R B = R). Strukturellt relevanta roller förväntas ha låga värden av p förlorade (R) och vice versa. | Guimerà och Amaral REF optimerade också modulariteten genom simulerad glödgning för att hitta funktionella moduler i metaboliska nätverk. | 604,593 | Functional cartography of complex metabolic networks | {'venue': 'Nature 433, 895-900 (2005)', 'journal': None, 'mag_field_of_study': ['Biology', 'Physics', 'Medicine']} | 80,875 |
Interaktiva system måste svara på användarens inmatning inom några sekunder. Därför, för att skapa realtid crowd-driven gränssnitt, vi behöver dramatiskt lägre crowd latency. I denna tidning introducerar vi användningen av synkrona skaror för ondemand, i realtid crowdsourcing. Med synkrona skaror kan systemen dynamiskt anpassa uppgifterna genom att utnyttja det faktum att arbetstagarna är närvarande samtidigt. Vi utvecklar tekniker som rekryterar synkrona skaror på två sekunder och använder dem för att utföra komplexa sökuppgifter på tio sekunder. Den första tekniken, reservmodellen, betalar arbetarna en liten lön för att vänta och svara snabbt på frågan. Vi erbjuder empiriskt härledda riktlinjer för ett reservsystem som är billigt och producerar folkmassor på begäran på två sekunder. Vår andra teknik, snabb förfining, observerar tidiga tecken på enighet i synkrona skaror och minskar dynamiskt sökytan för att fokusera på lovande riktningar. Detta tillvägagångssätt ger resultat som i genomsnitt är av mer tillförlitlig kvalitet och anländer snabbare än den snabbaste gruppmedlem som arbetar ensam. För att utforska fördelarna och begränsningarna med dessa tekniker för interaktion, presenterar vi tre tillämpningar: Adrenaline, en crowd powered kamera där arbetare snabbt filtrerar en kort video ner till den bästa enskilda ögonblick för ett foto; och Puppeter och A och B, som undersöker kreativa generation uppgifter, kommunikation med arbetare, och låg-latent röstning. | REF föreslog att synkrona skaror skulle användas för att skapa crowd-drivna gränssnitt i realtid med dramatiskt lägre crowd latency. | 6,921,166 | Crowds in two seconds: enabling realtime crowd-powered interfaces | {'venue': "UIST '11", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 80,876 |
Abstrakt. Vi presenterar en metod för att upptäcka objekt i bilder med hjälp av ett enda djupt neuralt nätverk. Vårt tillvägagångssätt, som heter SSD, diskretiserar utdatautrymmet för att avgränsa rutor till en uppsättning standardrutor över olika proportioner och skalor per funktion kartplats. Vid förutsägelsetid genererar nätverket poäng för närvaron av varje objektkategori i varje standardruta och skapar justeringar i rutan för att bättre matcha objektets form. Dessutom kombinerar nätverket förutsägelser från flera funktionskartor med olika upplösningar för att naturligt hantera objekt i olika storlekar. SSD är enkel i förhållande till metoder som kräver objektförslag eftersom det helt eliminerar förslagsgenerering och efterföljande pixel eller funktion omampling stadier och inkapslar all beräkning i ett enda nätverk. Detta gör SSD lätt att träna och enkelt att integrera i system som kräver en detektionskomponent. Experimentella resultat på PASCAL VOC, COCO och ILSVRC datauppsättningar bekräftar att SSD har konkurrenskraftig noggrannhet till metoder som utnyttjar ytterligare ett objektförslag steg och är mycket snabbare, samtidigt som det ger en enhetlig ram för både utbildning och slutsatser. För 300 × 300 indata uppnår SSD 74,3 % mAP 1 på VOC2007-test vid 59 FPS på en Nvidia Titan X och för 512 × 512 indata uppnår SSD 76,9 % mAP, vilket resulterar i en jämförbar toppmodern snabbare R-CNN-modell. Jämfört med andra enstaka steg metoder, SSD har mycket bättre noggrannhet även med en mindre indata bildstorlek. Koden finns på https://github.com/weiliu89/caffe/tree/ssd. | SSD REF gör förutsägelse från flera funktioner karta med flera skalor standard rutor. | 2,141,740 | SSD: Single Shot MultiBox Detector | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 80,877 |
Abstrakt. Ubiquitous in-network caching är en av de viktigaste aspekterna av informationscentriska nätverk (ICN) som nyligen har fått brett forskningsintresse. I ett av de viktigaste relevanta förslagen som kallas Networking Named Content (NNC) är premissen att utnyttja cachelagring i nätverk för att lagra innehåll i varje nod som den passerar längs leveransvägen kan förbättra leveransen av innehåll. Vi ifrågasätter en sådan urskillningslös universell cachingstrategi och undersöker om caching mindre faktiskt kan uppnå mer. Specifikt, vi undersöker om caching endast i en delmängd av nod(er) längs innehåll leveransvägen kan uppnå bättre prestanda när det gäller cache och server träffhastigheter. I detta papper studerar vi först beteendet hos NNC: s allmänt förekommande caching och observera att även naiv slumpmässig caching på en mellanliggande nod inom leveransvägen kan uppnå liknande och, under vissa förhållanden, ännu bättre caching vinst. Vi föreslår en centralitetsbaserad cachingalgoritm genom att utnyttja begreppet (ego-nätverk) mellanhet centralitet för att förbättra caching-vinsten och eliminera osäkerheten i utförandet av den förenklade slumpmässiga caching-strategin. Våra resultat tyder på att vår lösning konsekvent kan uppnå bättre vinst över både syntetiska och verkliga nätverk topologier som har olika strukturella egenskaper. Nyckelord: Informationscentriska nätverk, cache, mellanhet centralitet. Informationscentriska nätverk (ICN) har nyligen fått stor uppmärksamhet, med olika forskningsinitiativ (t.ex. [4] och COMET [5] ) inriktade på detta framväxande forskningsområde. Huvudskälet till att förespråka avvikelsen från det nuvarande paradigmet för värd-till-värd-kommunikation till ett informations-/innehållscentrerat är att Internet för närvarande huvudsakligen används för tillgång till och leverans av innehåll, med en stor mängd digitalt innehåll (t.ex. 3D/HD-filmer, foton etc.) levereras till användare som bara är intresserade av det faktiska innehållet snarare än källplatsen. Som sådan behöver vi inte längre ett innehållsdistributionsramverk som stöds på inhemsk nivå. Medan Internet var utformat för och fortfarande fokuserar på värd-till-värd-kommunikation, ICN skiftar betoningen till innehåll objekt som kan cache och nås från var som helst inom nätverket snarare än från slutvärdarna bara. I ICN frikopplas innehållsnamn från värdadresser och skiljer effektivt rollen som identifierare och sökare i tydlig kontrast till nuvarande IP-adresser som tjänar båda syftena. Namnge innehåll direkt gör det möjligt att utnyttja caching i nätverk för att förbättra leveransen av populärt innehåll. Varje innehållsobjekt kan nu unikt identifieras och autentiseras utan att associeras till en specifik värd. Detta möjliggör applikationsoberoende cachelagring av innehållsbitar som kan återanvändas av andra slutanvändare som begär samma innehåll. I själva verket är en av de framträdande ICN-funktionerna i nätverk caching, med potentiellt varje nätverkselement (dvs router) caching alla innehåll fragment 1 som passerar det; i detta sammanhang, om en matchande begäran tas emot medan ett fragment fortfarande är i sin cache butik, kommer det att vidarebefordras till den begärande från det elementet, undvika att gå hela vägen till värdservern. Av de nuvarande ICN-metoderna förespråkar NNC [2] sådan urskillningslös innehållscachelagring. Vi hävdar att en sådan urskillningslös universell cachingstrategi är onödigt kostsam och suboptimal och försöker studera alternativa cachingstrategier i nätverk för att förbättra den övergripande prestandan för innehållsleverans. Vi tar upp den centrala frågan om caching endast vid en viss delmängd av noder på väg leveransvägen kan uppnå bättre vinst. Om ja, vilka är dessa noder att cache och hur kan vi välja dem? Vårt bidrag i denna studie är trefaldigt. För det första bidrar vi till förståelsen av allestädes närvarande caching i nätverkssystem genom att ge insikter i dess beteende för specifika topologityper. För det andra visar vi att selektiv istället för allestädes närvarande caching kan uppnå högre vinst även när man använder förenklade slumpmässiga urvalssystem. För det tredje föreslår vi ett centraliserat system för cachelagring genom att utnyttja begreppet (ego-nätverk) mellanhet som härrör från området för komplexa/sociala nätverksanalyser, där endast utvalda noder i innehållsleveransvägen cacheinnehåll. Motivet bakom en sådan selektiv caching strategi är att vissa noder har högre sannolikhet att få en cach hit jämfört med andra och genom att strategiskt caching innehållet vid "bättre" noder, kan vi minska cache vräkningsfrekvensen och, därför, öka den totala cach hit takten. I nästa avsnitt definierar vi systemet av intresse och layout våra argument och logik med ett motiverande exempel som illustrerar att caching mindre kan vara mer. Vi beskriver sedan vårt centralitetsbaserade cachesystem som genomgående kan överträffa allestädes närvarande cachelagring. Vi genomför en systematisk simuleringsstudie som undersöker parameterutrymmet för caching-systemen, som skiljer sig från det befintliga arbetet i nätverksanslutna caches som oftast anser topologier med mycket regelbunden struktur (t.ex. sträng- och trädtopologier [6] [7] [8]), med innehållskällan(erna) vanligtvis placerad på roten av topologin tvingar en känsla av riktning på innehållsflöden för dragbar modellering och approximation. Vi presenterar resultat för både vanliga och icke-regelbundna topologier, inklusive skalfria topologier vars egenskaper imiterar den verkliga Internettopologin. | På liknande sätt, Chai et al. REF visar att en högre cache-hit hastighet kan uppnås om innehållet är cachad vid hög mellanhet centralitet noder. | 192,552,459 | Cache “less for more” in information-centric networks | {'venue': 'in Proc. of the IFIP-TC6 Networking Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 80,878 |
Abstrakt. Vi implementerar en variant av algoritmen som beskrevs av Yarowsky och Ngai i [21] för att framkalla en HMM POS tagger för en godtycklig målspråk använder bara en befintlig POS tagger för ett källspråk och en oannoterad parallell corpus mellan källan och målspråk. Vi utökar detta arbete genom att projicera från flera källspråk till ett enda målspråk. Vi antar att systematiska överföringsfel från olika källspråk kommer att ta bort, förbättra kvaliteten på bootstrappade resurser i målspråket. Våra experiment bekräftar hypotesen. Varje experiment jämför tre fall: a) källdata kommer från ett enda språk A, b) källdata kommer från ett enda språk B, och c) källdata kommer från både A och B, men hälften så mycket från varje. Förutom källspråket hålls andra förhållanden konstanta i alla tre fallen - inklusive den totala mängden källdata som används. Nollhypotesen är att prestanda i det blandade fallet skulle vara ett genomsnitt av prestanda i enspråksfall, men i själva verket, blandade fall prestanda överstiger alltid det maximala av enspråksfall. Vi observerade denna effekt i alla sex experiment vi körde, med tre olika källspråk par och två olika målspråk. | Ref filtrera bort projektionsbuller genom att kombinera projektioner från flera källspråk. | 17,868,260 | Automatically Inducing a Part-of-Speech Tagger by Projecting from Multiple Source Languages Across Aligned Corpora | {'venue': 'Second International Joint Conference on Natural Language Processing: Full Papers', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 80,879 |
Abstract-Medan bildanpassning har studerats inom olika områden av datorseende i årtionden, är det fortfarande ett utmanande problem att anpassa bilder som skildrar olika scener. Analogt med optiskt flöde, där en bild är i linje med dess temporalt angränsande ram, föreslår vi SIFT flöde, en metod för att anpassa en bild till sina närmaste grannar i en stor bild corpus som innehåller en mängd olika scener. SIFT-flödesalgoritmen består av matchning av tätt samplade, pixelvis SIFT-funktioner mellan två bilder samtidigt som rumsliga diskontinuiteter bevaras. SIFT-funktionerna möjliggör robust matchning mellan olika scen-/objektutseenden, medan den rumsliga modellen för bevarande av diskontinuitet gör det möjligt att matcha objekt som finns på olika delar av scenen. Experiment visar att det föreslagna tillvägagångssättet på ett robust sätt anpassar komplexa scenpar som innehåller betydande rumsliga skillnader. Baserat på SIFT-flödet föreslår vi en anpassningsbaserad stor databasram för bildanalys och syntes, där bildinformation överförs från närmaste grannar till en frågebild enligt den täta scenkorrespondensen. Detta ramverk demonstreras genom konkreta tillämpningar såsom rörelsefältsförutsägelse från en enda bild, rörelsesyntes via objektöverföring, satellitbildsregistrering och ansiktsigenkänning. Index Terms-Scene-uppriktning, tät scenkorrespondens, SIFT-flöde, grovt till fint, trosutbredning, anpassningsbaserad stor databasram, satellitbildregistrering, ansiktsigenkänning, rörelseförutsägelse för en enda bild, rörelsesyntes via objektöverföring. | SIFT Flow REF använder tätt samplade SIFT-funktioner, som matchas mellan två bilder. | 10,458,500 | SIFT Flow: Dense Correspondence across Scenes and Its Applications | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 80,880 |
Vi undersöker metoder för att kombinera flera självövervakade uppgifter-d.v.s. övervakade uppgifter där data kan samlas in utan manuell märkning-in för att träna en enda visuell representation. Först ger vi en äppel-till-apples jämförelse av fyra olika självövervakade uppgifter med hjälp av den mycket djupa ResNet-101 arkitekturen. Vi kombinerar sedan uppgifter för att gemensamt utbilda ett nätverk. Vi utforskar också lasso legalisering för att uppmuntra nätverket att faktorisera informationen i sin representation, och metoder för att "harmonisera" nätverksingångar för att lära sig en mer enhetlig representation. Vi utvärderar alla metoder på ImageNet klassificering, PASCAL VOC detektion, och NYU djup förutsägelse. Våra resultat visar att djupare nätverk fungerar bättre, och att kombinera uppgifter-även via en naiv multihead arkitektur-alltid förbättrar prestanda. Vårt bästa gemensamma nätverk matchar nästan PASCAL prestanda för en modell som är förträngd på ImageNet klassificering, och matchar ImageNet nätverk på NYU djup förutsägelse. | Doersch m.fl. REF undersökte flera självövervakade metoder för att uppmuntra nätverket att faktorisera informationen i sin representation. | 473,729 | Multi-task Self-Supervised Visual Learning | {'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']} | 80,881 |
I detta dokument överväger vi uppgiften att lära sig kontrollera policyer för textbaserade spel. I dessa spel, alla interaktioner i den virtuella världen är genom text och det underliggande tillståndet observeras inte. Den resulterande språkbarriären gör sådana miljöer utmanande för automatiska spelspelare. Vi använder oss av en djupt förstärkt inlärningsram för att gemensamt lära oss statliga representationer och handlingspolicyer med hjälp av spelbelöningar som återkoppling. Detta ramverk gör det möjligt för oss att kartlägga textbeskrivningar i vektorrepresentationer som fångar semantiken i spelet stater. Vi utvärderar vår strategi på två spel världar, jämföra mot en baslinje med en påse-of-words stat representation. Vår algoritm överträffar baslinje på uppdrag slutföra med 54% på en nyskapad värld och med 14% på en redan existerande fantasispel. | REF tillämpade djupa Q-nätverk för att lära sig policyer för textbaserade spel med hjälp av spelbelöningar som återkoppling. | 8,395,799 | Language Understanding for Text-based Games Using Deep Reinforcement Learning | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 80,882 |
Vi presenterar ett ramverk för effektiv tillämpning av statslös modellkontroll (SMC) på samtidiga program som körs under fragmentet Release-Acquire (RA) av C/C++11-minnesmodellen. Vårt tillvägagångssätt är baserat på att utforska de möjliga programbeställningar, som definierar i vilken ordning instruktioner för en tråd utförs, och läsa-från relationer, som anger hur läsningar få sina värden från skriver. Detta står i kontrast till tidigare tillvägagångssätt, som också utforskar de möjliga koherensordningarna, dvs. order mellan motstridiga texter. Eftersom oväntade testresultat såsom program kraschar eller påståenden överträdelser beror endast på avläsning-från relationen, undviker vi en potentiellt betydande källa till redundans. Vårt ramverk bygger på en ny teknik för att avgöra om en viss read-from relation är möjlig under RA semantiken. Vi definierar en SMC-algoritm som är bevisligen optimal i den meningen att den utforskar varje programordning och avläsning från relation exakt en gång. Detta optimala resultat är mycket starkare än tidigare jämförbara optimala resultat, som också tar hänsyn till samstämmigheten. Vi har implementerat vårt ramverk i verktyget Tracer. Experiment visar att Tracer kan vara betydligt snabbare än toppmoderna verktyg som kan hantera RA semantik. Optimal tillståndslös modell Kontrollera under Release-Acquire Semantics 135:3 Figur 1b 1. En DPOR algoritm baserad på Shasha-Snir spår (t.ex., [Abdulla et al. , 2016b) måste därför undersöka minst fyra avrättningar. Det är dock möjligt att ytterligare minska detta antal. Nämligen, en närmare inspektion visar att de två spåren τ 1 och τ 2 är likvärdiga, i den meningen att varje tråd går igenom samma sekvenser av lokala stater och beräknar samma resultat. Detta beror på att τ 1 och τ 2 har samma programordning (po) och read-from (rf) relation. Deras enda skillnad är hur skriver beställs av co, men detta är inte relevant för de beräknade resultaten. Det föregående exemplet visar att det finns en potential för att förbättra effektiviteten hos Dpor-algoritmer genom att använda en svagare ekvivalens som endast induceras av po och rf. I detta exempel, förbättringen är blygsam (minska antalet utforskade spår från fyra till tre), men det kan vara betydande, ibland även exponentiellt, för mer omfattande program. Flera nya Dpor tekniker försöker utnyttja den potential som erbjuds av en sådan svagare likvärdighet Huang 2015; Huang och Huang 2016; Norris och Demsky 2016]. Men, förutom det minimala fallet av en acyklisk kommunikationskurva, de är långt ifrån optimalt gör detta, eftersom de kan fortfarande utforska ett betydande antal olika utföranden med samma rf relation. Därför återstår utmaningen att definiera en mer effektiv DPOR-algoritm, som är optimal i den meningen att den utforskar just ett utförande i varje ekvivalensklass som induceras av po och rf. I detta dokument presenterar vi ett i grunden nytt tillvägagångssätt för att definiera DPOR-algoritmer, som optimalt utforskar endast de ekvivalensklasser som definieras av programordningen och avläsning från relationer. Vår metod är utvecklad för Release-Acquire (RA) fragmentet [Lahav et al. 2016 ] av C/C++11-minnesmodellen. RA är ett användbart och väluppfostrat fragment av C/C++11-minnesmodellen, vilket ger en bra balans mellan prestanda och programmerbarhet. I RA semantik, alla skriver är release accesses, medan alla avläsningar är förvärva åtkomster. RA möjliggör högpresterande implementeringar, men ger fortfarande tillräckligt starka garantier för grundläggande samtidiga algoritmer (såsom read-copy-update-mekanismen [Lahav et al. Europaparlamentets och rådets förordning (EU, Euratom) nr 966/2012 av den 25 oktober 2012 om finansiella regler för unionens allmänna budget och om upphävande av rådets förordning (EG, Euratom) nr 1605/2002 (EUT L 298, 26.10.2012, s. 1). Vår DPOR algoritm är baserad på ovanstående försvagning av Shasha-Snir spår, kallas svaga spår, som definieras av endast programordning och läsa-från relationer en utförande. Till exempel, programmet i Figur 1a har tre svaga spår, visas som τ 3, τ 4, och τ 5. Vår DPOR algoritm är bevisligen optimal för svaga spår, i den meningen att den utforskar just ett utförande för varje svag spår som är RA-konsistent, d.v.s. som kan utökas med viss samstämmighet relation som uppfyller begränsningarna i RA semantik. En viktig utmaning för vår DPOR-algoritm är att effektivt fastställa de fortsättningar av ett för närvarande utforskat spår som leder till vissa RA-konsistenta spår. T.ex., för programmet i Figur 1a, låter båda trådarna läsa från skrivandet av den andra tråden leder till RA-inkonsistens. Vi löser detta problem genom att definiera en mättnadsoperation, som utvidgar ett svagt spår med ett partiellt sammanhangsförhållande, som innehåller just de koherenskanter som måste finnas i varje motsvarande Shasha-Snir-spår. Under prospekteringen upprätthåller DPOR-algoritmen en mättad version av det för närvarande utforskade svaga spåret, och kan därför undersöka just de svaga spåren som är RA-konsistenta, utan att utföra meningslösa utforskningar. När en läshändelse läggs till bestämmer algoritmen den uppsättning skrivhändelser från vilka den kan få sitt värde samtidigt som RA-konsistens bevaras, och förgrenar sig i en separat fortsättning för varje sådan skrivhändelse. När en skrivhändelse läggs till lägger algoritmen bara till det till spåren. Det kan bevisas att detta bevarar RA-konsistensen, och även håller spåret mättat (en liten modifiering krävs för atomära read-modifiera-write händelser). Algoritmen måste också upptäcka om någon tidigare läsning kan läsa från en nytillagd text, och sedan bakåtspår för att låta skrivandet utföras innan den läses. Vi bevisar att vår DPOR algoritm inte utför något meningslöst arbete, i den meningen att (i) varje utforskning så småningom leder till en avslutad RA-konsistent utförande, dvs algoritmen aldrig 1 A Shasha-Snir spår innehåller också händelser som skriver ursprungliga värden, men dessa kan ignoreras för detta exempel. | TRACER REF implementerar en statslös modellkontroll för fragmentet Release-Acquire (RA) i C/C++11-minnesmodellen. | 51,906,994 | Optimal stateless model checking under the release-acquire semantics | {'venue': 'PACMPL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 80,883 |
Abstract-The radioresursallokering problem studeras, syftar till att gemensamt optimera energieffektivitet (EE) och spektral effektivitet (SE) av nedlänk ODDMA multi-cell nätverk. Olika från befintliga arbeten på antingen EE eller SE optimering, en ny EE-SE tradeoff (EST) metrisk, som kan fånga både EST relation och de enskilda cellernas preferenser för EE eller SE prestanda, införs som nyttofunktionen för varje basstation (BS). Då är det gemensamma EE-SE-optimeringsproblemet formulerat, och en iterativ subkanalalgoritm för tilldelning och kraftalgoritm föreslås. Numeriska resultat visar att den föreslagna algoritmen kan utnyttja EST-förhållandet flexibelt och optimera EE och SE samtidigt för att möta olika EE och SE preferenser av enskilda celler. | På samma sätt föreslås i REF ett resursfördelningsproblem för att gemensamt optimera energi- och spektraleffektiviteten för ett trådlöst nätverk med flera celler genom att överväga en energi- och spektraleffektivitetsmätning. | 6,023,414 | Flexible Resource Allocation for Joint Optimization of Energy and Spectral Efficiency in OFDMA Multi-Cell Networks | {'venue': 'IEEE Communications Letters', 'journal': 'IEEE Communications Letters', 'mag_field_of_study': ['Computer Science']} | 80,884 |
En viktig uppgift i analysen av sociala nätverkssystem online är att identifiera viktiga personer - som är sammankopplade med starka sociala band - inom en individs nätverksområde. Här undersöker vi denna fråga för en viss kategori av starka band, de som involverar makar eller romantiska partner. Vi organiserar vår analys kring en grundläggande fråga: med tanke på alla kontakter mellan en persons vänner, kan du känna igen hans eller hennes romantiska partner från nätverket struktur ensam? Med hjälp av data från ett stort urval av Facebook-användare, finner vi att denna uppgift kan utföras med hög noggrannhet, men att göra det kräver utveckling av ett nytt mått av band styrka som vi kallar "spridning" - i vilken utsträckning två människors ömsesidiga vänner är inte själva väl ansluten. Resultaten erbjuder metoder för att identifiera typer av strukturellt betydelsefulla personer i on-line applikationer, och föreslår en potentiell expansion av befintliga teorier om bindning styrka. | Backstrom m.fl. REF utvecklade ett nytt mått av slipsstyrka som de kallade "dispersion" för att sluta sig till romantiska relationer och relationer mellan makar. | 8,478,459 | Romantic partnerships and the dispersion of social ties: a network analysis of relationship status on facebook | {'venue': "CSCW '14", 'journal': None, 'mag_field_of_study': ['Psychology', 'Computer Science', 'Physics']} | 80,885 |
Fashämtningsproblemet ber att återställa en naturlig signal y0 på R n från m quadratic observationer, där m ska minimeras. Som är vanligt i många avbildning problem, naturliga signaler anses glesa med avseende på en känd grund, och den generiska sparhet tidigare upprätthålls via 1 legalisering. Även framgångsrik i sfären av linjära inversa problem, sådana 1 metoder har stött på möjligen grundläggande begränsningar, eftersom ingen beräkningseffektiv algoritm för fas hämtning av en k-sparse signal har visat sig lyckas med färre än O(k 2 log n) generiska mätningar, som överstiger den teoretiska optimal av O (k log n). I detta dokument, föreslår vi en ny ram för fas hämtning av 1) modellera naturliga signaler som att vara i intervallet för en djup generativ neurala nätverk G : R k → R n och 2) genomdriva detta direkt genom att optimera ett empiriskt riskmål över generatorns domän. Vår formulering har bevisligen gynnsam global geometri för gradientmetoder, så snart som m = O(kd 2 log n), där d är djupet av nätverket. Särskilt när lämpliga deterministiska villkor på generatorn och mätningsmatrisen är uppfyllda, konstruerar vi en nedstigningsriktning för varje punkt utanför ett litet område runt den unika globala minimeraren och dess negativa multipel, och visar att sådana förhållanden håller med hög sannolikhet under Gaussiska ensembler av flerskikts fullt anslutna generatornätverk och mätmatriser. Denna formulering för strukturerad fas hämtning således har två fördelar jämfört med sparty baserade metoder: 1) djupa generativa tidigare kan mer strikt representera naturliga signaler och 2) information teoretiskt optimal prov komplexitet. Vi bekräftar dessa resultat med experiment som visar att utnyttjande av generativa modeller i fas hämtning uppgifter överträffar sparsamt fas hämtningsmetoder. | Ett annat exempel där generativ modell för närvarande överträffar sparty baserade metoder är i gles fas hämtning REF. | 49,665,488 | Phase Retrieval Under a Generative Prior | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 80,886 |
Abstract-Wireless Sensor Networks (WSNs) består av många sensorer som skickar avkännbara data till basstationen. Energibevarande är en viktig fråga för sensornoder eftersom de har begränsad kraft. Många routingprotokoll har tidigare föreslagits för energieffektivitet i både homogena och heterogena miljöer. Vi kan förlänga vår stabilitet och livslängd genom att minska vår energiförbrukning. I detta forskningsdokument föreslår vi ett protokoll utformat för egenskaperna hos ett reaktivt homogent WSN-protokoll, HEER (Hybrid Energy Efficient Reactive). I HEER, Cluster Head (CH) valet baseras på förhållandet mellan restenergi av nod och genomsnittlig energi i nätet. Dessutom, för att spara mer energi, introducerar vi Hard Threshold (HT) och Soft Threshold (ST). Slutligen visar simuleringar att vårt protokoll inte bara har förlängt nätverkets livslängd utan också avsevärt ökat stabilitetsperioden. Index Terms-Wireless, Sensor, Networks, Energy, Hybrid, Cluster, Reactive I. NÄRSTÅENDE ARBETE Heinzelman et al. [1], introducerade den första hierarkiska klusteralgoritmen för WSNs, kallad LEACH. Det är ett av de mest populära protokollen i WSN. Huvudidén är att bilda kluster av sensornoder. LEACH överträffar klassisk klusteralgoritm genom att använda adaptiv klusterbildning och roterande CH. Detta sparar energi eftersom överföring endast kommer att utföras på den specifika CH snarare än alla noder. LEACH presterar bra i homogen miljö men dess prestanda försämras i heterogen miljö. Tröskelkänsligt energieffektivt nät (TEEN) [2] är ett reaktivt protokoll för tidskritiska tillämpningar. CH-urvalet och klusterbildningen av noder är samma som för LEACH. I detta system sänder CH två tröskelvärden, dvs. Hard Threshold (HT) och Soft Threshold (ST). HT är det absoluta värdet av ett attribut för att utlösa en sensornod. HT tillåter noder att överföra händelsen, om händelsen inträffar i intervallet av intresse. Detta minskar därför inte bara överföringen till betydande antal, utan ökar också nätverkets livslängd. Georgios m.fl. [3], föreslog en två nivåer heterogent medvetna protokoll, bestående av normala och avancerade (hög energi) noder. Det är baserat på den viktade val sannolikheter för varje nod enligt deras respektive energi för att bli en CH. Intuitivt, avancerade noder har större sannolikhet att bli en CH än normala noder, vilket verkar logiskt beroende på deras energiförbrukning. Stabila valprotokoll (SEP) kräver ingen global kunskap om nätverket. Nackdelen med SEP är att det inte anser att ändra restenergi av noden därför, sannolikheten för avancerade noder att bli CH förblir hög oavsett restenergi kvar i noden. Dessutom presterar SEP under par om nätverket är mer än två nivåer. I [4], författare föreslog Distributed Energy Efficient Clustering (DEEC) protokoll för WSNs. DEEC är ett klusterprotokoll för två och flera heterogena nätverk. Sannolikheten för att en nod ska bli CH är baserad på restenergi från noderna och genomsnittlig energi från nätet. Tidpunkten för noder att bli CHs är satt enligt restenergin i en nod och genomsnittlig energi i nätverket. Noden med högre initial och restenergi har större chanser att bli en CH än den låga energinoden. Ett antal routingprotokoll har föreslagits när det gäller WSN. De flesta av dem är baserade på CH urval. Det har dock inte ägnats särskilt stor uppmärksamhet åt tidskritiska tillämpningar. De flesta routing protokollen är för proaktiva nätverk. De associerade länderna i Central- och Östeuropa, som är ett proaktivt heterogent nätverksprotokoll, är inte lämpligt för tidskritiska tillämpningar. TON är ett reaktivt protokoll som garanterar att den instabila regionen kommer att vara kort i en homogen miljö. Efter döden av den första noden, alla återstående noder förväntas dö i genomsnitt inom ett litet antal omgångar som en följd av den enhetliga återstående energi på grund av den väl fördelade energiförbrukningen. Å andra sidan TON i närvaro av höga energinoder ger en stor instabil region. Anledningen är att alla högenergin noder är utrustade med nästan samma energi, CH urvalsprocessen är instabil och som ett resultat av det mesta av tiden dessa noder är inaktiva, eftersom det inte finns någon CH att överföra. Därför fokuserar vi i vår forskningsrapport på att utveckla ett protokoll som ger oss bättre resultat för tidskritiska tillämpningar i båda miljöer, d.v.s. homogen och heterogen miljö. Vi definierar följande parametrar som utvärderar och jämför prestandan hos klusterprotokoll. | Ett hybridprotokoll Hybrid energy efficient reactive Protocol för WSN föreslås i REF. | 878,688 | HEER: Hybrid Energy Efficient Reactive Protocol for Wireless Sensor Networks | {'venue': '2013 Saudi International Electronics, Communications and Photonics Conference', 'journal': '2013 Saudi International Electronics, Communications and Photonics Conference', 'mag_field_of_study': ['Computer Science']} | 80,887 |
Abstract-Vi utforskar mjukvarumångfald som ett försvar mot sidokanalsattacker genom att dynamiskt och systematiskt randomisera styrflödet av program. Befintliga mjukvarumångfald tekniker omvandla varje program spår identiskt. Vår mångfaldsbaserade teknik omvandlar istället program för att göra varje program spår unikt. Detta tillvägagångssätt erbjuder ett probabilistiskt skydd mot både online- och offline-attacker. I synnerhet skapar vi ett stort antal unika program körvägar genom att automatiskt generera diversifierade repliker för delar av ett inmatningsprogram. Repliker som härrör från samma ursprungliga programfragment har olika implementationer, men utför semantiskt likvärdiga beräkningar. På runtime byter vi sedan slumpmässigt och ofta mellan dessa kopior. Vi utvärderar hur väl vårt tillvägagångssätt motverkar cache-baserade sidokanal attacker, där en angripare strävar efter att återställa kryptografiska nycklar genom att analysera sidoeffekter av program exekvering. Vår metod kräver ingen manuell ansträngning eller maskinvaruförändringar, har en rimlig prestandapåverkan, och minskar informationsläckage från sidokanal avsevärt. Artificiell programvarumångfald, liksom dess biologiska motsvarighet, är en mycket flexibel och effektiv försvarsmekanism. Kodinsprutning, kod återanvändning och omvänd teknik attacker är alla betydligt svårare mot diversifierad programvara. Vi föreslår att programvarumångfald utvidgas för att skydda mot sidokanalsattacker, särskilt cachesidekanaler. I huvudsak, artificiell programvara mångfald förnekar angripare exakt kunskap om sitt mål genom att slumpmässigt genomföra funktioner i ett program. Eftersom kod återanvändning och andra relaterade attacker bygger på statiska egenskaper hos ett program, tidigare arbete på programvara mångfald fokuserar främst på att randomisera program representation, t.ex., de in-minne adresser kod och data. Side-channel attacker, å andra sidan, förlitar sig på dynamiska egenskaper hos program, t.ex., exekveringstid, minne latenser, eller strömförbrukning. Följaktligen måste diversifiering mot sidokanaler randomisera ett programs utförande snarare än dess representation. De flesta befintliga diversifiering tillvägagångssätt randomisera program innan exekvering, t.ex., under sammanställning, installation, eller laddning. Framför-tid randomisering är önskvärt eftersom omfördelning under körning påverkar prestanda (liknar just-in-time sammanställning). Vissa närmar sig interleave program randomisering och programutförande ([9], [6], [10], [11] ). Men granulariteten av randomisering i dessa metoder är ganska grov, potentiellt tillåter en angripare att observera programmet oavbruten tillräckligt länge för att utföra en framgångsrik sidokanal attack. Vi undviker detta problem genom att utöka tekniker som används för att förhindra omvänd teknik såsom kodreplikation och kontrollflöde randomisering ([12], [7] ). Till skillnad från dessa metoder, kopierar vi dock kod på en finare kornad nivå och producerar ett nästan obegränsat antal runtime banor genom att slumpmässigt växla mellan dessa kopior. I stället för att göra kontrollflödet svårt att vända ingenjör, växlar vår teknik slumpmässigt utförandet mellan olika kopior av programfragment, som vi kallar repliker, att slumpmässigt utföra kod och därmed sidokanal observationer. Vi kallar denna nya förmåga dynamisk kontroll-flöde mångfald. För att variera sidokanal egenskaper repliker, använder vi diversifiera transformationer. Diversifiering bevarar det ursprungliga programmet semantik samtidigt som den säkerställer att varje replika skiljer sig åt på maskininstruktionernas nivå. För att skydda mot cache sidokanal attacker använder vi diversifieringar som varierar observerbara utförande egenskaper. Liksom andra cache sidokanalsreduceringar, såsom att ladda om cache på sammanhangsbrytare och skriva om krypteringsrutiner för att undvika optimerade uppslagstabeller, har införandet av mångfald vissa prestandaeffekter som vi noggrant kvantifierar i detta papper. I kombination, dynamisk kontroll-flöde mångfald och diversifiera transformationer skapar binärer med randomiserade program spår, utan att kräva hårdvara eller utvecklarhjälp. I detta dokument undersöker vi användningen av dynamisk kontrollflödesmångfald mot cache-baserade sidokanal attacker på kryptografiska algoritmer. Våra viktigaste bidrag är följande: • Vi tillämpar den nya förmågan till dynamisk kontroll-flödesmångfald på problemet med sidokanaler. Såvitt vi vet är detta den första användningen av automatiserad programvara mångfald för att minska cache sidokanaler. • Vi visar hur man genererar maskinkod för effektiva randomiserade kontrollflödesöverföringar och kombinerar detta med en diversifierande omvandling för att motverka cachebaserade sidokanalattacker. | Crane och Al. REF föreslår automatiserad programvara mångfald för att minska cache sidokanaler. | 14,661,450 | Thwarting Cache Side-Channel Attacks Through Dynamic Software Diversity | {'venue': 'NDSS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 80,888 |
Det är välkänt att flytta-punkt undantag kan vara katastrofal och skriva undantagsfria numeriska program är mycket svårt. Det är därför viktigt att automatiskt upptäcka sådana fel. I detta dokument presenterar vi Ariadne, ett praktiskt symboliskt avrättningssystem som är särskilt utformat och implementerat för att upptäcka flyttalsundantag. Ariadne omvandlar systematiskt ett numeriskt program för att uttryckligen kontrollera varje undantag som utlöser tillstånd. Ariadne kör symboliskt det omvandlade programmet med hjälp av verklig aritmetik för att hitta kandidat realvärderade ingångar som kan nå och utlösa ett undantag. Ariadne omvandlar varje kandidat in till ett flyttal nummer, sedan testar den mot det ursprungliga programmet. I allmänhet kan approximering av flyttal aritmetik med verklig aritmetik ändra vägar från genomförbara till ogenomförbara och vice versa. Den viktigaste insikten i detta arbete är att när det gäller problemet med att upptäcka flyttalsundantag fungerar denna approximation bra i praktiken eftersom många, om en insats når ett undantag, sannolikt gör det, och åtminstone en av dem kommer att göra det över både flyttal och verklig aritmetik. För att förverkliga Ariadne utvecklade vi också en ny, praktisk linjäriseringsteknik för att lösa icke-linjära begränsningar. Vi utvärderade i stor utsträckning Ariadne över 467 skalärfunktioner i det allmänt använda GNU Scientific Library (GSL). Våra resultat visar att Ariadne är praktisk och identifierar ett stort antal realtidsundantag i GSL. GSL-utvecklarna bekräftade våra preliminära resultat och ser fram emot Ariadnes offentliggörande, vilket vi planerar att göra inom en snar framtid. | Barr m.fl. REF presenterade en metod för att automatiskt upptäcka flyttalsundantaget genom symboliskt utförande. | 1,581,326 | Automatic detection of floating-point exceptions | {'venue': 'POPL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 80,889 |
Även om man i åratal är övertygad om att modellering av relationer mellan objekt skulle bidra till objektigenkänning, har det inte funnits några bevis för att idén fungerar i den djupa inlärningseran. Alla toppmoderna system för att upptäcka objekt är fortfarande beroende av att känna igen objektfallen individuellt, utan att utnyttja deras relationer under inlärningen. Det här arbetet föreslår en objektrelationsmodul. Det bearbetar en uppsättning objekt samtidigt genom interaktion mellan deras utseende funktion och geometri, vilket gör det möjligt att modellera sina relationer. Den är lätt och på plats. Det kräver ingen extra tillsyn och är lätt att bädda in i befintliga nätverk. Det visas effektivt för att förbättra objektigenkänning och dubbla borttagning steg i den moderna objektdetektion pipeline. Det verifierar effektiviteten av modellering objektrelationer i CNN-baserad detektion. Det ger upphov till den första fullt end-to-end objektdetektorn. | I REF, Hu et al. föreslå en objektrelationsmodul för att samtidigt modellera en uppsättning objektrelationer genom sina visuella egenskaper. | 37,158,713 | Relation Networks for Object Detection | {'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 80,890 |
Abstrakt. Materialiserat visningsval är en icke-trivial uppgift. Därför måste dess komplexitet minskas. Ett omdömesgillt val av åsikter måste vara kostnadsdrivet och påverkat av den arbetsbörda som systemet medför. I detta dokument föreslår vi en ram för materialiserat val av syn som utnyttjar en data mining teknik (klustering), för att bestämma kluster av liknande frågor. Vi föreslår också en vy sammanslagning algoritm som bygger en uppsättning av kandidatvyer, samt en girig process för att välja en uppsättning vyer för att materialisera. Detta urval baseras på kostnadsmodeller som utvärderar kostnaden för att få tillgång till data med hjälp av vyer och kostnaden för att lagra dessa vyer. För att validera vår strategi utförde vi en arbetsbelastning av beslutsstödfrågor på ett testdatalager, med och utan att använda vår strategi. Våra experimentella resultat visar dess effektivitet, även när lagringsutrymmet är begränsat. | Kamel Aouiche m.fl. I REF föreslogs en ram för val av materialiserad bild som utnyttjar en datautvinningsteknik (klustering), för att fastställa kluster av liknande frågor. | 471 | Clustering-Based Materialized View Selection in Data Warehouses | {'venue': 'Lecture Notes in Computer Science', 'journal': 'Lecture Notes in Computer Science', 'mag_field_of_study': ['Computer Science']} | 80,891 |
Vi betraktar här problemet med kinesisk namngiven enhet (NE) identifiering med hjälp av statistisk språkmodell (LM). I denna forskning har ordsegmentering och NE-identifiering integrerats i ett enhetligt ramverk som består av flera klassbaserade språkmodeller. Vi antar också en hierarkisk struktur för en av LMs så att de bofasta enheterna i organisationsnamn kan identifieras. Utvärderingen av en stor testuppsättning visar på konsekventa förbättringar. Våra experiment visar vidare förbättringen efter att sömlöst integrera med språkheuristisk information, cachebaserad modell och NE förkortning identifiering. ,QWURGXFWLRQ LGHQWLILFDWLRQ är nyckeltekniken i många applikationer såsom informationsutdrag, frågesvar, maskinöversättning och så vidare. Engelska NE-identifieringen har uppnått en stor framgång. För kinesiska är dock NE-identifieringen mycket annorlunda. Det finns inget utrymme att markera ordgränsen och ingen standarddefinition av ord på kinesiska. Den kinesiska NE identifiering och ord segmentering är interaktion i naturen. Detta dokument presenterar en enhetlig strategi som integrerar dessa två steg tillsammans med hjälp av en klassbaserad LM, och tillämpa Viterbi sökning för att välja den globala optimala lösningen. Den klassbaserade LM består av två undermodeller, nämligen kontextmodellen och enhetsmodellen. Sammanhangsmodellen uppskattar sannolikheten för att generera en NE med tanke på ett visst sammanhang, och enhetsmodellen uppskattar sannolikheten för en sekvens av kinesiska tecken med en viss typ av NE. I denna studie är vi intresserade av tre typer av kinesiska NE som oftast används, nämligen personnamn (PER), platsnamn (LOC) och organisationsnamn (ORG). Vi har också antagit en rad olika strategier för att förbättra LM. Dessutom används en hierarkisk struktur för organisation LM så att den inhägnade PER, LOC i ORG kan identifieras. Utvärderingen görs på en stor testuppsättning där de nationella konkurrensmyndigheterna har märkts manuellt. Experimentresultatet visar på konsekventa förbättringar jämfört med befintliga metoder. Våra experiment visar vidare på förbättringen efter integrering med språkheuristisk information, cachebaserad modell och NE-förkortningsidentifiering. Precisionen för PER, LOC, ORG på testsetet är 79,86 %, 80,88 % respektive 76,63 %, och återkallandet är 87,29 %, 82,46 % respektive 56,54 %. | REF tar hänsyn till problemet med identifiering av kinesiska namngivna enheter med hjälp av statistisk språkmodell, och de integrerar ordsegmentering och NE-identifiering i en enhetlig ram som består av flera klassbaserade språkmodeller. | 8,809,724 | Chinese Named Entity Identification Using Class-Based Language Model | {'venue': 'International Conference On Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 80,892 |
Binary klassificerare används ofta som discriminatorer i GAN-baserade oövervakade stil överföringssystem för att säkerställa att överförda meningar liknar meningar i måldomänen. En svårighet med detta tillvägagångssätt är att felsignalen från discriminatorn kan vara instabil och ibland otillräcklig för att träna generatorn för att producera flytande språk. I detta dokument föreslår vi en ny teknik som använder en måldomänspråksmodell som diskriminator, vilket ger rikare och stabilare återkoppling på token-nivå under inlärningsprocessen. Vi tränar generatorn för att minimera den negativa logsannolikheten (NLL) för genererade meningar, utvärderad av språkmodellen. Genom att använda en kontinuerlig approximation av diskret provtagning under generatorn kan vår modell tränas med back-propagation på ett end-to-end-sätt. Dessutom visar våra empiriska resultat att när man använder en språkmodell som en strukturerad discriminator är det möjligt att avstå från kontradiktoriska steg under utbildningen, vilket gör processen mer stabil. Vi jämför vår modell med tidigare arbete som använder konvolutionella nätverk (CNN) som discriminatorer, samt en bred uppsättning andra metoder. Resultaten visar att den föreslagna metoden uppnår bättre prestanda på tre uppgifter: ordsubstitution dechiffrering, känslomodifiering, och relaterade språköversättning. | REF presenterade en ny teknik som använder en måldomänspråksmodell som discriminator för att förbättra utbildningen. | 44,061,800 | Unsupervised Text Style Transfer using Language Models as Discriminators | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 80,893 |
En viktig forskningsriktning inom maskininlärning har centrerat sig kring att utveckla meta-lärande algoritmer för att ta itu med få-shot lärande. En särskilt framgångsrik algoritm har varit Model Agnostic Meta-Learning (MAML), en metod som består av två optimeringsloopar, med den yttre loopen hitta en meta-inialisering, från vilken den inre loopen kan effektivt lära sig nya uppgifter. Trots MAML popularitet, återstår en grundläggande öppen fråga - är effektiviteten av MAML på grund av att meta-initializationen är förberedd för snabb inlärning (stora, effektiva förändringar i representationerna) eller på grund av funktionen återanvändning, med meta initiering redan innehåller högkvalitativa funktioner? Vi undersöker denna fråga, genom ablation studier och analys av latenta representationer, finna att funktionen återanvändning är den dominerande faktorn. Detta leder till ANIL-algoritmen (nästan ingen Innerloop), en förenkling av MAML där vi tar bort den inre loopen för alla utom (task-specifika) chefen för ett MAML-utbildat nätverk. ANIL matchar MAML:s prestanda på referensbildsklassificering med få bilder och RL och erbjuder beräkningsförbättringar jämfört med MAML. Vi studerar vidare de exakta bidragen från nätverkets huvud och kropp, vilket visar att prestandan på testuppgifterna helt bestäms av kvaliteten på de inlärda funktionerna, och vi kan ta bort även chefen för nätverket (NIL-algoritmen). Vi avslutar med en diskussion om frågan om snabb inlärning vs funktion återanvändning för meta-lärande algoritmer mer allmänt. | Nyligen arbete REF empiriskt föreslog att effektiviteten av den populära meta-learning algoritm Modell Agnostic Meta-Learning (MAML) beror på dess förmåga att lära sig en användbar representation. | 202,712,906 | Rapid Learning or Feature Reuse? Towards Understanding the Effectiveness of MAML | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 80,894 |
: Slumpmässiga exempel på människor som genereras med vår modell. För varje rad är provtagningen beroende av silhuetten som visas till vänster. Vårt föreslagna ramverk stöder också okonditionerad provtagning samt konditionering på lokal utseende coutes, såsom färg. Vi presenterar den första bildbaserade generativa modellen av människor i kläder för hela kroppen. Vi kringgår den vanliga komplexa grafik rendering pipeline och behovet av högkvalitativa 3D-skanningar av klädda människor. Istället lär vi oss generativa modeller från en stor bilddatabas. Den största utmaningen är att klara av den höga variationen i människans pose, form och utseende. Av denna anledning har man hittills inte övervägt rena bildbaserade metoder. Vi visar att denna utmaning kan övervinnas genom att man delar upp produktionsprocessen i två delar. Först lär vi oss att skapa en semantisk segmentering av kroppen och kläderna. För det andra lär vi oss en villkorlig modell för de resulterande segmenten som skapar realistiska bilder. Den fullständiga modellen är olika och kan konditioneras på pose, form eller färg. Resultatet är prover av människor i olika klädesplagg och stilar. Den föreslagna modellen kan skapa helt nya människor med realistiska kläder. I flera experiment presenterar vi uppmuntrande resultat som tyder på att en helt datadriven strategi för att skapa människor är möjlig. * Detta arbete utfördes medan P. V. Gehler var med BCCN 1 och MPI-IS 2. | REF genererade människor i kläder, genom att konditionering på finkorniga kroppsdelar segment. | 32,665,336 | A Generative Model of People in Clothing | {'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']} | 80,895 |
I detta dokument diskuterar vi flera former av spatiotemporala konvolutioner för videoanalys och studerar deras effekter på åtgärdsigenkänning. Vår motivering härrör från observationen att 2D CNNs tillämpas på enskilda ramar av videon har förblivit solida artister i handling erkännande. I detta arbete demonstrerar vi empiriskt de exakta fördelarna med 3D CNN jämfört med 2D CNN inom ramen för resterande lärande. Dessutom visar vi att faktorisering av 3D-konvolutionsfiltren i separata rumsliga och tidsmässiga komponenter ger en betydande ökning av noggrannheten. Vår empiriska studie leder till utformningen av ett nytt spatiotemporalt konvolutionsblock "R(2+1)D" som producerar CNN som uppnår resultat som är jämförbara eller överlägsna hjärtats tillstånd på Sports-1M, Kinetics, UCF101 och HMDB51. | Ref. REF följt av denna forskningslinje genom att faktorisera de enskilda 3D-konvolutionsfiltren till separata rumsliga och tidsmässiga komponenter som kallas R(2+1)D-block. | 206,596,999 | A Closer Look at Spatiotemporal Convolutions for Action Recognition | {'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 80,896 |
Sammanfattning av denna webbsida: I detta dokument föreslås ett mobilt biologiskt sensorsystem som kan bidra till tidig upptäckt av skogsbränder en av de mest fruktade naturkatastroferna på jorden. Huvudidén som presenteras i denna uppsats är att utnyttja djur med sensorer som mobila biologiska sensorer (MBS). De enheter som används i detta system är djur som är inhemska djur som lever i skogar, sensorer (termo- och strålningssensorer med GPS-funktioner) som mäter temperaturen och överför placeringen av MBS, åtkomstpunkter för trådlös kommunikation och ett centralt datorsystem som klassificerar djurens handlingar. Systemet erbjuder två olika metoder, för det första: åtkomstpunkterna får kontinuerligt uppgifter om djurens placering med hjälp av GPS med vissa tidsintervall och de insamlade uppgifterna klassificeras sedan och kontrolleras för att se om det sker en plötslig förflyttning (panik) av djurgrupperna: denna metod kallas djurbeteendeklassificering (ABC). Den andra metoden kan definieras som termisk detektion (TD): åtkomstpunkterna får temperaturvärdena från MBS-enheterna och skickar data till en central dator för att kontrollera om temperaturerna ändras omedelbart. Detta system kan användas för många andra ändamål än branddetektering, nämligen spårning av djur, tjuvjakt och påvisande av omedelbar djurdöd. | I REF används ett system som består av sensorer (termo och strålning med GPS) som transporteras av djur som lever i miljön för att upptäcka skogsbränder, även om inga experiment presenteras. | 6,546,632 | Animals as Mobile Biological Sensors for Forest Fire Detection | {'venue': 'Sensors', 'journal': 'Sensors', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 80,897 |
Nyligen genomförda experimentella studier har visat att trådlösa länkar i verkliga sensornätverk kan vara extremt opålitliga, avviker i stor utsträckning från den idealiserade perfekt-reception inom intervall modeller som används i gemensamma nätverk simuleringsverktyg. Tidigare föreslagna geografiska routing protokoll använder vanligen en maximal avstånd girig speeding teknik som fungerar bra under idealiska förhållanden. En sådan speditionsteknik fungerar dock dåligt under realistiska förhållanden eftersom den tenderar att vidarebefordra paket på förlorade länkar. Vi identifierar och illustrerar detta problem med svag koppling och den därmed sammanhängande kompromissen mellan distanshopar, där energieffektiv geografisk vidarebefordring måste skapa en balans mellan kortare förbindelser av hög kvalitet och längre förlorade länkar. Studien görs för scenarier med och utan automatisk upprepad begäran (ARQ). Baserat på en analytisk länkförlustmodell studerar vi distance-hop-count-off via matematisk analys och omfattande simuleringar av ett brett spektrum av svartlistning/länkvalsstrategier; vi validerar också några strategier med hjälp av en uppsättning riktiga experiment på Motes. Våra analyser, simuleringar och experiment visar alla att produkten av paketmottagningen (PRR) och avståndet som korsas mot destinationen är den optimala speditionsmätaren för ARQ-fallet, och är ett bra mätvärde även utan ARQ. Noder som använder denna metriska ofta dra nytta av grannar i övergångsregionen (hög variation länkar). Våra resultat visar också att mottagningsbaserade termineringsstrategier är effektivare än rent distansbaserade strategier; relativa svartlistningssystem minskar frånkopplingar och uppnår högre leveranshastigheter än absoluta svartlistningssystem; och att ARQ-system blir viktigare i större nätverk. | I REF identifierades en avvägning i geografisk routing mellan kortare länkar av hög kvalitet och längre förlustlänkar, och produkten av paketets mottagningshastighet och avståndet visades vara ett bra speditionsmått. | 13,160,521 | Energy-efficient forwarding strategies for geographic routing in lossy wireless sensor networks | {'venue': "SenSys '04", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 80,898 |
Online innehåll uppvisar rik temporal dynamik, och olika realtidsanvändare genererade innehåll ytterligare intensifierar denna process. Tidsbundna mönster genom vilka online-innehåll växer och bleknar med tiden, och genom vilka olika delar av innehållet konkurrerar om uppmärksamhet förblir dock i stort sett outforskade. Vi studerar temporal mönster i samband med online-innehåll och hur innehållets popularitet växer och bleknar med tiden. Den uppmärksamhet som innehållet får på webben varierar beroende på många faktorer och sker på mycket olika tidsskalor och vid olika upplösningar. För att avslöja temporal dynamik av online-innehåll formulerar vi en tidsserie kluster problem med hjälp av en likhetsmått som är invariant till skalning och skiftning. Vi utvecklar K-Spectral Centroid (K-SC) klusteralgoritm som effektivt finner klustercentroider med vår likhetsmått. Genom att tillämpa en adaptiv våget-baserad inkrementell strategi för klusterbildning, skalar vi K-SC till stora datamängder. Vi visar vår strategi för två massiva dataset: en uppsättning av 580 miljoner Tweets, och en uppsättning av 170 miljoner blogginlägg och nyhetsmedia artiklar. Vi finner att K-SC överträffar K-means klusteralgoritm när det gäller att hitta olika former av tidsserier. Vår analys visar att det finns sex huvudsakliga timliga former av uppmärksamhet av online-innehåll. Vi presenterar också en enkel modell som tillförlitligt förutsäger formen av uppmärksamhet genom att använda information om endast ett litet antal deltagare. Våra analyser ger insikt i vanliga temporalmönster av innehållet på webben och breddar förståelsen av dynamiken i människans uppmärksamhet. | En icke-parametrisk modell med titeln K-Spectral Centroid (K-SC) som presenterades av Yang och Leskovek 2011 REF. | 1,412,278 | Patterns of temporal variation in online media | {'venue': "WSDM '11", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 80,899 |
I detta dokument föreslår vi en ny oövervakad domänanpassningsalgoritm baserad på djupt lärande för visuell objektigenkänning. Speciellt utformar vi en ny modell som kallas Deep Reconstruction-Classification Network (DRCN), som tillsammans lär sig en delad kodning representation för två uppgifter: i) övervakad klassificering av märkta källdata, och ii) oövervakad rekonstruktion av omärkta måldata. På så sätt bevarar den inlärda representationen inte bara diskriminabiliteten, utan kodar också användbar information från måldomänen. Vår nya DRCN-modell kan optimeras genom att använda backpropagation på samma sätt som de vanliga neurala nätverken. Vi utvärderar Demokratiska republiken Kongos resultat på en rad uppgifter som rör gränsöverskridande erkännande av föremål, där Demokratiska republiken Kongo erbjuder en avsevärd förbättring (upp till 8 % i noggrannhet) jämfört med de tidigare toppmoderna algoritmerna. Intressant nog konstaterar vi också att återuppbyggnadsledningen i Demokratiska republiken Kongo omvandlar bilder från källdomänen till bilder vars utseende liknar måldatauppsättningen. Detta tyder på att Demokratiska republiken Kongos resultat beror på att man konstruerar en enda sammansatt representation som kodar information om både målbildernas struktur och klassificeringen av källbilder. Slutligen tillhandahåller vi en formell analys för att motivera algoritmens mål i samband med domänanpassning. | Deep Reconstruction Classification Network (DRCN) i REF tar itu med den oövervakade domänanpassningsuppgiften genom att gemensamt lära sig en delad kodning av käll- och måldomäner som bygger på att minimera en förlustfunktion som balanserar mellan klassificeringsförlusten av (märkta) källdata och återuppbyggnadskostnaden för måldata. | 52,459 | Deep Reconstruction-Classification Networks for Unsupervised Domain Adaptation | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 80,900 |
För närvarande kräver konstruktion av konvolutionella neurala nätverk (CNN) arkitekturer både mänsklig expertis och arbetskraft. Nya arkitekturer tillverkas hantverksmässigt genom noggranna experiment eller modifieras från en handfull befintliga nätverk. Vi föreslår en meta-modelleringsmetod baserad på förstärkningslärande för att automatiskt generera högpresterande CNN-arkitekturer för en given inlärningsuppgift. Lärande agenten tränas att sekventiellt välja CNN lager med Q-learning med arg prospektering strategi och erfarenhet replay. Agenten utforskar ett stort men ändligt utrymme av möjliga arkitekturer och upptäcker iterativt design med förbättrad prestanda på inlärningsuppgiften. När det gäller riktmärken för bildklassificering slår de agentdesignade nätverken (som endast består av standardkonvolution, poolning och fullt anslutna skikt) befintliga nätverk som är utformade med samma skikttyper och är konkurrenskraftiga mot de toppmoderna metoder som använder mer komplexa lagertyper. Vi överträffar också befintliga metamodelleringsmetoder för nätverksdesign på bildklassificeringsuppgifter. | Baker m.fl. REF använder förstärkning inlärningstekniker för att utbilda Q-Learning agent och sedan välja CNN skikt av agenten. | 1,740,355 | Designing Neural Network Architectures using Reinforcement Learning | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 80,901 |
En stor utmaning i driften av trådlösa kommunikationssystem är en effektiv användning av radioresurser. En viktig komponent i förvaltningen av radioresurser är maktstyrningen, som har studerats ingående i samband med röstkommunikation. Med den ökande efterfrågan på trådlösa datatjänster är det nödvändigt att upprätta algoritmer för kraftstyrning för andra informationskällor än röst. Vi presenterar en effektkontrolllösning för trådlös data i den analytiska ramen för ett spelteoretiskt ramverk. I detta sammanhang kallas kvaliteten på tjänsten (QoS) en trådlös terminal tar emot som verktyget och distribuerad effektstyrning är ett icke-kooperativt kraftkontrollspel där användarna maximerar sitt verktyg. Resultatet av spelet resulterar i en Nash jämvikt som är ineffektiv. Vi inför prissättning av sändningsbefogenheter för att uppnå Pareto förbättring av det icke-kooperativa maktstyrningsspelet, dvs. för att uppnå förbättringar i användarverktyg i förhållande till fallet utan prissättning. Vi anser särskilt att en prisfunktion är en linjär funktion av sändningskraften. Enkelheten i prissättningsfunktionen möjliggör en distribuerad implementation där priset kan sändas av basstationen till alla terminaler. Vi ser att prissättningen är särskilt användbar i ett tungt lastat system. | Ref undersöker hur denna Nash jämvikt påverkas av prissättning av sändningsbefogenheter. | 591,750 | Efficient power control via pricing in wireless data networks | {'venue': 'IEEE Transactions on Communication', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 80,902 |
Vi föreslår k-representative ångerminimering fråga (k-regret) som en operation för att stödja multi-criteria beslutsfattande. Precis som top- k antar k- regret- frågan att användare har vissa funktioner för verktyg eller poängsättning, men den ber aldrig användarna att tillhandahålla sådana funktioner. Liksom skyline, filtrerar det ut en uppsättning intressanta punkter från en potentiellt stor databas baserat på användarnas kriterier, men det överväldigar aldrig användarna genom att mata ut för många tuples. I synnerhet, för alla tal k och alla klasser av verktygsfunktioner, k-regret frågeutgångar k tuples från databasen och försöker minimera den maximala ångerkvoten. Detta fångar hur besviken en användare kunde vara om hon sett k representativa tuples i stället för hela databasen. Vi fokuserar på klassen linjära allmännyttiga funktioner, vilket är allmänt tillämpligt. Den första utmaningen med detta tillvägagångssätt är att det inte är klart om den maximala ångerkvoten skulle vara liten eller till och med begränsad. Vi besvarar denna fråga på ett positivt sätt. Teoretiskt sett bevisar vi att den maximala ångerkvoten kan begränsas och denna gräns är oberoende av databasstorleken. Dessutom tyder våra omfattande experiment på verkliga och syntetiska dataset på att den maximala ångerkvoten i praktiken är någorlunda liten. Dessutom, algoritmer som utvecklats i detta papper är praktiska som de kör i linjär tid i storleken på databasen och experimenten visar att deras körtid är liten när de kör på toppen av skyline drift vilket innebär att dessa algoritmer kan integreras i nuvarande databassystem. | Nanongkai m.fl. REF introducerar begreppet ångra minimering till top-k frågebehandling och föreslå k-regret fråga. | 7,273,364 | Regret-Minimizing Representative Databases | {'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']} | 80,903 |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.