src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
Semantik-bevarande program transformationer, såsom refaktorings och optimeringar, kan ha en betydande inverkan på effektiviteten av symboliska utförande testning och analys. Dessutom kan semantik-bevarande transformationer som ökar prestandan av inhemsk avrättning i själva verket minska skalbarheten av symbolisk avrättning. På liknande sätt kan semantik-förändrande omvandlingar, såsom typförändringar och objektstorleksändringar, ofta leda till betydande förbättringar i testning effektivitet uppnås genom symboliskt utförande i det ursprungliga programmet. Som ett resultat av detta hävdar vi att man bör behandla programomvandlingar som förstklassiga ingredienser i skalbar symbolisk exekvering, vid sidan av allmänt accepterade aspekter såsom sökheuristik och begränsningslösning optimeringar. För det första föreslår vi att förstå effekten av befintliga programomvandlingar på symboliskt utförande, att öka skalbarheten och förbättra experimentell design och reproducerbarhet. För det andra argumenterar vi för utformningen av testability transformationer som är särskilt inriktade på mer skalbara symboliska utförande.
REF presenterar en samling programomvandlingar (både semantik-bevarande och -förändrande) som är utformade för att möjliggöra skalbar symbolisk körning.
995,015
Targeted program transformations for symbolic execution
{'venue': 'ESEC/FSE 2015', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,307
ABSTRACT Det är önskvärt att larmpaket skickas till diskbänken så snabbt som möjligt i trådlösa sensornätverk. I denna uppsats analyserar vi initialt teorin om förhållandet mellan nätverkskonfigurationer och nätverkslivslängd samt överföringsfördröjning. Sedan föreslår vi en approximativ optimeringsmetod för att minimera den end-to-end fördröjningen med en minskad komplexitet i konfigurationen under förutsättning att nätverkets livslängd förblir större än det angivna målvärdet. En lokal vidarebefordringsmetod som heter Snabb datainsamling för noder Långt bort från diskbänken och långsam datainsamling för noder Nära Sink (FFSC) föreslås. Detta tillvägagångssätt är energieffektivt. Dessutom kan den ytterligare minska förseningen från början till slut. Både den omfattande teoretiska analysen och de experimentella resultaten visar att FFSC:s prestanda är bättre än de metoder som föreslagits i tidigare studier. I förhållande till den direkta speditionsstrategin kan FFSC-metoden minska förseningen med 7,56%-23,16% och öka livslängden med mer än 25 %. Det kan också öka energieffektiviteten så mycket som 18,99 %. I förhållande till strategin med en enda fast tröskel kan FFSC-metoden minska förseningen med 4,16 %–9,79 % och öka energieffektiviteten med 19,28 % samtidigt som den garanterar samma livslängd som de tidigare metoderna. INDEX TERMS Energieffektivitet, reläval, fördröjning, arbetscykel, livslängd.
Liu m.fl. I REF studerades förhållandet mellan försening och tjänstgöringscykel.
2,873,766
FFSC: An Energy Efficiency Communications Approach for Delay Minimizing in Internet of Things
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
81,308
Vi inleder den formella studien av funktionell kryptering genom att ge exakta definitioner av begreppet och dess säkerhet. Ungefär så stöder funktionell kryptering begränsade hemliga nycklar som gör det möjligt för en nyckelhållare att lära sig en specifik funktion av krypterade data, men inte lära sig något annat om data. Till exempel, med tanke på ett krypterat program den hemliga nyckeln kan göra det möjligt för nyckelinnehavaren att lära sig utdata från programmet på en specifik ingång utan att lära sig något annat om programmet. Vi visar att definiera säkerhet för funktionell kryptering är icke-trivial. För det första visar vi att en naturlig spelbaserad definition är otillräcklig för vissa funktioner. Vi presenterar sedan en naturlig simuleringsbaserad definition och visar att den (bevisligen) inte kan uppfyllas i standardmodellen, utan kan tillfredsställas i den slumpmässiga orakelmodellen. Vi visar hur man kartlägger många befintliga koncept till vår formalisering av funktionell kryptering och avslutar med flera intressanta öppna problem i detta unga område.
Den formella studien av funktionell kryptering (FE) initierades av Boneh et al. REF med syntax och säkerhetsmodell definierad för allmän funktionalitet.
9,847,531
Functional Encryption: Definitions and Challenges
{'venue': 'TCC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,309
Vi föreslår en ny metod för semantisk instans segmentering, genom att först beräkna hur troligt två pixlar ska tillhöra samma objekt, och sedan genom att gruppera liknande pixlar tillsammans. Vår likhetsmått bygger på en djup, fullständigt konvolutionell inbäddningsmodell. Vår grupperingsmetod bygger på att välja alla punkter som är tillräckligt lika en uppsättning "såddpunkter", utvalda från en djup, fullständigt konvolutionell poängsättningsmodell. Vi visar konkurrenskraftiga resultat på Pascal VOC instans segmentering riktmärke.
I 2D-domänen Fathi et al. REF uppskattar hur troligt det är att pixlar tillhör samma objekt.
15,285,060
Semantic Instance Segmentation via Deep Metric Learning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
81,310
Abstract-De nyligen framväxande trådlösa kommunikationsnät (WPCN) har nyligen dragit stor uppmärksamhet, där radiosignaler används för att driva trådlösa terminaler för informationsöverföring. I detta dokument studerar vi en WPCN där en multi-antenna ingångspunkt (AP) samordnar energiöverföring och informationsöverföring till/från en uppsättning enstaka användare. Ett skördeprotokoll förutsätts där AP först sänder trådlös kraft till alla användare via energistråleformning i nedlänken (DL), och sedan skickar användarna sin oberoende information till AP samtidigt i upplänken (UL) med hjälp av sin skördade energi. För att optimera användarnas genomströmning och ändå garantera deras rättvisa hastighet, maximerar vi den minsta genomströmningen bland alla användare genom en gemensam design av DL-UL tidstilldelning, DL energi strålformning, och UL överföringseffekt allokering, samt ta emot strålformning. Vi löser detta icke-konvexa problem optimalt med två steg. Först fixar vi DL-UL tidstilldelningen och få den optimala DL energi strålformning, UL effektallokering, och ta emot strålformning för att maximera den minsta signal-till-interference-plus-brus-förhållandet för alla användare. Detta problem visar sig vara fortfarande nonconvex; men vi omvandlar det på motsvarande sätt till ett spektralradieminimeringsproblem, som kan lösas effektivt genom att tillämpa den alternerande optimeringen baserad på den icke-negativa matristeorin. Sedan, den optimala tidstilldelningen hittas av en endimensionell sökning för att maximera den minsta hastigheten för alla användare. Dessutom föreslås två suboptimala konstruktioner med lägre komplexitet, och deras genomströmningsprestanda jämförs med den optimala lösningens. Index Terms-Wireless kraftöverföring, energi strålformning, trådlös kommunikation, icke-negativ matris teori.
Ett skördeprotokoll används i REF för att studera ett trådlöst kommunikationsnät med en multi-antenna access-point (AP) och en-antenn användare.
17,294,404
Multi-Antenna Wireless Powered Communication With Energy Beamforming
{'venue': 'IEEE Transactions on Communications', 'journal': 'IEEE Transactions on Communications', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
81,311
Temporal åtgärd upptäckt är ett mycket viktigt men utmanande problem, eftersom videor i verkliga program är oftast lång, untrimmed och innehåller flera åtgärder instanser. Detta problem kräver inte bara att man erkänner åtgärdskategorier utan också att man upptäcker starttid och sluttid för varje åtgärdstillfälle. Många toppmoderna metoder antar ramen "detektion per klass": det första förslaget och klassificerar sedan förslagen. Den största nackdelen med denna ram är att åtgärdsinstansförslagens gränser har höjts under klassificeringssteget. För att ta itu med denna fråga, föreslår vi en ny Single Shot Action Detector (SSAD) nätverk baserat på 1D temporal convolutional lager för att hoppa över förslaget generation steg via att direkt upptäcka åtgärder instanser i otrimmad video. I strävan efter att utforma ett specifikt SSAD-nätverk som kan fungera effektivt för att upptäcka temporala åtgärder söker vi empiriskt efter den bästa nätverksarkitekturen för SSAD på grund av att det saknas befintliga modeller som kan användas direkt. Dessutom undersöker vi indatafunktionstyper och fusionsstrategier för att ytterligare förbättra detektionsnoggrannheten. Vi utför omfattande experiment på två utmanande dataset: THUMOS 2014 och MEXAction2. Vid fastställandet av tröskelvärdet för intersektioner över unionen till 0,5 under utvärderingen kan SSAD avsevärt överträffa andra toppmoderna system genom att öka mAP från 10.02. till 24,6 % för THUMOS 2014 och från 7,4 % till 11,0 % för MEX-åtgärder2.
Den metod som föreslås i REF är ett enda Shot Action Detector nätverk baserat på 1D temporal convolutional lager för att direkt upptäcka åtgärder instanser i otrimmade videor.
93,002
Single Shot Temporal Action Detection
{'venue': "MM '17", 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,312
Abstrakt. Vi presenterar en allmän metod för blind bild dekonvolution med Bayesian inference med super-Gaussian sparse bild tidigare. Vi anser att en stor familj av föregångare lämpar sig för att modellera naturliga bilder, och utveckla den allmänna proceduren för att uppskatta den okända bilden och oskärpa. Vår formulering innehåller ett antal befintliga modellering och slutledningsmetoder som specialfall samtidigt som den ger ytterligare flexibilitet i bildmodellering och algoritmdesign. Vi presenterar också en analys av den föreslagna slutsatsen jämfört med andra metoder och diskuterar dess fördelar. Teoretiska och experimentella resultat visar att den föreslagna formuleringen är mycket effektiv, effektiv och flexibel.
Babacan m.fl. REF använde super-Gaussian sparse bild innan man byggde en allmän och flexibel metod för blind bild deblurring.
11,572,054
Bayesian Blind Deconvolution with General Sparse Image Priors
{'venue': 'ECCV', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,313
Vi tränade ett stort, djupt konvolutionellt neuralt nätverk för att klassificera 1,2 miljoner högupplösta bilder i tävlingen ImageNet LSVRC-2010 i 1000 olika klasser. När det gäller testdata uppnådde vi topp 1- och topp 5-felfrekvenser på 37,5 % respektive 17,0 %, vilket är betydligt bättre än den senaste tekniken. Det neurala nätverket, som har 60 miljoner parametrar och 650.000 neuroner, består av fem konvolutionella lager, varav några följs av max-pooling lager, och tre helt anslutna lager med en slutlig 1000-vägs softmax. För att göra träningen snabbare använde vi icke mättande nervceller och en mycket effektiv GPU-implementering av konvolutionsoperationen. För att minska övermonteringen i de helt sammankopplade skikten använde vi en nyligen utvecklad legaliseringsmetod kallad "dropout" som visade sig vara mycket effektiv. Vi gick också in i en variant av denna modell i ILSVRC-2012 tävlingen och uppnådde en vinnande topp-5 test felfrekvens på 15,3%, jämfört med 26,2% uppnås genom den näst bästa posten.
AlexNet har 60 miljoner parametrar, varav 58 miljoner parametrar motsvarar FC-lagren REF.
207,763,512
ImageNet classification with deep convolutional neural networks
{'venue': 'CACM', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,314
Konventionella datorsystem autentiserar användare endast vid den inledande inloggningen, vilket kan vara orsaken till en kritisk säkerhetsbrist. För att lösa detta problem behöver systemen kontinuerliga metoder för användarautentisering som kontinuerligt övervakar och autentiserar användare baserat på vissa biometriska egenskaper. Vi föreslår en ny metod för kontinuerlig användarautentisering baserad på en webbkamera som övervakar en inloggad användares ansikte och färg på kläder. Vår metod kan autentisera användare oavsett deras hållning framför arbetsstationen (laptop eller PC). Tidigare metoder för kontinuerlig användarautentisering kan inte autentisera användare utan biometrisk observation. För att minska detta krav använder vår metod färginformation om användarnas kläder som en inskrivningsmall utöver deras ansiktsinformation. Systemet kan inte förhandsregistrera färginformationen för kläder eftersom denna information inte är permanent. För att hantera problemet registrerar vårt system automatiskt denna information varje gång användaren loggar in och kopplar sedan ihop den med det konventionella (lösenords) identifieringssystemet. Vi rapporterar preliminära autentiseringsresultat och framtida förbättringar till det föreslagna systemet.
I REF beskriver författarna till exempel ett kontinuerligt användarautentiseringssystem baserat på övervakning av användarens ansikte och färg på kläder med hjälp av en webbkamera.
393,991
Continuous user authentication using temporal information
{'venue': 'Defense + Commercial Sensing', 'journal': None, 'mag_field_of_study': ['Engineering', 'Computer Science']}
81,315
Domänanpassning är ett aktivt forskat problem inom Computer Vision. I detta arbete föreslår vi en strategi som utnyttjar oövervakade data för att föra källan och målfördelningen närmare varandra i ett inlärt gemensamt funktionsutrymme. Vi åstadkommer detta genom att framkalla ett symbiotiskt förhållande mellan det lärda inbäddandet och ett generativt kontradiktoriskt nätverk. Detta står i kontrast till metoder som använder den kontradiktoriska ramen för realistisk datagenerering och omskolning av djupa modeller med sådana data. Vi visar styrkan och generaliteten i vår strategi genom att utföra experiment på tre olika uppgifter med varierande svårighetsgrader: (1) Digit klassificering (MNIST, SVHN och USPS dataset) (2) Objektigenkänning med hjälp av BYRÅ dataset och (3) Domän anpassning från syntetiska till verkliga data. Vår metod uppnår state-of-the-art prestanda i de flesta experimentella miljöer och överlägset den enda GAN-baserade metod som har visat sig fungera bra mellan olika datauppsättningar såsom BYRÅ och DIGITS.
I REF föreslog de en gemensam kontradiktorisk discriminativ metod som kan överföra informationen om måldistributionen till den lärda inbäddningen med hjälp av ett generator-diskriminatorpar.
4,547,917
Generate to Adapt: Aligning Domains Using Generative Adversarial Networks
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
81,317
Moderna mjukvarusystem använder sig ofta av tredjepartskomponenter för att påskynda utvecklingen och minska underhållskostnaderna. I gengäld måste utvecklare uppdatera till nya utgåvor av dessa beroenden för att undvika t.ex. säkerhets- och kompatibilitetsrisker. I praktiken är det svårt att prioritera dessa uppdateringar eftersom användningen av föråldrade beroenden ofta är ogenomskinlig. I detta dokument strävar vi efter att göra detta koncept mer transparent genom att införa mått för att kvantifiera användningen av de senaste versionerna av beroenden, dvs.. systemets "beroende fräschör". Vi föreslår och undersöker ett system-nivåmått baserat på ett branschriktmärke. Vi validerar nyttan av metriska med intervjuer, analyserar variansen av metriska genom tiden, och undersöka förhållandet mellan föråldrade beroenden och säkerhetssårbarheter. Resultaten visar att mätningarna anses användbara och att system som använder föråldrade beroenden fyra gånger så sannolikt har säkerhetsproblem jämfört med system som är aktuella. 978-1-4799-1934-5/15 31,00
Cox och Al. REF föreslog olika mått för att kvantifiera ett programvarusystems beroende färskhet.
6,709,653
Measuring dependency freshness in software systems
{'venue': "ICSE '15", 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,318
Många metoder för att stödja (halvautomatisk) identifiering av objekt i äldre kod tar datastrukturerna som utgångspunkt för kandidatklasser. Tyvärr tenderar äldre datastrukturer att växa över tiden, och kan innehålla många orelaterade fält vid tidpunkten för migration. Vi föreslår en metod för att identifiera objekt genom att halvautomatiskt omstrukturera de äldre datastrukturerna. Bland de frågor som berörs kan nämnas urvalet av rekordområden, identifieringen av förfaranden som faktiskt behandlar sådana områden och uppbyggnaden av sammanhängande grupper av områden och förfaranden i kandidatklasser. Vi undersöker användningen av kluster- och konceptanalys för objektidentifikation, och vi illustrerar deras effekt på ett 100.000 LOC Cobol system. Dessutom använder vi dessa resultat för att kontrastera klustering med konceptanalystekniker.
Arie van Deursen föreslår att man använder FCA och halvautomatiskt omstrukturerar de äldre datastrukturerna som sedan kan användas som utgångspunkt för objektidentifikation REF.
14,991,770
Identifying objects using cluster and concept analysis
{'venue': 'Proceedings of the 1999 International Conference on Software Engineering (IEEE Cat. No.99CB37002)', 'journal': 'Proceedings of the 1999 International Conference on Software Engineering (IEEE Cat. No.99CB37002)', 'mag_field_of_study': ['Computer Science']}
81,319
Bakgrund: Mikroarrayer har blivit extremt användbara för att analysera genetiska fenomen, men att etablera ett samband mellan mikroarray analysresultat (vanligtvis en lista över gener) och deras biologiska betydelse är ofta svårt. För närvarande är standardmetoden att i efterhand kartlägga resultaten på gennätverken för att belysa de funktioner som störs på banornas nivå. Att på förhand integrera kunskaperna om gennätverken skulle dock kunna bidra till den statistiska analysen av genuttrycksdata och till deras biologiska tolkning. Vi föreslår en metod för att på förhand integrera kunskapen om ett gennätverk i analysen av genuttrycksdata. Tillvägagångssättet är baserat på spektral nedbrytning av genuttrycksprofiler med avseende på eigensfunktionerna i grafen, vilket resulterar i en dämpning av högfrekvenskomponenterna i uttrycksprofilerna med avseende på grafens topologi. Vi visar hur man härleder oövervakade och övervakade klassificeringsalgoritmer för uttrycksprofiler, vilket resulterar i klassificeringar med biologisk relevans. Vi illustrerar metoden med analys av en uppsättning uttrycksprofiler från bestrålade och icke-bestrålade jäststammar. Inbegripet en förkunskaper om ett gennätverk för analys av genuttrycksdata leder till god klassificeringsprestanda och förbättrad tolkningsbarhet av resultaten.
I denna kategori har REF nyligen föreslagit en ursprunglig metod, som integrerar KEGG metaboliska interaktionsnätverk i en spektral nedbrytning av genuttrycksprofiler för att härleda en klassificeringsalgoritm.
6,132,929
Classification of microarray data using gene networks
{'venue': 'BMC Bioinformatics', 'journal': 'BMC Bioinformatics', 'mag_field_of_study': ['Biology', 'Medicine', 'Computer Science']}
81,320
Okända ord är oundvikliga vid alla steg av analys i naturligt språk bearbetning. Wc föreslår en metod för att extrahera ord från en corl)us och uppskatta sannolikheten för att varje ord tillhör givna delar av tal (POS), med hjälp av en fördelningsanalys. Våra experiment har visat att denna metod är etfektiv för att sluta sig till de okända ordens POS.
REF extraherade ord från texter och uppskattade deras POS med hjälp av distributionsanalys.
341,023
Word Extraction From Corpora And Its Part-Of-Speech Estimation Using Distributional Analysis
{'venue': 'International Conference On Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,321
Uppgifterna inom många discipliner såsom sociala nätverk, webbanalys m.m. är länkbaserad och länkstrukturen kan utnyttjas för många olika datautvinningsuppgifter. I detta dokument anser vi problemet med tidslänk förutsägelse: Med tanke på länkdata för tider 1 till och med T, kan vi förutsäga länkarna vid tiden T + 1? Om våra data har underliggande periodisk struktur, kan vi förutsäga ytterligare i tid, dvs. länkar vid tiden T + 2, T + 3, etc? I den här artikeln överväger vi bipartit grafer som utvecklas över tid och överväga matris-och tensor-baserade metoder för att förutsäga framtida länkar. Vi presenterar en viktbaserad metod för att kollapsa flerårsdata till en enda matris. Vi visar hur den välkända Katz-metoden för länkförutsägelse kan utökas till bipartitgrafer och dessutom approximeras på ett skalbart sätt med en trunkerad singular value sönderdelning. Med hjälp av en CADECOMP/PARAFAC tensor nedbrytning av data, illustrerar vi nyttan av att utnyttja den naturliga tredimensionella strukturen av tidslänkdata. Genom flera numeriska experiment, visar vi att både matris- och tensor-baserade tekniker är effektiva för tidslänk förutsägelse trots den inneboende svårigheten med problemet. Dessutom visar vi att tensorbaserade tekniker är särskilt effektiva för tidsdata med varierande periodiska mönster.
Dunlavy m.fl. fokuserad på problemet med periodisk tidslänk förutsägelse REF.
1,061,306
Temporal Link Prediction using Matrix and Tensor Factorizations
{'venue': 'ACM Transactions on Knowledge Discovery from Data 5(2):10 (27 pages), February 2011', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics', 'Physics']}
81,322
Sammanfattning av denna webbsida: Vi introducerar CARLA, en simulator med öppen källkod för autonom körforskning. CARLA har utvecklats från grunden för att stödja utveckling, utbildning och validering av autonoma stadskörningssystem. Förutom kod och protokoll med öppen källkod tillhandahåller CARLA öppna digitala tillgångar (stadslayouter, byggnader, fordon) som skapades för detta ändamål och kan användas fritt. Simuleringsplattformen stöder flexibel specifikation av sensorsviter och miljöförhållanden. Vi använder CARLA för att studera prestandan hos tre tillvägagångssätt för autonom körning: en klassisk modulär pipeline, en endto-end-modell tränad via imitationslärande, och en end-to-end-modell tränad via förstärkningslärande. Tillvägagångssätten utvärderas i kontrollerade scenarier med ökande svårigheter, och deras prestanda undersöks med hjälp av mätvärden som tillhandahålls av CARLA, vilket illustrerar plattformens nytta för autonom körforskning.
CARLA är en urban körsimulator för att stödja utveckling och validering av ett autonomt körsystem REF.
5,550,767
CARLA: An Open Urban Driving Simulator
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
81,323
När ontologins utveckling blir en mer allestädes närvarande och samarbetsprocess blir ontologiversionering och evolution ett viktigt område för ontologiforskning. De många likheterna mellan databas-schema evolution och ontologi evolution kommer att göra det möjligt för oss att bygga vidare på den omfattande forskningen inom schema evolution. Det finns dock också stora skillnader mellan databasscheman och ontologier. Skillnaderna beror på olika användningsparadigm, förekomsten av explicita semantik och olika kunskapsmodeller. Många problem som endast fanns i teorin i databasforskningen kommer i förgrunden som praktiska problem i ontologi evolution. Dessa skillnader har viktiga konsekvenser för utvecklingen av ontologi-evolutionsramar: Den traditionella distinktionen mellan versionering och evolution är inte tillämplig på ontologier. Det finns flera dimensioner längs vilka kompatibilitet mellan versioner måste beaktas. Den uppsättning förändringsåtgärder för ontologier är annorlunda. Vi måste utveckla automatiska tekniker för att hitta likheter och skillnader mellan versioner. Nyckelord: Ontologier; Ontologi evolution; Schema evolution Om vi spårar utvecklingen av ontologi forskning inom datavetenskap, kan vi se att, när fältet växer och mognar, fokus för forskning och de frågor som forskarna behandlar skift också. Framstegen återspeglar naturligtvis övergången från mer teoretiska frågeställningar inom ontologiforskning till de frågor som är förknippade med användningen av ontologier i verkliga, storskaliga tillämpningar. Den aktiva forskningen inom ontologier började med att definiera vad en formell ontologi är och vilka krav en ontologi måste uppfylla (Gruber 1993). Termen ontologi kom att hänvisa till ett brett spektrum av formella framställningar från taxonomier och hierarkiska terminologivokabulärer till detaljerade logiska teorier som beskriver en domän.
Ontologi Matchning skiljer sig från Schema Matchning avsevärt av två skäl ( REF ): förekomst av explicita semantik och kunskapsmodeller.
1,849,443
Ontology Evolution: Not the Same as Schema Evolution
{'venue': 'Knowledge and Information Systems', 'journal': 'Knowledge and Information Systems', 'mag_field_of_study': ['Computer Science']}
81,324
En arbetsflödesspecifikation definierar en uppsättning steg och den ordning i vilken dessa steg måste utföras. Säkerhetskrav kan innebära begränsningar för vilka grupper av användare som får utföra undergrupper av dessa steg. En arbetsflöde specifikation sägs vara tillfredsställande om det finns en tilldelning av användare till arbetsflöde steg som uppfyller alla begränsningar. En algoritm för att avgöra om ett sådant uppdrag finns är viktig, både som ett statiskt analysverktyg för arbetsflödesspecifikationer och för konstruktion av referensmonitorer för drifttid för arbetsflödeshanteringssystem. Att hitta ett sådant uppdrag är ett svårt problem i allmänhet, men arbete av Wang och Li 2010 med hjälp av teorin om parameteriserad komplexitet tyder på att effektiva algoritmer finns under rimliga antaganden om arbetsflödesspecifikationer. I det här dokumentet förbättrar vi komplexitetsgränserna för problem med tillfredsställande arbetsflöden. Vi generaliserar och utökar också de typer av begränsningar som kan definieras i en arbetsflödesspecifikation och bevisar att problemet med tillfredsställande förblir fast-parameter hanterbart för sådana begränsningar.
Crampton m.fl. REF förbättrade komplexiteten för WSP och generaliserade de begränsningar som stöds av deras lösning.
3,423,561
On the parameterized complexity of the workflow satisfiability problem
{'venue': "CCS '12", 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,325
Det finns åtminstone två typer av likheter. Relationell likhet är överensstämmelse mellan relationer, i motsats till tillskrivande likhet, vilket är överensstämmelse mellan attribut. När två ord har en hög grad av tillskrivande likhet, kallar vi dem synonymer. När två par ord har en hög grad av relationslikhet, säger vi att deras relationer är analoga. Till exempel, ordet par murare:sten är jämförbar med par snickare: trä. Denna artikel introducerar Latent Relational Analysis (LRA), en metod för att mäta relationell likhet. LRA har potentiella tillämpningar inom många områden, bland annat informationsextrahering, disambigering av ordförnimmelser och informationshämtning. Vector Space Model (VSM) för informationssökning har nyligen anpassats för att mäta relationell likhet, uppnå en poäng på 47% på en samling av 374 college-nivå flera val ord analoga frågor. I VSM metoden, förhållandet mellan ett par ord kännetecknas av en vektor av frekvenser av fördefinierade mönster i en stor corpus. LRA utökar VSM-metoden på tre sätt: (1) Mönstren härleds automatiskt från corpus, (2) Singular Value Decomposition (SVD) används för att jämna frekvensdata, och (3) automatiskt genererade synonymer används för att utforska variationer av ordpar. LRA uppnår 56 % av de 374 analoga frågorna, vilket statistiskt motsvarar den genomsnittliga humana poängen på 57 %. När det gäller det relaterade problemet med att klassificera semantiska förbindelser uppnår LRA liknande vinster jämfört med VSM.
Till exempel, Latent Relational Analysis (LRA) REF representerar förhållandet mellan ordpar med en kooccuration matris där rader motsvarar ordpar och kolumner motsvarar olika lexical mönster som co-occur i vissa sammanhang med ordpar.
2,468,783
Similarity of Semantic Relations
{'venue': 'Computational Linguistics', 'journal': 'Computational Linguistics', 'mag_field_of_study': ['Computer Science']}
81,326
Även om online rekommendationssystem som rekommendationer för filmer eller musik har studerats systematiskt under det senaste årtiondet, är lokaliseringsrekommendationen i Location Based Social Networks (LBSNs) ännu inte väl undersökt. I LBSNs kan användare checka in och lämna tips som kommenterar en plats. Dessa två heterogena datakällor beskriver båda användarnas preferens av arenor. Men i pågående forskningsarbete, endast användares incheckning beteende beaktas i användarnas plats preferens modell, användarnas tips på platser är sällan utredda ännu. Samtidigt som det befintliga arbetet främst beaktar socialt inflytande i rekommendationen, hävdar vi att med tanke på lokal likhet kan ytterligare förbättra rekommendationens prestanda. I denna forskning, vi förbättra lokalisering rekommendation genom att förbättra inte bara användaren plats preferens modell men också rekommendation algoritm. För det första föreslår vi en hybrid-användare preferens modell genom att kombinera den preferens som extraheras från incheckningar och text-baserade tips som bearbetas med hjälp av känsloanalys tekniker. För det andra utvecklar vi en platsbaserad social matrisfaktoriseringsalgoritm som tar hänsyn till både användarsocial påverkan och platslikviditetsinverkan i lokaliseringsrekommendationen. Med hjälp av två datauppsättningar som extraheras från de lokaliseringsbaserade sociala nätverken Foursquare, visar experimentresultaten att den föreslagna hybridpreferensmodellen bättre kan karakterisera användarens preferens genom att bibehålla preferenskonsistensen, och den föreslagna algoritmen överträffar de senaste metoderna.
Nyttan av incheckningar och textbaserade tips för att förbättra lokaliseringsrekommendationen undersöks i REF.
17,872,069
A sentiment-enhanced personalized location recommendation system
{'venue': "HT '13", 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,327
För att utföra okonstruerad ansiktsigenkänning robust för variationer i belysning, pose och uttryck presenterar detta dokument ett nytt system för att extrahera "Multi-Directional Multi-Level Dual-Cross Mönster" (MDML-DCP) från ansiktsbilder. Särskilt MDML-DCPs systemet utnyttjar den första derivatan av Gaussian operatör för att minska effekten av skillnader i belysning och sedan beräkna DCP-funktionen på både holistiska och komponentnivåer. DCP är en ny ansiktsbildsbeskrivning inspirerad av den unika texturala strukturen hos mänskliga ansikten. Det är beräkningseffektivt och fördubblar bara kostnaden för att beräkna lokala binära mönster, men är ändå extremt robust att posera och uttrycka variationer. MDML-DCPs kodar utförligt men effektivt in de invarianta egenskaperna hos en ansiktsbild från flera nivåer till mönster som är mycket diskriminerande för inter-personliga skillnader men robusta för intra-personliga variationer. Experimentella resultat från FERET, CAS-PERL-R1, FRGC 2.0 och LFW-databaser tyder på att DCP överträffar de senaste lokala deskriptorerna (t.ex. LBP, LTP, LPQ, POEM och LGXP) för både ansiktsidentifiering och ansiktsverifiering. Mer imponerande, den bästa prestandan uppnås på utmanande LFW och FRGC 2.0 databaser genom att distribuera MDML-DCPs i ett enkelt erkännande system.
Multi-direktionella multi-nivå Dual-Cross Mönster (MDML-DCP) föreslås av REF.
13,209,451
Multi-Directional Multi-Level Dual-Cross Patterns for Robust Face Recognition
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Medicine']}
81,328
De flesta moderna konvolutionella neurala nätverk (CNN) som används för objektigenkänning är byggda enligt samma principer: Alternativa konvolution och max-pooling lager följt av ett litet antal fullt anslutna lager. Vi omvärderar den senaste tekniken för objektigenkänning från små bilder med konvolutionella nätverk och ifrågasätter nödvändigheten av olika komponenter i rörledningen. Vi finner att max-pooling helt enkelt kan ersättas av ett konvolutionslager med ökat steg utan förlust av noggrannhet på flera riktmärken för bildigenkänning. Efter detta fynd - och bygger på andra senaste arbete för att hitta enkla nätverksstrukturer - föreslår vi en ny arkitektur som endast består av konvolutionella lager och ger konkurrenskraftiga eller toppmoderna prestanda på flera objektigenkänningsdataset ImageNet). För att analysera nätverket introducerar vi en ny variant av "dekonvolutionsmetoden" för att visualisera funktioner som lärts av CNNs, som kan tillämpas på ett bredare spektrum av nätverksstrukturer än befintliga metoder.
Nyligen, Springenberg et al. REF ägnades åt enklare CNN-arkitekturer och ifrågasatte behovet av olika komponenter i den kanoniska rörledningen.
12,998,557
Striving for Simplicity: The All Convolutional Net
{'venue': 'ICLR 2015', 'journal': 'arXiv: Learning', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
81,329
BOINC (Berkeley Open Infrastructure for Network Computing) är ett programvarusystem som gör det enkelt för forskare att skapa och driva datorprojekt med offentliga resurser. Den stöder olika tillämpningar, inklusive dem med stora lagrings- eller kommunikationskrav. PC-ägare kan delta i flera BOINC-projekt och kan ange hur deras resurser fördelas mellan dessa projekt. Vi beskriver målen för BOINC, de designfrågor som vi konfronterade, och våra lösningar på dessa problem. Public-resource computing och Grid computing har som mål att bättre utnyttja befintliga datorresurser. Det finns dock stora skillnader mellan de två paradigmerna, och det är osannolikt att dagens Grid middleware [5] kommer att vara lämpligt för datorer med offentliga resurser. Grid computing omfattar organisatoriskt ägda resurser: superdatorer, kluster och datorer som ägs av universitet, forskningslabb och företag. Dessa resurser förvaltas centralt av IT-proffs, drivs på större delen av tiden, och är anslutna med heltid, högbandsbredd nätverk länkar. Det finns ett symmetriskt förhållande mellan organisationer: var och en kan antingen tillhandahålla eller använda resurser. Skadligt beteende som avsiktlig förfalskning av resultat skulle hanteras utanför systemet, t.ex. genom att avskeda gärningsmannen. Den offentliga resursberäkningen innebär däremot ett asymmetriskt förhållande mellan projekt och deltagare. Projekten är vanligtvis små akademiska forskargrupper med begränsad datakompetens och arbetskraft. De flesta deltagare är personer som äger Windows-, Macintosh- och Linuxdatorer, som är uppkopplade till Internet via telefon eller kabelmodem eller DSL, och ofta bakom nätverksadressöversättare (NAT) eller brandväggar. Datorerna stängs ofta av eller kopplas bort från Internet. Deltagare
BOINC 1 (Berkeley Open Infrastructure for Network Computing) är det populära projektet för crowdsourcing baserad beräkning REF och det använder recomputations för att bekräfta tillförlitligheten av resultaten [23].
403,680
BOINC: a system for public-resource computing and storage
{'venue': 'Fifth IEEE/ACM International Workshop on Grid Computing', 'journal': 'Fifth IEEE/ACM International Workshop on Grid Computing', 'mag_field_of_study': ['Computer Science']}
81,330
Automatisk syntes av realistiska bilder från text skulle vara intressant och användbart, men nuvarande AI-system är fortfarande långt ifrån detta mål. Under de senaste åren har dock generiska och kraftfulla återkommande neurala nätverksarkitekturer utvecklats för att lära sig diskriminativa textfunktionsrepresentationer. Samtidigt har djupa konvolutionella generativa kontrariska nätverk (GANS) börjat generera mycket övertygande bilder av specifika kategorier, såsom ansikten, skivomslag och rumsinteriörer. I detta arbete utvecklar vi en ny djup arkitektur och GAN-formulering för att effektivt överbrygga dessa framsteg inom text- och bildmodellering, översätta visuella begrepp från tecken till pixlar. Vi visar vår modells förmåga att generera trovärdiga bilder av fåglar och blommor från detaljerade textbeskrivningar.
al REF visade att GAN kunde användas för att generera bilder från text.
1,563,370
Generative Adversarial Text to Image Synthesis
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
81,331
Abstract-En analytisk modell för tillförlitligheten hos en särskild kortdistanskanal för kommunikation (DSRC) för hantering av säkerhetstillämpningar i fordonsspecifika ad hoc-nätverk (VANET) föreslås. Modellen gör det särskilt möjligt att fastställa sannolikheten för att få status- och säkerhetsmeddelanden från alla fordon inom en sändares räckvidd respektive fordon upp till ett visst avstånd. Den föreslagna modellen bygger på en ny rörlighetsmodell som tar hänsyn till fordonets säkerhetsregel för att korrekt fastställa förhållandet mellan fordonets genomsnittliga hastighet och täthet. Modellen tar dessutom hänsyn till 1) rörlighetens inverkan på tätheten hos fordon runt sändaren, 2) sändarens och mottagarens hastigheters inverkan på systemets tillförlitlighet, 3) påverkan av att kanalen bleknar genom att modellera kommunikationsområdet som en slumpmässig variabel, och 4) dolda terminalproblem och överföringskollisioner från närliggande fordon. Det visas att de nuvarande specifikationerna för DSRC kan leda till allvarlig prestandanedbrytning vid täta och högrörliga förhållanden. Därför införs en adaptiv algoritm för att öka systemets tillförlitlighet när det gäller sannolikheten för ett framgångsrikt mottagande av paketet och fördröjningen av nödmeddelanden i en hård fordonsmiljö. Den föreslagna modellen och förbättringsalgoritmen valideras genom simulering med hjälp av realistiska vehikulära spår. Index Terms-Connectivity, dedikerad kortdistanskommunikation (DSRC), IEEE 802.11p, Markov chain, medium access control (MAC), mobilitet, tillförlitlighet, fordonsspecifika ad hoc-nätverk (VANET).
I Ref föreslogs en analytisk modell för prestanda och tillförlitlighet när det gäller sändning av säkerhetsmeddelanden.
3,169,732
Performance Analysis and Enhancement of the DSRC for VANET's Safety Applications
{'venue': 'IEEE Transactions on Vehicular Technology', 'journal': 'IEEE Transactions on Vehicular Technology', 'mag_field_of_study': ['Computer Science']}
81,332
Motivering: Tidsserieuttrycksexperiment används för att studera ett brett spektrum av biologiska system. Mer än 80 % av alla tidsseriers uttrycksdata är korta (8 tidspoäng eller färre). Dessa datauppsättningar utgör unika utmaningar. På grund av det stora antalet profilerade gener (ofta tiotusentals) och det lilla antalet tidspunkter förväntas många mönster uppstå slumpmässigt. De flesta klusteralgoritmer kan inte skilja mellan verkliga och slumpmässiga mönster. Resultat: Vi presenterar en algoritm speciellt utformad för att samla korta tidsseriers expressionsdata. Vår algoritm fungerar genom att tilldela gener till en fördefinierad uppsättning modellprofiler som fångar de potentiella distinkta mönster som kan förväntas från experimentet. Vi diskuterar hur man får en sådan uppsättning profiler och hur man avgör betydelsen av var och en av dessa profiler. Betydande profiler behålls för vidare analys och kan kombineras för att bilda kluster. Vi testade vår metod på både simulerade och verkliga biologiska data. Med hjälp av immunsvarsdata visar vi att vår algoritm korrekt kan upptäcka tidsprofilen för relevanta funktionella kategorier. Med hjälp av GO-analys visar vi att vår algoritm överträffar både generella klusteralgoritmer och algoritmer som utformats speciellt för klustering av genuttrycksdata i tidsserier.
Ernst m.fl. I REF föreslås en klustermetod som är utformad för sådana korta tidsserier.
7,473,847
Clustering Short Time Series Gene Expression Data
{'venue': 'Bioinformatics', 'journal': 'Bioinformatics', 'mag_field_of_study': ['Medicine', 'Computer Science']}
81,333
2004 publicerade vi i denna tidskrift en artikel som beskriver OntoLearn, ett av de första systemen för att automatiskt framkalla taxonomi från dokument och webbplatser. Sedan dess har OntoLearn fortsatt att vara ett aktivt forskningsområde i vår grupp och har blivit ett referensarbete inom samhället. I den här artikeln beskriver vi vår nästa generations taxonomi inlärningsmetod, som vi namnger OntoLearn Reloaded. Till skillnad från många taxonomiinlärningsmetoder i litteraturen lär sig vår nya algoritm både begrepp och relationer helt från grunden via automatisk extraktion av termer, definitioner och hypernymer. Detta resulterar i en mycket tät, cyklisk och potentiellt frånkopplad hypernym graf. Algoritmen inducerar sedan en taxonomi från denna graf genom optimal förgrening och en ny viktningspolitik. Våra experiment visar att vi får högkvalitativa resultat, både när vi bygger helt nya taxonomier och när vi rekonstruerar underhierarkier av befintliga taxonomier.
Velardi m.fl. REF, föreslog Ontolearn algoritm, som lär sig både begrepp och relationer från grunden via automatisk extraktion av termer, definitioner och hypernymer.
15,029,034
OntoLearn Reloaded: A Graph-Based Algorithm for Taxonomy Induction
{'venue': 'Computational Linguistics', 'journal': 'Computational Linguistics', 'mag_field_of_study': ['Computer Science']}
81,334
Long Short-Term Memory (LSTM) används ofta i taligenkänning. För att uppnå högre förutsägelsenoggrannhet, maskininlärning forskare har byggt allt större modeller. En sådan stor modell är både beräkningsintensiv och minnesintensiv. Deploying sådan skrymmande modell resulterar i hög strömförbrukning och leder till en hög total kostnad för ägande (TCO) av ett datacenter. För att påskynda förutsägelsen och göra den energieffektiv, föreslår vi först en belastning-balans-aware beskärning metod som kan komprimera LSTM modellstorlek med 20× (10× från beskärning och 2× från kvantisering) med försumbar förlust av förutsägelse noggrannhet. Den beskurna modellen är vänlig för parallell bearbetning. Därefter föreslår vi en schemaläggare som kodar och partitionerar den komprimerade modellen till flera PE för parallellism och schemalägger det komplicerade LSTM-dataflödet. Slutligen designar vi maskinvaruarkitekturen, Efficient Speech Recognition Engine (ESE) som fungerar direkt på den sparsamma LSTM-modellen. Genomfört på Xilinx XCKU060 FPGA som körs på 200MHz, har ESE en prestanda på 282 GOPS som arbetar direkt på det glesa LSTM-nätverket, vilket motsvarar 2,52 TOPS på den täta, och bearbetar en fullständig LSTM för taligenkänning med en effektavledning på 41 Watts. Utvärderad på LSTM för taligenkänning riktmärke, är ESE 43× och 3× snabbare än Core i7 5930k CPU och Pascal Titan X GPU implementationer. Det uppnår 40× och 11,5× högre energieffektivitet jämfört med CPU respektive GPU.
Han och Al. I REF föreslogs en FPGA-baserad taligenkänningsmotor som använder ett system för komprimering av lastbalansen i syfte att komprimera LSTM-modellens storlek.
3,351,553
ESE: Efficient Speech Recognition Engine with Sparse LSTM on FPGA
{'venue': "FPGA '17", 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,335
Sammanfattning-Detta dokument presenterar en ny ram för slutförande av saknade information på grundval av lokala strukturer. Det utgör uppgiften att slutföra som ett globalt optimeringsproblem med en väldefinierad objektiv funktion och härleder en ny algoritm för att optimera den. De värden som saknas är begränsade till att bilda sammanhängande strukturer med avseende på referensexempel. Vi tillämpar denna metod för rum-tid slutförande av stora rum-tid "hål" i videosekvenser av komplexa dynamiska scener. De saknade delarna fylls i genom provtagning av spatiotemporala patchar från de tillgängliga delarna av videon, samtidigt som global spatiotemporalkonsistens upprätthålls mellan alla patchar i och runt hålet. Den konsekventa slutförandet av statiska scendelar samtidigt med dynamiska beteenden leder till realistiska ser videosekvenser och bilder. Rymdtid video slutförande är användbart för en mängd olika uppgifter, inklusive, men inte begränsat till: 1) Sofistikerad video borttagning (av oönskade statiska eller dynamiska objekt) genom att fylla i lämplig statisk eller dynamisk bakgrundsinformation. 2) Rättning av saknade/korrupta videoramar i gamla filmer. 3) Ändra en visuell berättelse genom att ersätta oönskade element. 4) Skapande av videotexturer genom att utvidga de mindre. 5) Skapande av komplett synfält stabiliserad video. 6) Eftersom bilder är en-ram video, använder vi metoden för detta speciella fall också.
Wexler m.fl. I REF definierades en energifunktion för att komplettera den information som saknades i videon.
11,891,609
Space-Time Completion of Video
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Medicine', 'Computer Science']}
81,336
Både säkerhet och effektivitet är avgörande för att molnlagringen ska lyckas. Hittills har säkerheten och effektiviteten i molnlagringen undersökts separat enligt följande: Å ena sidan har säkerhetsbegrepp som Proof of Data Possession (PDP) och Proof of Retrievability (POR) införts för att upptäcka att data som lagras i molnet har manipulerats. Å andra sidan har begreppet Proof of Ownership (POW) också föreslagits för att minska molnservern från att lagra flera kopior av samma data, vilket avsevärt skulle kunna minska förbrukningen av både nätverksbandbredd och serverlagringsutrymme. Dessa två aspekter tycks vara raka motsatsen till varandra. I detta dokument visar vi, något överraskande, att de två aspekterna faktiskt kan samexistera inom samma ram. Detta är möjligt i grunden på grund av följande insikter: Den allmänna verifiabilitet som erbjuds genom PDP/POR-system kan naturligtvis utnyttjas för att uppnå POW. Detta fenomen "en sten, två fåglar" inspirerade oss inte bara att föreslå det nya begreppet Proof of Storage with Deduplication (POSD), utan också vägledde oss att utforma en konkret plan som är bevisligen säker i den slumpmässiga Oracle modellen baserad på beräkningsdiffie-Hellman (CDH) antagande.
Zheng och Xu REF föreslog en lösning som kallas bevis på lagring med deduplicering, vilket är det första försöket att utforma ett PoS-system med deduplicering.
573,485
Secure and efficient proof of storage with deduplication
{'venue': "CODASPY '12", 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,337
En viktig uppgift i analysen av sociala nätverkssystem online är att identifiera viktiga personer - som är sammankopplade med starka sociala band - inom en individs nätverksområde. Här undersöker vi denna fråga för en viss kategori av starka band, de som involverar makar eller romantiska partner. Vi organiserar vår analys kring en grundläggande fråga: med tanke på alla kontakter mellan en persons vänner, kan du känna igen hans eller hennes romantiska partner från nätverket struktur ensam? Med hjälp av data från ett stort urval av Facebook-användare, finner vi att denna uppgift kan utföras med hög noggrannhet, men att göra det kräver utveckling av ett nytt mått av band styrka som vi kallar "spridning" - i vilken utsträckning två människors ömsesidiga vänner är inte själva väl ansluten. Resultaten erbjuder metoder för att identifiera typer av strukturellt betydelsefulla personer i on-line applikationer, och föreslår en potentiell expansion av befintliga teorier om bindning styrka.
REF fokuserar på grafstrukturen för att identifiera en viss typ av band -romantiska relationer i Facebook.
8,478,459
Romantic partnerships and the dispersion of social ties: a network analysis of relationship status on facebook
{'venue': "CSCW '14", 'journal': None, 'mag_field_of_study': ['Psychology', 'Computer Science', 'Physics']}
81,338
Nyligen har det skett en enorm ökning av mobil dataanvändning med den utbredda spridningen av smartphone-liknande enheter. Denna ökade efterfrågan från användarna har dock lett till en kraftig överbelastning av trafiken i de cellulära näten. Avlastning av trafiken genom flera andra enheter (femtoceller, Wi-Fi-anslutningspunkter) har ansetts vara en omedelbar lösning på ett sådant problem. I detta dokument studerar vi därför införandet av Wi-Fi-anslutningspunkter (AP) i ett storstadsområde för effektiv avlastning av mobil datatrafik. Vi analyserar en storskalig verklig användarrörlighet spår och föreslår en distributionsalgoritm baserad på densiteten hos användarens data begäran frekvens. I simuleringar presenterar vi avlastningsförhållande som vår algoritm kan åstadkomma med olika antal AP. Resultaten visar att vår algoritm kan uppnå ett nästan optimalt avlastningsförhållande som är högre än avlastningsförhållanden som befintliga algoritmer kan uppnå med samma antal AP.
Därför utnyttjade Bulut och Szymanski REF WiFi AP och föreslog en installationsalgoritm baserad på densiteten hos användarens dataförfrågan frekvens.
5,635,417
WiFi access point deployment for efficient mobile data offloading
{'venue': "PINGEN '12", 'journal': None, 'mag_field_of_study': ['Engineering']}
81,339
Att veta var och volymen av prostatan är viktigt för ultraljudsstyrd prostata brachyterapi, en vanlig prostatacancer behandlingsmetod. Prostatagränsen måste segmenteras innan en dosplan kan erhållas. Men manuell segmentering är mödosamt och tidskrävande. Detta dokument introducerar en halvautomatisk segmenteringsalgoritm baserad på dyadiska wavelettransform (DWT) och den diskreta dynamiska konturen (DDC). En splineinterpoleringsmetod används för att bestämma den ursprungliga konturen baserat på fyra användardefinierade initialpunkter. DDC-modellen förfinar sedan den ursprungliga konturen baserad på ungefärliga koefficienter och de waveletkoefficienter som genereras med hjälp av DWT. DDC-modellen utförs under två inställningar. Koefficienter som används i dessa två inställningar härleds med hjälp av utjämningsfunktioner med olika storlekar. En urvalsregel används för att välja den bästa konturen baserat på de konturer som produceras i dessa två inställningar. Noggrannheten i den slutliga kontur som produceras av den föreslagna algoritmen utvärderas genom att jämföra den med den manuella kontur som beskrivs av en expertobservatör. Totalt 114 2D TRUS-bilder tagna för sex olika patienter som planerades för brachyterapi segmenterades med den föreslagna algoritmen. Den genomsnittliga skillnaden mellan konturen segmenterad med hjälp av den föreslagna algoritmen och den manuellt skisserade konturen är mindre än 3 pixlar.
En annan halvautomatisk segmenteringsalgoritm baserad på den dyadiska våget transform och de diskreta dynamiska konturerna användes i REF.
10,847,898
Prostate segmentation algorithm using dyadic wavelet transform and discrete dynamic contour
{'venue': 'Physics in medicine and biology', 'journal': 'Physics in medicine and biology', 'mag_field_of_study': ['Mathematics', 'Medicine']}
81,340
Vi introducerar Parseval nätverk, en form av djupa neurala nätverk där Lipschitz konstant av linjära, konvolutionella och aggregering lager begränsas till att vara mindre än 1. Parsevala nätverk är empiriskt och teoretiskt motiverade av en analys av robustheten i de förutsägelser som gjorts av djupa neurala nätverk när deras ingång är föremål för en kontradiktorisk perturbation. Det viktigaste draget i Parsevals nätverk är att bibehålla viktmatriser av linjära och konvolutionella skikt som ska vara (ungefär) Parseval tighta ramar, som är förlängningar av ortogonala matriser till icke-kvadratmatriser. Vi beskriver hur dessa begränsningar kan upprätthållas effektivt under SGD. Vi visar att Parseval nätverk matchar toppmoderna i fråga om noggrannhet på CIFAR-10/100 och Street View House Numbers (SVHN), samtidigt som de är mer robusta än sin vanilj motsvarighet mot kontradiktoriska exempel. För övrigt tenderar Parsevalnätverken också att träna snabbare och utnyttja nätens fulla kapacitet bättre.
Cisse m.fl. I REF föreslogs parsevalnätverk som förbättrar robustheten genom att se till att viktmatriserna för konvolutionella och linjära skikt blir Parsevals snäva ramar.
26,714,567
Parseval Networks: Improving Robustness to Adversarial Examples
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
81,341
Programteam bör följa ett väldefinierat mål och hålla sitt arbete fokuserat. Arbetsfragmentering är dåligt för effektivitet och kvalitet. I detta dokument undersöker vi empiriskt förhållandet mellan fragmenteringen av utvecklarbidrag och antalet misslyckanden efter utgivningen. Vår strategi är att representera utvecklare bidrag med en utvecklare-modul nätverk som vi kallar bidragsnätverk. Vi använder nätverk centralitet åtgärder för att mäta graden av fragmentering av utvecklare bidrag. Fragmenteringen bestäms av programvarumodulernas centralisering i bidragsnätet. Vårt påstående är att centrala programvarumoduler är mer benägna att vara fel-benägna än moduler som finns i omgivande områden av nätverket. Vi analyserar denna hypotes genom att utforska nätverket centralitet Microsoft Windows Vista binärer med hjälp av flera nätverks centralitet åtgärder samt linjär och logistisk regressionsanalys. I synnerhet undersöker vi vilka centralitetsåtgärder som är viktiga för att förutsäga sannolikheten för och antalet fel efter utsläppet. Resultaten av våra experiment visar att centrala moduler är mer felbenägna än moduler som finns i omgivande delar av nätverket. Resultaten bekräftar vidare att antalet upphovsmän och antalet åtaganden är betydande prediktorer för sannolikheten för misslyckanden efter utgivningen. För att förutsäga antalet fel efter utsläppet är närhetens centralitetsmått mest betydelsefullt.
Pinzger m.fl. Ref undersökte fragmenteringen av utvecklarbidrag och antalet fel efter utgivningen.
1,696,243
Can developer-module networks predict failures?
{'venue': "SIGSOFT '08/FSE-16", 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,342
Abstract-Även om många framgångsrika ensemble klustering metoder har utvecklats under de senaste åren, finns det fortfarande två begränsningar för de flesta av de befintliga tillvägagångssätten. För det första förbiser de oftast frågan om osäkra kopplingar, vilket kan vilseleda den övergripande konsensusprocessen. För det andra saknar de i allmänhet förmågan att införliva global information för att förfina de lokala länkarna. För att ta itu med dessa två begränsningar föreslår vi i detta dokument en ny ensembleklustringsmetod baserad på gles grafrepresentation och sannolikhetsbanaanalys. I synnerhet presenterar vi eliten grann urval strategi för att identifiera osäkra länkar genom lokalt adaptiva tröskelvärden och bygga en gles graf med ett litet antal förmodligen tillförlitliga länkar. Vi hävdar att ett litet antal förmodligen tillförlitliga länkar kan leda till betydligt bättre konsensus resultat än att använda alla graflänkar oavsett deras tillförlitlighet. Den slumpmässiga gångprocessen drivs av en ny övergångssannolikhetsmatris används för att utforska den globala informationen i grafen. Vi härleder en ny och tät likhetsmått från den glesa grafen genom att analysera sannolikheten banor av slumpmässiga vandrare, baserat på vilka två konsensus funktioner ytterligare föreslås. Experimentella resultat på flera verkliga datauppsättningar visar effektiviteten och effektiviteten i vår strategi.
Huang m.fl. REF behandlade ensembleklustret med sparse graf representation och slumpmässig gångbana analys, och presenterade sannolikhetsbana baserad graf partitionering (PTGP) metod.
14,583,593
Robust Ensemble Clustering Using Probability Trajectories
{'venue': 'IEEE Transactions on Knowledge and Data Engineering, 2016, vol.28, no.5, pp.1312-1326', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
81,343
Taggning spelar en viktig roll på många av de senaste webbplatserna. Rekommenderar system kan hjälpa till att föreslå en användare de taggar han kanske vill använda för att tagga ett visst objekt. Faktoriseringsmodeller baserade på Tucker Decomposition (TD) modell har visat sig ge hög kvalitet tagg rekommendationer överträffa andra metoder som PageRank, FolkRank, samarbetsfiltrering, etc. Problemet med TD-modeller är kubikkärnan tensor som resulterar i en kubisk körtid i faktoriseringsdimensionen för förutsägelse och lärande. I detta dokument presenterar vi faktoriseringsmodellen PITF (Pairwise Interaktion Tensor Factorization) som är ett specialfall av TD-modellen med linjär körtid både för lärande och förutsägelse. PITF modellerar explicit de parvisa interaktionerna mellan användare, objekt och taggar. Modellen lärs med en anpassning av Bayesian personlig ranking (BPR) kriterium som ursprungligen har införts för objekt rekommendation. Empiriskt visar vi på verkliga dataset att denna modell överträffar TD till stor del i drifttid och till och med kan uppnå bättre förutsägelsekvalitet. Förutom våra labexperiment har PITF också vunnit ECML/PKDD Discovery Challenge 2009 för grafbaserad taggrekommendation.
Dessutom föreslog Rendle och Schmidt-Thieme REF faktoriseringsmodell Parvis Interaktion Tensor Factorization (PITF), som är ett specialfall av både Tucker och CP nedbrytning med linjär körtid både för lärande och förutsägelse.
207,177,737
Pairwise interaction tensor factorization for personalized tag recommendation
{'venue': "WSDM '10", 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,344
Abstract-Med genomträngande av smarta telefoner och utvecklingen av trådlösa kroppssensornätverk (BSN), har mobil hälso- och sjukvård (m-hälsovård), som utvidgar driften av vårdgivare till en genomträngande miljö för bättre hälsoövervakning, väckt stort intresse på senare tid. M-hälsovårdens blomstring står dock fortfarande inför många utmaningar, bland annat informationssäkerhet och bevarande av privatlivet. I detta dokument föreslår vi en säker och integritetsbevarande opportunistisk dataram, kallad SPOC, för m-hälsovårdskris. Med SPOC kan smarta telefonresurser, inklusive datorkraft och energi, samlas in opportunistiskt för att behandla den datorintensiva personliga hälsoinformationen (PHI) under m-hälsovårdsnöden med minimal sekretessinformation. I synnerhet, för att utnyttja PHI integritet avslöjande och den höga tillförlitligheten av PHI-processen och överföring i m-hälsovård akut, introducerar vi en effektiv användarcentrerad integritet åtkomst kontroll i SPOC-ramverket, som bygger på en attribut-baserad åtkomstkontroll och en ny integritetsbevarande skalar produktberäkning (PPSPC) teknik, och gör det möjligt för en medicinsk användare att besluta vem som kan delta i opportunistiska databehandling för att hjälpa till med att behandla hans överväldigande PHI-data. Detaljerad säkerhetsanalys visar att det föreslagna SPOC-ramverket effektivt kan uppnå användarcentrerad integritetskontroll i m-hälsovårdsnöd. Dessutom visar prestandautvärderingar via omfattande simuleringar SPOC:s effektivitet när det gäller att tillhandahålla högtillförlitlig PHI-process och överföring samtidigt som sekretessmeddelandet minimeras under m-hälsovårdskrisen.
Lu m.fl. REF införde systemet för användarcentrerad integritetskontroll och gjorde det möjligt för en medicinsk användare att avgöra vem som kan delta i databehandlingen för att ge hjälp till behandlingen av EHR-data.
15,577,968
SPOC: A Secure and Privacy-Preserving Opportunistic Computing Framework for Mobile-Healthcare Emergency
{'venue': 'IEEE Transactions on Parallel and Distributed Systems', 'journal': 'IEEE Transactions on Parallel and Distributed Systems', 'mag_field_of_study': ['Computer Science']}
81,345
Vi föreslår en skalbar strukturerad inlärningsmodell som tillsammans förutser tidsmässiga relationer mellan händelser och tidsuttryck (TLINKS) och relationen mellan dessa händelser och dokumentets skapandetid (DCTR). Vi använder en strukturerad perceptron, tillsammans med heltal linjära programmering begränsningar för dokument-nivå slutsats under utbildning och förutsägelse för att utnyttja relationsegenskaper av timlighet, tillsammans med global inlärning av relationerna på dokumentnivå. Dessutom ger denna studie insikter i resultaten av att integrera begränsningar för tidssambandsextraktion när man använder strukturerad inlärning och förutsägelse. Vårt bästa system överträffar toppmodernheten i både CON-TAINS TLINK-uppgiften och DCTR-uppgiften.
Utöver utmaningarna föreslår Ref en modell baserad på en strukturerad perceptron för att gemensamt förutsäga båda typerna av tidsmässiga relationer.
17,894,632
Structured Learning for Temporal Relation Extraction from Clinical Records
{'venue': 'EACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,346
Politiska sökmetoder baserade på förstärkande lärande och optimal kontroll kan göra det möjligt för robotar att automatiskt lära sig ett brett spektrum av uppgifter. Praktiska tillämpningar av policysökning tenderar dock att kräva att policyn stöds av handgjorda komponenter för perception, statsuppskattning och kontroll på låg nivå. Vi föreslår en metod för att lära sig policyer som kartlägger råa, låga observationer, bestående av gemensamma vinklar och kamerabilder, direkt till vridmomenten vid robotens leder. Politiken representeras som djupa konvolutionella neurala nätverk (CNN) med 92 000 parametrar. En sådan politiks höga dimension utgör en enorm utmaning för den politiska sökandet. För att möta denna utmaning utvecklar vi en sensorimotorstyrd policysökmetod som kan hantera högdimensionella policyer och delvis observerade uppgifter. Vi använder BADMM för att bryta ner policysökningen i en optimal kontrollfas och övervakad inlärningsfas, så att CNN-policyer kan utbildas med standardledda inlärningstekniker. Denna metod kan lära sig ett antal manipulationsuppgifter som kräver nära samordning mellan syn och kontroll, bland annat infoga ett block i en form sortering kub, skruva på en flasklock, montera klor av en leksak hammare under en spik med olika grepp, och placera en klädhängare på en klädhängare.
Även om vår metod till stor del är agnostisk för valet av policyinlärningsalgoritm, använder vi den guidade policysökningsmetoden i våra experiment REF.
7,242,892
End-to-End Training of Deep Visuomotor Policies
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
81,347
Satellitdata om luftföroreningar används i allt större utsträckning i den offentliga, privata och ideella sektorns beslutsfattande och miljöförvaltning. De används för att uppskatta utsläpp, spåra föroreningar plymer, stödja luftkvalitet prognos verksamhet, tillhandahålla bevis för "exceptionella händelser" deklarationer, övervaka regionala långsiktiga trender och utvärdera luftkvalitet modell produktion. Många ansvariga för luftkvaliteten drar emellertid inte full nytta av uppgifterna för dessa tillämpningar och har inte heller förverkligat den fulla potentialen hos satellitdata för luftkvalitetstillämpningar. Ett viktigt hinder är de inneboende svårigheter som är förknippade med tillgång till, behandling och korrekt tolkning av observationsdata. Det krävs en viss teknisk färdighet hos slutanvändaren av data, vilket ofta är problematiskt för myndigheter med begränsade resurser inom luftkvaliteten. Därför 1) granska den primära användningen av satellitdata för luftkvalitetstillämpningar, 2) ge viss bakgrundsinformation om * Korresponderande författare. Kod 614 NASA
Det vill säga, en viss grad av teknisk färdighet krävs av data slutanvändaren, vilket ofta är problematiskt för organisationer med begränsade resurser REF.
16,063,371
Satellite Data of Atmospheric Pollution for U.S. Air Quality Applications: Examples of Applications, Summary of Data End-User Resources, Answers to FAQs, and Common Mistakes to Avoid
{'venue': None, 'journal': 'Atmospheric Environment', 'mag_field_of_study': ['Chemistry']}
81,348
Trådlösa nätverk är uppbyggda på ett gemensamt medium som gör det enkelt för motståndare att starta jamming-liknande attacker. Dessa attacker kan enkelt utföras av en motståndare som sänder ut radiofrekvenssignaler som inte följer ett underliggande MAC-protokoll. Jammingattacker kan allvarligt störa den normala driften av trådlösa nätverk och följaktligen behövs mekanismer som kan hantera störningsattacker. I detta dokument undersöker vi radiostörningar från båda sidor av frågan: för det första studerar vi problemet med att utföra radiostörningar på trådlösa nätverk, och för det andra undersöker vi den kritiska frågan om att diagnostisera förekomsten av störningsattacker. Särskilt föreslår vi fyra olika störningsangreppsmodeller som kan användas av en motståndare för att inaktivera driften av ett trådlöst nätverk, och utvärdera deras effektivitet när det gäller hur varje metod påverkar förmågan hos en trådlös nod att skicka och ta emot paket. Därefter diskuterar vi olika mätningar som ligger till grund för att upptäcka en störningsattack, och undersöker scenarier där varje mätning i sig inte räcker för att på ett tillförlitligt sätt klassificera förekomsten av en störningsattack. I synnerhet observerar vi att signalstyrkan och transportörens avkänningstid inte definitivt kan upptäcka förekomsten av en störningsdämpare. Dessutom observerar vi att även om vi med hjälp av paket leverans förhållandet kan skilja mellan överbelastade och blockerade scenarier, vi inte kan avgöra om dålig länk nytta beror på störning eller rörligheten av noder. Det faktum att ingen enskild mätning är tillräcklig för att på ett tillförlitligt sätt klassificera förekomsten av en störning är en viktig iakttagelse och kräver att man utvecklar förbättrade detektionssystem som kan undanröja tvetydighet när man upptäcker en störning. För att tillgodose detta behov föreslår vi två förbättrade detektionsprotokoll som använder konsekvent kontroll. Det första systemet använder signalstyrkasmätningar som en reaktiv konsekvenskontroll för dåliga paketleveransförhållanden, medan det andra systemet använder lokaliseringsinformation för att fungera som konsekvenskontroll. Under våra diskussioner undersöker vi om det är möjligt och effektivt att störa attacker och upptäckter med hjälp av MICA2 Mote-plattformen.
W. Xu et al REF studerade olika typer av störningsattacker och mäter effektiviteten hos jammer med hjälp av paketleveransförhållande och paketleveransförhållande, men endast mätning är inte tillräckligt för att klassificera förekomsten av en störningsattack.
867,555
The feasibility of launching and detecting jamming attacks in wireless networks
{'venue': "MobiHoc '05", 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,349
Abstract-Galidera kod hantering exceptionellt beteende är svårt, särskilt när det handlar om externa resurser som kan vara bullriga och opålitliga, som det kräver: 1) systematisk undersökning av utrymmet för undantag som kan kastas av externa resurser, och 2) utformningen av sammanhanget för att utlösa specifika mönster av undantag. I detta arbete presenterar vi en strategi som tar itu med dessa svårigheter genom att utföra en uttömmande förstärkning av utrymmet för exceptionellt beteende i samband med en extern resurs som utövas av en testsvit. Varje förstärkning försöker exponera ett program undantag hantering konstruktion till nytt beteende genom att håna en extern resurs så att den återgår normalt eller kastar ett undantag enligt ett fördefinierat mönster. Vår bedömning av metoden indikerar att den kan vara helt automatiserad, är tillräckligt kraftfull för att upptäcka 65% av de fel som rapporterats i felrapporter av detta slag, och är tillräckligt exakt för att 77% av de upptäckta anomalier motsvarar fel som fastställts av utvecklarna.
Zhang och Elbaum REF har nyligen presenterat ett tillvägagångssätt som förstärker testet för att validera undantagshantering.
10,726,689
Amplifying tests to validate exception handling code
{'venue': "ICSE '12", 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,350
Abstract-Quality of Service (QoS) bygger på utformningen av förmånliga leveranstjänster för tillämpningar för att säkerställa tillräcklig bandbredd, kontrollera latency och minska paketförluster. QoS kan uppnås genom att prioritera viktig bredbandsdatatrafik över den mindre viktiga. Beroende på användarnas behov har därför video-, röst- eller datatrafiken olika prioritet på grundval av den förhärskande betydelsen i ett visst sammanhang. Denna prioritering kan kräva förändringar i konfigurationen av varje nätverksenhet som kan vara svårt i traditionell nätverksarkitektur. I detta avseende undersöker detta dokument användningen av ett QoS-baserat routingsystem över ett programvarudefinierat nätverk (SDN). En riktig SDN testbädd är konstruerad med Raspberry Pi datorer som virtuella SDN switchar hanteras av en centraliserad controller. Det visas att en QoS-baserad routingstrategi över SDN genererar enorma kontrollmöjligheter och möjliggör automatisering.
Kucminski m.fl. REF presenterar ett QoS-baserat routingsystem för prioritering av viktig trafik över mindre viktig trafik.
27,052,220
QoS-based routing over software defined networks
{'venue': '2017 IEEE International Symposium on Broadband Multimedia Systems and Broadcasting (BMSB)', 'journal': '2017 IEEE International Symposium on Broadband Multimedia Systems and Broadcasting (BMSB)', 'mag_field_of_study': ['Computer Science']}
81,351
I detta dokument föreslår vi att modellera och analysera förändringar som inträffar för en enhet i termer av förändringar i de ord som samträffar med enheten över tid. Vi föreslår att göra en djupgående analys av hur denna samtidiga händelse förändras över tiden, hur förändringen påverkar tillståndet (semantiskt, roll) hos enheten, och hur förändringen kan motsvara händelser som inträffar under samma tidsperiod. Vi föreslår att man identifierar kluster av ämnen som omger enheten över tid med hjälp av ämnes-över-tid (TOT) och k-medelskluster. Vi genomför denna analys på Google Books Ngram dataset. Vi visar hur klusterord som samträffar med en enhet av intresse i 5-gram kan kasta lite ljus över den typ av förändring som sker för enheten och identifiera den period för vilken förändringen sker. Vi finner att den period som identifieras av vår modell exakt sammanfaller med händelser under samma period som motsvarar den förändring som sker.
I stället för att sluta sig till ordförnimmelser använder REF en Topics-over-Time-modell och k-means clustring för att identifiera de perioder under vilka valda ord flyttas från ett ämne till ett annat.
15,503,101
Understanding semantic change of words over centuries
{'venue': "DETECT '11", 'journal': None, 'mag_field_of_study': ['Geography']}
81,352
Neurala nätverk är kraftfulla och flexibla modeller som fungerar bra för många svåra inlärningsuppgifter i bild, tal och naturligt språkförståelse. Trots deras framgång är neurala nätverk fortfarande svåra att designa. I detta papper använder vi ett återkommande nätverk för att generera modellbeskrivningar av neurala nätverk och träna denna RNN med förstärkning lärande för att maximera den förväntade noggrannheten hos de genererade arkitekturer på en valideringsuppsättning. På CIFAR-10-datasetet kan vår metod, med början från grunden, designa en ny nätverksarkitektur som konkurrerar med den bästa människouppfinnade arkitekturen när det gäller testuppsättningens noggrannhet. Vår CIFAR-10-modell uppnår en testfelfrekvens på 3,65, vilket är 0,09 procent bättre och 1,05x snabbare än den tidigare toppmoderna modellen som använde ett liknande arkitektoniskt system. På Penn Treebanks datauppsättning kan vår modell komponera en ny återkommande cell som överträffar den allmänt använda LSTM-cellen och andra toppmoderna baslinjer. Vår cell uppnår en testuppsättning på 62.4 perplexitet på Penn Treebank, vilket är 3,6 perplexitet bättre än den tidigare toppmoderna modellen. Cellen kan också överföras till teckenspråkets modelleringsuppgift på PTB och uppnå en toppmodern perplexitet på 1.214.
En RNN används för att generera beskrivningar av byggstenen på ett sätt som liknar REF.
12,713,052
Neural Architecture Search with Reinforcement Learning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
81,353
Abstract-Auction mekanismer har nyligen fått stor uppmärksamhet som en effektiv metod för prissättning och tilldelning av resurser i molntjänster. Detta arbete, till författarnas kunskap, representerar den första online combinatorial auktion utformad för molndata paradigm, som är allmänt och uttrycks tillräckligt för att både: 1) optimera systemeffektivitet över tidsområdet i stället för vid en isolerad tidpunkt; och 2) modell dynamisk provisionering av heterogena virtuella maskiner (VM) typer i praktiken. Slutresultatet är en online auktionsram som är sanningsenlig, beräkningseffektiv och garanterar ett konkurrenskraftigt förhållande i social välfärd i typiska scenarier. Ramverket består av tre huvudsteg: 1) en skräddarsydd primal-dual algoritm som bryter ned den långsiktiga optimeringen till en serie oberoende en-shot optimeringsproblem, med en liten additiv förlust i konkurrensförhållande; 2) en randomiserad underram som tillämpar primal-dual optimering för att översätta en centraliserad kooperativ social välfärd approximation algoritm till en auktionsmekanism, behålla konkurrensförhållandet samtidigt lägga till sanning; och 3) en primal-dual algoritm för att approximera oneshot optimering med ett förhållande nära till. Vi föreslår också två förlängningar: 1) en binär sökalgoritm som förbättrar den genomsnittliga prestandan; 2) en förbättring av online auktionsram när en minsta budget utgiftsfraktion garanteras, vilket ger ett bättre konkurrensförhållande. Effektiviteten hos online-auktionsramverket valideras genom teoretiska analyser och spårbaserade simuleringsstudier. Vi hoppas också att ramverket kan vara lärorikt i auktionsdesignen för andra relaterade problem.
Shi och Al. presentera den första online combinatorial auktion för cloud computing REF.
7,292,678
An Online Auction Framework for Dynamic Resource Provisioning in Cloud Computing
{'venue': 'IEEE/ACM Transactions on Networking', 'journal': 'IEEE/ACM Transactions on Networking', 'mag_field_of_study': ['Computer Science']}
81,354
Abstrakt. En lösning på bristen på märkningsproblem är att utnyttja överföringslärande, där man förvärvar kunskap från källdomäner för att förbättra inlärningsresultatet i måldomänen. Den största utmaningen är att käll- och måldomänerna kan ha olika distributioner. Ett öppet problem är hur man väljer de tillgängliga modellerna (inklusive algoritmer och parametrar) och viktigast av allt, överflöd av källdomändata, genom statistiskt tillförlitliga metoder, vilket gör överföringen lärande praktiskt och lätt att använda för verkliga tillämpningar. För att ta itu med denna utmaning måste man ta hänsyn till skillnaden i både marginell och villkorlig fördelning på samma gång, men inte bara en av dem. I detta dokument formulerar vi ett nytt kriterium för att övervinna "dubbel" distributionsskifte och presentera ett praktiskt tillvägagångssätt "Transfer Cross Validation" (TrCV) för att välja både modeller och data i en korsvalidering ram, optimerad för överföring lärande. Tanken är att använda viktning av densitetsförhållandet för att övervinna skillnaden i marginalfördelning och föreslå ett "omvänd valideringsförfarande" för att kvantifiera hur väl en modell approximerar den verkliga villkorliga fördelningen av måldomänen. Nyttan av TrCV visas på olika gränsöverskridande uppgifter, inklusive utvärdering av vinkvalitet, rankning av webbanvändare och textkategorisering. Experimentresultaten visar att den föreslagna metoden överträffar både traditionell korsvalidering och en toppmodern metod som endast beaktar marginell distributionsförändring. Programvaran och dataseten är tillgängliga från författarna.
Inom det allmänna området för maskininlärning har problemet med bristande märkning åtgärdats genom att man utnyttjat överföringsinlärning REF genom att använda en omvänd validering för att utföra korsvalidering när antalet märkta data är begränsat.
13,322,062
Cross Validation Framework to Choose Amongst Models and Datasets for Transfer Learning
{'venue': 'ECML/PKDD', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,355
De vanligaste begreppen om rättvisa i maskininlärning är statistiska definitioner: de fastställer en liten samling av hög nivå, fördefinierade grupper (såsom ras eller kön), och ber sedan om ungefärlig paritet av viss statistik av klassificeringen (som positiv klassificeringsfrekvens eller falsk positiv frekvens) i dessa grupper. Restriktioner av denna form är mottagliga för (avsiktlig eller oavsiktlig) rättvisa gerrymandering, där en klassificeringsgivare verkar vara rättvis för varje enskild grupp, men allvarligt bryter mot rättvisebegränsningen för en eller flera strukturerade undergrupper som definieras över de skyddade attributen (t.ex. vissa kombinationer av skyddade attributvärden). Vi föreslår istället att kräva statistiska begrepp om rättvisa i exponentiellt (eller oändligt) många undergrupper, definierade av en strukturerad funktionsklass över de skyddade attributen. Detta interpolerar mellan statistiska definitioner av rättvisa, och nyligen föreslog enskilda begrepp om rättvisa, men det ger upphov till flera beräkningsutmaningar. Det är inte längre klart hur man ens ska kontrollera eller granska en fast klassificering för att se om den uppfyller en så stark definition av rättvisa. Vi bevisar att det beräkningsmässiga problemet med att granska undergruppen rättvisa för både jämlikhet av falska positiva tal och statistisk paritet är likvärdigt med problemet med svagt agnostiskt lärande - vilket innebär att det är beräknings svårt i värsta fall, även för enkla strukturerade underklasser. Men det tyder också på att gemensamma heuristiker för lärande kan tillämpas för att framgångsrikt lösa revisionsproblemet i praktiken. Vi härleder sedan två algoritmer som tydligt konvergerar till den bästa rättvisa fördelningen över klassificeringar i en viss klass, givet tillgång till orakel som optimalt kan lösa det agnostiska inlärningsproblemet. Algoritmerna är baserade på en formulering av subgrupp rättvisa som en två-spelare nollsummespel mellan en Learner (den primära spelaren) och en Auditor (den dubbla spelaren). Båda algoritmerna beräknar en jämvikt av detta spel. Vi får vår första algoritm genom att simulera spel av spelet genom att låta Learner spela en instans av no-regret Följ Perturbed Leader algoritm, och ha Auditor spela bästa respons. Denna algoritm konvergerar tydligt till en ungefärlig Nash-jämvikt (och därmed till en ungefär optimal subgrupp-fair fördelning över klassificerare) i ett polynom antal steg. Vi får vår andra algoritm genom att simulera spel av spelet genom att ha båda spelarna spela Facticious Play, som har bara bevisligen asymptotic konvergens, men har fördelen av enkelhet och snabbare per steg beräkning. Vi implementerar den fiktiva Play-versionen med linjär regression som ett heuristiskt orakel, och visar att vi effektivt både kan granska och lära oss rättvisa klassificeringar på verkliga datauppsättningar.
I Ref föreslogs en ram för revision och inlärningsmodeller för att uppnå rättvisa begrepp som statistisk paritet och lika falska positiva nivåer.
29,169,376
Preventing Fairness Gerrymandering: Auditing and Learning for Subgroup Fairness
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
81,356
Abstract-Fish-eye linser är bekväma i sådana tillämpningar där en mycket bred vinkel behövs, men deras användning för mätning har begränsats av bristen på ett korrekt, generiskt och lätt att använda kalibreringsförfarande. Vi föreslår därför en generisk kameramodell som är lämplig för linskameror för fiskögon samt för konventionella linskameror och vidvinkelkameror, samt en kalibreringsmetod för att uppskatta modellens parametrar. Den uppnådda kalibreringsnoggrannheten är jämförbar med den tidigare rapporterade tekniska nivån.
Kannala m.fl. I REF föreslogs en generisk kameramodell för både konventionella och vidvinkellinskameror, samt att man utvecklade en kalibreringsmetod för att uppskatta modellens parametrar.
983,106
A generic camera model and calibration method for conventional, wide-angle, and fish-eye lenses
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
81,357
Abstrakt. Modellomvandlingar används i modelldriven utveckling för att mekanisera interoperabilitet och integration mellan modellspråk. På grund av modellernas grafteoretiska karaktär ger teorin om graftransformeringssystem och dess tekniska stöd en bekväm miljö för formalisering och verifiering av modelltransformationer, som sedan kan användas för att definiera semantiken hos modellbaserade domänspecifika språk. I detta dokument presenterar vi en metod för att formalisera och verifiera QVT-liknande omvandlingar som återanvänder de viktigaste begreppen i graftransformeringssystem. Specifikt formaliserar vi modellomvandlingar som teorier i omskrivningslogik, så att Maudes räckviddsanalys och modellkontrollfunktioner kan användas för att verifiera dem. Detta tillvägagångssätt ger också ett nytt perspektiv på grafomvandlingssystem, där deras formella semantik ges i omskrivningslogik. Alla idéer som presenteras är implementerade i MOMENT2. På så sätt kan vi definiera formella modellomvandlingar i Eclipse Modeling Framework (EMF) och vi kan verifiera dem i Maude. Vi använder en modell av en distribuerad algoritm för ömsesidig uteslutning för att illustrera tillvägagångssättet.
En annan arbetslinje som föreslås i REF definierar ett QVT-liknande modelltransformeringsspråk som återanvänder de viktigaste begreppen i graftransformeringssystem.
17,410,113
Rewriting Logic Semantics and Verification of Model Transformations
{'venue': 'FASE', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,358
Det heterogena cellulära nätverket (HCN) är en lovande metod för utbyggnad av 5G cellulära nät. Detta papper studerar omfattande fysiska lager säkerhet i en multitier HCN där basstationer (BS), auktoriserade användare, och tjuvlyssnare är alla slumpmässigt lokaliserade. Vi föreslår först en åtkomst tröskelbaserad sekretess mobil förening politik som associerar varje användare med BS som ger den maximala trunkerade genomsnittliga mottagna signalkraft utöver ett tröskelvärde. Enligt den föreslagna policyn undersöker vi anslutningsannolikheten och sekretesssannolikheten för en slumpmässigt lokaliserad användare och ger dragbara uttryck för de två mätvärdena. Asymptotic analys visar att sätta en större tillträdeströskel ökar anslutningsannolikheten medan minskar sekretesssannolikheten. Vi utvärderar vidare den nätverksomfattande sekretessen och den minimala sekretessen per användare med både anslutning och sekretesssannolikhet. Vi visar att införandet av en korrekt vald tillträdeströskel avsevärt ökar sekretessen för en HCN.
En tillträdeströskelbaserad sekretess mobil föreningspolicy för en K-tier HetNet föreslås i REF.
15,612,264
Physical Layer Security in Heterogeneous Cellular Networks
{'venue': 'IEEE Transactions on Communications', 'journal': 'IEEE Transactions on Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
81,359
Neural maskinöversättning (NMT) erbjuder en ny alternativ formulering av översättning som är potentiellt enklare än statistiska metoder. För att uppnå konkurrenskraftiga resultat måste dock NMT-modellerna vara mycket stora. I detta dokument överväger vi att tillämpa kunskap destillation metoder (Bucila et al., 2006; Hinton et al., 2015) som har visat sig framgångsrik för att minska storleken på neurala modeller inom andra områden till problemet med NMT. Vi visar att vanlig kunskapsdestillering som tillämpas på förutsägelse på ordnivå kan vara effektiv för NMT, och även införa två nya sekvensbaserade versioner av kunskapsdestillering som ytterligare förbättrar prestandan, och något överraskande, verkar eliminera behovet av strålsökning (även när den tillämpas på den ursprungliga lärarmodellen). Vår bästa studentmodell går 10 gånger snabbare än sin toppmoderna lärare med bara en minskning på 0,2 BLEU. Det är också betydligt bättre än en baslinjemodell som utbildats utan kunskap destillering: genom 4.2/1.7 BLEU med girig avkodning/beam search.
Kunskap destillation tillämpas också effektivt på ordnivå förutsägelse för neural maskin översättning REF.
8,451,212
Sequence-Level Knowledge Distillation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
81,360
Abstract-The term Internet of Things (IoT) hänvisar till interaktion och kommunikation mellan miljarder enheter som producerar och utbyter data som rör verkliga objekt (dvs. saker). Utvinning av information på högre nivå från de råa sensoriska data som fångas upp av enheterna och som representerar dessa data som maskintolkbar eller människa-förståelig information har flera intressanta tillämpningar. Att härleda rådata till information på högre nivå representationer kräver mekanismer för att hitta, extrahera och karakterisera meningsfulla abstraktioner från rådata. Dessa meningsfulla abstraktioner måste sedan presenteras i en mänsklig och/eller maskinförståelig representation. Datans heterogenitet härrör dock från olika sensorenheter och tillämpningsscenarier såsom e-hälsa, miljöövervakning och smarta hemapplikationer, och sensordatas dynamiska karaktär gör det svårt att tillämpa endast en viss informationsbehandlingsteknik på de underliggande uppgifterna. En betydande mängd metoder från maskininlärning, den semantiska webben, samt mönster- och datautvinning har använts för att abstrahera från sensorobservationer till informationsrepresentationer. Detta dokument ger en översikt över kraven och lösningarna och beskriver utmaningar inom området informationsutdrag och presenterar ett effektivt arbetsflöde för att extrahera meningsfull information från rådata av sensordata baserat på den aktuella toppmoderna inom detta område. I detta dokument identifieras också forskningsriktningar i utkanten av informationsutdrag för sensordata. För att underlätta förståelsen av abstraktion arbetsflödesprocessen, introducerar vi en programvara verktygslåda som implementerar de införda teknikerna och motiverar att tillämpa dem på olika datamängder.
Ganz och Al. REF presenterade en undersökning av tekniker och metoder för att bearbeta och omvandla råa sensordata till abstraktioner på högre nivå, som är mänskliga och/eller maskinförståeliga med tydliga referenser till Internet of Things (IoT) och smarta städer scenarier.
934,826
A Practical Evaluation of Information Processing and Abstraction Techniques for the Internet of Things
{'venue': 'IEEE Internet of Things Journal', 'journal': 'IEEE Internet of Things Journal', 'mag_field_of_study': ['Computer Science']}
81,361
Online fototjänster som Flickr och Zooomr gör det möjligt för användare att dela sina foton med familj, vänner och online community i stort. En viktig aspekt av dessa tjänster är att användare manuellt kommentera sina bilder med hjälp av så kallade taggar, som beskriver innehållet i fotot eller ger ytterligare kontextuell och semantisk information. I detta dokument undersöker vi hur vi kan hjälpa användare i taggningsfasen. Bidraget från vår forskning är tvåfaldigt. Vi analyserar en representativ ögonblicksbild av Flickr och presenterar resultaten med hjälp av en taggkarakterisering som fokuserar på hur användare taggar foton och vilken information som finns i taggningen. Baserat på denna analys, presenterar och utvärderar vi tagg rekommendation strategier för att stödja användaren i foto annotation uppgift genom att rekommendera en uppsättning taggar som kan läggas till bilden. Resultaten av den empiriska utvärderingen visar att vi effektivt kan rekommendera relevanta taggar för en mängd olika foton med olika nivåer av uttömmande originalmärkning.
Sigurbjörnsson och van Zwol analyserar också Flickr-data och ger en karakterisering av hur användare tillämpar taggar och vilken information som finns i tagguppdragen REF.
207,167,403
Flickr tag recommendation based on collective knowledge
{'venue': 'IN WWW ’08: PROC. OF THE 17TH INTERNATIONAL CONFERENCE ON WORLD WIDE WEB', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,362
Vi introducerar en ny typ av KDD-mönster som kallas framväxande understrängar. I en sekvensdatabas är en framväxande delsträng (ES) av en dataklass en delsträng som förekommer oftare i den klassen än i andra klasser. ES är viktiga för sekvensklassificering eftersom de fångar betydande kontraster mellan dataklasser och ger insikter för konstruktion av sekvensklassificeringar. Vi föreslår en suffix trädbaserad ram för gruvdrift ES, och studera effektiviteten av att tillämpa en eller flera beskärning tekniker i olika stadier av vår ES gruvalgoritm. Experimentella resultat visar att om målgruppen är av en liten population med avseende på hela databasen, vilket är det normala scenariot i en klass ES gruvbrytning, skulle de flesta av beskärningsteknikerna uppnå betydande resultatvinst.
I REF introduceras begreppet framväxande understrängar, som är en mycket specifik typ av sekvenser.
16,096,563
Mining emerging substrings
{'venue': 'Eighth International Conference on Database Systems for Advanced Applications, 2003. (DASFAA 2003). Proceedings.', 'journal': 'Eighth International Conference on Database Systems for Advanced Applications, 2003. (DASFAA 2003). Proceedings.', 'mag_field_of_study': ['Computer Science']}
81,363
Abstrakt. SPARQL Query Language for RDF och SPARQL Protocol for RDF implementeras av ett växande antal lagringssystem och används inom företag och öppna webbinställningar. Eftersom SPARQL tas upp av gemenskapen finns det ett växande behov av riktmärken för att jämföra prestandan hos lagringssystem som exponerar SPARQL-slutpunkter via SPARQL-protokollet. Sådana system inkluderar inhemska RDF-butiker samt system som skriver om SPARQL-frågor till SQL-frågor mot icke-RDF-relationsdatabaser. Denna artikel introducerar Berlin SPARQL Benchmark (BSBM) för att jämföra prestanda hos inhemska RDF-butiker med prestandan hos SPARQL-till-SQL-rewriters över arkitekturer. Riktmärket är byggt kring en e-handel användningsfall där en uppsättning produkter erbjuds av olika leverantörer och konsumenter har publicerat recensioner om produkter. Benchmark frågemixen emulerar sökning och navigering mönster för en konsument som letar efter en produkt. Artikeln diskuterar utformningen av BSBM-riktmärket och presenterar resultaten av ett referensexperiment som jämför prestandan hos fyra populära RDF-butiker (Sesam, Virtuoso, Jena TDB och Jena SDB) med prestandan hos två SPARQL-till-SQL-rewriters (D2R Server och Virtuoso RDF Views) samt prestandan hos två relationella databashanteringssystem (MySQL och Virtuoso RDBMS).
Dessutom presenteras Berlin SPARQL Benchmark i REF.
2,044,736
The berlin sparql benchmark
{'venue': 'International Journal On Semantic Web and Information Systems', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,364
Vi föreslår associativ domänanpassning, en ny teknik för end-to-end domänanpassning med neurala nätverk, uppgiften att sluta klassetiketter för en omärkt måldomän baserat på de statistiska egenskaperna hos en märkt källkodsdomän. Vårt utbildningsprogram följer paradigmet att för att effektivt härleda klassetiketter för måldomänen bör ett nätverk producera statistiskt domäninvarianta inbäddningar, samtidigt som klassificeringsfelet på den märkta källdomänen minimeras. Vi åstadkommer detta genom att förstärka sambanden mellan käll- och måldata direkt i inbäddat utrymme. Vår metod kan enkelt läggas till i alla befintliga klassificeringsnätverk utan strukturella och nästan inga beräkningsmässiga overhead. Vi visar effektiviteten i vår strategi på olika riktmärken och uppnå state-of-the-art resultat över hela linjen med en generisk konvolutional neurala nätverk arkitektur inte specifikt anpassade till respektive uppgifter. Slutligen visar vi att den föreslagna föreningsförlusten ger inbäddningar som är mer effektiva för domänanpassning jämfört med metoder som använder maximal genomsnittlig diskrepans som en likhetsmått vid inbäddning av utrymme.
Nyligen, Haeusser et al. REF införde associativ domänanpassning, en metod som utnyttjar etiketter i källdomänen för att skapa klustererade representationer av data från käll- och måldomäner.
20,186,541
Associative Domain Adaptation
{'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
81,365
Målet med graf klustring är att dela hörn i en stor graf i olika kluster baserat på olika kriterier såsom vertex anslutning eller grannskap likhet. Grafklusterteknik är mycket användbar för att upptäcka tätt sammankopplade grupper i en stor graf. Många befintliga grafklustringsmetoder fokuserar främst på den topologiska strukturen för klustring, men ignorerar till stor del de vertexegenskaper som ofta är heterogena. I detta dokument föreslår vi en ny grafklusteralgoritm, SA-Cluster, baserad på både strukturella och attributliknande genom ett enhetligt avståndsmått. Vår metod partitionerar en stor graf associerad med attribut i k kluster så att varje kluster innehåller en tätt ansluten subgraf med homogena attributvärden. En effektiv metod föreslås för att automatiskt lära sig graden av bidrag av strukturell likhet och attribut likhet. Teoretisk analys tillhandahålls för att visa att SA-Cluster konvergerar. Omfattande experimentella resultat visar effektiviteten av SA-Cluster genom jämförelse med den state-of-the-art graf klustering och summering metoder.
Hong Cheng REF et al föreslog en SA-klustergrafklusteralgoritm baserad på struktur och attribut.
1,061,056
Graph Clustering Based on Structural/Attribute Similarities
{'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']}
81,366
Aspect-level sense klassification (ASC) syftar till att identifiera känslor polariteter mot aspekter i en mening, där aspekten kan bete sig som en allmän Aspect Category (AC) eller en specifik Aspect Term (AT). På grund av den särskilt dyra och arbetsintensiva märkningen är dock alla befintliga offentliga corpora på AT-nivå relativt små. Samtidigt, de flesta av de tidigare metoderna förlitar sig på komplicerade strukturer med givna knappa data, som till stor del begränsar effekten av de neurala modellerna. I detta dokument utnyttjar vi en ny riktning som kallas grov-till-fine uppgift överföring, som syftar till att dra nytta av kunskap som lärts från en rik resurs källa domän av grovkornig AC-uppgift, som är mer lättillgänglig, för att förbättra lärandet i en låg resurs måldomän för finkornig AT-uppgift. För att lösa både aspekten granularitet inkonsekvens och funktionsobalans mellan domäner, föreslår vi ett Multi-Granularity Alignment Network (MGN). I MGAN, en roman Coarse2Fine uppmärksamhet styrd av en extra uppgift kan hjälpa AC uppgift modellering på samma finkorniga nivå med AT uppgiften. För att lindra funktionen falsk justering, en kontrasterande funktion anpassningsmetod antas för att anpassa aspekt-specifika funktioner representationer semantiskt. Dessutom tillhandahålls en storskalig multi-domändatauppsättning för AC-uppgiften. Empiriskt, omfattande experiment visar effektiviteten hos MGAN.
REF utformar ett nätverk för överföring av kunskap om aspekter som inhämtats från ett grovkornigt nätverk som utför klassifikation av aspekter till en finkornig klassifikation av en aspekt som utför klassning av känslor.
53,731,855
Exploiting Coarse-to-Fine Task Transfer for Aspect-level Sentiment Classification
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
81,367
En betydande del av programvarufel i storskaliga Internet-system botas genom omstart, även när de exakta felorsakerna är okända. Men omstart kan vara dyrt, orsakar icke-trivial service avbrott eller stillestånd även när kluster och failover används. I detta arbete separerar vi processåterställning från dataåterställning för att möjliggöra mikrorebooting -en finkornig teknik för kirurgisk återvinning av felaktiga applikationskomponenter, utan att störa resten av applikationen. Vi utvärderar mikrorebooting i ett Internetauktionssystem som körs på en applikationsserver. Microreboots återställa de flesta av samma misslyckanden som fullständiga omstarter, men gör det en storleksordning snabbare och resultera i en storleksordning besparingar i förlorat arbete. Denna billiga form av återhämtning skapar en ny strategi för hög tillgänglighet: mikroreboots kan användas med minsta antydan om misslyckande, innan nod fel i multi-node kluster, även när misstag i feldetektering är sannolika; fel och återhämtning kan maskeras från slutanvändare genom transparenta call-nivå retries; och system kan föryngras av delar, utan att någonsin stängas av.
En finkornig teknik för kirurgisk återvinning felaktiga applikationskomponenter, utan att störa resten av ansökan presenteras i REF.
612,248
Microreboot -- A Technique for Cheap Recovery
{'venue': 'Proc. 6th Symposium on Operating Systems Design and Implementation (OSDI), San Francisco, CA, Dec 2004', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,368
Abstract-This paper presenterar en metod för säkerhetskontroll av kontinuerliga och hybrida system i värsta fall och stokastiska inställningar. I värsta fall används en funktion av tillståndsbenämnt barriärcertifikat för att intyga att alla banor i systemet från en given första uppsättning inte går in i en osäker region. Ingen explicit beräkning av nåbara uppsättningar krävs vid konstruktion av barriärcertifikat, vilket gör det möjligt att hantera icke-linjäritet, osäkerhet och begränsningar direkt inom denna ram. I den stokastiska inställningen beräknar vår metod en övre gräns på sannolikheten att en bana i systemet når den osäkra uppsättningen, en gräns vars giltighet bevisas av förekomsten av ett barriärcertifikat. För polynomiska system kan barriärcertifikat konstrueras med konvex optimering, och därför är metoden beräkningsbar. Några exempel ges för att illustrera användningen av metoden.
Metoden för barriärfunktioner infördes i REF för att intyga att alla banor i ett kontinuerligt tidsbaserat system från en given första uppsättning inte kommer in i en osäker region.
1,808,120
A Framework for Worst-Case and Stochastic Safety Verification Using Barrier Certificates
{'venue': 'IEEE Transactions on Automatic Control', 'journal': 'IEEE Transactions on Automatic Control', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
81,369
Detektion av gemenskapen är en viktig uppgift i nätverksanalysen. En gemenskap (även kallad kluster) är en uppsättning sammanhållna hörn som har fler anslutningar inuti uppsättningen än utanför. I många sociala nätverk och informationsnätverk överlappar dessa samhällen naturligtvis varandra. Till exempel, i ett socialt nätverk, varje vertex i en graf motsvarar en individ som vanligtvis deltar i flera samhällen. En av de mest framgångsrika teknikerna för att hitta överlappande samhällen bygger på lokal optimering och expansion av en gemenskap metrisk runt ett frö uppsättning hörn. I detta dokument föreslår vi en effektiv överlappande community detektionsalgoritm med hjälp av en sådd-expansionsmetod. I synnerhet utvecklar vi nya sådd strategier för en personlig PageRank system som optimerar ledningen gemenskap poäng. Nyckelidén med vår algoritm är att hitta bra frön, och sedan expandera dessa fröuppsättningar med hjälp av den personliga PageRank klusterförfarandet. Experimentella resultat visar att detta frö sätter expansionsstrategi överträffar andra toppmoderna överlappande metoder för att upptäcka samhället. Vi visar också att våra nya såningsstrategier är bättre än tidigare strategier, och är därmed effektiva när det gäller att hitta bra överlappande kluster i en graf.
Whang och al. REF utvecklar en överlappande samhällsdetektionsalgoritm baserad på fröuppsättningsexpansion.
207,206,673
Overlapping community detection using seed set expansion
{'venue': 'CIKM', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,370
Mobile-edge computing (MEC) är ett framväxande paradigm för att möta de ständigt ökande kraven på beräkning från mobila applikationer. Genom att avlasta den beräkningsintensiva arbetsbelastningen till MEC-servern kan kvaliteten på beräkningsupplevelsen, t.ex. exekveringslatensen, förbättras avsevärt. Eftersom batterikapaciteten på enheten är begränsad, skulle dock beräkningen avbrytas när batteriets energi tar slut. För att ge tillfredsställande beräkningsprestanda och uppnå grön databehandling är det av stor betydelse att söka förnybara energikällor för att driva mobila enheter via energiskördsteknik. I detta dokument kommer vi att undersöka ett grönt MEC-system med EH-enheter och utveckla en effektiv avlastningsstrategi. Exekveringskostnaden, som tar upp både genomförande latency och uppgiftsfel, antas som prestandamått. En låg-komplexitet online-algoritm, nämligen Lyapunov optimering-baserad dynamisk beräkning offloading (LODCO) algoritm föreslås, som gemensamt beslutar avlastning beslut, CPU-cykel frekvenser för mobilt utförande, och sändningseffekt för beräkning offloading. En unik fördel med denna algoritm är att besluten endast beror på den ögonblickliga sidan information utan att kräva distribution information om begäran om beräkning uppgift, den trådlösa kanalen, och EH processer. Genomförandet av algoritmen kräver bara att lösa ett deterministiskt problem i varje tidsrymd, för vilken den optimala lösningen kan erhållas antingen i sluten form eller genom bisektionssökning. Dessutom visas att den föreslagna algoritmen är asymptotiskt optimal genom noggrann analys. Resultaten av provsimuleringen ska presenteras för att verifiera den teoretiska analysen och validera den föreslagna algoritmens effektivitet. Mobil-edge computing, energi skörd, dynamisk spänning och frekvensskalning, effektstyrning, QoE, Lyapunov optimering. Författarna är med
Mao m.fl. REF undersökte ett grönt datorsystem för mobila nät med energiupptagningsanordningar och utvecklade en effektiv avlastningsstrategi för beräkning.
14,777,050
Dynamic Computation Offloading for Mobile-Edge Computing with Energy Harvesting Devices
{'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
81,371
Simulerad glödgning - från en dragbar distribution till en fördelning av intresse via en sekvens av mellanliggande distributioner - har traditionellt använts som en inexakt metod för att hantera isolerade lägen i Markov kedjeprovtagare. Här visas hur man kan använda Markov kedjan övergångar för en sådan glödningssekvens för att definiera en betydelse sampler. Markovs kedjeaspekt gör det möjligt att utföra denna metod på ett godtagbart sätt även för högdimensionella problem, där det annars skulle vara mycket svårt att hitta bra provtagningsdistributioner, medan användningen av vikter säkerställer att de uppskattningar som hittas konvergerar till de rätta värdena när antalet glödgningskörningar ökar. Denna glödgad betydelse provtagningsförfarande liknar den andra halvan av de tidigare studerade härdade övergångar, och kan ses som en generalisering av en nyligen föreslagna variant av sekventiell betydelse provtagning. Det är också relaterat till termodynamiska integrationsmetoder för att uppskatta förhållandet mellan normaliserande konstanter. Provtagning av Annelaled betydelse är mest attraktiv när isolerade lägen är närvarande, eller när uppskattningar av normaliserande konstanter krävs, men det kan också vara mer allmänt användbart, eftersom dess oberoende provtagning gör att man kan kringgå några av problemen med att bedöma konvergens och autokorrelering i Markov kedjeprovtagare.
AIS REF, som används som jämförelse i våra simuleringar, är en av de mest använda metoden för att uppskatta normalisera konstanter.
11,112,994
Annealed importance sampling
{'venue': 'In Statistics and Computing', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Physics', 'Computer Science']}
81,372
Vi föreslår "Hide-and-Seek", en svagt övervakad ram som syftar till att förbättra objekt lokalisering i bilder och åtgärder lokalisering i videor. De flesta befintliga svagt övervakade metoder lokaliserar endast de mest diskriminerande delarna av ett objekt snarare än alla relevanta delar, vilket leder till suboptimal prestanda. Vår nyckelidé är att dölja fläckar i en träningsbild slumpmässigt, vilket tvingar nätverket att söka andra relevanta delar när den mest diskriminerande delen är dold. Vårt tillvägagångssätt behöver bara ändra indatabilden och kan fungera med vilket nätverk som helst som är utformat för objektlokalisering. Under testerna behöver vi inte dölja några fläckar. Vår Hide-and-Seek metod ger överlägsen prestanda jämfört med tidigare metoder för svagt övervakade objekt lokalisering på ILSVRC dataset. Vi visar också att vårt ramverk lätt kan utvidgas till en svagt övervakad handlingslokalisering.
Nyligen, Singh et al. Designad Hide-and-Seek REF för att ta itu med den utmaning som svagt övervakade detektionsmetoder vanligtvis fokuserar på de mest diskriminerande delarna samtidigt som andra relevanta delar av målinstansen försummas.
976,598
Hide-and-Seek: Forcing a Network to be Meticulous for Weakly-Supervised Object and Action Localization
{'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
81,373
Vi presenterar en ny teknik för att verifiera egenskaper hos parallella GPU-program via testförstärkning. Den viktigaste insikten bakom vårt arbete är att vi kan använda tekniken för statiskt informationsflöde för att förstärka resultatet av ett enda testutförande över uppsättningen av alla ingångar och interleatings som påverkar egenskapen som verifieras. Vi demonstrerar empiriskt effektiviteten av testförstärkning för att verifiera rasfrihet och determinism över ett stort antal standard GPU-kärnor, genom att visa att resultatet av att verifiera en enda dynamisk körning kan förstärkas över det massiva utrymmet för möjliga dataingångar och trådinterleavings.
Leung m.fl. REF presenterar en flödesbaserad testförstärkningsteknik för att verifiera rasfrihet och determinism för CUDA-kärnor.
7,524,299
Verifying GPU kernels by test amplification
{'venue': "PLDI '12", 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,374
Abstract-Collision undvikande är en av de svåraste och mest utmanande automatisk körning inom området intelligenta fordon. I nödsituationer är det mer sannolikt att mänskliga förare bromsar än att styra, även om den optimala manövern oftare skulle vara att styra ensam. I detta uttalande föreslås användning av automatisk styrning som en lovande lösning för att undvika olyckor i framtiden. Syftet med detta dokument är att tillhandahålla ett system för undvikande av kollisioner (CAS) för autonoma fordon, med fokus på undvikande av kollisioner med fotgängare. Detektionskomponenten omfattar ett stereovisionsbaserat detektionssystem för fotgängare som ger lämpliga mätningar av tiden för kollision. Den kollisionsundvikande manövern utförs med fuzzy styrenheter för de ställdon som efterliknar mänskligt beteende och reaktioner, tillsammans med en hög precision Global Positioning System (GPS), som ger den information som behövs för den autonoma navigeringen. Det föreslagna systemet utvärderas i två steg. För det första studeras förarens beteende och sensornoggrannhet i experiment som utförs genom manuell körning. Denna studie kommer att användas för att definiera parametrarna för det andra steget, där automatiskt undvikande av kollisioner med fotgängare utförs i hastigheter upp till 30 km/h. De utförda fälttesten gav uppmuntrande resultat och visade att det föreslagna tillvägagångssättet var lönsamt.
Ett system för att undvika kollisioner med fotgängare (vid hastigheter upp till 30 km/h) i autonoma fordon med hjälp av en luddig styrenhet presenteras i REF.
7,419,314
Autonomous Pedestrian Collision Avoidance Using a Fuzzy Steering Controller
{'venue': 'IEEE Transactions on Intelligent Transportation Systems', 'journal': 'IEEE Transactions on Intelligent Transportation Systems', 'mag_field_of_study': ['Computer Science', 'Engineering']}
81,375
Sammanfattning: BioIE är ett regelbaserat system som extraherar informativa meningar om proteinfamiljer, deras strukturer, funktioner och sjukdomar från den biomedicinska litteraturen. Baserat på manuell definition av mallar och regler, syftar det till exakt mening utdrag snarare än bred återkallelse. Efter att ha laddat upp källtext eller hämtat abstracts från MEDLINE kan användare extrahera meningar baserade på fördefinierade eller användardefinierade mallkategorier. BioIE ger också en kort inblick i den syntaktiska och semantiska kontexten i källtexten genom att titta på ord-, N-gram- och MeSH-termdistributioner. Viktiga tillämpningar av BioIE finns till exempel i notering av mikroarraydata och proteindatabaser.
Ett meningsextraktionssystem BioIE REF ) använder också mönster för att extrahera hela meningar relaterade till proteinfamiljer, proteinstrukturer, funktioner och sjukdomar.
17,336,950
BioIE : extracting informative sentences from the biomedical literature
{'venue': 'Bioinformatics', 'journal': 'Bioinformatics', 'mag_field_of_study': ['Computer Science', 'Medicine']}
81,376
Abstrakt. Modellering av tidsrelaterade aspekter är viktigt i många tillämpningar av verifieringsmetoder. För exakta resultat är det nödvändigt att tolka tiden som en tät domän, t.ex. använda tidsinställd automata som en formalism, även om systemets resulterande oändliga tillstånd utrymme är utmanande för verifieringsmetoder. Dessutom verkar fullt symbolisk behandling av både timing relaterade och icke-timing relaterade delar av statsrymden erbjuda ett attraktivt tillvägagångssätt för modellkontroll tidsinställda system med en stor mängd icke-determinism. I detta dokument presenteras en SMT-baserad förlängning av tidsschemat till IC3-algoritmen, en SAT-baserad ny, högeffektiv, komplett verifieringsmetod för tidlösa system. Hanteringen av de oändliga tillståndsrymderna för tidsinställda system i den utökade IC3-algoritmen baseras på en lämplig anpassning av den välkända regionens abstraktion för tidsinställda system. Dessutom utvidgas k-induktion, en annan symbolisk verifieringsmetod för diskreta tidssystem, på ett liknande sätt som stöd för tidtagningssystem. Båda de nya metoderna utvärderas och jämförs experimentellt med en booleaniseringsbaserad verifieringsmetod som använder den ursprungliga diskreta IC3-algoritmen.
SMT-baserad fullständig modellkontroll (k-induktion och IC3) för tidsinställd automata har nyligen undersökts i REF, med hjälp av regionens abstraktion för diskretisering.
93,739
SMT-based Induction Methods for Timed Systems
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
81,377
Abstrakt. Om ett fysiskt föremål har en jämn eller bitvis jämn gräns, genomgår dess bilder som erhållits av kameror i olika lägen släta synliga deformationer. Dessa deformationer är lokalt väl approximerade av affina transformer av bildplanet. Följaktligen har problemet med solid objektigenkänning ofta letts tillbaka till beräkningen av affina invarianta bild lokala funktioner. Sådana invarianta egenskaper kunde erhållas genom normaliseringsmetoder, men ingen fullt afffin normaliseringsmetod existerar för tillfället. Även stor variation hanteras endast strikt av SIFT-metoden. Genom att simulera zoomar ut och normalisera översättning och rotation, SIFT är invariant till fyra av de sex parametrarna i en affin transform. Den metod som föreslås i detta dokument, Affine-SIFT (ASIFT), simulerar alla bildvyer som kan erhållas genom att variera de två parametrar för kameraaxelns orientering, nämligen latitud- och longitudvinklarna, som återstår med SIFT-metoden. Därefter täcker den de övriga fyra parametrarna med hjälp av själva SIFT-metoden. Den resulterande metoden kommer matematiskt bevisas vara helt afffin invariant. Mot varje prognos är det möjligt att simulera alla vyer beroende på de två kameraorienteringsparametrarna utan någon dramatisk beräkningsbelastning. Ett system med två lösningar minskar ytterligare komplexiteten för ASIFT till ungefär dubbelt så mycket som för SIFT. Ett nytt begrepp, övergången lutning, mäta mängden av snedvridning från en syn till en annan införs. Medan en absolut lutning från en frontal till en sned vy som överstiger 6 är sällsynt, mycket högre övergång lutningar är vanliga när två sneda vyer av ett objekt jämförs (se bild. 1.1), senast ändrad genom Europaparlamentets och rådets förordning (EU, Euratom) nr 966/2012 av den 25 oktober 2012 om finansiella regler för unionens allmänna budget och om upphävande av rådets förordning (EG, Euratom) nr 1605/2002 (EUT L 298, 26.10.2012, s. 1). Den uppnåeliga övergångslutningen mäts för varje affin bildjämförelsemetod. Den nya metoden gör det möjligt att på ett tillförlitligt sätt identifiera egenskaper som har genomgått övergångstakt av stor omfattning, upp till 36 och högre. Detta bekräftas av många experiment som visar att ASIFT betydligt överträffar de senaste metoderna SIFT, MSER, Harris-Affine och Hessian-Affine.
Ett tvåskaligt tillvägagångssätt föreslås i REF.
3,174,256
ASIFT: A NEW FRAMEWORK FOR FULLY AFFINE INVARIANT IMAGE COMPARISON
{'venue': 'SIAM J. Imaging Sciences', 'journal': 'SIAM J. Imaging Sciences', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
81,378
Den här artikeln visar hur man använder modellkontroll för att hitta allvarliga fel i filsystem. Modellkontroll är en formell verifieringsteknik som är inställd för att hitta fel i hörnfall genom att grundligt utforska de tillståndsutrymmen som definieras av ett system. Filsystem har två dynamiker som gör dem attraktiva för ett sådant tillvägagångssätt. För det första är deras fel några av de allvarligaste, eftersom de kan förstöra ihållande data och leda till oåtervinnbar korruption. För det andra behöver traditionell testning ett opraktiskt, exponentiellt antal testfall för att kontrollera att systemet återhämtar sig om det kraschar någon gång under utförandet. Modellkontroll använder en mängd olika state-reducerande tekniker som gör det möjligt för den att utforska så stora tillstånd utrymmen effektivt. Vi byggde ett system, FiSC, för modellkontroll av filsystem. Vi tillämpade den på fyra allmänt använda, starkt testade filsystem: ext3, JFS, ReiserFS och XFS. Vi hittade allvarliga insekter i alla, totalt 33. De flesta har lett till fläckar inom en dag av diagnos. För varje filsystem fann FiSC påvisbara händelser som ledde till oåtervinnbar förstörelse av metadata och hela kataloger, inklusive filsystemets rotkatalog "/".
Nyligen användes modellkontroll för att hitta allvarliga filsystemfel REF.
2,848,171
Using model checking to find serious file system errors
{'venue': 'TOCS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,380
Abstrakt. Vi beskriver den första metoden att automatiskt uppskatta 3D pose av människokroppen samt dess 3D form från en enda okonstruerad bild. Vi uppskattar en full 3D mesh och visar att 2D leder ensam bär en överraskande mängd information om kroppsform. Problemet är utmanande på grund av komplexiteten i människokroppen, artikulation, ocklusion, kläder, belysning, och den inneboende tvetydighet i att härleda 3D från 2D. För att lösa detta använder vi först en nyligen publicerad CNN-baserad metod, DeepCut, för att förutsäga (bottom-up) de 2D-kropp gemensamma platser. Vi passar sedan (uppifrån och ner) en nyligen publicerad statistikkroppsmodell, kallad SMPL, till 2D-lederna. Vi gör det genom att minimera en objektiv funktion som straffar felet mellan de projicerade 3D-modellfogarna och upptäckta 2D-fogar. Eftersom SMPL fångar korrelationer i mänsklig form över hela befolkningen, kan vi på ett robust sätt anpassa den till mycket lite data. Vi utnyttjar 3D-modellen ytterligare för att förhindra lösningar som orsakar interpenetration. Vi utvärderar vår metod, SMPLify, på Leeds Sports, HumanEva och Human3.6M dataset, som visar överlägsen posera noggrannhet med avseende på toppmoderna.
Bogo m.fl. REF försöker passa projektionen av mänsklig 3D-form till 2D-lederna och visa en förbättring i prestanda.
13,438,951
Keep it SMPL: Automatic Estimation of 3D Human Pose and Shape from a Single Image
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
81,381
ABSTRACT Med ökad tillit till sakernas internet (IoT) enheter och tjänster, förmågan att upptäcka intrång och skadliga aktiviteter inom IoT-nätverk är avgörande för motståndskraften hos nätverksinfrastrukturen. I detta dokument presenterar vi en ny modell för intrångsdetektering baserad på tvålagers dimensionsreduktion och tvåskikts klassificeringsmodul, utformad för att upptäcka skadliga aktiviteter som User to Root (U2R) och Remote to Local (R2L) attacker. Den föreslagna modellen använder komponentanalys och linjär diskriminerande analys av dimensionsreduktionsmodulen för att dela högdimensionella dataset till en lägre med mindre egenskaper. Vi tillämpar sedan en två-gradig klassificering modul som använder NaI €ve Bayes och visshet faktor version av K-Nearest Grann för att identifiera misstänkta beteenden. Experimentresultaten med NSL-KDD dataset visar att vår modell överträffar tidigare modeller utformade för att upptäcka U2R- och R2L-attacker.
Författarna i REF föreslår en intrångsdetekteringsmodell för IoT-stamnät som utnyttjar tvålagers dimensionsreduktion och tvåstegs klassificeringstekniker för att upptäcka U2R (User-to-Root) och R2L (Remote-to-Local) attacker.
44,175,270
A Two-Layer Dimension Reduction and Two-Tier Classification Model for Anomaly-Based Intrusion Detection in IoT Backbone Networks
{'venue': 'IEEE Transactions on Emerging Topics in Computing', 'journal': 'IEEE Transactions on Emerging Topics in Computing', 'mag_field_of_study': ['Computer Science']}
81,382
: Vi beskriver en detektor som kan hitta runt 800 ansikten av den rapporterade 1000 närvarande, genom att använda sig av nya karakteriseringar av skala, upplösning och sammanhang för att hitta små objekt. Detektorkonfidens ges av färgraden till höger: kan du säkert identifiera fel? Även om man har gjort enorma framsteg när det gäller att identifiera föremål, är en av de återstående öppna utmaningarna att upptäcka små föremål. Vi undersöker tre aspekter av problemet i samband med att vi hittar små ansikten: betydelsen av stor variation, bildupplösning och kontextuellt resonemang. Medan de flesta erkännande metoder syftar till att vara skala-invariant, är signalerna för att erkänna en 3px lång ansikte i grunden annorlunda än de för att erkänna en 300px lång ansikte. Vi tar en annan infallsvinkel och tränar separata detektorer för olika skalor. För att upprätthålla effektiviteten tränas detektorer på ett multi-task-sätt: de använder sig av funktioner som utvunnits från flera lager av enstaka (djupa) funktionshierarki. Även om träningsdetektorer för stora föremål är enkla, förblir den avgörande utmaningen träningsdetektorer för små föremål. Vi visar att sammanhanget är avgörande, och definiera mallar som använder sig av massivt stora mottagliga fält (där 99% av mallen sträcker sig utanför objektet av intresse). Slutligen utforskar vi skalans roll i förtränade djupa nätverk, vilket ger sätt att extrapolera nätverk som är anpassade för begränsade skalor till ganska extrema intervall. Vi demonstrerar state-of-the-art resultat på massivt-benchmarked ansikte dataset (FDDB och WIDER FACE). I synnerhet, jämfört med tidigare konst på WIDER FACE, våra resultat minskar fel med en faktor på 2 (våra modeller producerar en AP på 81% medan tidigare konst varierar från 29-64%).
Hu m.fl. REF utbildade separata detektorer för olika skalor.
7,552,471
Finding Tiny Faces
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
81,383
Mänskligt språk kan beskrivas som ett komplext nätverk av länkade ord. I en sådan behandling, varje distinkt ord i språket är en vertex av denna webb, och interagerande ord i meningar är anslutna med kanter. Den empiriska fördelningen av antalet anslutningar av ord i detta nätverk är av en märklig form som inkluderar två uttalade makt-lag regioner. Här föreslår vi en teori om språkutvecklingen, som behandlar språket som ett självorganiserande nätverk av samspelande ord. Inom ramen för detta koncept, beskriver vi fullständigt det observerade ordet webbstruktur utan någon ¢ting. Vi visar att de två regimerna i distributionen naturligt kommer från den evolutionära dynamiken i ordet webb. Det framgår av vår teori att språkets kärna, "kernellexikonet", inte varierar i takt med att språket utvecklas.
Dorogovtsevs och Mendes REF:s pionjärarbete beskriver språket som ett självorganiserande nätverk av länkade ord.
20,176,462
Language as an evolving word web
{'venue': 'Proceedings of the Royal Society of London. Series B: Biological Sciences', 'journal': 'Proceedings of the Royal Society of London. Series B: Biological Sciences', 'mag_field_of_study': ['Physics', 'Medicine', 'Mathematics', 'Computer Science']}
81,384
Biomedicinsk datadelning blir allt viktigare för forskare att återanvända experiment, samla expertis och validera metoder. Det finns dock många hinder för datadelning, bland annat ovilja att dela, brist på flexibel datamodell för att tillhandahålla kontextinformation, svårigheter att dela syntaktiska och semantiskt konsekventa data mellan distribuerade institut och höga kostnader för att tillhandahålla verktyg för att dela data. SciPort är en webbaserad plattform för biomedical data sharing för att stödja datadelning mellan distribuerade organisationer. SciPort tillhandahåller en generisk metadatamodell för att flexibelt anpassa och organisera data. För att möjliggöra bekväm datadelning tillhandahåller SciPort en central serverbaserad datadelningsarkitektur med ett klick datadelning från en lokal server. För att möjliggöra konsekvens, SciPort ger samverkande distribuerade schemahantering över distribuerade platser. För att möjliggöra semantisk konsistens tillhandahåller SciPort semantisk taggning genom kontrollerade ordförråd. SciPort är lätt och kan enkelt användas för att bygga datadelningsgemenskaper.
SciPort är en webbaserad plattform för biomedical data sharing som har föreslagits av Wang et al. REF för att stödja datadelning mellan distribuerade organisationer.
10,016,356
Metadata based management and sharing of distributed biomedical data
{'venue': 'International journal of metadata, semantics and ontologies', 'journal': 'International journal of metadata, semantics and ontologies', 'mag_field_of_study': ['Computer Science', 'Medicine']}
81,385
Abstract-Present objekt detekteringsmetoder arbetar på 3D-område data är hittills antingen optimerade för ostrukturerade offroad miljöer eller platta urbana miljöer. Vi presenterar en snabb algoritm som kan hantera enorma mängder 3D Lidar mätningar. Den använder en grafbaserad metod för att segmentera mark och objekt från 3D-lidarskanningar med hjälp av ett nytt enhetligt, generiskt kriterium baserat på lokala konvexitetsåtgärder. Experiment visar goda resultat i stadsmiljöer inklusive smidigt böjda vägytor.
Moosmann m.fl. REF använde en grafbaserad metod för att segmentera mark och objekt från 3-D LIDAR-skanningar med hjälp av ett nytt enhetligt, generiskt kriterium baserat på lokala konvexitetsåtgärder.
883,157
Segmentation of 3D lidar data in non-flat urban environments using a local convexity criterion
{'venue': '2009 IEEE Intelligent Vehicles Symposium', 'journal': '2009 IEEE Intelligent Vehicles Symposium', 'mag_field_of_study': ['Computer Science']}
81,386
Vi föreslår ett enkelt tillvägagångssätt för att kombinera första ordningens logik och probabilistiska grafiska modeller i en enda representation. En Markov logik nätverk (MLN) är en förstaorder kunskapsbas med en vikt fäst vid varje formel (eller klausul). Tillsammans med en uppsättning konstanter som representerar objekt i domänen, anger det en mark Markov nätverk som innehåller en funktion för varje möjlig jordning av en första ordning formel i KB, med motsvarande vikt. Inferens i MLNs utförs av MCMC över den minimala delmängd av marknätet som krävs för att svara på frågan. Vikter lärs effektivt från relationsdatabaser genom att iterativt optimera en pseudolikelihood åtgärd. Alternativt inlärs ytterligare klausuler med hjälp av induktiva logiska programmeringsmetoder. Experiment med en verklig databas och kunskapsbas inom ett universitetsområde illustrerar löftet om detta tillvägagångssätt.
Markovs logiknätverk (MLN) REF ) är en allmän modell som kombinerar första ordningens logik och probabilistiska grafiska modeller i en enda representation.
12,698,795
Markov logic networks
{'venue': 'Machine Learning', 'journal': 'Machine Learning', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
81,387
Nuvarande state-of-the-art djupinlärningssystem för visuell objektigenkänning och detektion använder rent övervakad utbildning med legalisering såsom avhopp för att undvika överutrustning. Prestandan beror kritiskt på mängden märkta exempel, och i nuvarande praxis antas etiketterna vara entydiga och korrekta. Detta antagande håller dock ofta inte, t.ex. Vid upptäckt kan objekt i bilden inte lokaliseras, och i allmänhet kan märkningen vara subjektiv. I detta arbete föreslår vi ett generiskt sätt att hantera bullriga och ofullständiga märkningar genom att öka prognosmålet med ett begrepp om konsekvens. Vi anser att en förutsägelse är konsekvent om samma förutsägelse görs ges liknande begrepp, där begreppet likhet är mellan djupa nätverksfunktioner som beräknas från indata. I experiment visar vi att vårt tillvägagångssätt ger betydande robusthet för att märka buller på flera datauppsättningar. På MNIST handskrivna siffror visar vi att vår modell är robust för att märka korruption. På Toronto Face Database, visar vi att vår modell hanterar väl fallet med subjektiva etiketter i känsloigenkänning, uppnå state-of-t heart resultat, och kan också dra nytta av omärkta ansiktsbilder utan någon ändring av vår metod. På ILSVRC2014 detekteringsutmaningsdata visar vi att vår strategi sträcker sig till mycket djupa nätverk, högupplösta bilder och strukturerade utgångar, och resulterar i förbättrad skalbar detektering.
Till exempel Reed et al. REF underlättade begreppet perceptuell överensstämmelse att linjärt kombinera märkningen och förutsägelsen som den nya tillsynen, vilket visar den stora robustheten i märkningen av buller.
2,181,703
Training Deep Neural Networks on Noisy Labels with Bootstrapping
{'venue': 'ICLR 2015', 'journal': 'arXiv: Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
81,388
Flera objekt spårning fortfarande är ett svårt problem på grund av utseende variationer och ocklusioner av målen eller detektion misslyckanden. Med hjälp av sofistikerade utseende modeller eller utföra data association över flera ramar är två vanliga metoder som leder till vinst i prestanda. Inspirerad av framgången med glesa representationer i Single Object Tracking, föreslår vi att formulera multi-frame data association steg som ett energiminimeringsproblem, utforma en energi som effektivt utnyttjar glesa representationer av alla upptäckter. Dessutom föreslår vi att man använder sig av en strukturerad, gleshetsinducerande norm för att beräkna representationer som är mer anpassade till spårningssammanhanget. Vi utför omfattande experiment för att visa effektiviteten av den föreslagna formuleringen, och utvärdera vår strategi på två offentliga auktoritativa riktmärken för att jämföra den med flera state-of-the-art metoder.
Fagot-Bouquet m.fl. REF introducerar glesa representationer i multi-frame data association för att få MOT prestanda.
5,035,837
Improving Multi-frame Data Association with Sparse Representations for Robust Near-online Multi-object Tracking
{'venue': 'ECCV', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,389
I detta dokument diskuteras användningen av omärkta exempel för problemet med namngiven enhetsklassificering. Ett stort antal regler behövs för att täcka domänen, vilket tyder på att ett ganska stort antal namngivna exempel bör krävas för att utbilda en klassificerare. Vi visar dock att användningen av omärkta data kan minska kraven på tillsyn till bara 7 enkla "såddregler". Tillvägagångssättet drar fördel av naturlig redundans i uppgifterna: för många namngivna enheter är både stavningen av namnet och det sammanhang i vilket det framträder tillräckligt för att bestämma dess typ. Vi presenterar två algoritmer. Den första metoden använder en algoritm liknande den för (Yarowsky 95), med ändringar motiverade av (Blum och Mitchell 98). Den andra algoritmen utvidgar idéer från att öka algoritmer, utformade för övervakade inlärningsuppgifter, till det ramverk som föreslås av (Blum och Mitchell 98).
REF visade att användning av omärkta data för NER kan minska kraven på tillsyn till bara 7 enkla utsädesregler.
859,162
Unsupervised Models For Named Entity Classification
{'venue': 'Joint SIGDAT Conference On Empirical Methods In Natural Language Processing And Very Large Corpora', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,390
I det här dokumentet presenterar vi designen av en Constomed Application Protocol (CoAP) proxy som kan koppla samman webbapplikationer baserade på Hypertext Transfer Protocol (HTTP) och WebSocket med CoAP-baserade trådlösa Sensor Networks. Sensornätverk används ofta för att övervaka och kontrollera fysiska objekt eller miljöer. Smarta städer är tillämpningar av detta slag. Trådlösa Sensornätverk samlar in data från sin omgivning och skickar dem till ett fjärrprogram. Detta dataflöde kan vara kort eller långlivat. Den traditionella HTTP långtidspolling som används av webbapplikationer kanske inte är tillräcklig i långsiktig kommunikation. För att övervinna detta problem, vi inkluderar WebSocket-protokollet i utformningen av CoAP proxy. Vi utvärderar prestandan hos CoAP-proxyn i termer av latens och minnesförbrukning. Testerna tar hänsyn till lång och kortlivad kommunikation. I båda fallen utvärderar vi den prestanda som uppnåtts av CoAP-proxyn enligt användningen av WebSocket och HTTP long-polling.
En gateway baserad på ett begränsat tillämpningsprotokoll (CoAP)-HTTP proxy föreslås, där data över lager lagras i proxy REF.
2,944,800
A Proxy Design to Leverage the Interconnection of CoAP Wireless Sensor Networks with Web Applications
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']}
81,391
Abstract-Cloud computing, som snabbt växer fram som ett nytt beräkningsparadigm, ger smidig och skalbar resursåtkomst på ett nyttolikt sätt, särskilt för behandling av stordata. En viktig öppen fråga här är att effektivt flytta data, från olika geografiska platser över tid, till ett moln för effektiv behandling. Den faktiska metoden för hårddisk sjöfart är inte flexibel eller säker. Detta arbete studerar aktuell, kostnadsminimerande uppladdning av massiva, dynamiskt genererade, geo-spridda data i molnet, för behandling med hjälp av en MapReduce-liknande ramverk. Målsättning på ett moln som omfattar olika datacenter, vi modellerar en kostnadsminimerande data migration problem, och föreslå två online-algoritmer: en online lat migration (OLM) algoritm och en randomiserad fast horisont kontroll (RFHC) algoritm, för optimering vid varje given tidpunkt valet av datacenter för dataaggregation och bearbetning, samt rutter för att överföra data där. Noggranna jämförelser mellan dessa online- och offlinealgoritmer i realistiska inställningar utförs genom omfattande experiment, som visar nära-till-offline-optimum prestanda för online-algoritmer.
Referensreferensreferensen hanterade problemet med att effektivt flytta data från olika geografiska platser till ett moln för vidare behandling.
14,369,540
Moving Big Data to The Cloud: An Online Cost-Minimizing Approach
{'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science']}
81,392
Abstract-This paper tar upp förhållandet mellan meddelandefördröjning och tillförlitlighet för kommunikationen mellan ett fordon och en vägenhet (RSU). Vi fokuserar på sparse vehicular sensor networks (VSNs), där snabb meddelandeleverans och tillförlitlig överföring är av stor betydelse. Vi presenterar en matematisk ram för meddelandeleveransfördröjningen för en tvåfilig väg, där fordon i en riktning fungerar som meddelandebärare för de i den andra riktningen och har frihet att lämna vägen från slumpmässigt fördelade vägkorsningar med en viss sannolikhet. Packet generator fordon lagra originalpaketen till möte en RSU medan skicka flera kopior av varje paket till paket bärare fordon. Vår analys erbjuder ett analytiskt verktyg för ett intelligent transportsystem (ITS) tjänsteleverantör för att bestämma den minsta RSU densitet som krävs för att täcka en väg för att uppfylla en probabilistisk krav på meddelandefördröjning. Omfattande datorsimuleringsresultat visar exaktheten i vår analys och visar tydligt relationen mellan paketfördröjning och antalet paketrepliker. Index Terms-Delay, fordonssensornätverk, transmission mellan fordon och infrastruktur, störd konnektivitet, placering av vägsidans enheter, tillförlitlighet vid leverans av information.
I REF, Abdrabou et al. lade fram en analytisk modell för beräkning av meddelandeleveransfördröjningsfördelningen på tvåfilig väg, där fordon i en riktning kan bära meddelanden för fordonen i den andra riktningen och ha frihet att lämna vägen från slumpmässigt fördelade vägkorsningar med en viss sannolikhet.
8,786,069
Delay Analysis for Sparse Vehicular Sensor Networks with Reliability Considerations
{'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
81,393
Människor lär sig ofta att utföra uppgifter via imitation: de observerar andra utföra en uppgift, och sedan mycket snabbt dra slutsatsen att lämpliga åtgärder att vidta på grundval av sina observationer. Samtidigt som detta paradigm utvidgas till autonoma agenter är ett välstuderat problem i allmänhet, finns det två särskilda aspekter som till stor del har förbisetts: 1) att lärandet endast görs från observation (dvs. utan explicit information om åtgärder), och 2) att lärandet vanligtvis görs mycket snabbt. I detta arbete föreslår vi en två-fas, autonom imitation lärande teknik som kallas beteende kloning från observation (BCO), som syftar till att ge förbättrad prestanda med avseende på båda dessa aspekter. Först låter vi agenten skaffa sig erfarenhet på ett självövervakat sätt. Denna erfarenhet används för att utveckla en modell som sedan används för att lära sig en viss uppgift genom att observera en expert utföra den uppgiften utan vetskap om de specifika åtgärder som vidtagits. Vi jämför experimentellt BCO med imitationer av inlärningsmetoder, inklusive state-of-the-art, generativ adversarial imitation learning (GAIL) teknik, och vi visar jämförbara uppgifter prestanda i flera olika simuleringsområden samtidigt visar ökad inlärningshastighet efter expert banor blir tillgängliga.
En andra metod för att imitation från actionfria demonstrationer är beteende kloning från observation (BCO) REF.
23,206,414
Behavioral Cloning from Observation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
81,394
Detta papper presenterar staplade uppmärksamhet nätverk (SANs) som lär sig att svara på frågor naturligt språk från bilder. SAN använder semantisk representation av en fråga som fråga för att söka efter regionerna i en bild som är relaterad till svaret. Vi hävdar att bildfråga svar (QA) ofta kräver flera steg av resonemang. Således utvecklar vi en flera lager SAN där vi frågar en bild flera gånger för att dra slutsatsen svaret gradvis. Experiment som utförts på fyra uppsättningar av QA-bilddata visar att de föreslagna SAN-värdena avsevärt överträffar tidigare toppmoderna metoder. Visualiseringen av uppmärksamhetslagren illustrerar de framsteg som SAN lokaliserar de relevanta visuella ledtrådarna som leder till svaret på frågan lager för lager.
REF föreslår en staplad uppmärksamhet modell som frågar bilden för flera gånger för att dra slutsatsen svaret gradvis.
8,849,206
Stacked Attention Networks for Image Question Answering
{'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
81,395
En grundläggande metod för säker datadelning i en molnmiljö är att låta dataägaren kryptera data innan outsouring. För att samtidigt uppnå finkornig åtkomstkontroll vid krypterad data och skalbar användaråterkallelse kombinerar befintligt arbete attributbaserad kryptering (ABE) och proxyåterkryptering (PRE) för att delegera molntjänstleverantören (CSP) att utföra omkryptering. Dataägaren bör dock vara online för att kunna skicka PRE-nycklarna till CSP i rätt tid för att förhindra att den återkallade användaren får tillgång till framtida data. Förseningen av utfärdandet av PRE-nycklarna kan orsaka potentiella säkerhetsrisker. I detta dokument föreslår vi en tidsbaserad proxyåterkryptering (TimePRE) för att en användares åtkomsträtt ska kunna löpa ut automatiskt efter en förutbestämd tidsperiod. I detta fall kan dataägaren vara offline i processen för användarens återkallanden. Grundidén är att införliva tidsbegreppet i kombinationen av ABE och PRE. Varje data är specifikt kopplad till en attributbaserad åtkomststruktur och en åtkomsttid, och varje användare identifieras genom en uppsättning attribut och en uppsättning godtagbara tidsperioder som anger giltighetstiden för användarens åtkomsträtt. Därefter är dataägaren och CSP skyldiga att dela en rot hemlig nyckel i förväg, med vilken CSP kan automatiskt uppdatera åtkomsttiden för data med den tid som den tar emot en begäran om dataåtkomst. Därför, * Korresponderande författare: E-postadress: [email protected] (Guojun Wang) URL: http://trust.csu.edu.cn/faculty/~csgjwang (Guojun Wang) September 18, 2012 med tanke på den omkrypterade chiffertext, endast användare vars attribut uppfyller åtkomststrukturen och vars åtkomsträttigheter är effektiva i åtkomsttiden kan återställa motsvarande data. Preprint inlämnad till Elsevier Information Sciences
I REF har idén om tidsbaserad proxyåterkryptering använts.
10,715,245
Time-Based Proxy Re-encryption Scheme for Secure Data Sharing in a Cloud Environment
{'venue': 'Inf. Sci.', 'journal': 'Inf. Sci.', 'mag_field_of_study': ['Computer Science']}
81,396
Abstrakt. Ett öppet problem presenteras om förekomsten av ren strategi Nash jämvikt (PNE) i nätverk trängsel spel med ett begränsat antal icke-identiska spelare, där strategin uppsättningen av varje spelare är insamling av alla vägar i ett givet nätverk som länkar spelarens ursprung och destination hörn, och trängsel ökar kostnaderna för kanter. Ett nätverk trängselspel där spelarna endast skiljer sig i sin ursprung-destination par är ett potentiellt spel, vilket innebär att, oavsett den exakta funktionella formen av kostnadsfunktioner, det har en PNE. En PNE finns inte nödvändigtvis om (i) beroendet av kostnaden för varje kant på antalet användare är spelare-och kantspecifika eller (ii) den (eventuellt, kant-specifika) kostnaden är densamma för alla spelare men det är en funktion (inte av antalet men) av den totala vikten av de spelare som använder kanten, med varje spelare jag har en annan vikt w i. I ett parallellt två-terminalnät, där ursprunget och destinationen är de enda hörn olika kanter har gemensamt, finns alltid en PNE även om spelarna skiljer sig i antingen sina kostnadsfunktioner eller vikter, men inte i båda. För allmänna tvåterminalnät är detta dock inte fallet. Problemet är att karakterisera klassen av alla två-terminal nätverk topologier för vilka förekomsten av en PNE garanteras även med spelare-specifika kostnader, och motsvarande klass för spelare-specifika vikter. Vissa framsteg när det gäller att lösa detta problem rapporteras.
Milchtaich REF visade vidare att allmänna nätverksspel med spelarspecifika kostnader inte behöver erkänna en PNE i allmänhet.
14,112,149
The equilibrium existence problem in finite network congestion games
{'venue': 'In Proc. of the 2nd Int. Workshop on Internet and Network Economics (WINE', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,397
Utvecklingen av självanpassade realtidssystem (RTE) är en allt svårare uppgift på grund av den ökande komplexiteten hos både hårdvara och programvara och den stora variationen i utförandemiljön. Olika metoder, plattformar och middleware har föreslagits inom området, från låg till hög abstraktionsnivå. Det finns dock fortfarande en brist på generiska och återanvändbara konstruktioner för självanpassade RTE-system som passar olika systemdomäner, lätta designers uppgift och minska utvecklingskostnaderna. I detta dokument föreslår vi fem konstruktionsmönster för modellering av självanpassade RTE-system till följd av generaliseringen av relevanta befintliga anpassningsrelaterade arbeten. Tillsammans bildar mönstren designen av en anpassningsslinga som består av fem anpassningsmoduler. Den föreslagna lösningen erbjuder en modulär, återanvändningsbar och flexibel specifikation av dessa moduler och möjliggör separation av problem. Det gör det också möjligt att hantera konvergens, realtidsfunktioner och anpassningskostnader i förhållande till anpassningsverksamheten. För att validera vår lösning, tillämpade vi den till en komplex fallstudie, ett cross-layer self-adaptive object tracking system, för att visa mönster utnyttjande och bevisa lösningen fördelar.
Utformningen av adaptiv RTES innebär många utmaningar på grund av komplexiteten i det problem som den hanterar REF.
19,959,829
Design patterns for self-adaptive RTE systems specification
{'venue': 'Int. J. Reconfigurable Comput.', 'journal': 'Int. J. Reconfigurable Comput.', 'mag_field_of_study': ['Computer Science']}
81,398
Abstract-I detta brev undersöker vi en energieffektivitet med prestanda garanterade problem i mobile-edge computing. De mobila användarna önskar lägre energiförbrukning med bättre prestanda av uppgifter, för att vi föreslår ett energiminimerande optimeringsproblem för mobil-edge cloud computing. Vi tillämpar KKT-villkor för att lösa det, och även lägga fram en begäran om avlastning för denna fråga. Avlastningssystemet bestäms särskilt av energiförbrukningen och bandbreddskapaciteten vid varje ankomst- och avgångstider. Numeriska resultat visar att vårt föreslagna avlastningssystem överträffar lokal databehandling och helt avlastningsmetod för energiförbrukning och prestanda vid försening.
I Reference Ref använde författarna Karush-Kuhn-Tucker (KKT) för att lösa problemet med optimering av MD-energiförbrukning.
13,090,868
Performance Guaranteed Computation Offloading for Mobile-Edge Cloud Computing
{'venue': 'IEEE Wireless Communications Letters', 'journal': 'IEEE Wireless Communications Letters', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
81,399
Ett växande antal visuella datortillämpningar är beroende av analysen av stora videosamlingar. Utmaningen är att skalningsapplikationer för att fungera på dessa dataset kräver effektiva system för åtkomst till pixeldata och parallell bearbetning över ett stort antal maskiner. Få programmerare har kapacitet att arbeta effektivt på dessa skalor, vilket begränsar fältets förmåga att utforska nya applikationer som utnyttjar stora videodata. Som svar har vi skapat Scanner, ett system för produktiv och effektiv videoanalys i skala. Scanner organiserar videosamlingar som tabeller i en datalager optimerad för provtagning ramar från komprimerad video, och utför pixel bearbetning beräkningar, uttryckt som dataflöde grafer, på dessa ramar. Scanner schemalägger videoanalysprogram som uttrycks med hjälp av dessa abstraktioner på heterogen datamaskinvara, såsom multi-core CPUs, GPUs, och media bearbetning ASICs, för hög-genomströmning pixel bearbetning. Vi demonstrerar produktiviteten hos Scanner genom att skapa en mängd olika videobehandlingsapplikationer, inklusive syntesen av stereo VR videoströmmar från multi-camera riggar, markörlös 3D mänskliga pose rekonstruktion från video, och data-minera stora video datauppsättningar såsom hundratals långfilmer eller över 70.000 timmar av TV-nyheter. Dessa applikationer uppnår nästan expertprestanda på en enda maskin och skala effektivt till hundratals maskiner, vilket gör det möjligt att utföra tidigare långvariga stora videodataanalyser på några minuter till timmar.
För att stödja videoanalys i skala organiserar Scanner REF videosamlingar och rasterdata som tabeller i en datalager och utför kostsamma pixelnivåberäkningar parallellt.
29,155,614
Scanner: efficient video analysis at scale
{'venue': 'TOGS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,400
Nuvarande forskning om sakernas Internet (IoT) fokuserar främst på hur man kan göra det möjligt för allmänna objekt att se, höra och lukta på den fysiska världen för sig själva, och göra dem anslutna för att dela observationer. I den här artikeln hävdar vi att endast sammankopplade är inte tillräckligt, bortom det, allmänna objekt bör ha förmågan att lära, tänka och förstå både fysiska och sociala världar på egen hand. Detta praktiska behov driver oss att utveckla ett nytt paradigm, som kallas kognitivt sakernas Internet (CIoT), för att stärka det nuvarande sakernas internet med en "hjärna" för intelligens på hög nivå. I synnerhet presenterar vi först en heltäckande definition av CIoT, främst inspirerad av effektiviteten hos mänsklig kognition. Därefter föreslår vi en operativ ram för CIoT, som främst karakteriserar samspelet mellan fem grundläggande kognitiva uppgifter: perception handlingscykel, massiv dataanalys, semantisk härledning och kunskapsupptäckt, intelligent beslutsfattande och tillhandahållande av tjänster på begäran. Dessutom tillhandahåller vi en systematisk handledning om viktiga möjliggörande tekniker som är involverade i de kognitiva uppgifterna. Dessutom diskuterar vi också utformningen av lämpliga prestandamått vid utvärdering av möjliggörande tekniker. Sist men inte minst presenterar vi de forskningsutmaningar och öppna frågor som ligger framför oss. Med utgångspunkt i det nuvarande arbetet och potentiellt givande framtidsstudier har CIoT förmågan att överbrygga den fysiska världen (med föremål, resurser, etc.) och den sociala världen (med mänsklig efterfrågan, socialt beteende, etc.).) och förbättra smart resursfördelning, automatisk nätdrift och intelligent tillhandahållande av tjänster.
Arbetet i REF betonar särskilt ett kognitivt IoT-ramverk för effektivt beslutsfattande och kunskapsupptäckt.
15,528,648
Cognitive Internet of Things: A New Paradigm Beyond Connection
{'venue': 'IEEE Internet of Things Journal', 'journal': 'IEEE Internet of Things Journal', 'mag_field_of_study': ['Computer Science']}
81,401
Denna artikel analyserar en månad av redigeringar till Wikipedia för att undersöka rollen av användare som redigerar flera språkutgåvor (kallas flerspråkiga användare). Sådana flerspråkiga användare kan ha en viktig funktion när det gäller att sprida information i olika språkversioner av uppslagsverket, och tidigare arbeten har visat att detta skulle kunna minska graden av självfokuserande partiskhet i varje utgåva. Denna studie visar att flerspråkiga användare är mycket mer aktiva än sina enspråkiga motsvarigheter. De finns i alla språkutgåvor, men mindre utgåvor med färre användare har en högre andel flerspråkiga användare än större utgåvor. Ungefär en fjärdedel av flerspråkiga användare redigerar alltid samma artiklar på flera språk, medan drygt 40 % av flerspråkiga användare redigerar olika artiklar på olika språk. När icke-engelska användare redigerar en andra språkutgåva, är den utgåvan oftast engelska. Det finns dock flera regionala och språkliga korsredigeringsmönster.
I en månad studie av redigeringar till Wikipedia, var japanska en stor outlier med endast 6% av de primära redaktörerna för den japanska utgåvan redigera en andra upplagan REF.
14,027,025
Multilinguals and Wikipedia Editing
{'venue': 'Proceedings of the 6th Annual ACM Web Science Conference, WebSci 2014, ACM', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics']}
81,402
Djupt lärande nätverk har uppnått toppmoderna noggrannheter om datorseende arbetsbelastningar som bildklassificering och objektdetektering. De performantsystem, dock, normalt involverar stora modeller med många parametrar. När de väl har utbildats är en utmanande aspekt för sådana modeller som presterar bäst att använda resursbegränsade inferenssystem – modellerna (ofta djupa nätverk eller breda nätverk eller båda) är beräknande och minnesintensiva. Lågprecisionsnumerik och modellkompression med hjälp av kunskapsdestillering är populära tekniker för att sänka både beräkningskrav och minnesavtryck av dessa utplacerade modeller. I detta dokument studerar vi kombinationen av dessa två tekniker och visar att prestandan hos lågprecisionsnätverk kan förbättras avsevärt genom användning av kunskap destillationstekniker. Vår strategi, Apprentice, uppnår state-of-the-art accuracies med hjälp av ternära precision och 4-bitars precision för varianter av ResNet arkitektur på ImageNet dataset. Vi presenterar tre system med vilka man kan tillämpa teknik för kunskapsdestillering på olika stadier av tåg- och expeditionsledningen.
I REF tillämpas KD även på utbildning i lågprecisionsnät och flera utbildningsprogram studeras.
3,643,430
Apprentice: Using Knowledge Distillation Techniques To Improve Low-Precision Network Accuracy
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
81,403
Med den snabba tillväxten av kunskapsbaser (KBs) på webben blir det allt viktigare att dra full nytta av dem. Att besvara frågor om kunskapsbasen (KB-QA) är ett av de lovande sätten att få tillgång till de stora kunskaperna. Samtidigt som de neurala nätverksbaserade (NN-baserade) metoderna utvecklas, har NN-baserade KB-QA redan uppnått imponerande resultat. Tidigare arbete lade dock inte större vikt vid frågerepresentation, och frågan omvandlas till en fast vektor oberoende av dess kandidatsvar. Denna enkla representationsstrategi är inte lätt att uttrycka korrekt information i frågan. Därför presenterar vi en end-to-end neural nätverksmodell för att representera frågorna och deras motsvarande poäng dynamiskt enligt de olika kandidat svar aspekter via cross-attention mekanism. Dessutom utnyttjar vi den globala kunskapen inom den underliggande KB, som syftar till att integrera den rika KB-informationen i representationen av svaren. Som ett resultat av detta skulle det kunna lindra problemet med "out-of-vokabulary" (OOV), som hjälper korshållningsmodellen att mer exakt representera frågan. De experimentella resultaten om webbfrågor visar hur effektivt det föreslagna tillvägagångssättet är.
Hao och al. REF presenterar en end-to-end neural nätverksmodell för att representera frågorna, vilket förbättrar representationen av frågor via cross-attention mekanism.
3,896,491
An End-to-End Model for Question Answering over Knowledge Base with Cross-Attention Combining Global Knowledge
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,404
Abstract-Med den ökande efterfrågan på videobaserade applikationer, har tillförlitlig förutsägelse av videokvalitet ökat i betydelse. Under de senaste åren har många metoder och mätvärden för videokvalitet föreslagits med varierande komplexitet och noggrannhet. I detta dokument inför vi ett klassificeringssystem för objektiva metoder för bedömning av videokvalitet med fullständig och reducerad referensnivå. Vårt klassificeringssystem klassificerar först en metod utifrån om naturliga visuella egenskaper eller perceptuella (mänskliga visuella system) egenskaper beaktas. Vi subklassificerar vidare naturliga visuella egenskaper metoder i metoder baserade på naturlig visuell statistik eller naturliga visuella egenskaper. Vi subklassificerar perceptuella egenskaper metoder i frekvens-eller pixel-domän metoder. Enligt vårt klassificeringssystem går vi igenom och jämför modellerna för objektiv videokvalitet i medialager för både standardupplösning och högupplöst video. Vi finner att den naturliga visuella statistiken baserad MultiScale-Structural SIMilarity index (MS-SSIM), den naturliga visuella funktionen baserad Video Quality Metric (VQM), och den perceptual spatio-temporal frekvens-domain-baserad MOtion-baserad Video Integrity Evaluation (MOVIE) index ger bästa prestanda för LIVE Video Quality Database. Index Termer-Full-referens metrisk, objektiv videokvalitet, perceptuell videokvalitet, reducerad-referens metrisk.
Granskningen och prestandajämförelsen av videokvalitetsbedömningsmetoder i REF ger endast en klassificering av FR- och RR-metoder.
2,654,767
Objective Video Quality Assessment Methods: A Classification, Review, and Performance Comparison
{'venue': 'IEEE Transactions on Broadcasting', 'journal': 'IEEE Transactions on Broadcasting', 'mag_field_of_study': ['Computer Science']}
81,405
Vi studerar problemet med personlig, interaktiv tagg rekommendation för Flickr: Medan en användare går in / väljer nya taggar för en viss bild, systemet föreslår relaterade taggar till henne, baserat på de taggar som hon eller andra människor har använt i det förflutna tillsammans med (en del av) de taggar som redan skrivits in. De föreslagna taggarna uppdateras dynamiskt med varje ytterligare tagg in/vald. Vi beskriver en ny algoritm, Hybrid, som kan tillämpas på detta problem, och visar att den överträffar tidigare algoritmer. Den har bara en enda kvantifierbar parameter, som vi fann vara mycket robust. Bortsett från denna nya algoritm och dess detaljerade analys är våra viktigaste bidrag i) en ren metod som leder till försiktiga resultatuppskattningar, ii) visar hur klassiska klassificeringsalgoritmer kan tillämpas på detta problem, iii) inför en ny kostnadsåtgärd, som fångar hela taggningsprocessens ansträngningar, iv) tydligt identifierar, när rent lokala system (som endast använder en användares taggningshistorik) kan eller inte kan förbättras genom globala system (med hjälp av allas taggningshistorik).
I REF studerades också problemet med personlig, interaktiv märkningsrekommendation baserat på statistik över taggarnas samtidiga förekomst.
2,398,876
Personalized, interactive tag recommendation for flickr
{'venue': "RecSys '08", 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,406
Lågkostnads konsumentdjupkameror och djupinlärning har möjliggjort rimlig 3D hand pose uppskattning från enstaka djup bilder. I detta dokument presenterar vi ett tillvägagångssätt som uppskattar 3D hand poserar från regelbundna RGB-bilder. Denna uppgift har betydligt fler tvetydigheter på grund av den saknade djupinformationen. I detta syfte föreslår vi ett djupt nätverk som lär sig ett nätverk-implicit 3D articulation tidigare. Tillsammans med upptäckta nyckelpunkter i bilderna ger detta nätverk goda uppskattningar av 3D-posen. Vi introducerar en stor skala 3D hand pose dataset baserat på syntetiska hand modeller för att utbilda inblandade nätverk. Experiment på en mängd olika testuppsättningar, inklusive en om teckenspråksigenkänning, visar genomförbarheten av 3D hand pose uppskattning på enfärgade bilder.
Metoden i REF är en av de första inlärningsbaserade metoderna för att uppskatta 3D-hand posera från en enda RGB-bild.
6,690,105
Learning to Estimate 3D Hand Pose from Single RGB Images
{'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
81,407
Den massiva spridningen av falska nyheter har identifierats som en stor global risk och har påståtts påverka val och hota demokratier. Kommunikations-, kognitiv-, social- och dataforskare arbetar för att studera de komplexa orsakerna till virusspridningen av digital desinformation och för att utveckla lösningar, medan plattformar för sökning och sociala medier börjar använda motåtgärder. Hittills har dock dessa insatser huvudsakligen informerats av anekdotiska bevis snarare än systematiska uppgifter. Här analyserar vi 14 miljoner meddelanden som sprider 400 000 anspråk på Twitter under och efter 2016 års amerikanska presidentkampanj och val. Vi hittar bevis för att sociala robotar spelar en nyckelroll i spridningen av falska nyheter. Konton som aktivt sprider felaktig information är betydligt mer benägna att vara bots. Automatiserade konton är särskilt aktiva i de tidiga spridningsfaserna av viruspåståenden, och tenderar att rikta in sig på inflytelserika användare. Människor är sårbara för denna manipulation, retweeting bots som postar falska nyheter. Framgångsrika källor till falska och partiska påståenden stöds kraftigt av sociala robotar. Dessa resultat tyder på att stävja sociala bots kan vara en effektiv strategi för att minska spridningen av felaktig information online.
Till exempel, Ref analyserar tweets efter den senaste amerikanska presidentvalet och fann bevis för att bots spelade viktiga roller i att sprida falska nyheter.
195,346,137
The spread of fake news by social bots
{'venue': 'Nature Communications, 9: 4787, 2018', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics']}
81,408