src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
häst zebra zebra häst Sommar Vinter vinter vinter vinter sommar Fotografering Van Gogh Cezanne Monet Ukiyo-e Monet Bilder Monet foto foto Monet Figur 1: Med tanke på två oordnade bildsamlingar X och Y, vår algoritm lär sig att automatiskt "översätta" en bild från en till den andra och vice versa. Exempel ansökan (botten): med hjälp av en samling målningar av en berömd konstnär, lära sig att göra en användares fotografi i deras stil. Image-to-image översättning är en klass av vision och grafik problem där målet är att lära sig kartläggningen mellan en ingångsbild och en utgångsbild med hjälp av en utbildning uppsättning av anpassade bildpar. För många uppgifter kommer dock inte parade träningsdata att finnas tillgängliga. Vi presenterar ett tillvägagångssätt för att lära sig översätta en bild från en källkodsdomän X till en måldomän Y i avsaknad av parade exempel. Vårt mål är att lära sig en kartläggning G : X → Y sådan att distributionen av bilder från G(X) är oskiljaktig från distributionen Y med hjälp av en kontradiktorisk förlust. Eftersom denna kartläggning är mycket underkonsekventa, vi par det med en invers kartläggning F : Y → X och införa en cykelkonsistens förlust att push F (G(X)) på X (och vice versa). Kvalitativa resultat presenteras på flera uppgifter där parade träningsdata inte finns, inklusive insamling stil överföring, objekttransfiguration, säsong överföring, fotoförbättring, etc. Kvantitativa jämförelser mot flera tidigare metoder visar hur överlägsen vår strategi är.
I världen av bildgenerering med hjälp av djupt lärande, med hjälp av oparade träningsdata, CycleGAN REF föreslogs att lära sig bild-till-bild översättning från en källa domän X till en måldomän Y.
206,770,979
Unpaired Image-to-Image Translation Using Cycle-Consistent Adversarial Networks
{'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
4,178
Sammanfattning Denna studie presenterar en historisk översikt över den internationella konferensen om mänsklig robotinteraktion (HRI). Den sammanfattar sin tillväxt, internationalisering och samverkan. Rankings för länder, organisationer och författare tillhandahålls. Dessutom görs en analys av den militära finansieringen av HRIS-dokument. Ungefär 20 % av tidningarna finansieras av USA:s militär. Andelen tidningar från USA är omkring 65 % och USA:s dominerande roll ifrågasätts endast av Japans starka ställning, särskilt av ATR:s bidrag.
REF presenterade en historisk översikt över den internationella konferensen om människarobotinteraktion (HRI).
15,050,741
The end of the beginning: a reflection on the first five years of the HRI conference
{'venue': 'Scientometrics', 'journal': 'Scientometrics', 'mag_field_of_study': ['Computer Science', 'Medicine']}
4,179
Abstract-Heterogenous Network (HetNet), där små basstationer (SBS) är tätt utplacerade för att avlasta trafiken från makrobasstationer (BS), identifieras som en nyckellösning för att möta den aldrig tidigare skådade efterfrågan på mobil trafik. Den höga densiteten hos SBS är utformad för högtrafiktimmar och förbrukar en onödigt stor mängd energi under lågtrafiktid. I detta dokument föreslår vi en strategi för aktivering av SBS-systemet som bygger på djup förstärkning och som aktiverar den optimala undergruppen av SBS för att avsevärt minska energiförbrukningen utan att äventyra tjänsternas kvalitet. I synnerhet formulerar vi SBS on/off-problemet till en Markovbeslutsprocess som kan lösas med hjälp av Actor Critic (AC) förstärka inlärningsmetoder. För att undvika oöverkomligt höga beräknings- och lagringskostnader för konventionella tabularbaserade metoder, föreslår vi att använda djupa neurala nätverk för att approximera policy och värdefunktioner i AC-metoden. Dessutom, för att påskynda utbildningsprocessen, antar vi en Deep Deterministic Policy Gradient (DDPG) strategi tillsammans med en ny åtgärd förfining system. Genom omfattande numeriska simuleringar visar vi att det föreslagna systemet i hög grad överträffar de befintliga metoderna både när det gäller energieffektivitet och beräkningseffektivitet. Vi visar också att det föreslagna systemet kan skalas till stora system med polynomkomplexitet i både lagring och beräkning.
Arbetet i REF föreslog en djupt förstärkande inlärningsbaserad BS aktiveringsalgoritm för att erhålla små celler aktiveringsbeslut där små celler driftläge formuleras som en Markov beslutsprocess som fungerar i stor skala och använder statistik snarare än användaraktivitet information.
52,177,154
DRAG: Deep Reinforcement Learning Based Base Station Activation in Heterogeneous Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
4,180
I detta arbete utvecklar vi en teknik för att ta fram kontrafaktiska visuella förklaringar. Med tanke på en "query" bild I för vilken ett visionssystem förutsäger klass c, en kontrafaktisk visuell förklaring identifierar hur jag skulle kunna ändra sådan att systemet skulle mata ut en annan specificerad klass c. För att göra detta, väljer vi en " distraktor" bild I att systemet förutspår som klass c och identifiera rumsliga regioner i I och I sådan att ersätta den identifierade regionen i I med den identifierade regionen i Jag skulle driva systemet mot att klassificera I som c. Vi tillämpar vår strategi för flera bildklassificeringsdata som genererar kvalitativa resultat visar tolkningsbarhet och diskriminativitet av våra kontrafaktiska förklaringar. För att undersöka effektiviteten i våra förklaringar i att undervisa människor, presenterar vi maskinundervisning experiment för uppgiften att finkornig fågel klassificering. Vi finner att användare som utbildats för att särskilja fågelarter klarar sig bättre när de får tillgång till kontrafaktiska förklaringar utöver övningsexempel.
Ref föreslog kontrafaktiska visuella förklaringar som identifierar hur indata skulle kunna ändras så att det underliggande visionssystemet skulle fatta ett annat beslut.
119,309,561
Counterfactual Visual Explanations
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
4,181
Storskaliga Internettjänster kräver en datorinfrastruktur som på lämpligt sätt kan beskrivas som ett datorsystem i lagerstorlek. Kostnaden för att bygga datacenteranläggningar som kan leverera en viss kraftkapacitet till en sådan dator kan konkurrera med de återkommande energiförbrukningskostnaderna själva. Därför finns det starka ekonomiska incitament för att driva anläggningar så nära maximal kapacitet som möjligt, så att de icke återkommande kostnaderna för anläggningen kan skrivas av på bästa sätt. Detta är svårt att uppnå i praktiken på grund av osäkerhet i fråga om utrustningseffektklassificeringar och på grund av att energiförbrukningen tenderar att variera avsevärt med den faktiska datorverksamheten. Effektiva strategier för kraftförsörjning behövs för att avgöra hur mycket datorutrustning som kan hanteras på ett säkert och effektivt sätt inom en given maktbudget. I detta dokument presenterar vi de sammanlagda energianvändningen egenskaper för stora samlingar av servrar (upp till 15 tusen) för olika klasser av applikationer under en period på cirka sex månader. Dessa observationer gör det möjligt för oss att utvärdera möjligheterna att maximera användningen av den utplacerade kraftkapaciteten hos datacenter, och bedöma riskerna med att överteckna den. Vi finner att även i väljusterade applikationer finns det ett märkbart gap (7 -16 %) mellan uppnådd och teoretisk aggregateffektanvändning på klusternivå (tusentals servrar). Klyftan ökar till nästan 40 % i hela datacenter. Detta rum kan användas för att installera ytterligare beräkningsutrustning inom samma effektbudget med minimal risk för att överskrida den. Vi använder vårt modelleringsramverk för att uppskatta potentialen hos krafthanteringssystem för att minska toppeffekt och energianvändning. Vi finner att möjligheterna till kraft och energibesparingar är betydande, men större på klusternivå (tusentals servrar) än på racknivå (tiotal). Slutligen hävdar vi att systemen måste vara effekteffektiva i hela aktivitetsområdet, och inte bara på toppprestandanivå.
Fläkt et al. rapportera att möjligheterna till energi- och energibesparingar är betydande på klusternivå och därför måste systemen vara energieffektiva i hela sitt verksamhetsområde REF.
10,862,360
Power provisioning for a warehouse-sized computer
{'venue': "ISCA '07", 'journal': None, 'mag_field_of_study': ['Computer Science']}
4,182
Nycklarna gör det möjligt för ett databashanteringssystem att unikt identifiera tuples i en databas. Följaktligen är nyckelklassen av stor betydelse för nästan alla databehandlingsuppgifter. I relationsmodellen för data har nycklar fått stort intresse och är väl förstådda. För effektiv databehandling avviker dock de flesta kommersiella relationsdatabassystem från relationsmodellen. Till exempel, tuples kan innehålla endast partiell information i den meningen att de innehåller så kallade noll värden för att representera ofullständig information. Codds princip om entitetsintegritet säger att varje tuple av varje relation inte får innehålla ett nollvärde på något attribut av den primära nyckeln. Därför, en nyckel över partiella relationer tvingar både unikhet och totalitet av tuples på attributen för nyckeln. På grundval av dessa två krav studerar vi den resulterande klass av nycklar över relationer som tillåter förekomster av Zaniolos null-värde "no-information". Vi visar att samspelet mellan denna klass av nycklar skiljer sig från samspelet mellan klass av nycklar över totala relationer. Vi etablerar en ändlig markaxiomatization, och en algoritm för att bestämma den tillhörande implikationsproblem i linjär tid. Dessutom karakteriserar vi Armstrongs relationer för en godtyckligt given uppsättning nycklar; det vill säga vi ger ett tillräckligt och nödvändigt villkor för en partiell relation för att tillfredsställa en nyckel just när det är underförstått av en given uppsättning nycklar. Vi etablerar också en algoritm som beräknar en Armstrong relation för en godtyckligt given uppsättning nycklar. Medan problemet med att hitta en Armstrong relation för en given nyckel uppsättning är exakt exponentiellt i allmänhet, vår algoritm returnerar en Armstrong relation vars storlek är som mest kvadratisk i storleken av en minimal Armstrong relation. Slutligen löser vi olika frågor som rör den maximala storleken på en familj av icke-redundanta nyckeluppsättningar. Våra resultat bidrar till att överbrygga klyftan mellan den befintliga teorin om databasbegränsningar och databaspraktik.
Konsekvensproblemet för den enda klassen av primära nycklar undersöks i REF.
5,247,694
On Codd Families of Keys over Incomplete Relations
{'venue': 'Comput. J.', 'journal': 'Comput. J.', 'mag_field_of_study': ['Computer Science']}
4,183
Abstrakt. Feature-orienterad programmering (FOP) implementerar programvara produktlinjer genom sammansättning av funktionsmoduler. Den bygger på principerna om en stegvis utveckling. Featuremoduler är avsedda att hänvisa till exakt en produktfunktion och kan bara utöka befintliga implementationer. För att ge mer flexibilitet för att genomföra produktlinjer för programvara föreslår vi deltaorienterad programmering (DOP) som ett nytt programmeringsspråk. En produktlinje representeras av en kärnmodul och en uppsättning deltamoduler. Kärnmodulen ger en implementation av en giltig produkt som kan utvecklas med väletablerade enkla tillämpningstekniker. Deltamoduler anger ändringar som ska tillämpas på kärnmodulen för att implementera ytterligare produkter genom att lägga till, ändra och ta bort kod. Tillämpningsvillkor kopplade till deltamoduler tillåter explicit hantering av kombinationer av funktioner. En produktimplementation för en viss funktionskonfiguration genereras genom att stegvis tillämpa alla deltamoduler med giltigt applikationsvillkor på kärnmodulen. För att utvärdera potentialen hos DOP jämför vi den med FOP, både konceptuellt och empiriskt.
Deltaorienterad programmering REF är ett språkparadigm där en produkt består av deltamoduler som är unika för den.
2,000,112
Delta-oriented programming of software product lines
{'venue': 'IN: PROC. OF 15TH SOFTWARE PRODUCT LINE CONFERENCE (SPLC 2010', 'journal': None, 'mag_field_of_study': ['Computer Science']}
4,184
Abstract-Teknologins utveckling kräver ofta att kompletterande teknik utvecklas, där övergången från IPv4 till IPv6 utgör ett betydande exempel. Utvecklingen av protokollet har fokuserat uppmärksamheten på prestandanivån för tillhörande teknik. Bland de många Internettillämpningarna, inom modern digital kommunikation, skiljer sig VoIP åt i betydelse. I detta dokument presenteras en resultatanalys av VoIP med hjälp av IPv4 och IPv6. Använda OPNET för att simulera protokollen och för att undersöka områden av prestandasvaghet.
Ahmed et al REF tittade på VoIP:s prestanda i IPv4- och IPV6-miljöer.
11,372,214
VoIP Performance Analysis over IPv4 and IPv6
{'venue': None, 'journal': 'International Journal of Computer Network and Information Security', 'mag_field_of_study': ['Computer Science']}
4,185
Bakgrund: Tekniska förbättringar har minskat sekvenseringskostnaderna och därför har storleken och antalet genomiska dataset ökat snabbt. På grund av de lägre kostnaderna produceras nu stora mängder sekvensdata av små till medelstora forskargrupper. Crossbow är ett programvaruverktyg som kan upptäcka enstaka nukleotidpolymorphisms (SNPs) i helgenome sekvensering (WGS) data från en enda person; Crossbow har dock ett antal begränsningar när det tillämpas på flera försökspersoner från storskaliga WGS-projekt. De datalagrings- och CPU-resurser som krävs för storskaliga helgenomsekvenseringsanalyser är för stora för att många kärnanläggningar och enskilda laboratorier ska kunna tillhandahålla. För att möta dessa utmaningar har vi utvecklat Rainbow, ett molnbaserat programvarupaket som kan bidra till automatiseringen av storskaliga WGS-dataanalyser.
Rainbow REF är ett molnbaserat programvarupaket som kan hjälpa till med automatiseringen av storskaliga helgenomsekvenseringsanalyser (WGS).
9,845,397
Rainbow: a tool for large-scale whole-genome sequencing data analysis using cloud computing
{'venue': 'BMC Genomics', 'journal': 'BMC Genomics', 'mag_field_of_study': ['Biology', 'Medicine']}
4,186
Abstract-Recently, betydande förbättring har gjorts på semantiska objekt segmentering på grund av utvecklingen av djupa konvolutionella neurala nätverk (DCNN). Utbildning en sådan DCNN förlitar sig vanligtvis på ett stort antal bilder med pixel-nivå segmentering masker, och att kommentera dessa bilder är mycket kostsamt både när det gäller finansiering och mänskliga insatser. I detta dokument föreslår vi en enkel till komplex (STC) ram där endast bild-nivå annoteringar används för att lära DCNNs för semantisk segmentering. Vi tränar först ett första segmenteringsnätverk som heter Initial-DCNN med översiktskartor över enkla bilder (dvs. de som har en enda kategori av större objekt och ren bakgrund). Dessa soliditetskartor kan automatiskt erhållas genom befintliga nedifrån-och-upp-relevanta objektdetektionsmetoder, där det inte behövs någon övervakningsinformation. Sedan, ett bättre nätverk som kallas Enhanced-DCNN lärs med övervakning från de förutsagda segmentering masker av enkla bilder baserade på Initial-DCNN samt bild-nivå annoteringar. Slutligen används fler pixel-nivå segmentering masker av komplexa bilder (två eller flera kategorier av objekt med rörig bakgrund), som härleds genom att använda Enhanced-DCNN och bildnivå annoteringar, som övervakningsinformation för att lära sig Kraftfull-DCNN för semantisk segmentering. Vår metod använder 40K enkla bilder från Flickr.com och 10K komplexa bilder från PASCAL VOC för att stegvis öka segmenteringsnätverket. Omfattande experimentella resultat på PASCAL VOC 2012-segmenteringsriktmärke visar tydligt överlägsenheten i det föreslagna STC-ramverket jämfört med andra state-of-the-arts.
Wei och Al. REF använde extra bilder med enkla scener och föreslog en enkel till komplex strategi för att gradvis lära sig bättre pixel annotationer.
1,821,165
STC: A Simple to Complex Framework for Weakly-supervised Semantic Segmentation
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence, 2016', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Medicine']}
4,187
Flerpersoner utgör uppskattning i bilder och videor är en viktig men utmanande uppgift med många tillämpningar. Trots de stora förbättringar i mänskliga pose uppskattning möjliggörs av utvecklingen av konvolutionella neurala nätverk, finns det fortfarande en hel del svåra fall där även de state-of-the-art modeller misslyckas med att korrekt lokalisera alla kroppsleder. Detta motiverar behovet av ytterligare förbättringar som tar itu med dessa utmanande fall och som lätt kan tillämpas utöver alla befintliga metoder. I detta arbete introducerar vi en pose förfining nätverk (PoseRefiner) som tar som inmatning både bilden och en given pose uppskattning och lär sig att direkt förutsäga en förfinad pose genom gemensamt resonemang om input-output utrymme. För att nätverket ska lära sig att förfina felaktiga kroppsgemensamma förutsägelser använder vi ett nytt system för dataförstärkning för utbildning, där vi modellerar "hårda" mänskliga pose fall. Vi utvärderar vår strategi på fyra populära storskaliga pose estimering riktmärken såsom MPII Single-and Multi-Person Pose Estimation, PoseTrack Pose Estimation, och PoseTrack Pose Tracking, och rapportera systematisk förbättring över state of the art.
Nyligen, PoseRefiner REF syntetiserar möjliga inmatning poserar och förbättra nätverket för att identifiera felaktiga organ gemensamma förutsägelser och förfina dem.
5,083,876
Learning to Refine Human Pose Estimation
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW)', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW)', 'mag_field_of_study': ['Computer Science']}
4,188
En effektiv strategi för energibesparing i trådlösa sensornätverk är att schemalägga vilointervaller för främmande noder, medan de återstående noderna förblir aktiva för att tillhandahålla kontinuerlig service. För att sensornätverket ska fungera framgångsrikt måste de aktiva noderna upprätthålla både sensortäckning och nätverksanslutning. Dessutom måste nätverket kunna konfigurera sig till alla tänkbara nivåer av täckning och konnektivitet för att stödja olika tillämpningar och miljöer med olika krav. I detta dokument presenteras utformningen och analysen av nya protokoll som dynamiskt kan konfigurera ett nätverk för att uppnå garanterad grad av täckning och konnektivitet. Detta arbete skiljer sig från befintliga konnektivitets- eller täckningsunderhåll protokoll på flera viktiga sätt: 1) Vi presenterar en Coverage Configuration Protocol (CCP) som kan ge olika grader av täckning begärs av applikationer. Denna flexibilitet gör det möjligt för nätverket att självkonfigurera för ett brett spektrum av tillämpningar och (eventuellt dynamiska) miljöer. 2) Vi tillhandahåller en geometrisk analys av förhållandet mellan täckning och konnektivitet. Denna analys ger viktiga insikter för att behandla täckning och konnektivitet inom en enhetlig ram: detta står i skarp kontrast till flera befintliga metoder som hanterar de två problemen isolerat. 3) Slutligen integrerar vi CCP med SPAN för att ge både täckning och konnektivitetsgarantier. Vi demonstrerar våra protokolls förmåga att ge garanterad täckning och konnektivitetskonfigurationer, både genom geometrisk analys och omfattande simuleringar.
I REF, Wang et al. Föreslå protokoll för täcknings- och konnektivitetskonfiguration (CCP) som försöker maximera antalet sovnoder samtidigt som k-täckning och k-anslutning bibehålls.
269,391
Integrated coverage and connectivity configuration in wireless sensor networks
{'venue': "SenSys '03", 'journal': None, 'mag_field_of_study': ['Computer Science']}
4,189
Trots genombrotten i noggrannhet och hastighet av enkelbild super-upplösning med hjälp av snabbare och djupare konvolutionella neurala nätverk, återstår ett centralt problem i stort sett olöst: hur kan vi återställa de finare textur detaljer när vi super-löser på stora uppskalningsfaktorer? Uppförandet av optimeringsbaserade superupplösningsmetoder drivs främst av valet av den objektiva funktionen. Den senaste tidens arbete har till stor del fokuserat på att minimera det genomsnittliga kvadratrekonstruktionsfelet. De resulterande uppskattningarna har hög signal-till-brusförhållande, men de saknar ofta högfrekvensdetaljer och är perceptuellt otillfredsställande i den meningen att de inte matchar den trohet som förväntas vid den högre upplösningen. I denna artikel presenterar vi SRGAN, ett generativt kontradiktoriskt nätverk (GAN) för bildsuperupplösning (SR). Till vår kunskap är det den första ramen som kan sluta sig till fotorealistiska naturliga bilder för 4× upscaling faktorer. För att uppnå detta föreslår vi en perceptuell förlustfunktion som består av en kontradiktorisk förlust och en innehållsförlust. Den kontradiktoriska förlusten driver vår lösning till det naturliga bildgrenröret med hjälp av ett discriminatornätverk som är tränat för att skilja mellan de superupplösta bilderna och de ursprungliga fotorealistiska bilderna. Dessutom använder vi en innehållsförlust som motiveras av perceptuell likhet istället för likhet i pixelutrymme. Vårt djupa resterande nätverk kan återställa fotorealistiska texturer från kraftigt nedplockade bilder på offentliga riktmärken. En omfattande medel-opinion-score (MOS) test visar enormt betydande vinster i perceptuell kvalitet med hjälp av SRGAN. MOS poäng som erhållits med SRGAN är närmare de ursprungliga högupplösta bilder än de som erhållits med någon toppmodern metod.
För att ta itu med detta problem, Ledig m.fl. Ref föreslog först en perceptuell förlustfunktion som består av en kontradiktorisk förlust för att driva sin lösning på det naturliga bildgrenröret, och en innehållsförlust för bättre rekonstruktion av högfrekvensdetaljer.
211,227
Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial Network
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
4,190
I detta dokument presenterar vi en halvautomatisk strategi för att kommentera semantisk information i biomedicinska texter. Informationen används för att bygga en biomedicinsk propositionsbank som heter BioProp. Liksom PropBank i newwire domänen, BioProp innehåller annoteringar av predikat argument strukturer och semantiska roller i en trädbank schema. För att konstruera BioProp används ett semantiskt rollmärkningssystem (SRL) som är utbildat på PropBank för att kommentera BioProp. Felaktiga märkningsresultat korrigeras sedan av mänskliga annoterare. För att passa behoven inom det biomedicinska området ändrar vi riktlinjerna för PropBank-anmärkning och karakteriserar semantiska roller som komponenter i biologiska händelser. Metoden kan avsevärt minska notationsinsatserna, och vi inför ett mått på en övre gräns för att spara notationsinsatser. Hittills har metoden tillämpats experimentellt på en 4 389-sentence trädbank corpus för byggandet av BioProp. Inter-annotator överenskommelse mätt med kappa statistik når.95 för kombinerat beslut om roll identifiering och klassificering när alla argument etiketter beaktas. Dessutom visar vi att när vi utbildar oss på BioProp uppnår vårt biomedicinska SRL-system, BIOSMILE, en F-poäng på 87 %.
Andra experiment gör användning av preannoterad information utan att tillämpa aktiva inlärningsmetoder, som REF som använder en semantisk roll märkning verktyg utbildad på PropBank för att pretagera en biomedicinsk corpus kallas BioProp.
13,273,377
A Semi-Automatic Method For Annotating A Biomedical Proposition Bank
{'venue': 'Workshop On Frontiers In Linguistically Annotated Corpora', 'journal': None, 'mag_field_of_study': ['Computer Science']}
4,191
Kobuchi-Philip, Mana. Europaparlamentets och rådets förordning (EU, Euratom) nr 966/2012 av den 25 oktober 2012 om finansiella regler för unionens allmänna budget och om upphävande av rådets förordning (EG, Euratom) nr 1605/2002 (EUT L 298, 26.10.2012, s. 1). Odeterminera Numeriska Kvantifieringar, "Några" och "Många" Avläsningar, och Frågor på japanska. Korean Journal of Linguistics, 35, Den japanska obestämbara numeral kvantifiern (WH-CL) kan direkt kombineras med en kvantifieringspartikel ka eller mo, bildande, t.ex. nan-nin-ka 'vad-CL person -KA' eller nan-nin-mo 'vad-CL person -MO'. Detta dokument fokuserar på empiriska bevis för att den förra ger upphov till en "vissa" läsning medan den senare en "många" läsning, och diskuterar, ur semantiska och pragmatiska perspektiv, hur dessa avläsningar formellt härleds. Semantiskt, vi antar, i enlighet med Hamblin (1973), att den obestämda numeriska kvantifier (NQ) är en uppsättning av alternativ. Efter Jayaseelan (2001) behandlas ka som en diskonteringsoperatör som tar en uppsättning alternativ och producerar en diskontering av det. Genom att anta Shimoyamas direkta begränsande syn på obestämt kvantifiering av frasen kan vi härleda den "vissa" tolkningen av det obestämbara NQ-ka. Däremot tillskrivs den "många" läsningen av en obestämd NQ-mo de pragmatiska av mo, som utlöser en presupposition som engelska även (Karttunen och Peters 1979). (Utrecht University)
I REF fokuserade en studie på empiriska bevis för obestämd kvantifiering, och antog att det var en uppsättning alternativ med en "vissa" läsning eller en "många" läsning.
10,040,978
Indeterminate Numeral Quantifiers, 'Some' and 'Many' Readings, and Questions in Japanese
{'venue': None, 'journal': 'Korean Journal of Linguistics', 'mag_field_of_study': ['Mathematics']}
4,192
Utforska det automatiserade förvärvandet av kunskap i biomedicinska och kliniska dokument med hjälp av textutvinning och statistiska tekniker för att identifiera sjukdomsläkemedelsföreningar. Design: Biomedicinsk litteratur och kliniska berättelser från patientjournalen minerades för att samla kunskap om sjukdomsläkemedelsföreningar. Två NLP-system, BioMedLEE och MedLEE, tillämpades på Medline-artiklar respektive sammanfattningar av utsläpp. Sjukdomar och narkotikaenheter identifierades med hjälp av NLP-systemen utöver MeSH-anteckningar för Medline-artiklarna. Med fokus på åtta sjukdomar användes co-occurence statistik för att beräkna och utvärdera styrkan i sambandet mellan varje sjukdom och relevanta läkemedel. Resultat: Rankade listor över sjukdomsläkemedel par genererades och cutoffs beräknas för att identifiera starkare associationer bland dessa par för ytterligare analys. Skillnader och likheter mellan textkällorna (dvs. biomedicinsk litteratur och patientjournal) och annoteringar (dvs. MeSH- och NLP-extraherade UMLS-begrepp) med avseende på kunskap om sjukdomsläkemedel observerades. I detta dokument presenteras en metod för att förvärva sjukdomsspecifika kunskaper och en genomförbarhetsstudie av metoden. Metoden bygger på att tillämpa en kombination av NLP och statistiska tekniker på både biomedicinska och kliniska dokument. Tillvägagångssättet möjliggör utvinning av kunskap om de läkemedel kliniker använder för patienter med specifika sjukdomar baserade på patientjournalen, medan det också förvärvas kunskap om läkemedel som ofta deltar i kontrollerade prövningar för samma sjukdomar. Vid jämförelsen av sjukdomsläkemedelsföreningarna fann vi att resultaten var lämpliga: de två textkällorna innehöll konsekventa och kompletterande kunskaper, och en medicinsk experts manuella granskning av de fem främsta sjukdomsläkemedelsföreningarna stödde deras korrekthet i alla sjukdomar. Klinisk kunskap utvecklas ständigt i takt med att nya upptäckter görs och praxis förändras. Denna kunskap är värdefull men ofta begravd i text inom en rad källor såsom tidskriftsartiklar och kliniska berättelser i patientjournalen. Genom automatiserade metoder, information i samband med sjukdomar kan extraheras och integreras från dessa olika textkällor för att förstå de olika egenskaperna hos sjukdomar (t.ex., behandling eller symtom 1-3 ) och hur de kan förändras med tiden. Tillgången till aktuella sjukdomsprofiler kan vara värdefull för en mängd olika tillämpningar, inklusive beslutsstöd (t.ex. rekommendationsbehandlingar), kvalitetssäkring (t.ex. inter- och interinstitutionell granskning), kliniska informationsbehov (t.ex. svar på kliniska frågor), informationshämtning (t.ex. klassificeringsdokument) och datautvinning (t.ex. hypotesupptäckt). Litteratur i randomiserade kontrollerade studier (RCT) rapporterar om resultaten av testning av en eller flera behandlingar såsom läkemedel, apparater eller förfaranden som studeras för diagnostisk, terapeutisk eller profylaktisk effektivitet. 4 Patientjournaler återspeglar praxis inom en institution och ger patientspecifik information såsom tidigare och nuvarande sjukdomar eller läkemedel. Med tanke på dessa kontrasterande roller kan dessa textkällor erbjuda värdefull kompletterande sjukdomsspecifik kunskap. Behandling av naturligt språk (NLP) har visat sig underlätta uppgiften att extrahera information och förhållandet mellan information som fångas i text.
E. S. Chen, et.al, föreslog en automatiserad sjukdom förvärv av sjukdomsläkemedel kunskap från biomedicinska dokument REF.
4,007,031
Automated Acquisition of Disease–Drug Knowledge from Biomedical and Clinical Documents: An Initial Study
{'venue': 'Journal of the American Medical Informatics Association : JAMIA', 'journal': 'Journal of the American Medical Informatics Association : JAMIA', 'mag_field_of_study': ['Computer Science', 'Medicine']}
4,193
Abstrakt. Naturliga språkgränssnitt är allt mer relevanta för informationssystem som fronterar rika strukturerade datalager som RDF och OWL-databaser, främst på grund av att de är intuitiva för människor. I det tidigare arbetet utvecklade vi FREyA, ett interaktivt naturligt språkgränssnitt för att fråga ut ontologier. Den använder syntaktisk tolkning i kombination med ontologibaserad uppslagning för att tolka frågan, och involverar användaren vid behov. Användarens val används för att träna systemet för att förbättra dess prestanda över tid. I det här dokumentet diskuterar vi FREyA:s lämplighet att fråga ut länkade öppna data. Vi rapporterar dess prestanda i termer av precision och återkalla med hjälp av MusicBrainz och DBpedia dataset.
FREyA REF är ett naturligt språkgränssnitt för att fråga ontologier.
883,365
FREyA: an Interactive Way of Querying Linked Data Using Natural Language
{'venue': 'ESWC Workshops', 'journal': None, 'mag_field_of_study': ['Computer Science']}
4,194
Vi presenterar ett prestandastyrt ansiktsanimeringssystem i realtid baserat på 3D-form regression. I detta system, 3D positioner av ansikts landmärkespunkter härleds av en regressator från 2D-videoramar av en vanlig webbkamera. Från dessa 3D-punkter återvinns ansiktsställning och ansiktsuttryck genom att montera en användarspecifik mixshapemodell på dem. Det viktigaste tekniska bidraget av detta arbete är 3D regressionsalgoritm som lär sig en exakt, användarspecifik modell för ansiktsjustering från en lätt förvärvad uppsättning träningsdata, genererad från bilder av användaren som utför en sekvens av fördefinierade ansiktsställningar och uttryck. Experiment visar att vårt system exakt kan återställa 3D-ansiktsformer även för snabba rörelser, icke-frontala ansikten och överdrivna uttryck. Dessutom visas en viss förmåga att hantera partiella ocklusioner och ändrade ljusförhållanden.
Cao m.fl. REF utnyttjade en 3D regressionsalgoritm som lär sig en exakt, användarspecifik modell för ansiktsjustering från en lätt förvärvad uppsättning utbildningsdata, genererad från bilder av användaren som utför en sekvens av fördefinierade ansiktsställningar och uttryck.
2,818,777
3D shape regression for real-time facial animation
{'venue': 'TOGS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
4,195
Abstract-Vi presenterar Flash översvämningsprotokoll för snabba nätverk översvämningar i trådlösa sensornätverk. Traditionella översvämning protokoll kan vara mycket långsam på grund av tvist i grannskapet: noder kan inte propagera översvämningen tills angränsande noder har avslutat sina sändningar. Flash översvämningar protokollet undviker detta problem genom att tillåta samtidiga överföringar bland angränsande noder. Den förlitar sig på fånga effekten för att säkerställa att varje nod får översvämningen från åtminstone en av sina grannar, och introducerar nya tekniker för att antingen återhämta sig från eller förhindra alltför många samtidiga överföringar. Vi utvärderar Flash översvämningar protokoll på både en 48-node trådlösa sensor nätverk testbädd och i en spårbaserad simulator. Våra resultat visar att Flash översvämningsprotokollet kan minska latens med så mycket som 80%, uppnå översvämningar latens nära den teoretiska lägre gränsen utan att offra täckning, tillförlitlighet eller strömförbrukning.
Flash REF bygger istället bara på fånga effekter för snabba översvämningar i trådlösa sensornätverk.
8,220,313
Flash Flooding: Exploiting the Capture Effect for Rapid Flooding in Wireless Sensor Networks
{'venue': 'IEEE INFOCOM 2009', 'journal': 'IEEE INFOCOM 2009', 'mag_field_of_study': ['Computer Science']}
4,196
Vi utforskar effekten av att införa tidigare information i den mellanliggande nivån av djupt övervakade neurala nätverk för en inlärning uppgift som alla svart-box state-of-the-art maskininlärning algoritmer testat har misslyckats med att lära sig. Vi motiverar vårt arbete utifrån hypotesen att det finns ett optimeringshinder i karaktären av sådana uppgifter, och att människor lär sig användbara mellanliggande begrepp från andra individer via en form av handledning eller vägledning med hjälp av en läroplan. Experimenten vi har utfört ger positiva bevis till förmån för denna hypotes. I våra experiment tränas en tvådelad MLP-arkitektur på ett dataset där varje bildingång innehåller tre figurer, och den binära målklassen är 1 om alla tre har samma form. Black-box maskininlärning algoritmer fick bara chansen på denna uppgift. Standard djupövervakade neurala nätverk misslyckades också. Genom att använda en särskild struktur och vägleda eleven genom att tillhandahålla mellanliggande mål i form av mellanliggande begrepp (närvaron av varje objekt) gör det dock möjligt att spika upp uppgiften. Mycket bättre än slumpen men ofullkomliga resultat uppnås också genom att utforska arkitektur och optimeringsvarianter, pekar mot en svår optimering uppgift. Vi antar att inlärningssvårigheter beror på sammansättningen av två mycket icke-linjära uppgifter. Våra resultat stämmer också överens med hypoteser om kulturellt lärande som inspirerats av observationer av effektiva lokala minima (eventuellt på grund av dålig konditionering och utbildningsförfarandet att inte kunna undkomma vad som verkar som ett lokalt minimum). Nyckelord: Deep Learning, Neural Networks, Optimization, Evolution of Culture, Curriculum Learning, Training with Hints Det finns ett nyligen utvecklat intresse för olika vetenskapsområden för kulturellt lärande (Henrich och McElreath, 2003) och hur grupper av individer som utbyter information kan lära sig på sätt som är överlägsna det individuella lärandet. Detta framgår också av framväxten av nya forskningsområden som "Social neurovetenskap". Att lära av andra aktörer i en miljö genom kulturell kunskapsöverföring med en peer-to-peer-kommunikation är ett effektivt och naturligt sätt att förvärva eller sprida gemensam kunskap. Den mest populära uppfattningen om hur informationen överförs mellan individer är att bitar av information överförs av små enheter, kallade memes, som delar vissa egenskaper hos gener, såsom själveplikering, mutation och respons på selektiva tryck (Dawkins, 1976 Denna uppsats är baserad på hypotesen (som vidareutvecklas i Bengio (2013a)) att mänsklig kultur och idéutvecklingen har varit avgörande för att motverka en optimeringsfråga: denna svårighet skulle annars göra det svårt för mänskliga hjärnor att fånga kunskap på hög nivå i världen utan hjälp av andra utbildade människor. I detta papper maskininlärning experiment används för att undersöka vissa delar av denna hypotes genom att söka svar på följande frågor: Finns det maskininlärning uppgifter som är i sig svårt för en ensam lärande agent men som kan bli mycket lätt när mellanliggande begrepp tillhandahålls av en annan agent som ytterligare mellanliggande lärande ledtrådar, i andan av Curriculum Learning (Bengio et al., 2009b)? Vad är det som gör det svårare att lära sig sådant? Kan specifika initialvärden av neurala nätverksparametrar ge framgång när slumpmässig initiering ger fullständigt misslyckande? Är det möjligt att bekräfta att problemet är ett optimeringsproblem eller med ett legaliseringsproblem? Dessa är de frågor som diskuteras (om inte helt behandlas) här, som relaterar till följande bredare fråga: hur kan människor (och eventuellt en dag, maskiner) lära sig komplexa begrepp? I detta papper, resultat av olika maskininlärning algoritmer på en konstgjord inlärning uppgift som omfattar binära 64×64 bilder presenteras. I den uppgiften innehåller varje bild i datasetet 3 Pentomino tetris sprites (enkla former). Uppgiften är att räkna ut om alla figurer i bilden är samma eller om det finns olika figur former i bilden. Flera toppmoderna maskininlärningsalgoritmer har testats och ingen av dem kunde prestera bättre än en slumpmässig prediktor på testuppsättningen. Icke desto mindre genom att ge tips om de mellanliggande begreppen (närvaron och placeringen av vissa sprite klasser), problemet kan lätt lösas där samma-arkitektur neurala nätverk utan de mellanliggande begreppen vägledning misslyckas. Förvånansvärt nog misslyckades våra försök att lösa detta problem med oövervakade förutbildningsalgoritmer med att lösa detta problem. Men med specifika variationer i nätverksarkitekturen eller utbildningsproceduren kan man konstatera att man kan göra en stor buckla i problemet. För att visa effekten av mellannivå vägledning, experimenterade vi med en två-gradig neurala nätverk, med övervakad förutbildning av den första delen för att känna igen kategorin av sprites oberoende av deras orientering och skala, på olika platser, medan den andra delen lär sig från utgången av den första delen och förutspår den binära uppgiften av intresse. Syftet med detta dokument är inte att föreslå en ny inlärningsalgoritm eller arkitektur, utan snarare att förfina vår förståelse av inlärningssvårigheterna i samband med sammansatta uppgifter (här en logisk formel som består av upptäckt av objektklasser), särskilt de utbildningssvårigheter som är förknippade med djupa neurala nätverk. Resultaten ger också empiriska bevis till förmån för några av de hypoteser från Bengio (2013a), som diskuteras nedan, samt införa en särskild form av läroplanslärande (Bengio et al., 2009b). Att bygga svåra AI-problem har en lång historia inom datavetenskap. Särskilt hårda AI-problem har studerats för att skapa CAPTCHA:s som är lätta att lösa för människor, men svåra att lösa för maskiner (Von Ahn et al., 2003). I detta papper undersöker vi ett svårt problem för de off-the-shälf Black-box maskin lärande algoritmer. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning.
Gülçehre och Bengio stöder empiriskt Mitchells idéer genom att undersöka arten av utbildningsbarriärer som påverkar generaliseringen av Black-box maskininlärningsalgoritmer REF.
2,745,955
Knowledge Matters: Importance of Prior Information for Optimization
{'venue': 'ICLR', 'journal': 'CoRR', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
4,197
Abstract-Caching multimediafiler vid nätverkskanten har identifierats som en viktig teknik för att förbättra användarnas kvalitet på tjänsten (QoS), samtidigt som redundant överföring över kapacitetsbegränsade backhauls. I små cellnät beror dock effektiviteten i en cachingpolicy på små basstationers förmåga att förutse efterfrågan från användarutrustningen. I detta dokument föreslår vi en samverkande filtrering (CF) system för att uppskatta den nödvändiga backhaul användning vid varje SBS, genom att bryta cachability av UEs fil begäran. I det föreslagna tillvägagångssättet har varje SBS ett tvåfaldigt mål: uppdatera bandbreddstilldelningen baserat på det uppskattade backhaul-utnyttjandet och, med tanke på den nuvarande bandbreddstillgången, identifiera vilka UE som ska användas. Vi formulerar problemet som ett en-till-många matchande spel mellan SBS och UEs, och vi föreslår en ny cache-medveten användarförening algoritm som minimerar backhaul användning vid varje SBS, med förbehåll för individuella QoS krav. Simuleringsresultat, baserade på realtidsloggar för förfrågningar om tjänster, har visat att den föreslagna CF-baserade lösningen kan ge betydande vinster i form av backhaul effektivitet och cache hit-ratio, nå upp till 25 %, med en maximal lucka på 9 % till en optimal cache-medveten associationsteknik.
I REF är problemet med cache-medveten användarförening formulerat som ett en-till-många spel och målet är att minimera backhaul användning vid varje SBS.
9,120,502
Match to cache: Joint user association and backhaul allocation in cache-aware small cell networks
{'venue': '2015 IEEE International Conference on Communications (ICC)', 'journal': '2015 IEEE International Conference on Communications (ICC)', 'mag_field_of_study': ['Computer Science']}
4,198
ABSTRACT Gene uttryck microarray experiment kan generera datamängder med flera saknade uttryck värden. Tyvärr kräver många algoritmer för genuttrycksanalys en komplett matris av genmatrisvärden som ingång. Till exempel, metoder som hierarkisk klusterbildning och K-means klusterbildning är inte robusta för att sakna data, och kan förlora effektivitet även med några saknade värden. Metoder för att tillskriva saknade data behövs därför för att minimera effekten av ofullständiga datamängder på analyser och för att öka antalet datamängder på vilka dessa algoritmer kan tillämpas. I denna rapport undersöker vi automatiserade metoder för att uppskatta saknade data. Resultat: Vi presenterar en jämförande studie av flera metoder för uppskattning av saknade värden i genmikroarray data. Vi implementerade och utvärderade tre metoder: en Singular Value Decomposition (SVD) baserad metod (SVDimpute), viktade K-nearest grannar (KNimpute), och rad genomsnitt. Vi utvärderade metoderna med hjälp av en mängd olika parameterinställningar och över olika verkliga datamängder, och bedömde robustheten hos imputeringsmetoderna till mängden saknade data inom intervallet 1-20% saknade värden. Vi visar att KNimpute verkar ge en mer robust och känslig metod för saknad värdeuppskattning än SVDimpute, och både SVDimpute och KNNimpute överträffar den allmänt använda radgenomsnittsmetoden (samt fylla saknade värden med nollor). Vi rapporterar resultat av jämförande experiment och ger rekommendationer och verktyg för korrekt uppskattning av saknade mikroarray data under en mängd olika förhållanden.
Till exempel jämförde Troyanskaya och medarbetare REF två metoder Knearest Neighbors (KNImpute) och singular value decomposition (SVD).
1,105,917
Missing value estimation methods for DNA microarrays
{'venue': 'Bioinformatics', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Medicine']}
4,199
Vi presenterar en ordbok attack som är baserad på tangentbord akustiska emanationer. Vi kombinerar signalbehandling och effektiva datastrukturer och algoritmer, för att framgångsrikt rekonstruera enstaka ord av 7-13 tecken från en inspelning av de klick som görs när du skriver dem på ett tangentbord. Vår attack kräver ingen träning, och fungerar på en individuell inspelning av det skrivna ordet (kan vara under 5 sekunder av ljud). Attacken är mycket effektiv, tar under 20 sekunder per ord på en vanlig PC. Vi visar en 90% eller bättre framgång att hitta rätt ord i de 50 bästa kandidater som identifierats av attacken, för ord av 10 eller fler tecken, och en framgångsgrad på 73% över alla ord vi testade. Vi visar att de dominerande faktorerna som påverkar attackens framgång är ordets längd, och ännu viktigare, antalet upprepade tecken i ordet. Vår attack kan användas som en effektiv akustiskt baserad lösenordskex. Vår attack kan också användas som en del av en akustisk långtextrekonstruktionsmetod, som är mycket effektivare och kräver mycket mindre text än tidigare metoder.
Berger m.fl. REF visar att genom att använda språkliga modeller och inspelade skriva ljud på ett tangentbord, en angripare kan framgångsrikt rekonstruera de skrivna orden.
2,596,394
Dictionary attacks using keyboard acoustic emanations
{'venue': "CCS '06", 'journal': None, 'mag_field_of_study': ['Computer Science']}
4,200
Nätverk och länkade data har blivit ganska vanligt förekommande under de senaste åren på grund av att webb- och sociala medietillämpningar är allmänt förekommande, och att de i sig är nätverksorienterade. Sådana nätverk är massiva, dynamiska, innehåller en hel del innehåll, och kan utvecklas över tiden i termer av den underliggande strukturen. I detta dokument kommer vi att studera problemet med en dynamisk kopplingsslutsats i tidsbundna och heterogena informationsnät. Problemet med dynamisk länkslutledning är extremt utmanande i massiva och heterogena informationsnätverk på grund av de utmaningar som är förknippade med nätverkets dynamiska karaktär och de olika typerna av noder och attribut i det. Både topologi och typinformation måste användas effektivt för länkslutprocessen. Vi föreslår ett effektivt system på två nivåer som gör effektiva makro- och mikrobeslut för att kombinera struktur och innehåll på ett dynamiskt och tidskänsligt sätt. Kopplingarnas tidskänsliga karaktär utnyttjas för att göra en effektiv kopplingsförutsägelse. Vi illustrerar effektiviteten i vår teknik över ett antal verkliga datamängder.
Aggarwal m.fl. REF tar itu med problemet med kopplingsprognoser i både dynamiska och heterogena informationsnätverk med hjälp av en dynamisk klusterstrategi tillsammans med innehållsbaserade och strukturella modeller.
3,899,840
On Dynamic Link Inference in Heterogeneous Networks
{'venue': 'SDM', 'journal': None, 'mag_field_of_study': ['Computer Science']}
4,201
Under de senaste åren har hantering och behandling av så kallade dataströmmar blivit ett ämne för aktiv forskning inom flera områden inom datavetenskap, t.ex. distribuerade system, databassystem och datautvinning. En dataström kan grovt ses som en övergående, ständigt ökande sekvens av tidsstämplade data. I detta dokument överväger vi problemet med att samla parallella strömmar av verkligt värderade data, det vill säga kontinuerligt evolverande tidsserier. Med andra ord, vi är intresserade av att gruppera data strömmar utvecklingen över tiden som är liknande i en specifik mening. För att upprätthålla en uppdaterad klusterstruktur, är det nödvändigt att analysera inkommande data på ett online sätt, tolerera inte mer än en konstant tidsfördröjning. För detta ändamål utvecklar vi en effektiv online-version av den klassiska K-means klusteralgoritmen. Vår metods effektivitet beror främst på en skalbar online-omvandling av originaldata som möjliggör en snabb beräkning av ungefärliga avstånd mellan strömmar.
En klusteralgoritm för parallella strömmar av kontinuerligt föränderliga tidsseriedata föreslås i REF.
10,622,361
Online clustering of parallel data streams
{'venue': 'In press for Data & Knowledge Engineering', 'journal': None, 'mag_field_of_study': ['Computer Science']}
4,202
I detta dokument undersöker vi hur schablonberäkningar kan genomföras på state-of-the-art allmänna ändamål grafik bearbetningsenheter (GPGPU). Stencilkoder finns i kärnan av många numeriska lösare och fysiska simuleringskoder och är därför av särskilt intresse för vetenskaplig dataforskning. GPGPUs har fått mycket uppmärksamhet nyligen på grund av deras överlägsna flyttalsprestanda och minnesbandbredd. Icke desto mindre, särskilt minnesbundna schablonkoder har visat sig vara utmanande för GPGPUs, vilket ger lägre än man kan förvänta sig uppfarter. Vi valde Jacobi-metoden som standardriktmärke för att utvärdera en uppsättning algoritmer på NVIDIA:s senaste Fermi chipset. En av våra snabbaste algoritmer är en parallell uppdatering av vågfronten. Det utnyttjar den förstorade on-chip delade minne för att utföra två gånger steg uppdateringar per svep. Såvitt vi vet representerar det den första framgångsrika tillämpningen av tidsblockering för 3D-stenciler på GPGPU och därmed överträffar tidigare resultat med en betydande marginal. Det är också den första uppsatsen att studera stencilkoder på Fermi.
Schäffer och Fey REF utvärderar en uppsättning algoritmer på Fermi GPUs.
13,846,026
High Performance Stencil Code Algorithms for GPGPUs
{'venue': 'ICCS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
4,203
Det grundläggande problem som vi står inför är att en mängd stora problem inom säkerhet, allmän säkerhet, energi, ekologi, hälso- och sjukvård och grundläggande vetenskap kräver att vi behandlar och förstår allt större mängder och mångfald av data. Det finns en växande impedans missmatchning mellan datastorlek/komplexitet och människans förmåga att förstå och interagera med data. Visuella analytiska verktyg är avsedda att bidra till att minska denna impedans missmatchning genom att använda analytiska verktyg för att minska mängden data som måste ses, och visualiseringsverktyg för att hjälpa till att förstå mönster och relationer i den reducerade data. Men visuella analysverktyg måste ta itu med en mängd olika skalbarhetsproblem om de ska lyckas. I den här artikeln karakteriserar vi skalbarheten och komplexiteten i visuell analys. Vi diskuterar några höjdpunkter på de framsteg som har gjorts under de senaste fem åren, liksom viktiga områden där det behövs fler framsteg.
Som påpekades i REF skulle människans förmåga att förstå och interagera med en stor mängd data kunna ökas med hjälp av visuella analysverktyg.
5,827,406
Scale and Complexity in Visual Analytics
{'venue': None, 'journal': 'Information Visualization', 'mag_field_of_study': ['Computer Science']}
4,204
Sammanfattning -Detta papper introducerar en ny Gabor-Fisher Classifier (GFC) för ansiktsigenkänning. GFC-metoden, som är robust för förändringar i belysning och ansiktsuttryck, tillämpar Enhanced Fisher linjära discriminant Model (EFM) på en förstärkt Gabor-funktionsvektorn som härleds från Gabor-vågen representation av ansiktsbilder. Nytt av detta dokument kommer från i) härledning av en förstärkt Gabor-funktion vektor, vars dimensionalitet minskas ytterligare med hjälp av EFM genom att beakta både datakomprimering och igenkänning (generalization) prestanda; ii) utveckling av en Gabor-Fisher klassificerare för multi-class problem; och iii) omfattande prestanda utvärderingsstudier. I synnerhet har vi genomfört jämförande studier av olika likhetsåtgärder som tillämpas på olika klassificeringar. Vi utförde också jämförande experimentella studier av olika system för ansiktsigenkänning, inklusive vår nya GFC-metod, Gabor-vågmetoden, Eigenfaces-metoden, Fisherfaces-metoden, EFM-metoden, kombinationen av Gabor och Eigenfaces-metoden, samt kombinationen av Gabor och Fisherfaces-metoden. Genomförbarheten av den nya GFC-metoden har framgångsrikt testats på ansiktsigenkänning med 600 FERET frontalbilder motsvarande 200 försökspersoner, som förvärvades under variabel belysning och ansiktsuttryck. Den nya GFC-metoden uppnår 100% noggrannhet på ansiktsigenkänning med endast 62 funktioner. Chengjun Liu är med
Liu REF använde Gabor wavelet för att koda ansiktsuttryck.
1,957,996
Gabor Feature Based Classification Using the Enhanced Fisher Linear Discriminant Model for Face Recognition
{'venue': 'ICPR (2)', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science', 'Medicine']}
4,205
Nätverksvirtualisering ger ett lovande verktyg för att flera heterogena virtuella nätverk ska kunna köras på ett gemensamt substratnätverk samtidigt. En långvarig utmaning i nätverksvirtualisering är problemet med Virtual Network Embedding (VNE): hur man inbäddar virtuella nätverk på specifika fysiska noder och länkar i substratnätverket på ett effektivt sätt. Ny forskning presenterar flera heuristiska algoritmer som endast betraktar enstaka topologiska attribut av nätverk, vilket kan leda till minskat utnyttjande av resurser. I detta dokument introducerar vi sex kompletterande egenskaper som återspeglar olika topologiska attribut och föreslår tre topologimedvetna VNE-algoritmer genom att utnyttja respektive fördelar med olika egenskaper. Dessutom är en ny KS-kärna sönderdelningsalgoritm baserad på två egenskaper utformad för att bättre reda ut den hierarkiska topologiska strukturen i virtuella nätverk. På grund av det övergripande övervägandet av topologiska attribut för substrat och virtuella nätverk genom att använda flera egenskaper, vår studie bättre samordnar nod och länk inbäddning. Omfattande simuleringar visar att våra föreslagna algoritmer förbättrar den långsiktiga genomsnittliga intäkten, acceptanskvoten och intäkts-/kostnadsförhållandet jämfört med tidigare algoritmer.
Liao m.fl. i REF överväga topologi attribut för substrat och virtuella nätverk genom flera egenskaper för att bättre samordna nod och länk inbäddning.
3,575,932
Topology-aware Virtual Network Embedding Using Multiple Characteristics
{'venue': 'TIIS', 'journal': 'TIIS', 'mag_field_of_study': ['Computer Science']}
4,206
Det senaste arbetet har visat att konvolutionella nätverk kan vara betydligt djupare, mer exakta och effektiva att träna om de innehåller kortare anslutningar mellan lager nära ingång och de som är nära utgång. I detta dokument omfamnar vi denna observation och introducerar Dense Convolutional Network (DenseNet), som kopplar varje lager till vartannat lager på ett feed-forward-sätt. Medan traditionella konvolutionsnät med L-lager har L-anslutningar-ett mellan varje lager och dess efterföljande lager-våra nät har L(L+1) 2 direkta anslutningar. För varje lager används funktionskartorna för alla föregående lager som ingångar, och dess egna funktionskartor används som ingångar till alla efterföljande lager. DenseNets har flera övertygande fördelar: de lindrar det försvinnande-gradient problemet, stärka funktionen förökning, uppmuntra funktion återanvändning och avsevärt minska antalet parametrar. Vi utvärderar vår föreslagna arkitektur på fyra mycket konkurrenskraftiga objekt erkännande benchmarking uppgifter SVHN, och ImageNet). DenseNets får betydande förbättringar över state-of-the-art på de flesta av dem, samtidigt som det kräver mindre beräkning för att uppnå hög prestanda. Kod och förträngda modeller finns på https://github.com/liuzhuang13/DenseNet.
REF utvidgar idén genom att införa tätt sammankopplade skikt som bättre skulle kunna stärka funktionens utbredning och uppmuntra återanvändning av funktioner.
9,433,631
Densely Connected Convolutional Networks
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
4,207
I detta dokument utforskar och jämför vi flera lösningar på problemet med dataförstärkning i bildklassificeringen. Tidigare arbete har visat effektiviteten av dataförstärkning genom enkla tekniker, såsom beskärning, roterande, och vända inmatningsbilder. Vi begränsar artificiellt vår tillgång till data till en liten delmängd av ImageNet dataset, och jämför varje dataförstoring teknik i sin tur. En av de mer framgångsrika dataförstärkningsstrategierna är de traditionella omvandlingar som nämns ovan. Vi experimenterar också med GANs för att skapa bilder av olika stilar. Slutligen föreslår vi en metod för att låta ett neuralt nät lära sig förstärkningar som bäst förbättrar klassificeringen, som vi kallar neural förstärkning. Vi diskuterar framgångarna och bristerna med denna metod på olika datauppsättningar.
Samtidigt studera effektiviteten av dataförstoring, författarna till REF analysera olika dataförstärkningsmetoder för bildklassificering.
12,219,403
The Effectiveness of Data Augmentation in Image Classification using Deep Learning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
4,208
Vi presenterar en ny semi-övervakad träningsalgoritm för lärande beroendetolkar. Genom att kombinera en övervakad stor marginalförlust med en oövervakad minst kvadratförlust kan en discriminativ, konvex, semiövervakad inlärningsalgoritm erhållas som är tillämplig på storskaliga problem. För att visa fördelarna med detta tillvägagångssätt använder vi tekniken för att lära sig beroendetolkar från kombinerade märkta och omärkta corpora. Med hjälp av en stokastisk lutning nedstigning algoritm, en tolkning modell kan effektivt läras från halvövervakade data som avsevärt överträffar motsvarande övervakade metoder.
För semi-övervakat beroende tolkning, REF använde ett konvext mål, kombinerar oövervakad minst kvadrat förlust och en övervakad stor marginal förlust, Detta gäller inte för vår oövervakade inställning.
5,813,778
Semi-Supervised Convex Training for Dependency Parsing
{'venue': 'Annual Meeting Of The Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']}
4,209
Cloud computing framträder som ett nytt datorparadigm som syftar till att tillhandahålla tillförlitliga, anpassade och QoS garanterade dynamiska datormiljöer för slutanvändare. I detta dokument studerar vi molndataparadigm från olika aspekter, såsom definitioner, distinkta funktioner och möjliggörande teknik. Detta dokument innehåller en inledande översyn av datormolnet och tillhandahåller den senaste tekniken inom datormoln. Nyckelord: Cloud Computing, Grid Computing, Cyberinfrastruktur, Distributed Computing. §1 Introduktion Cloud computing, som myntades i slutet av 2007, framträder för närvarande som ett hett ämne på grund av dess förmåga att erbjuda flexibla dynamiska IT-infrastrukturer, QoS garanterade datormiljöer och konfigurerbara programvarutjänster. Följande ändringar ska läggas till i bilagan till genomförandeförordning (EU) nr 540/2011:
Kortfattat ger cloud computing tillförlitliga, anpassningsbara och dynamiska datormiljöer med Quality of Service (QoS) garanti för slutanvändare REF.
15,089,817
Cloud Computing: a Perspective Study
{'venue': 'New Generation Computing', 'journal': 'New Generation Computing', 'mag_field_of_study': ['Computer Science']}
4,210
Storm har länge fungerat som huvudplattform för realtidsanalys på Twitter. Men eftersom omfattningen av data som behandlas i realtid på Twitter har ökat, tillsammans med en ökning av mångfalden och antalet användningsfall, har många begränsningar av Storm blivit uppenbara. Vi behöver ett system som skalar bättre, har bättre felsökningsbarhet, har bättre prestanda och är lättare att hantera – samtidigt som vi arbetar i en delad klusterinfrastruktur. Vi övervägde olika alternativ för att möta dessa behov, och i slutändan kom vi fram till att vi behövde bygga ett nytt realtidssystem för databehandling. I detta dokument presenteras utformningen och genomförandet av detta nya system, som kallas Heron. Heron är nu den faktiska stream data processing motorn inne Twitter, och i detta papper delar vi också våra erfarenheter från att köra Heron i produktionen. I detta dokument lägger vi också fram empiriska bevis som visar Herons effektivitet och skalbarhet.
Kulkarni m.fl. REF diskuterar begränsningarna med Storm i behandlingen av den ökande mängden data på Twitter, och de utformar och genomför Heron, en ny streaming data processing motor för att ersätta Storm.
3,340,817
Twitter Heron: Stream Processing at Scale
{'venue': "SIGMOD '15", 'journal': None, 'mag_field_of_study': ['Computer Science']}
4,211
För många applikationer med begränsad beräkning, kommunikation, lagring och energiresurser finns det ett absolut behov av datorseende metoder som kan välja en informativ delmängd av indatavideon för effektiv bearbetning i eller nära realtid. I litteraturen finns det två relevanta grupper av tillvägagångssätt: att generera en "trailer" för en video eller snabbspolning medan du tittar på/behandlar videon. Den första gruppen stöds av video summering tekniker, som kräver behandling av hela videon för att välja en viktig delmängd för att visa för användarna. I den andra gruppen beror aktuella snabbspolningsmetoder antingen på manuell styrning eller automatisk anpassning av uppspelningshastigheten, som ofta inte ger en korrekt representation och som fortfarande kan kräva bearbetning av varje ram. I denna uppsats introducerar vi FastForwardNet (FFNet), en förstärkningslärande agent som får inspiration från videosammanfattning och gör snabbspolning annorlunda. Det är ett online-ramverk som automatiskt snabbspolar en video och presenterar en representativ delmängd av ramar för användare i farten. Det kräver inte att hela videon behandlas, utan bara den del som väljs av snabbspolaren, vilket gör processen mycket beräkningseffektiv. Vår föreslagna metods online-karaktär gör det också möjligt för användarna att börja snabbspola när som helst i videon. Experiment på två verkliga dataset visar att vår metod kan ge bättre representation av indatavideon (ca 6%-20% förbättring av täckningen av viktiga bilder) med mycket mindre bearbetningskrav (mer än 80% minskning av antalet bearbetade ramar).
Senast, Lan et al. REF introducerade FastForwardNet (FFNet), en förstärkning inlärningsbaserad metod som väljer de viktigaste ramarna utan att bearbeta hela videon.
3,859,316
FFNet: Video Fast-Forwarding via Reinforcement Learning
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
4,212
Detta dokument introducerar en övervakad metod för att utföra meningsnivå dialekt identifiering mellan modern standard arabiska och egyptiska Dialectal arabiska. Vi använder symboliska nivå etiketter för att härleda mening-nivå funktioner. Dessa funktioner används sedan med andra kärn- och metafunktioner för att träna en generativ klassificering som förutsäger den korrekta märkningen för varje mening i den givna inmatningstexten. Systemet uppnår en noggrannhet på 85,5 % på en arabisk online-kommentar data som ger resultat med en tidigare föreslagen metod som uppnår 80,9 % och som återspeglar en signifikant ökning över en majoritet baslinje på 51,9 % respektive två starka baslinjesystem på 78,5 % respektive 80,4 %.
REF använde ordnivåetiketter för att härleda meningsnivåfunktioner och använde sedan dessa funktioner för att märka meningen med lämplig dialekt.
18,341,153
Sentence Level Dialect Identification in Arabic
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
4,213
ABSTRACT Numera har forskningen om avvägning mellan beroendet av den manipuleringssäkra enheten (TPD) och lagringsutrymmet i autentiseringssystemet blivit ett intressant ämne för fordonsspecifika ad hoc-nätverk (VANET). Senast, för att minimera beroendet av TPD och minska lagringsutrymme, Zhang et al. föreslog ett system för villkorad integritetsbevarande autentisering baserat på en flera betrodda myndigheter en gång identitetsbaserad aggregerad signaturteknik. Det är mer praktiskt än andra relaterade system på grund av att inte vara beroende av idealiska TPD. Zhang m.fl.Systemet kräver att en till fullo betrodd tredje part deltar i autentiseringen och medlemshemligheter genererar fas, som kan lida av säkerhet flaskhals. För att övervinna denna svaghet, i detta dokument, skapar vi en realistisk distribuerad villkorlig integritetbevarande autentisering system för VANETs med identitetsbaserad kryptografi och kort livslängd regionbaserat certifikat. Jämföra med Zhang et al.Det föreslagna systemet har fler säkerhetsfunktioner men minskar inte beräknings- och kommunikationseffektiviteten. Säkerhetsanalysen visar att vårt system är säkert i den slumpmässiga orakelmodellen. INDEX TERMS Vehicular ad hoc-nätverk, autentisering, villkorlig sekretessbevarande.
Nyligen, Liu et al. har konstruerat ett realistiskt distribuerat system för autentisering av villkorad integritetsbevarande autentisering för VANET med hjälp av identitetsbaserad kryptografi och regionbaserade certifikat för kort livslängd.
46,952,902
A Realistic Distributed Conditional Privacy- Preserving Authentication Scheme for Vehicular Ad Hoc Networks
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
4,214
Cancer detektion från genuttryck data fortsätter att utgöra en utmaning på grund av den höga dimensionalitet och komplexitet av dessa data. Efter årtionden av forskning finns det fortfarande osäkerhet i den kliniska diagnosen av cancer och identifiering av tumörspecifika markörer. Här presenterar vi ett djupt lärande för att upptäcka cancer och identifiera gener som är kritiska för diagnosen bröstcancer. Först använde vi Stacked Denoising Autoencoder (SDAE) för att på djupet extrahera funktionella funktioner från högdimensionella genuttrycksprofiler. Därefter utvärderade vi resultatet av den extraherade representationen genom övervakade klassificeringsmodeller för att verifiera nyttan av de nya egenskaperna vid cancerdetektion. Slutligen identifierade vi en uppsättning mycket interaktiva gener genom att analysera SDAE-anslutningsmatriser. Våra resultat och analyser visar att dessa mycket interaktiva gener kan vara användbara cancerbiomarkörer för upptäckt av bröstcancer som förtjänar ytterligare studier.
Stackad denoiserande autoencoder (SDAE), en annan variation av autoencoder, tillämpades också för att extrahera funktioner från genuttryck profiler REF.
33,264,812
A Deep Learning Approach for Cancer Detection and Relevant Gene Identification
{'venue': 'PSB', 'journal': None, 'mag_field_of_study': ['Biology', 'Medicine', 'Computer Science']}
4,215
Abstract-Alla tidigare Kernighan-Lin-baserade (KL-baserade) kretspartitionering algoritmer använder låsmekanismen, som tvingar varje cell att flytta exakt en gång per pass. I detta dokument föreslår vi två nya metoder för multiway-kretspartitionering för att övervinna denna begränsning. Våra metoder tillåter varje cell att röra sig mer än en gång. Vårt första tillvägagångssätt använder fortfarande låsmekanismen men på ett avslappnat sätt. Den introducerar faskonceptet så att varje pass kan omfatta mer än en fas, och en fas kan omfatta som mest ett drag av varje cell. Vårt andra tillvägagångssätt använder inte låsmekanismen alls. Det introducerar rörlighetskonceptet så att varje cell kan röra sig så fritt som dess rörlighet tillåter. Varje metod leder till KL-baserade generiska algoritmer vars parametrar kan ställas in för att erhålla algoritmer med olika prestandaegenskaper. Vi genererade tre versioner av varje generisk algoritm och utvärderade dem på en undergrupp av gemensamma referenskretsar i jämförelse med Sanchis algoritm (FMS) och den simulerade glödgningsalgoritmen (SA). Experimentella resultat visar att våra algoritmer är effektiva, de överträffar FMS betydligt och de presterar i jämförelse med SA. Våra algoritmer presterar relativt bättre eftersom antalet delar i partitionen ökar liksom densiteten på kretsen minskar. Detta dokument ger också riktlinjer för bra parameterinställningar för de generiska algoritmerna. Index Terms-Iterativ förbättring, Kernighan-Linbaserade algoritmer, flytta-baserad partitionering, multiway kretspartitionering, avslappnad låsning, mycket storskalig integration (VLSI).
Nyligen, Dasdan och Aykanat REF (DA) utvecklat två multiway partitionering algoritmer med hjälp av en avslappnad låsmekanism.
71,449
Two Novel Multiway Circuit Partitioning Algorithms Using Relaxed Locking
{'venue': 'IEEE Trans. on CAD of Integrated Circuits and Systems', 'journal': 'IEEE Trans. on CAD of Integrated Circuits and Systems', 'mag_field_of_study': ['Computer Science']}
4,216
Klassobalans är ett avgörande problem i maskininlärning och förekommer på många områden. Specifikt har tvåklassens problem fått intresse från forskare under de senaste åren, vilket bland annat lett till lösningar för upptäckt av oljeutsläpp, tumörupptäckt och bedräglig identifiering av kreditkort. Hanteringsklassobalans i datauppsättningar som innehåller flera klasser, med varierande grad av obalans, har dock fått begränsad uppmärksamhet. I en sådan flerklassig obalanserad datauppsättning tenderar klassificeringsmodellen att gynna majoritetsklasserna och felaktigt klassificera fall från minoritetsklasserna som tillhörande majoritetsklasserna, vilket leder till dålig förutsägbarhet. Dessutom finns det ett behov av att hantera både obalansen mellan klasser och ta itu med urvalet av exempel inom en klass (dvs. den så kallade inom klassen obalans). I detta dokument föreslår vi SCUT-hybridprovtagningsmetoden, som används för att balansera antalet utbildningsexempel i en sådan multiklassmiljö. Vår SCUT metod över urval minoritetsklass exempel genom generering av syntetiska exempel och använder klusteranalys för att under stickprov majoritet klasser. Dessutom hanterar den både inom- och mellanklassen obalans. Våra experimentella resultat mot ett antal flerklassproblem visar att när SCUT-metoden används för förbehandling av data före klassificering, får vi mycket noggranna modeller som jämför positivt med den senaste tekniken.
Agrawal m.fl. REF föreslog en algoritm som ökar förekomsten av fall av minoritetsklass genom Volumeme 7, 2019 generation av syntetiska exempel och använder klusterbaserad undersampling för att förbättra klassificeringsprestandan på obalanserade datauppsättningar i flera klasser.
22,970,995
SCUT: Multi-class imbalanced data classification using SMOTE and cluster-based undersampling
{'venue': '2015 7th International Joint Conference on Knowledge Discovery, Knowledge Engineering and Knowledge Management (IC3K)', 'journal': '2015 7th International Joint Conference on Knowledge Discovery, Knowledge Engineering and Knowledge Management (IC3K)', 'mag_field_of_study': ['Computer Science']}
4,217
Visuell-interaktiv klusteranalys ger värdefulla verktyg för att effektivt analysera stora och komplexa datamängder. På grund av önskvärda egenskaper och en inneboende predisposition för visualisering, Kohonen Feature Map (eller Självorganiserande Karta, eller SOM) algoritm är bland de mest populära och allmänt använda visuella klusterteknik. Algoritmens oövervakade karaktär kan dock vara ofördelaktig i vissa tillämpningar. Beroende på initiering och dataegenskaper, klusterkartor (kluster layouter) kan uppstå som inte uppfyller användarnas preferenser, förväntningar, eller programmets sammanhang. Med tanke på SOM-baserad analys av bandata föreslår vi en omfattande visuell-interaktiv övervaknings- och kontrollram som utökar den grundläggande SOM-algoritmen. Ramverket implementerar den allmänna Visual Analytics-idén för att effektivt kombinera automatisk dataanalys med övervakning av mänskliga experter. Det ger enkla, men effektiva faciliteter för visuell övervakning och interaktiv kontroll av processen för att gruppera banan på godtyckliga detaljnivåer. Metoden gör det möjligt för användaren att utnyttja befintlig domänkunskap och användarpreferenser genom att komma fram till förbättrade klusterkartor. Vi tillämpar ramverket på en bana kluster problem, visar sin potential att kombinera både oövervakad (maskin) och övervakad (mänsklig expert) bearbetning, i att producera lämpliga kluster resultat.
Det tillvägagångssätt som beskrivs av Schreck et al. REF gör det möjligt för användare att utnyttja befintlig domänkunskap och användarpreferenser genom att komma fram till förbättrade klusterkartor.
2,541,871
Visual cluster analysis of trajectory data with interactive Kohonen Maps
{'venue': '2008 IEEE Symposium on Visual Analytics Science and Technology', 'journal': '2008 IEEE Symposium on Visual Analytics Science and Technology', 'mag_field_of_study': ['Computer Science']}
4,218
I denna fallstudie diskuterar vi ett interaktivt funktionsspårningssystem och dess användning för analys av kromatindekondensation. Funktioner beskrivs som punkter i ett flerdimensionellt attribututrymme. Avstånd mellan punkter används som mått för funktionskorrespondens. Användarna kan interaktivt experimentera med korrespondensmåttet för att få insikt i kromatinrörelser. Dessutom, genom att definiera tiden som ett attribut, kan spårningsproblem relaterade till bullriga konfokala data kringgås.
Funktioner definieras som punkter i ett flerdimensionellt attribut utrymme medan avståndet mellan två punkter tas som ett mått för att utvärdera funktionen korrespondens REF.
6,111,527
Chromatin decondensation: a case study of tracking features in confocal data
{'venue': "VIS '01", 'journal': None, 'mag_field_of_study': ['Computer Science']}
4,219
Abstrakt. I detta dokument rapporterar vi om konstruktionen av ett verktyg för konformitetstestning baserat på Spin. Spin-verktyget har anpassats så att det kan härleda byggstenarna för att konstruera testfall, så kallade testprimära, från system som beskrivs i Promela. Testet primitiver stöder on-the-fly conformance testing process. Traditionell härledning av tester från formella specifikationer lider av explosionsproblem i tillståndsrymden. Spin är en av de mest avancerade modellkontrollerna med avseende på hantering av stora tillståndsutrymmen. Denna fördel av Spin har använts för härledning av test primitiva från en Promela beskrivning. För att minska den statliga rymden, vi introducerar on-the-fly testing ram. En av komponenterna inom denna ram är Primer. Primer är ansvarig för att härleda test primitiva från en modell av ett system enligt en väldefinierad och fullständig testteori. Algoritmer presenteras som gör det möjligt för oss att härleda test primitiva från en Promela beskrivning. Dessa algoritmer har implementerats i den anpassade versionen av Spin-verktyget som fungerar som Primer i ramverket. Lovande experiment har utförts på ett exempel fallstudie. Som ett resultat av denna studie dras slutsatsen att det är möjligt att automatiskt härleda testprimära från Promela-beskrivningar, konstruera testfall från dessa testprimära, och utföra testfallen på flygningen.
En metod för att härleda UIO sekvens från PROMELA specifikation för lösningen av överensstämmelse test problem presenterades i REF.
16,953,126
On-the-fly conformance testing using SPIN
{'venue': 'International Journal on Software Tools for Technology Transfer', 'journal': 'International Journal on Software Tools for Technology Transfer', 'mag_field_of_study': ['Computer Science']}
4,220
Detta arbete fokuserar på att besvara singlerelationsfactoida frågor över Freebase. Varje fråga kan få svaret från ett enda faktum i form (ämne, predikat, objekt) i Freebase. Denna uppgift, enkla svar på frågor (SimpleQA), kan hanteras via en tvåstegs pipeline: enhet länkning och faktaval. I själva verket valet, vi matchar den subjekt i själva verket med den enhet som nämns i fråga av en karaktär-nivå konvolutional neurala nätverk (char-CNN), och matcha predikatet i själva verket med frågan av en ordnivå CNN (word-CNN). Detta arbete ger två huvudsakliga bidrag. (i) En enkel och effektiv enhet länkare över Freebase föreslås. Vår enhet länkare överträffar den toppmoderna enhet länkaren av SimpleQA-uppgift. (ii) En roman uppmärksam maxpooling staplas över ord-CNN, så att predikatet representation kan matchas med predikat-fokuserad fråga representation mer effektivt. Experiment visar att vårt system sätter nytt toppmodernt i denna uppgift.
REF använder två oberoende modeller, en teckennivå CNN och en ordnivå CNN med uppmärksam max-pooling.
557,620
Simple Question Answering by Attentive Convolutional Neural Network
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
4,221
Vi diskuterar en allmän metod för att lära sig datarepresentationer från flera uppgifter. Vi ger en motivering för denna metod i både miljöer för lärande med flera uppgifter och lärande att lära sig. Metoden illustreras i detalj i det speciella fallet med linjär inlärning. Villkor för den teoretiska fördel som multitask representation lärande över oberoende uppgift lärande fastställs. I synnerhet, med fokus på det viktiga exemplet med halvrymdsinlärning, kommer vi fram till det system där multitask representationsinlärning är till nytta framför oberoende uppgiftsinlärning, som en funktion av urvalsstorleken, antalet uppgifter och den inneboende datadimensionaliteten. Andra potentiella tillämpningar av våra resultat inkluderar multitask funktionsinlärning i att reproducera kärnan Hilbert utrymmen och flera lager, djupa nätverk.
Maurer m.fl. I REF angavs de övre felgränserna för flerhandsrepresentationsutbildning i båda sammanhangen lärande med flera arbetsuppgifter och lärande att lära sig.
5,792,818
The Benefit of Multitask Representation Learning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
4,222
Object detektering i videor har dragit till sig ökad uppmärksamhet nyligen med införandet av den storskaliga ImageNet VID dataset. Olika från objektdetektering i statiska bilder ger temporal information i videor viktig information för objektdetektering. För att fullt ut utnyttja tidsinformationen är de modernaste metoderna [14, 13] därför baserade på spatiotemporala tubelets, som i huvudsak är sekvenser av associerade avgränsande rutor över tiden. De befintliga metoderna har dock stora begränsningar när det gäller att generera tubletar när det gäller kvalitet och effektivitet. Rörelsebaserade [13] metoder kan erhålla täta rör, men längderna är i allmänhet bara flera ramar, vilket inte är optimalt för att införliva långsiktig tidsinformation. Utseende-baserade [14] metoder, vanligtvis med allmän objektspårning, kan generera långa tubeletter, men är vanligtvis beräkning dyrt. I detta arbete föreslår vi en ram för objektdetektering i videor, som består av ett nytt tubelet förslag nätverk för att effektivt generera spatiotemporella förslag, och ett Long Short-term Memory (LSTM) nätverk som innehåller timlig information från tubelet förslag för att uppnå hög objektdetektering noggrannhet i videor. Experimenten på det storskaliga ImageNet VID-datasetet visar effektiviteten i det föreslagna ramverket för objektdetektering i videor.
Tpn REF föreslår ett nätverk för förslag till rörledningar och använder ett LSTM för att införliva tem-poralinformation från förslag till rörledningar.
16,436
Object Detection in Videos with Tubelet Proposal Networks
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
4,223
Vi löser ett 40-årigt öppet problem på djupet av sorteringsnätverk. År 1973, Donald E. Knuth detaljerad, i volym 3 av "The Art of Computer Programming", sortering nätverk av den minsta djup känd vid tidpunkten för n ≤ 16 ingångar, citerar optimalitet för n ≤ 8. År 1989 visade Parberry att nätverken var optimala med 9 ≤ n ≤ 10 ingångar. I denna artikel presenterar vi en allmän teknik för att uppnå sådana optimala resultat, och använder den för att bevisa optimaliteten av de återstående öppna fall av 11 ≤ n ≤ 16 ingångar. Vi visar hur man utnyttjar symmetri för att konstruera en liten uppsättning tvålagersnätverk på n-ingångar så att om det finns ett sorteringsnätverk på n-ingångar på ett givet djup, så finns det ett vars första lager finns i denna uppsättning. För varje nätverk i den resulterande uppsättningen konstruerar vi en propositionell formel vars tillfredsställelse är nödvändig för existensen av ett sorteringsnätverk av ett givet djup. Med hjälp av en off-the-shelf SAT-lösare visar vi att sorteringsnätverken som listas av Knuth är optimala. För n ≤ 10 ingångar är vår algoritm order av magnitud snabbare än de tidigare.
Bundala REF presenterade ett datorstödd bevis för optimala djup av nätverk med elva till sexton (inkluderande) ingångar.
2,734,209
Optimal-Depth Sorting Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
4,224
I den här artikeln tar vi hänsyn till förtroendets inflytande på assimileringen av förvärvad information till en agents tro. Med hjälp av modal logik karakteriserar vi semantiskt och axiomatiskt förhållandet mellan tro, informationsinhämtning och förtroende. Förtroende- och informationsinhämtningsoperatörerna representeras av normala metoder för KD45 respektive KD, medan tillit betecknas av en modal operatör med minimal semantik. En karakteristisk axiom av det grundläggande systemet är om agent jag tror att agent j har berättat för honom sanningen om p och han litar på bedömningen av j på p, då kommer han också att tro p. Förutom det grundläggande systemet, några varianter och ytterligare axioms för förtroende och informationsinhämtning presenteras också för att visa den uttrycksfulla rikedomen av logiken. Tillämpningarna av logiken på datasäkerhet och databas resonemang föreslås också av dess koppling till några tidigare verk.
Ett annat förslag läggs fram av Liau REF, där förtroendets inverkan på assimileringen av information i källans sinne beaktas.
17,000,512
Belief, information acquisition, and trust in multi-agent systems--A modal logic formulation
{'venue': 'Artif. Intell.', 'journal': 'Artif. Intell.', 'mag_field_of_study': ['Computer Science']}
4,225
Abstract-We överväga olika säkerhetssårbarheter vid driftsättning Advanced Metering Infrastructure (AMI) i smart rutnät, och utforska frågor relaterade till sekretess för kundintegritet och kundbeteende samt meddelandeautentisering för mätare läsning och kontroll meddelanden. Det finns bara ett fåtal forskningsarbete om AMI-autentiseringar, och det finns inget arbete om sekretess för användarintegritet och användarbeteende, från det bästa av vår kunskap. I detta dokument föreslår vi ett samarbetsprogram inom nätverket för att tillhandahålla säker och tillförlitlig AMI-kommunikation i smarta nät, med smarta mätare sammankopplade genom ett trådlöst nätverk med flera nätverk. I detta tillvägagångssätt kan ett AMI-system tillhandahålla betrodda tjänster, dataintegritet och integritet genom ömsesidig autentisering när en ny smart mätare initierar och ansluter sig till det smarta nätet AMI. Dataintegritet och sekretess uppfylls genom meddelandeautentisering respektive krypteringstjänster med hjälp av motsvarande nycklar som fastställs i de ömsesidiga autentiseringarna. Ett överföringssystem föreslås för att underlätta insamling och hantering av meddelanden mellan smarta mätare och en lokal samlare för AMI-kommunikation. Simuleringsresultat visar att den föreslagna metoden har en bättre end-to-end fördröjning och paketförluster jämfört med en grundläggande säkerhetsmetod, och den föreslagna metoden kan ge säker och tillförlitlig kommunikation för AMI i smarta nätsystem.
Yan och al. I Ref föreslogs ett integrerat tillvägagångssätt där betrodda tjänster, integritet och dataintegritet skulle kunna tillhandahållas genom ömsesidig autentisering.
11,761,306
A secure and reliable in-network collaborative communication scheme for advanced metering infrastructure in smart grid
{'venue': '2011 IEEE Wireless Communications and Networking Conference', 'journal': '2011 IEEE Wireless Communications and Networking Conference', 'mag_field_of_study': ['Computer Science']}
4,226
Abstract-This paper anser att icke-kooperativ maximering av ömsesidig information i vektor Gaussian interferens kanal på ett helt distribuerat sätt via spelteori. Detta problem har undersökts i ett antal verk under det senaste årtiondet för frekvensselektiva kanaler, och nyligen för det mer allmänna MIMO-fallet, där de senaste resultaten endast gäller för icke-singulära fyrkantiga kanalmatriser. Förvånansvärt nog, dessa resultat håller inte sant när kanalen matriser är rektangulära och / eller ranka bristfälliga matriser. Målet med detta papper är att ge en fullständig karakterisering av MIMO-spelet för godtyckliga kanalmatriser, i termer av villkor som garanterar både den unika Nash jämvikten och konvergensen av asynkron distribuerade iterativa vattenfyllningsalgoritmer. Vår analys bygger på nya tekniska mellanliggande resultat, såsom ett nytt uttryck för MIMO vattenfyllning projektion giltig (också) för singular matriser, ett medelvärde teorem för komplexa matris-värderade funktioner, och en allmän sammandragning teorem för multianvändaren MIMO watefilling kartläggning som gäller för godtyckliga kanal matriser. Det ganska överraskande resultatet är att unikhet / konvergens villkor i fallet med höga (eventuellt singular) kanal matriser är mer restriktiva än de som krävs i fallet med (full rank) fett kanal matriser. Vi föreslår också ett modifierat spel och algoritm med mildare villkor för unikheten i jämvikt och konvergens, och praktiskt taget samma prestanda (i termer av Nash equilibria) i det ursprungliga spelet. Index Terms-Game Theory, MIMO Gaussian interferens kanal, Nash jämvikt, helt asynkrona algoritmer, vattenfyllning.
I REF utvidgar samma författare sitt arbete för godtyckliga kanalmatriser (rektangulära matriser, rangordnade bristfälliga matriser).
16,448
The MIMO Iterative Waterfilling Algorithm
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
4,227
Abstract-Diferential Privacy (DP) är en allmänt accepterad matematisk ram för att skydda dataintegritet. Enkelt uttryckt, det garanterar att distributionen av frågeresultat ändras bara något på grund av ändringen av någon tuple i databasen. Detta ger skydd, även mot mäktiga motståndare, som känner till hela databasen utom en tuple. För att ge denna garanti, differential integritet mekanismer antar oberoende tuples i databasen -ett sårbart antagande som kan leda till försämring i förväntade integritetsnivåer, särskilt när tillämpas på verkliga dataset som manifesterar naturligt beroende på olika sociala, beteendemässiga och genetiska relationer mellan användare. I detta dokument lämnar vi flera bidrag som inte bara visar att det är möjligt att utnyttja sårbarheten ovan utan också ger åtgärder för att minska den. För det första presenterar vi en inference attack, med hjälp av verkliga dataset, där en motståndare utnyttjar det probabilistiska beroendet mellan tuples för att extrahera användarnas känsliga information från olika privata frågeresultat (våld mot DP-garantier). För det andra introducerar vi begreppet beroende differentiell integritet (DDP) som står för det beroende som finns mellan tuples och föreslår en beroende perturbation mekanism (DPM) för att uppnå integritetsgarantier i DDP. Slutligen, med hjälp av en kombination av teoretisk analys och omfattande experiment som involverar olika klasser av frågor (t.ex., maskininlärning frågor, graffrågor) utfärdade över flera storskaliga verkliga datauppsättningar, visar vi att vår DPM konsekvent överträffar state-of-the-art metoder för att hantera sekretess-utility kompromisser för beroende data.
Liu m.fl. REF föreslog beroende differentiell integritet genom att införa beroendekoefficienter för att analysera känsligheten hos olika frågor under probabilistiska beroenden mellan tuples.
8,854,558
Dependence Makes You Vulnberable: Differential Privacy Under Dependent Tuples
{'venue': 'NDSS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
4,228
Många forskare har föreslagit att mänskliga visioner för erkännande ska tolka former till komponenter. Exakt hur är ännu inte känt. Minimaregeln för silhuetter (Hoffman & Richards, 1984) definierar gränspunkter vid vilka man kan tolka, men talar inte om hur man använder dessa punkter för att klippa silhuetter, och talar därför inte om vad delarna är. I det här dokumentet föreslår vi genvägsregeln, där det står att mänskliga visioner, även om de är likvärdiga, föredrar att använda kortast möjliga nedskärningar för att tolka silhuetter. Vi motiverar denna regel, och den välkända Petters-regeln för att fullborda de olika transportsätten, med principen om transversalitet. Vi presenterar fem psykofysiska experiment som testar genvägsregeln, visar att den framgångsrikt förutspår delskärningar som förbinder gränspunkter som ges av minimaregeln, och visar att den också kan skapa nya gränspunkter.
Kortklippta regeln REF är enkel: om gränspunkter kan sammanfogas på mer än ett sätt att tolka en siluett, välj den tolkning som använder de kortaste snitten.
8,248,649
Parsing silhouettes: The short-cut rule
{'venue': 'Perception & psychophysics', 'journal': 'Perception & psychophysics', 'mag_field_of_study': ['Psychology', 'Medicine']}
4,229
På senare tid har forskarsamhället ägnat stor uppmärksamhet åt användningen av modellkontrollteknik som ett verktyg för testgenerering inom simuleringsområdet. Syftet med detta dokument är att ge ett användbart medel för att få mer insikter i detta avseende. Genom att tillämpa de senaste resultaten inom området graderad tidslogik presenterar vi en ny effektiv modellkontrollalgoritm för hierarkiska Finite State Machines (HSM), en väletablerad symbolism lång och allmänt använd för att representera hierarkiska modeller av diskreta system. Utföra modellkontroll mot specifikationer som uttrycks med hjälp av graderade temporal logik har den egenhet att returnera fler motexempel inom en unik körning. Vi tror att detta i hög grad kan förbättra effektiviteten av att automatiskt få testfall. I synnerhet verifierar vi två olika modeller av HSM mot förgrening tidsegenskaper.
Napoli och Parente REF presenterar till exempel en modellkontrollalgoritm för Hierarchiska Finite State Machines som en abstrakt DEVS-modell.
18,214,759
Graded CTL Model Checking for Test Generation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
4,230
Absrrrmr-Internet har under de senaste åren sett en snabb ökning av användningen av webbaserade streamingapplikationer. I dessa applikationer bör servern kunna utföra end-to-end överbelastningskontroll och kvalitetsanpassning för att matcha den levererade strömkvaliteten med den genomsnittliga tillgängliga bandbredden. Således är den levererade kvaliteten W t e d av flaskhals bandbredd på vägen till kunden. I detta dokument föreslås en proxy caching mekanism för Iayered-kodade multimediaströmmar på Internet för att maximera den levererade kvaliteten på populära strömmar till intresserade kunder. Den största utmaningen är att spela upp en kvalitetsvariabel cached ström samtidigt utföra kvalitet anpassning effektivt som svar på variationer i tillgänglig bandbredd. Vi presenterar en mekanism för förhämtning för att stödja cached ström av högre kvalitet under efterföljande uppspelningar och förbättra kvaliteten på cached ström med sin popularitet. Vi utnyttjar inneboende egenskaper hos multimediaströmmar för att utöka semantik av popularitet och fånga både nivå av intresse bland kunder och nytta av ett lager i cache. Vi utformar en finkornig ersättningsalgoritm lämplig för lagerkodade strömmar. Våra simuleringsresultat visar att samspelet mellan ersättningsalgoritmen och förhämtningsmekanismen gör att cachetillståndet konvergerar till ett effektivt tillstånd så att kvaliteten på en cached ström står i proportion till dess popularitet, och variationerna i kvaliteten på en cached ström är omvänt proportionella mot dess popularitet. Detta innebär att efter att ha besvarat flera förfrågningar om en ström, proxyn effektivt kan dölja låg bandbredd vägar till den ursprungliga servern från intresserade kunder.
Rejaie et al REF föreslog en proxy caching mekanism för lagerkodade strömmar i internet för att maximera den levererade kvaliteten på populära strömmar bland intresserade kunder.
12,184,380
Multimedia proxy caching mechanism for quality adaptive streaming applications in the Internet
{'venue': 'Proceedings IEEE INFOCOM 2000. Conference on Computer Communications. Nineteenth Annual Joint Conference of the IEEE Computer and Communications Societies (Cat. No.00CH37064)', 'journal': 'Proceedings IEEE INFOCOM 2000. Conference on Computer Communications. Nineteenth Annual Joint Conference of the IEEE Computer and Communications Societies (Cat. No.00CH37064)', 'mag_field_of_study': ['Computer Science']}
4,231
Abstract-Throughput maximization är en av de viktigaste utmaningarna i kognitiva radio ad hoc-nätverk, där tillgången på lokala spektrumresurser kan förändras från tid till annan och hoppa av humle. Därför föreslås en cross-layer opportunistisk spektrumaccess och dynamisk routing algoritm för kognitiva radionät, som kallas routing och dynamisk spektrumallokation (ROSA) algoritm. Genom lokala kontrollåtgärder syftar ROSA till att maximera nätgenomströmningen genom att utföra gemensam routing, dynamisk spektrumallokering, schemaläggning och överföring av effektstyrning. Specifikt allokerar algoritmen dynamiskt spektrumresurser för att maximera kapaciteten hos länkar utan att generera skadlig störning till andra användare samtidigt som man garanterar en begränsad bit felfrekvens (Ber) för mottagaren. Dessutom syftar algoritmen till att maximera den viktade summan av differentiella eftersläpningar för att stabilisera systemet genom att prioritera länkar med högre kapacitet med en hög differential eftersläpning. Den föreslagna algoritmen är distribuerad, beräkningseffektiv och har begränsat BER-garantier. ROSA visas genom numerisk modellbaserad utvärdering och diskreta paketnivåsimuleringar för att överträffa baslinjelösningar, vilket leder till en hög genomströmning, låg fördröjning och rättvis bandbreddstilldelning. Index Terms-Ad hoc-nätverk, kognitiva radionät, tvärskiktsdesign, dynamisk spektrumallokering, routing.
Ding m.fl. föreslog en distribuerad algoritm för gemensam opportunistisk routing och dynamisk spektrumåtkomst i multihop CRNs REF.
778,374
Cross-Layer Routing and Dynamic Spectrum Allocation in Cognitive Radio Ad Hoc Networks
{'venue': 'IEEE Transactions on Vehicular Technology', 'journal': 'IEEE Transactions on Vehicular Technology', 'mag_field_of_study': ['Computer Science']}
4,232
Abstract-Routing protokoll för stora trådlösa nätverk måste ta itu med utmaningarna med tillförlitlig paketleverans i allt större skala och med mycket begränsade resurser. Försök att minska routing kan resultera i oönskade värsta fall routing prestanda, mätt med stretch, vilket är förhållandet mellan humle räkna av den valda vägen till den optimala vägen. Vi presenterar ett nytt routingprotokoll, Small State och Small Stretch (S4), som tillsammans minimerar tillståndet och sträckningen. S4 använder en kombination av beacon distans-vektor-baserade globala routing tillstånd och scoundd avstånd-vector-baserade lokala routing tillstånd för att uppnå en värsta fall stretch av 3 med ( ) routing tillstånd per nod i ett -node nätverk. Dess genomsnittliga routing stretch är nära 1. S4 innehåller också lokala felåterhämtningar för att uppnå motståndskraft mot dynamiska topologiförändringar. Vi använder flera simuleringsmiljöer för att bedöma prestandapåståenden i skala och använda experiment i en 42-node trådlös sensornätverk testbädd för att utvärdera prestanda under realistiska RF och feldynamik. Resultaten visar att S4 uppnår skalbarhet, effektivitet och motståndskraft i ett brett spektrum av scenarier.
Small State och Small Stretch (S4) REF är ett kompakt routingprotokoll för storskaliga sensornätverk som uppnår värsta tänkbara stretch av 3 och genomsnittliga fall stretch av 1 med mycket lite routing tillstånd vid varje nod och hög feltålighet.
8,569,881
S4: Small State and Small Stretch Compact Routing Protocol for Large Static Wireless Networks
{'venue': 'IEEE/ACM Transactions on Networking', 'journal': 'IEEE/ACM Transactions on Networking', 'mag_field_of_study': ['Computer Science']}
4,233
Upptäcka kod kloner har många program för programvaruteknik. Befintliga metoder antingen inte skala till stora kodbaser eller inte är robusta mot mindre kodändringar. I detta dokument presenterar vi en effektiv algoritm för att identifiera liknande underträd och tillämpa den på träd representationer av källkod. Vår algoritm är baserad på en ny karakterisering av delträd med numeriska vektorer i Euclidean utrymme R n och en effektiv algoritm för att kluster dessa vektorer w.r.t. Det euklideiska avståndsmåttet. Subträd med vektorer i ett kluster anses vara likartade. Vi har implementerat vår trädlikviditetsalgoritm som ett klondetekteringsverktyg kallat DECKARD och utvärderat den på stora kodbaser skrivna i C och Java inklusive Linuxkärnan och JDK. Våra experiment visar att DECKARD är både skalbart och korrekt. Det är också språkoberoende, tillämpas på alla språk med en formellt specificerad grammatik. - Vad är det för fel på dig?
Deckard REF introducerade användningen av vektorer vid klondetektering.
743,679
DECKARD: Scalable and Accurate Tree-Based Detection of Code Clones
{'venue': "29th International Conference on Software Engineering (ICSE'07)", 'journal': "29th International Conference on Software Engineering (ICSE'07)", 'mag_field_of_study': ['Computer Science']}
4,234
Abstract Feature integration ger en beräkningsram för saliency detektion, och en hel del handgjorda integrationsregler har utvecklats. I detta dokument presenterar vi en principiell förlängning, övervakad funktion integration, som lär sig en slumpmässig skogsregressor att diskriminerande integrera Saliency funktioner för löneberäkning. Förutom kontrastegenskaper introducerar vi regionala objektkänsliga deskriptorer: objektets deskriptor som karakteriserar det framträdande objektets gemensamma rumsliga och utseendemässiga egenskaper, och den bildspecifika bakgrundsdeskriptorn som karakteriserar en viss bilds bakgrund, som visas viktigare för att uppskatta talförmågan. Såvitt vi vet är vårt övervakade ramverk för integration det första framgångsrika tillvägagångssättet för att utföra integrationen över de betydande objektdetekteringsfunktionerna, och överträffar integrationskonceptet över saliencykartorna. Tillsammans med att vi sammanställer de regionala bärkraftskartorna på flera nivåer för att införa den rumsliga hållfasthetskonsistensen, överträffar vår strategi betydligt de senaste metoderna på sju referensdatauppsättningar. Vi diskuterar också flera uppföljningsarbeten som
I stället för att beräkna soliditetskartor genom att kombinera funktionskartor föreslås den diskriminerande regionala funktionsintegreringen (DRFI) REF-metoden för att lära sig en slumpmässig skogsregressor för att kartlägga den regionala funktionsvektorn till en Saliency score.
11,823,889
Salient Object Detection: A Discriminative Regional Feature Integration Approach
{'venue': 'International Journal of Computer Vision', 'journal': 'International Journal of Computer Vision', 'mag_field_of_study': ['Computer Science']}
4,235
Stochastic optimeringsproblem försöker modellera osäkerhet i data genom att anta att (del av) indata anges i termer av en sannolikhetsfördelning. Vi anser att den välstuderade paradigm av 2-stegsmodeller med anrop: Bland de olika applikationer vi anser är stokastiska versioner av uppsättningen omslag, vertex omslag, anläggning plats, multicut (på träd), och multicommodity flödesproblem.
REF-studiens stokastiska versioner av problemen med täckning och lokalisering av anläggningar, och presentera ett approximationssystem baserat på randomiserad LP-avrundning.
13,621,578
Stochastic optimization is (almost) as easy as deterministic optimization
{'venue': '45th Annual IEEE Symposium on Foundations of Computer Science', 'journal': '45th Annual IEEE Symposium on Foundations of Computer Science', 'mag_field_of_study': ['Computer Science']}
4,236
I multiklustersystem, och mer allmänt i rutnät, kan johs kräva samlokalisering, dvs. samtidig tilldelning av resurser såsom pmcessorer och indatafiler i flera kluster. Även om sådana johs kan ha minskat körtider eftersom de har tillgång till fler resurser, väntar på processorer i flera kluster och för att indatafilerna ska bli tillgängliga på rätt platser kan inkrementell ineffektivitet I tidigare arbete har vi studerat genom simuleringar endast co-allokering av processorer. Här, vi utökar detta arbete med en analys av p e r f o m n c e i en verklig testad av vår pmtotype Processor och Data-Samallokator med Close-to-Files (CF) jobbplacering algorirhm CF försöker placera jobbkomponenter på kluster med tillräckligt tomgångsprocessorer som är nära de platser där indatafilerna finns. Vi presenterar en jämförelse av CF:s prestanda och den Worst-Fit-arbetsplaceringsalgoritmen, med och utan filreplikation, som uppnås med vår prototyp. Våra viktigaste fynd är att CF med replikering fungerar bäst, och att utiiitionen i vår testhed kan drivas till ahout 80%.
I REF placeras arbetskomponenterna på eller nära de platser där inmatningsfilen finns.
7,503,981
An evaluation of the close-to-files processor and data co-allocation policy in multiclusters
{'venue': '2004 IEEE International Conference on Cluster Computing (IEEE Cat. No.04EX935)', 'journal': '2004 IEEE International Conference on Cluster Computing (IEEE Cat. No.04EX935)', 'mag_field_of_study': ['Computer Science']}
4,237
Förskjutningen av hyoidbenet är en av de viktigaste komponenterna som utvärderades i sväljstudien, eftersom dess rörelse under sväljningen är relaterad till den totala sväljningsintegriteten. I dagliga forskningsmiljöer, experter visuellt upptäcka hyoidbenet i videoramarna och manuellt plotta hyoid benposition ram för ram. Denna studie syftar till att utveckla en automatisk metod för att lokalisera placeringen av hyoidbenet i videosekvensen. För att automatiskt upptäcka platsen för hyoidbenet i en ram, föreslog vi en enda skott multibox detektor, en djup konvolutional neurala nätverk, som används för att upptäcka och klassificera platsen för hyoidbenet. Vi utvärderade också prestandan hos två andra toppmoderna detektionsmetoder för jämförelse. De experimentella resultaten visade tydligt att detektorn kan detektera hyoidbenet med en genomsnittlig precision på 89,14% och överträffa andra autodetekteringsalgoritmer. Vi drar slutsatsen att detta automatiska hyoid benspårningssystem är tillräckligt exakt för att kunna tillämpas i stor utsträckning som ett förbehandlingssteg för bildbehandling i dysfagiforskningen, liksom en lovande utveckling som kan vara användbar vid diagnosen dysfagi. Dysfagi, ett vanligt tillstånd bland äldre individer, definieras som en försämring i sväljfunktion under ätande och drickande 1. Dysfagi orsakar subjektiva obehag och objektiva svårigheter i bildandet eller transporten av en bolus från mun till mage, och förebyggande av felande inträde av sväljt material i luftvägarna. Dysfagi är ett vanligt kliniskt tecken hos patienter med stroke, huvud- och halscancer och en mängd andra medicinska tillstånd [2] [3] [4]. Prevalensen av dysfagi är mycket hög: stroke är den vanligaste rapporterade etiologin med över 50% av patienterna som uppvisar dysfagi i det omedelbara efter debutstadiet av återhämtning, minskande till en lägre prevalens på cirka 11% inom 6 månader efter debut 5. Dessutom drabbar kronisk dysfagi 7,2 % av personer med andra neurologiska sjukdomar och 4,9 % av patienterna som behandlas för huvud- och halscancer 6. Upp till 40 % av personer över 65 år och över 60 % av vuxna i vårdhem 7 lider av dysfagi. Det beräknas att 25-50 % av amerikanerna över 60 2 och 17 % av medborgarna över 65 i Europa 8 kommer att drabbas av dysfagi, vilket leder till ökad risk för dålig kosthållning eller uttorkning. Variationen i skattningen kan bero på olika definitioner av dysfagi, metoden för sväljbedömning och antalet undersökta patienter. Som en mer omedelbar klinisk följd, dysfagi kan leda till missriktad mat och koloniserad saliv i luftvägarna, eventuellt orsakar lunginflammation och kronisk lungsjukdom. I många fall aspiration inträffar utan några uppenbara kliniska tecken på dysfagi (tyst aspiration), skjuta upp tidig identifiering och förebyggande behandling därför minska patientens överlevnad 9. Ansträngningar att noggrant utvärdera sväljfunktion tidigt efter uppkomsten av tillstånd som leder till dysfagi kan minska många av dessa hälsorisker 10. De videofluoroskopiska sväljningsstudierna (VFSS), även känd som modifierad bariumsväljarstudie, är standardtest i guld för utvärdering av dysfagi [11] [12] [13] [14]. VFSS, till skillnad från klinisk undersökning vid sängkanten, gör det möjligt för examinator att visualisera oral, farynxal och övre esofagus struktur och funktion under patientens sväljning. VFSS utvärderar också fel i den biomekaniska samordningen som leder till bolusmissriktning. Patienter med dysfagi kanske inte uppvisar tydliga tecken på sväljproblem vid sängkanten. VFSS utmärker sig när det gäller att göra det möjligt för läkare att identifiera ockulta störningar i luftvägsskydd och biomekaniska fel som leder till nedsatt luftvägsskydd och överföring av mat till matsmältningssystemet. Luftvägsstängning och öppning av övre esofagussfinkter påverkas till stor del av tidpunkten och förskjutningen av hyolaryngealkomplexet under svalningsstadiet. Under VFSS är hyoidbenet den mest framträdande anatomiska strukturen för att upptäcka hyolaryngeal rörelse 15. Hyolaryngeal utflykt är
Zhang m.fl. REF utvecklade ett spårningssystem för hyoid skelettdetektion med hjälp av en shot multibox detektor, en toppmodern djupinlärningsmetod för objektdetektion.
52,033,837
Automatic hyoid bone detection in fluoroscopic images using deep learning
{'venue': 'Scientific Reports', 'journal': 'Scientific Reports', 'mag_field_of_study': ['Computer Science', 'Medicine']}
4,238
....................................... Punktmoln segmentering med hjälp av den föreslagna neurala nätverket. Nedre delen: schematisk neural nätverksarkitektur. Överst: Strukturen av de funktioner utrymmen som produceras på olika lager av nätverket, visualiseras som avståndet från den röda punkten till alla resten av punkterna (visas vänster-till-höger är ingång och lager 1-3; höger figur visar den resulterande segmentering). Observera hur funktionen rymdstruktur i djupare lager fångar semantiskt liknande strukturer som vingar, flygplan eller turbiner, trots ett stort avstånd mellan dem i det ursprungliga ingångsutrymmet. Punktmoln ger en flexibel geometrisk representation lämplig för otaliga tillämpningar i datorgrafik; de omfattar också den råa produktionen Tillstånd att göra digitala eller hårda kopior av hela eller delar av detta arbete för personligt eller klassrum användning beviljas utan avgift, förutsatt att kopior inte görs eller distribueras för vinst eller kommersiella fördelar och att kopior bär detta meddelande och den fullständiga hänvisning på första sidan. Upphovsrätt till delar av detta verk som ägs av andra än upphovsmannen måste hedras. Abstraktering med kredit är tillåten. För att kopiera på annat sätt, eller återpublicera, för att posta på servrar eller för att omfördela till listor, krävs tidigare specifik behörighet och/eller avgift. Begär tillstånd från [email protected]. av de flesta 3D datainsamling enheter. Medan handgjorda funktioner på punktmoln har länge föreslagits i grafik och vision, men den senaste tidens överväldigande framgång för konvolutionella neurala nätverk (CNN) för bildanalys tyder på värdet av att anpassa insikt från CNN till punktmoln världen. Punktmoln saknar till sin natur topologisk information, så att utforma en modell för att återställa topologi kan berika representationskraften hos punktmoln. I detta syfte föreslår vi en ny neural nätverksmodul dubbad EdgeConv lämplig för CNN-baserade högnivåuppgifter på punktmoln, inklusive klassificering och segmentering. EdgeConv fungerar på diagram dynamiskt beräknade i varje lager av nätverket. Det är differentiable och kan anslutas till befintliga arkitekturer. Jämfört med befintliga moduler som arbetar i extrinsiskt utrymme eller behandlar varje punkt självständigt, EdgeConv har flera tilltalande egenskaper: Det innehåller lokal information grannskapet; det kan staplas tillämpas för att lära sig globala formegenskaper; och i flera lager system affinitet i funktion utrymme fångar semantiska egenskaper över potentiellt långa avstånd i den ursprungliga inbäddning. Vi visar prestandan för vår modell på standardriktmärken, inklusive ModelNet40, ShapeNetPart och S3DIS.
För att klara nuvarande begränsningar av punktmoln representationsmetoder, Wang et al. REF föreslår en grafrepresentation för punktmoln och visar förbättrade resultat i klassificerings- och segmenteringsuppgifter.
94,822
Dynamic Graph CNN for Learning on Point Clouds
{'venue': 'TOGS', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
4,239
Explosionen av bilddata på Internet har potential att främja mer sofistikerade och robusta modeller och algoritmer för att indexera, hämta, organisera och interagera med bilder och multimediadata. Men exakt hur sådana data kan utnyttjas och organiseras är fortfarande ett kritiskt problem. Vi introducerar här en ny databas som kallas "ImageNet", en storskalig ontologi av bilder som bygger på ryggraden i WordNet struktur. ImageNet syftar till att befolka majoriteten av de 80 000 synset av WordNet med ett genomsnitt av 500-1000 rena och full upplösning bilder. Detta kommer att resultera i tiotals miljoner kommenterade bilder organiserade av den semantiska hierarkin av WordNet. Detta papper erbjuder en detaljerad analys av ImageNet i dess nuvarande tillstånd: 12 delträd med 5247 synset och 3,2 miljoner bilder totalt. Vi visar att ImageNet är mycket större i skala och mångfald och mycket mer exakt än de nuvarande bilddataset. Att bygga en sådan stor databas är en utmanande uppgift. Vi beskriver datainsamlingen med Amazon Mechanical Turk. Slutligen illustrerar vi användbarheten av ImageNet genom tre enkla applikationer i objektigenkänning, bildklassificering och automatisk objektklustring. Vi hoppas att skala, noggrannhet, mångfald och hierarkisk struktur av ImageNet kan erbjuda oöverträffade möjligheter för forskare i datorseende samhället och bortom.
Den grundläggande idén är att bygga en hierarkisk struktur för att lära sig komplicerade visuella mönster från en storskalig databas REF.
206,597,351
ImageNet: A large-scale hierarchical image database
{'venue': '2009 IEEE Conference on Computer Vision and Pattern Recognition', 'journal': '2009 IEEE Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
4,240
ABSTRACT Random Number Generators (RNGs) är grunden för starka säkerhets- och integritetsåtgärder. Med ett ökande antal smarta enheter som är anslutna till Internet kommer efterfrågan på säker kommunikation bara att öka. En viktig utväxt av Internet-anslutna enheter är inbäddning av sensorer. Ändå finns det fortfarande en knapphet av bra protokoll för att ge sensorbaserade säkra RNG frön. I sin rå form, sensordata är en svag källa till RNG frön av två skäl: 1) motstående kontroll en skadlig part få kontroll över sensorn och generera en känd datasekvens och 2) collinearitet över sensorer-inherenta korrelerade sekvenser som genereras eftersom sensorer är inbäddade i samma enhet. Vi föreslår en ny såningsteknik som utnyttjar sensordata för att ge säkra frön för RNG. Med tanke på den nuvarande spridningen av sensorer och Internet-anslutning på smarta enheter, skulle denna teknik kunna öka cybersäkerheten på en rad olika områden, utan extra kostnader.
I REF föreslogs ett system för att så ett sensorbaserat slumptalsgeneratorsystem.
13,229,350
Sensor-Based Random Number Generator Seeding
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
4,241
Separation logik är en kraftfull programlogik för den statiska modulära verifieringen av imperativ program. Dynamisk kontroll av separationslogik kontrakt på gränserna mellan verifierade och opålitliga moduler är dock svårt, eftersom det kräver en att genomdriva (bland annat) som samtal från en verifierad till en opålitlig modul inte tillgång minnesresurser som för närvarande ägs av den verifierade modulen. I detta dokument föreslås en strategi för dynamisk kontraktskontroll genom att man förlitar sig på stöd för kapacitet, en välstuderad form av oförfalskade minnespekar som möjliggör finkornig, effektiv minnesåtkomstkontroll. Mer specifikt förlitar vi oss på en form av kapacitet som kallas linjär kapacitet för vilken hårdvaran hävdar att de inte kan kopieras. Vi formaliserar vår strategi som en helt abstrakt kompilator från ett statiskt verifierat källspråk till ett okontrollerat målspråk med stöd för linjär kapacitet. Den viktigaste insikten bakom vår kompilator är att minnesresurser som beskrivs av rumslig separationslogik predikat kan representeras i körtid av linjära förmågor. Kompilatorn är separation-logic-proof-directed: den använder separation logiken bevis för källprogrammet för att avgöra hur minnesåtkomst i källkodsprogrammet bör sammanställas till linjära kapacitetsåtkomster i målprogrammet. Den fullständiga abstraktionen egenskapen hos kompilatorn garanterar i huvudsak att sammanställda verifierade moduler kan interagera med opålitliga målspråk moduler som om de kompilerats från verifierad kod också.
I det samtidiga arbetet tillhandahåller REF en helt abstrakt kompilator från ett språk med specifikationer för separationslogik på opålitliga funktioner till en kapacitetsmaskin med linjär kapacitet.
198,986,216
Linear capabilities for fully abstract compilation of separation-logic-verified code
{'venue': 'PACMPL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
4,242
Abstract -I detta dokument har metoden för medelåtkomstkontroll (MAC) av den kommande fordonskommunikationsstandarden IEEE 802.11p simulerats i ett motorvägsscenario med periodisk sändning av tidskritiska paket (så kallade hjärtslag) i en situation mellan fordon och fordon. 802.11p MAC-metoden är baserad på bärar sense multiple access (CSMA) där noder lyssnar på den trådlösa kanalen innan de skickar. Om kanalen är upptagen, noden måste skjuta upp sin tillgång och under höga utnyttjandeperioder kan detta leda till obundna förseningar. Denna välkända egenskap hos CSMA är oönskad för tidskritisk kommunikation. Simuleringsresultaten visar att en specifik nod/fordon tvingas släppa över 80% av sina hjärtslag meddelanden eftersom ingen kanalåtkomst var möjlig innan nästa meddelande genererades. För att lösa detta problem, föreslår vi att använda självorganiserande tidsdelning flera åtkomst (STDMA) för realtid datatrafik mellan fordon. Denna MAC-metod tillämpas redan framgångsrikt i kommersiella övervakningstillämpningar för fartyg (AIS) och flygplan (VDL-läge 4). Våra första resultat visar att STDMA överträffar CSMA för tidskritiska trafiksäkerhetstillämpningar i ad hoc-fordonsnät.
I REF analyserade K. Bilstrup et al. ett motorvägsscenario med periodisk sändning av radiosignaler.
8,775,879
Evaluation of the IEEE 802.11p MAC Method for Vehicle-to-Vehicle Communication
{'venue': '2008 IEEE 68th Vehicular Technology Conference', 'journal': '2008 IEEE 68th Vehicular Technology Conference', 'mag_field_of_study': ['Computer Science']}
4,243
En 1,5 Mpixel RGBZ-bildsensor som samtidigt fångar färg (RGB) och tid för flygning (ToF) avstånd (Z) bilder presenteras. Medan ToF-sensorer är väldokumenterade [1, 2], få, om någon, monolitiska sensorer har rapporterats som fångar både räckvidd och färg. I en sensor [3], en kombinerad pixel struktur fångar färg och räckvidd, men förmodligen i sekventiella fält. Detta tillvägagångssätt tillåter inte samtidig infångning av räckvidd med färg, och pixelprestandan kan inte optimeras för varje läge. I tie papper introducerar vi en sensor som är utformad för att fånga färg och spänna samtidigt med individuellt optimerade pixlar. Det förväntas att framtida mobilkameror och kompakta DSC kommer att kunna fånga 3D stillbilder och videobilder och tillåta gestkontroll av vissa funktioner. ToF spännviddsavkänning har flera fördelar jämfört med stereo-imulering eller rörelsekomputerad 3D-avbildning, inklusive single-lins implementation, mindre intensiva datorkrav, och frihet från ocklusion artefakter. Monolitisk integration av färg- och ToF-omfångsavkänning för ett kamerasystem med en lins är viktigt för de konsumentapplikationer som kräver små-form-faktor-kameror med lägsta möjliga kostnad. I vår sensor kaklas färg (RGB) och intervall (Z) pixlar över bildplanet. Vår RGBZ sensor är modifierad från en 1920(H)×1080(V) 2Mpixel utbud av standard 2.5T pixel RGBG färg pixlar med 2,25μm tonhöjd. Varje rad på 3 rd med färgpixlar ersätts med en rad med Z-pixlar. Varje Z pixel är 2,25×9,0μm 2. Således RGBZ-kärnan består av två RGBG-färgkärnor och en Z-pixel. Det finns i huvudsak två interlacerade matriser: en 1920(H)×720(V) fysiska utbudet av färg pixlar med en inbäddad 480(H)×360(V) utbud av avstånd pixlar för totalt 1,55Mpixlar. Ett blockdiagram över den experimentella sensorn visas i bild. 22.7.1. Detta beslut riktar sig till medlemsstaterna. Färgbilderna drivs från vänster och läses upp högst upp i matrisen. Avståndspixlar drivs från höger och läses upp längst ner. Kolumnsignallinjer är separata för färg- och områdespixlar. ADC- och ToF-signalbehandling utförs offline. Varje Z pixel är en pinned fotodiod med två överföringsportar och två utgångsportar [4, 5]. För spännvidd är scenen upplyst med 850nm NIR lysdioder modulerade vid 20MHz. De två överföringsportarna TG1 och TG2 i Z pixel moduleras 180°o ut av fas med varandra vid 20MHz. I den ena fasen är den optiska signalen integrerad på en flytande diffusion (FD), och i den andra fasen kastas signalen med hjälp av en dräneringsdiffusion (DD). Detta engångsläge kräver att fyra fält samlas in, vilket motsvarar de fyra kvadreringsfaserna. Varje fasfält är integrerat och läs sedan ut. LED-modulationsfasen ändras för varje fält. Vår enkel-tapp-operation underlättar layoutdesign och minskar fast-mönsterbrus jämfört med traditionell två-tapp-drift, men SNR reduceras med en faktor på 2. Organisering av sensorn i intervall-pixel "stripes" möjliggör enklare routing av modulering-styrlinjer till området pixlar och leder till mindre högfrekvent kontaminering av färg pixlar. Det finns flera kompromisser i att välja förhållandet mellan färg-pixel rader till Z-pixel rader för att optimera färg och räckvidd bildkvalitet. Till exempel, höga förhållanden resulterar i bättre färgupplösning men lägre ToF signal SNR och därmed mindre räckvidd noggrannhet. För denna sensor väljs ett förhållande på 2:1. Interpolering av saknade ränder av färginformation för att producera en 2Mpixel RGB bild kräver mer sofistikerade bildsignalprocessor (ISP) algoritmer än konventionella i RGBG sensor för avlägsnande av oönskade artefakter. Initial ISP-algoritm resultat på simulerade bilder visar goda resultat i undertrycka många artefakter. Arbetet med förbättrade algoritmer pågår. Den största riskpost som utforskas i detta arbete är implementation och prestanda av relativt små Z pixlar (2,25×9,0μm 2 ). Arbetet hittills har fokuserat på Z pixlar eftersom färgen pixlar har kommersiella produkt arv. Generellt mindre pixlar samlar färre signalelektroner, som med konventionella bildsensorer. Kommersiella ToF-bilder har typiska pixelyta i intervallet 900 till 1.600μm 2 men våra pixlar är 20μm 2 i area som dras. Bining kan vid behov anses öka SNR till priset av minskad upplösning. Från och med inlämningsdatumet har CFA och mikrolinser ännu inte tillämpats på RGBZ-pixlarna. En andra risk med den sammanflätade arkitekturen är dock avsaknaden av ett globalt smalbands-NIR-filter. Färgpixlar ska inte utsättas för NIR-ljus och avståndspixlar ska inte utsättas för synligt ljus. Synlig ljuskontaminering i Z-pixlarna undertrycks med hjälp av ett kommersiellt tillgängligt synligt ljusblockerande filter och normala ToF-signalbehandlingsmetoder. Hittills är pixel-wise NIR-block filterteknik för färg pixlar inte tillfredsställande. I vår främre-belysta (FSI) sensor sträcker sig Z pixlarna i sidled under RGB pixlarna för att samla in NIR-genererade fotoelektroner. Ett särskilt djupt implantat under RGB pixlar separerar de synliga (vertikala) från NIR (laterala) bärare insamling regioner. Figur 22.7.2 förklarar hur implantatet utökar det effektiva området av Z pixlar till ca 6,75×9,0μm 2 och minskar oönskade NIR-signal i färgen pixlar. Graden av sidoförlängning beror på anordningens epi-lagertjocklek. För närvarande är det bara 3.0μm, så den laterala förlängningseffekten är liten. Undertryckning av resterande NIR "floggning" av färg pixlar utförs av ISP med hjälp av NIR-signalen samlas in av Z pixel som referens. Simuleringar visar att bra NIR dimdämpning är möjligt. Ett annat tillvägagångssätt för backside-belysta RGBZ-sensorer undersöks separat. Avläsningselektronik för denna lilla sensor hålls så enkelt som möjligt som visas i Bild. 22.7.3. Detta beslut träder i kraft den tjugonde dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. Kretsarna liknar dem som används i tidiga CMOS-bildsensorprototyper, vilket är användbart för ToF-omgivning [6]. På grund av deras låga sofistikeringsgrad är analoga avläsningshastigheter för sensorn låga: ca 1 Mpixel/s. Den experimentella sensorn är tillverkad i en 0,13 μm FSI CMOS bildsensor process, med några ytterligare implantat steg. En urvalsbild visas i bild. 22.7.4. Detta beslut träder i kraft den tjugonde dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. Avståndslinearitet och fel visas i bild. 22.7.5. En tabell som jämför prestandan hos den inbyggda intervallsensorn med andra rapporterade avståndssensorer visas i bild. 22.7.6, 7. 6, 7. 8. 8. 8. 8. 8. 8. 8. 8. 8. 8. 8. 8. 8. 8. 8. 8. 8. 8. 8. 8. 8. 8. 8. 8. 8. 8. 8. 8. 8. 8. 8. 8. 7. 8. 8. 7. 8. 7. 8. 7. 8. 7. 8. 8. 8. 7. 8. 8. 8. 7. 8. 8. 8. 8. 7. 8. 8. 8. 7. 7. 8. 8. 7. 7. 7. 8. 7. 8. 7. 7. 8. 7. 8. 7. 7. 8. 8. 7. 7. 8. 8. 7. 8. 8. 8. 8. 7. 8. 7. 8. 8. 7. 8. 7. 7. 7. 8. 8. 7. 8. 7. 7. 7. 8. 7. 7. 8. 8. 8. 8. 8. 8. 8. 7. 7. 7. 7. 8. 7. 7. 8. 8. 8. 7. 7. 7. 8. 8. 8. 8. 8. 8. 8. 8. 8. 8. 8. 8. 8. 8. En die mikrograph visas i bild. 22.7.7. Det ses att trots den lilla dragna Z-pixel storlek, prestanda för den inbyggda intervallet sensor, utan binning eller Gaussian-kernel konvolution, är jämförbar med avståndsgivare med större bildpunkter, och att sensorn har tillräcklig prestanda för att möjliggöra många tillämpningar. Framtida arbete kommer att behöva visa att de modellerade NIR dimma korrigering algoritmer ger den förväntade prestandan. Vid den här tiden är vi dock mycket uppmuntrade av ISP-simuleringar och experimentella resultat som erhållits med den undersökande RGBZ-sensorn. [1] R. Miyagawa och T. Kanade, "CCD-baserad mätsensor", IEEE Trans.
Ett exempel finns i REF, där en RGBZ-bildsensor som fångar färgen (röd-grön-blå) och djupinformation (Z) presenteras.
16,138,695
A 1.5Mpixel RGBZ CMOS image sensor for simultaneous color and range image capture
{'venue': '2012 IEEE International Solid-State Circuits Conference', 'journal': '2012 IEEE International Solid-State Circuits Conference', 'mag_field_of_study': ['Computer Science']}
4,244
Vi introducerar Adam, en algoritm för första ordningens gradientbaserad optimering av stokastiska objektiva funktioner. Metoden är enkel att genomföra och baseras på adaptiva uppskattningar av lägre ordning moment av gradienterna. Metoden är beräkningseffektiv, har små minneskrav och är väl lämpad för problem som är stora när det gäller data och/eller parametrar. Metoden är också lämplig för icke-stationära mål och problem med mycket bullriga och / eller glesa gradienter. Metoden uppvisar variation till diagonal skalning av gradienterna genom att anpassa sig till geometrin hos den objektiva funktionen. Hyper-parametrarna har intuitiva tolkningar och kräver vanligtvis lite inställning. Vissa kopplingar till relaterade algoritmer, som Adam inspirerades av, diskuteras. Vi analyserar också algoritmens teoretiska konvergensegenskaper och beklagar den konvergenshastighet som är jämförbar med de mest kända resultaten under online-ramverket för konvex optimering. Vi visar att Adam fungerar bra i praktiken och jämför gynnsamt med andra stokastiska optimeringsmetoder. * Lika lön. Författaren beställer bestäms av mynt vända över en Google Hangout.
Adam är den mest populära metoden eftersom det är beräkningseffektivt och kräver lite inställning REF.
6,628,106
Adam: A Method for Stochastic Optimization
{'venue': 'ICLR 2015', 'journal': 'arXiv: Learning', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
4,245
Även om miljontals användare hämtar och använder tredje part Android-program från Google Play butik, är lite information känd på en aggregerad nivå om dessa program. Vi har byggt PlayDrone, den första skalbara Google Play butik crawler, och använde den för att indexera och analysera över 1.100.000 program i Google Play butik på en daglig basis, den största sådan index av Android-program. PlayDrone utnyttjar olika hackingtekniker för att kringgå Googles vägspärrar för indexering av Google Play-butikens innehåll och gör egenutvecklade programkällor tillgängliga, inklusive källkod för över 880.000 kostnadsfria applikationer. Vi demonstrerar nyttan av PlayDrone i att dekompilera och analysera programinnehåll genom att utforska fyra tidigare oadresserade frågor: karakteriseringen av Google Play-programmets innehåll i stor skala och dess utveckling över tid, biblioteksanvändning i applikationer och dess inverkan på programportabilitet, duplicativt programinnehåll i Google Play, och ineffektiviteten av OAuth och relaterade mekanismer för tjänsteautentisering vilket resulterar i att skadliga användare enkelt kan få obehörig tillgång till användardata och resurser på Amazon Web Services och Facebook.
PlayDrone REF utförde också en storskalig karakterisering av 1,1 miljoner appar som publicerades i Google Play.
16,225,105
A measurement study of google play
{'venue': "SIGMETRICS '14", 'journal': None, 'mag_field_of_study': ['Computer Science']}
4,246
Blockchain är kärnteknologin som används för att skapa kryptovalutan, som bitcoin. Som en del av den fjärde industriella revolutionen sedan uppfinnandet av ångmaskin, el och informationsteknik har blockkedjeteknik tillämpats på många områden såsom finans, rättsväsende och handel. Det aktuella dokumentet fokuserade på dess potentiella pedagogiska tillämpningar och utforskade hur blockkedjeteknik kan användas för att lösa vissa utbildningsproblem. Denna artikel introducerade först funktioner och fördelar med blockchain teknik efter genom att utforska några av de nuvarande blockchain applikationer för utbildning. Vissa innovativa tillämpningar av att använda blockkedjeteknik föreslogs, och fördelarna och utmaningarna med att använda blockkedjeteknik för utbildning diskuterades också.
Författarna till REF introducerar funktioner och fördelar med blockchain-teknik och utforska några av de nuvarande blockchain-tillämpningarna för utbildning.
10,866,413
Exploring blockchain technology and its potential applications for education
{'venue': 'Smart Learning Environments', 'journal': 'Smart Learning Environments', 'mag_field_of_study': ['Computer Science']}
4,247
Vi föreslår och studerar problemet med distributionsbevarande förlustkompression. Motiverad av de senaste framstegen i extrem bildkompression som gör det möjligt att upprätthålla artefaktfria rekonstruktioner även vid mycket låga bithastigheter, föreslår vi att optimera hastighetsförvrängning kompromiss under tvånget att de rekonstruerade proverna följer fördelningen av träningsdata. Det resulterande kompressionssystemet återvinner båda ändarna av spektrumet: Å ena sidan, på noll bitrate det lär sig en generativ modell av data, och på hög nog bitrates det uppnår perfekt rekonstruktion. Dessutom, för mellanliggande bithastigheter det smidigt interpolerar mellan att lära sig en generativ modell av träningsdata och perfekt rekonstruera träningsprover. Vi studerar flera metoder för att ungefär lösa det föreslagna optimeringsproblemet, inklusive en ny kombination av Wasserstein GAN och Wasserstein Autoencoder, och presenterar en omfattande teoretisk och empirisk karakterisering av de föreslagna kompressionssystemen.
REF försöker ta itu med samma problem genom att införa en distributionsmatchningsrestriktion, där de rekonstruerade proverna uppmuntras att följa utbildningsdatadistributionen.
44,145,142
Deep Generative Models for Distribution-Preserving Lossy Compression
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
4,248
I detta dokument behandlas problemet med djupuppskattning från en enda stillbild. Inspirerad av nya arbeten på flerskaliga konvolutionella neurala nätverk (CNN), föreslår vi en djup modell som säkrar kompletterande information som härrör från flera CNN sida utgångar. Avvikande från tidigare metoder erhålls integrationen med hjälp av kontinuerliga villkorliga slumpmässiga fält (CRF). I synnerhet föreslår vi två olika varianter, en baserad på en kaskad av flera CRF, den andra på en enhetlig grafisk modell. Genom att utforma en ny CNN implementering av medelfältsuppdateringar för kontinuerliga CRF, visar vi att båda föreslagna modeller kan betraktas som sekventiella djupa nätverk och att utbildning kan utföras end-to-end. Genom en omfattande experimentell utvärdering visar vi hur effektivt det föreslagna tillvägagångssättet är och etablerar nya toppresultat på allmänt tillgängliga dataset.
Xu och al. REF säkring kompletterande information som härrör från flera CNN sidoutgångar genom att använda kontinuerliga CRF.
4,396,708
Multi-scale Continuous CRFs as Sequential Deep Networks for Monocular Depth Estimation
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
4,249
På grund av dess optimalitet på en enda maskin för problemet med att minimera genomsnittlig flödestid, Kortaste-Remaining-Processing-Time (SRPT) verkar vara den mest naturliga algoritmen att överväga för problemet med att minimera genomsnittlig flödestid på flera identiska maskiner. Det är känt att SRPT uppnår bästa möjliga konkurrensförhållande på flera maskiner upp till en konstant faktor. Med hjälp av resursförstärkning är SRPT känt för att uppnå total flödestid som mest den optimala lösningen när det ges maskiner med hastighet 2 − 1 m. Dessutom är det känt att SRPT konkurrenskraftiga förhållandet förbättras när hastigheten ökar; SRPT är s-hastighet 1 s - konkurrenskraftiga när s ≥ 2 − 1 m. Emellertid har en lucka kvar i vår förståelse av SRPT. Innan detta arbete, prestanda SRPT var inte känt när SRPT ges (1 + ) hastighet när 0 < 1 - 1 m, även om det har trotts att SRPT är (1 + )-hastighet O(1)-konkurrenskraft i över ett decennium. Lösa denna fråga föreslogs i Open Problem 2.9 från undersökningen "Online Scheduling" av Pruhs, Sgall och Torng [PST04], och vi svarar på frågan i denna tidning. Vi visar att SRPT är skalbart på m identiska maskiner. Det vill säga, vi visar SRPT är (1 + )-hastighet O( 1 )-konkurrenskraft för > 0. Vi kompletterar detta genom att visa att SRPT är (1 + )-hastighet O( 1 2 )-konkurrenskraft för målet att minimera k - norms av flödestid på m identiska maskiner. Båda våra resultat bygger på nya potentiella funktioner som fångar upp strukturen i SRPT. Våra resultat, i kombination med tidigare arbete, visar att SRPT är den bästa möjliga online-algoritmen i princip varje aspekt när migration är tillåten.
I synnerhet har SRPT visat sig vara (1 + ) − hastighet 4 − konkurrenskraftig för total flödestid på m identiska maskiner under den enda uppgift fall REF.
315,963
Online scheduling on identical machines using SRPT
{'venue': "SODA '11", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
4,250
Vi presenterar en ny metod för online multi-mål spårning baserat på återkommande neurala nätverk (RNN). Spåra flera objekt i verkliga scener innebär många utmaningar, inklusive a) en a-prioriterad okänd och tidsvariation antal mål, b) en kontinuerlig tillståndsuppskattning av alla nuvarande mål, och c) en diskret kombinatoriska problem data association. De flesta tidigare metoder omfattar komplexa modeller som kräver tråkig inställning av parametrar. Här föreslår vi för första gången en end-to-end-inlärningsstrategi för flermålsspårning online. Befintliga djupt lärande metoder är inte utformade för ovanstående utmaningar och kan inte trivialt tillämpas på uppgiften. Vår lösning tar upp alla ovanstående punkter på ett principfast sätt. Experiment på både syntetiska och verkliga data visar lovande resultat som erhållits vid 300 Hz på en standard CPU, och bana väg för framtida forskning i denna riktning.
Till exempel föreslår Ref första gången en end-to-end inlärningsmetod som använder RNN för att modellera målrörelsen.
338,104
Online Multi-Target Tracking Using Recurrent Neural Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
4,251
Förmågan att genomdriva robusta och dynamiska åtkomstkontroller på moln-värdade data samtidigt säkerställa sekretess med avseende på molnet i sig är ett tydligt mål för många användare och organisationer. I detta syfte har det funnits mycket kryptografisk forskning som föreslår användning av (hierarkisk) identitetsbaserad kryptering, attributbaserad kryptering, predikering kryptering, funktionell kryptering och relaterad teknik för att utföra robust och privat åtkomstkontroll på opålitliga molnleverantörer. Det stora flertalet av dessa arbeten studerar dock statiska modeller där tillträdeskontrollpolitiken inte förändras över tid. Detta strider mot behoven hos de flesta praktiska tillämpningar som utnyttjar dynamiska data och/eller strategier. I detta dokument visar vi att den kryptografiska tillämpningen av dynamiska åtkomstkontroller på opålitliga plattformar medför kostnader för beräkning som sannolikt är oöverkomliga i praktiken. Speciellt utvecklar vi lätta konstruktioner för att genomdriva rollbaserade åtkomstkontroller (dvs. RBAC0) över molnvärdiga filer med hjälp av identitetsbaserad och traditionell öppen kryptering. Detta görs under en hotmodell så nära den som antas i den kryptografiska litteraturen som möjligt. Vi bevisar riktigheten i dessa konstruktioner, och utnyttja verkliga RBAC-datauppsättningar och nya tekniker som utvecklats av åtkomstkontrollgemenskapen för att experimentellt analysera, via simulering, deras tillhörande beräkningskostnader. Denna analys visar att stöd för återkallande, filuppdateringar och andra tillstånd förändring funktionalitet sannolikt kommer att medföra oöverkomliga overheads i även minimalt dynamiska, realistiska scenarier. Vi identifierar ett antal flaskhalsar i sådana system, och fruktbara områden för framtida arbete som kommer att leda till mer naturliga och effektiva konstruktioner för kryptografisk tillämpning av dynamiska åtkomstkontroller. Våra resultat sträcker sig naturligtvis till användning av mer uttrycksfulla kryptografiska primitiva (t.ex. HIBE eller ABE) och rikare passerkontrollmodeller (t.ex. RBAC1 eller ABAC).
Kryptobaserad åtkomst utforskas av kryptosystem REF såsom identitetsbaserad kryptering, ABE, predikering av kryptering och funktionell kryptering.
203,681
On the Practicality of Cryptographically Enforcing Dynamic Access Control Policies in the Cloud
{'venue': '2016 IEEE Symposium on Security and Privacy (SP)', 'journal': '2016 IEEE Symposium on Security and Privacy (SP)', 'mag_field_of_study': ['Computer Science']}
4,252
ABSTRACT Mobile edge computing (MEC) som tillhandahåller informationsteknik och molndatafunktioner inom radioaccessnätet är en ny teknik i femte generationens nät. MEC kan utöka beräkningskapaciteten för smarta mobila enheter (SMD) och spara SMD:s energiförbrukning genom att migrera den beräkningsintensiva uppgiften till MEC-servern. I det här dokumentet anser vi att det finns ett MEC-system med flera användare, där flera SMD-enheter begär avlastning av beräkning till en MEC-server. För att minimera energiförbrukningen på SMD optimerar vi gemensamt avlastningen av val, tilldelning av radioresurser och den beräkningsmässiga resurstilldelningen på ett samordnat sätt. Vi formulerar energiförbrukningen minimering problem som en blandad interger ickelinjär programmering (MINLP) problem, som är föremål för specifika tillämpning latency begränsningar. För att lösa problemet föreslår vi en omformuleringslinjärisering-teknik-baserad Branch-and-Bound (RLTBB) metod, som kan få det optimala resultatet eller ett suboptimalt resultat genom att ställa in upplösningsnoggrannheten. Med tanke på komplexiteten i RTLBB kan vi inte garantera att vi även utformar en Gini koefficientbaserad girig heuristisk (GCGH) för att lösa MINLP-problemet i polynomisk komplexitet genom att försämra MINLP-problemet i konvexa problem. Många simuleringsresultat visar energibesparande förbättringar av RLTBB och GCGH.
För att minimera den totala energiförbrukningen på smarta mobila enheter (SMD) under angivna latensbegränsningar optimerar REF gemensamt avlastningsvalet, radio- och beräkningsresurstilldelningen samordnat med skalbar CPU-frekvens.
5,818,854
Energy-Saving Offloading by Jointly Allocating Radio and Computational Resources for Mobile Edge Computing
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
4,253
Sammanfattning Denna artikel föreslår att syntetisera uttrycksfulla huvud- och ansiktsgester på talande avatar med hjälp av de tredimensionella njutnings-displeasure, upphetsande-nonarousal och dominanssubmissiveness (PAD) deskriptorer av semantisk expressivitet. PAD-modellen används för att överbrygga klyftan mellan textsemantik och visuella rörelseegenskaper med tre dimensioner av njutningsbegär, upphetsande-icke-upphetsande och dominans-undergivenhet. Baserat på korrelationsanalysen mellan PAD-anteckningar och rörelsemönster som härrör från huvud- och ansiktsrörelsedatabasen, föreslår vi att bygga en explicit kartläggning från PAD-deskriptorer till ansiktsanimeringsparametrar med linjär regression och neurala nätverk för huvudrörelse respektive ansiktsuttryck. En PAD-driven talande avatar i text-till-visuell-tal system genomförs genom att generera uttrycksfulla huvudrörelser på prosodisk ordnivå baserat på (P, A) deskriptorer av lexical bedömning, och ansiktsuttryck på meningsnivå enligt PAD deskriptorer av emotionell information. En serie av PAD omvänd utvärdering och jämförande perceptuella experiment visar att huvud- och ansiktsgester syntetiserade baserat på PAD-modellen avsevärt kan förbättra den visuella expressiviteten av talande avatar.
REF syntetiserade huvudet och ansiktet gester av ett talande medel med känslomässiga uttryck.
1,089,548
Head and facial gestures synthesis using PAD model for an expressive talking avatar
{'venue': 'Multimedia Tools and Applications', 'journal': 'Multimedia Tools and Applications', 'mag_field_of_study': ['Computer Science']}
4,254
I det framtida nätverket med sakernas Internet (IoT) kommunicerar var och en av sakerna med de andra och får information av sig själv. I distribuerade nätverk för sakernas internet, är energieffektiviteten i noderna en nyckelfaktor i nätverkets prestanda. I detta dokument föreslår vi energieffektiv probabilistisk routing (EPR) algoritm, som styr överföringen av routing begäran paket stochastically för att öka nätverkets livslängd och minska paketförlusten under översvämningsalgoritmen. Den föreslagna EEPR-algoritmen antar energieffektiv probabilistisk kontroll genom att samtidigt använda restenergin från varje nod och ETX metrisk inom ramen för det typiska AODV-protokollet. I simuleringarna verifierar vi att den föreslagna algoritmen har längre nätverkslivslängd och förbrukar restenergin från varje nod mer jämnt jämfört med det typiska AODV-protokollet.
Den energieffektiva Probabilistic RoutingEEPR algoritm för sakernas internet inkluderar en tillämpning av både restenergin nod och det förväntade överföringsvärdet i den, för att bestämma routing mätvärden på samma gång REF.
32,179,224
Energy-Efficient Probabilistic Routing Algorithm for Internet of Things
{'venue': 'J. Applied Mathematics', 'journal': 'J. Applied Mathematics', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
4,255
Bas-relieferna är en form av tillplattad konst, delvis mellan 3D-skulptur och 2D-målning. Nyligen forskning har övervägt automatisk bas-relief generation från 3D scener. Men lite arbete har tagit upp generation av bas-reliefer från 2D-avbildningar. I detta dokument föreslår vi en metod för att automatiskt generera basreliefytor från frontalfotografier av mänskliga ansikten, med potentiella tillämpningar till t.ex. mynt och minnesmedaljer. Vår metod har två steg. Med utgångspunkt från ett fotografi av ett mänskligt ansikte skapar vi först en trovärdig bild av en basrelief av samma ansikte. För det andra tillämpar vi form-från-formning till denna genererade bas-relief bild för att bestämma 3D formen av den slutliga bas-relief. För att modellera kartläggningen från ett indatafoto till bilden av en motsvarande basrelief använder vi ett feedforward-nätverk. Utbildningsdata omfattar bilder som genereras från en indata 3D-modell av ett ansikte, och bilder som genereras från en motsvarande basrelief; den senare produceras av en befintlig 3D-modell-till-bas-relief-algoritm. En översiktskarta över ansiktet styr både modellbyggnad och basreliefgenerering. Våra experimentella resultat visar att de genererade basrelief ytorna är släta och rimliga, med rätt global geometrisk natur, den senare ger dem ett stabilt utseende under förändringar av visning riktning och belysning.
Vårt tidigare arbete REF noterade att bilder av verkliga basreliefer inte ungefärliga bilder av motsvarande 3D-objekt.
13,789,582
Making Bas-reliefs from Photographs of Human Faces
{'venue': 'Comput. Aided Des.', 'journal': 'Comput. Aided Des.', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
4,256
Frekvent app buggar och låg tolerans för förlust av funktionalitet skapar en drivkraft för självläkande smartphone programvara. Vi tar ett steg mot detta genom upptäckt av fel i flygningen och automatisk patchning. Specifikt lägger vi till feldetektering och återhämtning till Android genom att upptäcka krascher och "försegla" den kraschande delen av appen för att undvika framtida krascher. I detektionsfasen analyserar vårt system dynamiskt apputförande för att upptäcka vissa exceptionella situationer. I återhämtningsfasen använder vi bytecode rewriting för att ändra appbeteendet för att undvika sådana situationer i framtiden. När vi använder vår implementation kan appar återuppta driften (om än med begränsad funktionalitet) istället för att upprepade gånger krascha. Vårt tillvägagångssätt kräver inte åtkomst till app källkod eller något system (t.ex., kärnnivå) modifiering. Experiment på flera verkliga, populära Android-appar och buggar visar att vår strategi lyckas återställa apparna från krascher effektivt, i tid och utan att införa overhead.
Azim m.fl. REF presentera en självläkande strategi för att automatiskt upptäcka fel och patch Android-appar för att undvika krascher.
15,892,553
Towards self-healing smartphone software via automated patching
{'venue': "ASE '14", 'journal': None, 'mag_field_of_study': ['Computer Science']}
4,257
Abstract-I detta dokument studerar vi resurstilldelningen i en enhet-till-enhet (D2D) kommunikation underliggande gröna cellulära nätverk, där basstationen (BS) drivs av hållbar energi. Vårt mål är att förbättra nätverkets hållbarhet och effektivitet genom att införa maktstyrning och samarbetskommunikation. Vi föreslår särskilt optimala kraftanpassningssystem för att maximera näteffektiviteten under två praktiska kraftbegränsningar. Vi tar sedan hänsyn till dynamiken i laddnings- och urladdningsprocesserna för energibufferten för att säkerställa nätverkets hållbarhet. För detta ändamål modelleras energibufferten som en G/D/1-kö där den ingående energin har en allmän distribution. System för energitilldelning föreslås på grundval av statistiken över energibufferten för att förbättra näteffektiviteten och hållbarheten. Både teoretiska analyser och numeriska resultat visar att våra föreslagna kraftfördelningssystem kan förbättra nätgenomströmningen drastiskt samtidigt som nätverkets hållbarhet upprätthålls på en viss nivå.
Resurstilldelning för D2D-kommunikation underliggande cellulära nät som drivs med förnybara energikällor undersöktes i REF.
17,474,448
Optimizing Network Sustainability and Efficiency in Green Cellular Networks
{'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
4,258
I det här dokumentet studerar vi problemet o f 3D object de tection från stereobilder, där den viktigaste utmaningen är hur man effektivt kan använda stereoinformation. Olika från tidigare metoder med hjälp av pixel -nivå 3D objektdetektion syftar till att lokalisera amodal 3D begränsande rutor av objekt av specifika klasser i 3D utrymme [,, 18,29]. Detektionsuppgiften är relativt enklare [,, 15] när aktiva 3D-skanningsdata tillhandahålls. De aktiva avsökningsdata är dock av hög kostnad och begränsad skalbarhet. Vi tar itu med problemet med 3D-detektering från passiva bilddata, som kräver endast billig hårdvara, anpassa sig till olika skalor av objekt, och erbjuder fruktbara semantiska funktioner. Monocular 3D-detektion med en enda RGB-bild är mycket illa placerad på grund av den tvetydiga kartläggningen från 2D-bilder till 3D-geometrier, men fortfarande lockar forskning ef forts [, 3 ] på grund av sin enkelhet i design. Att lägga till fler ingångsvyer kan ge mer information för 3D-resonemang, vilket allmänt demonstreras i den traditionella multi-view geometrin [ ] området genom att hitta täta patch-nivåkorrespondenser för punkter och sedan uppskatta deras 3D platser genom triangulation. De geometriska meth ods hanterar patch-nivå punkter med lokala funktioner, medan inga semantiska ledtrådar på objektnivå beaktas. Stereo data med par av bilder är mer lämpliga för 3D-detektering, eftersom skillnaderna mellan vänster och höger bild kan avslöja spacial varians, särskilt i djup dimension. Medan omfattande arbete [, 2', ] har gjorts på djupt lärande baserad stereo matchning, är deras huvudsakliga fokus på pixel nivå snarare än objektnivå. 3DOP [ ] använder stereobilder för 3D-objektdetektering och uppnår toppmoderna resultat. Men senare visar vi att vi kan få resultat av jämförelser med hjälp av endast en monokulär bild, genom att placera 3D-ankare på rätt sätt och utvidga det regionala förslagets nettoarbete (RPN) [ ] till 3D. Därför är vi motiverade att på nytt överväga hur man bättre kan utnyttja potentialen hos stereobilder för exakt 3D-objektdetektering. I detta dokument föreslår vi stereon Triangulation Learning Network (TLNet) för 3D-objektdetektering från stereobilder, som är fri från beräkning pixel-nivå djupkartor och kan enkelt integreras i baslinje monoc iular detektor. Nyckelidén är att använda en 3D-ankarlåda för att explicit konstruera geometriska korrespondenser på objektnivå av dess två projektioner på ett par stereobilder, från vilka nätverket lär sig att triangulera ett målobjekt nära ankaret. I det föreslagna TLNet introducerar vi en 978-7281-3293-
TLNet REF projekterar den fördefinierade ankarboxen till stereobilder för att få ett par RoIs, lär sig att kompensera dessa RoIs, och använder triangulering för att lokalisera objekten.
174,798,054
Triangulation Learning Network: From Monocular to Stereo 3D Object Detection
{'venue': '2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
4,259
Decentraliserad optimering är ett lovande paradigm som finner olika tillämpningar inom ingenjörsvetenskap och maskininlärning. I detta arbete studeras decentraliserade kompositoptimeringsproblem med en icke-smooth legaliseringsterm. De flesta befintliga gradientbaserade proximala decentraliserade metoder visas konvergera till den önskade lösningen med sublinjära hastigheter, och det är fortfarande oklart hur man kan bevisa linjär konvergens för denna familj av metoder när den objektiva funktionen är starkt konvex. För att ta itu med detta problem anser detta arbete att den icke-smooth legalisering termen är gemensam för alla nätverksagenter, vilket är fallet för de flesta centraliserade maskininlärning implementationer. Under detta scenario designar vi en proximal gradient decentraliserad algoritm vars fasta punkt sammanfaller med önskad minimering. Vi ger sedan ett koncist bevis som fastställer dess linjära konvergens. I avsaknad av den icke-smooth termen täcker vår analysteknik några välkända decentraliserade algoritmer som EXTRA [1] och DIGing [2].
För att fastställa den globala linjära konvergensen anser detta arbete att det icke-smooth-termen är gemensam för alla agenter REF.
159,041,464
A Linearly Convergent Proximal Gradient Algorithm for Decentralized Optimization
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
4,260
Drivs av utvecklingen av positioneringsteknik och populariteten av platsdelningstjänster, har semantiska-berikade bana data blivit oöverträffat tillgängliga. De sekventiella mönster som döljs i sådana data, när de definieras och extraheras på rätt sätt, kan i hög grad gynna uppgifter som riktad reklam och stadsplanering. Tyvärr, klassiska sekventiella mönster gruvalgoritmer som utvecklats för transaktionsdata kan inte effektivt gruvmönster i semantiska banor, främst eftersom platserna i det kontinuerliga utrymmet inte kan betraktas som oberoende "poster". I stället måste liknande platser grupperas för att tillsammans bilda frekventa sekventiella mönster. Med det sagt, det är fortfarande en utmanande uppgift att bryta vad vi kallar finkorniga sekventiella mönster, som måste tillfredsställa rumslig kompaktitet, semantisk konsistens och tidskontinuitet samtidigt. Vi föreslår SPLITTER att effektivt bryta sådana finkorniga sekventiella mönster i två steg. I det första steget, den hämtar en uppsättning rumsligt grova mönster, var och en ansluten med en uppsättning av bana sippets som exakt registrerar mönstrets förekomster i databasen. I det andra steget bryter SPLITTER varje grovt mönster till finkorniga på ett uppifrån-och-ner-sätt, genom att gradvis upptäcka täta och kompakta kluster i ett högre dimensionerat utrymme som spänns av snipporna. SPLITTER använder en effektiv algoritm som kallas viktad snippet skifte för att upptäcka sådana kluster, och utnyttjar en split-and-conquer strategi för att påskynda top-down mönster uppdelningsprocessen. Våra experiment på både verkliga och syntetiska datauppsättningar visar effektiviteten och effektiviteten hos SPLITTER.
Zhang m.fl. REF introducerar en top-down-strategi för gruva finkorniga rörelsemönster från semantiska banor.
11,228,192
Splitter: Mining Fine-Grained Sequential Patterns in Semantic Trajectories
{'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']}
4,261
I detta arbete studerar vi 3D-objektdetektering från RGB-D-data i både inomhus- och utomhusscener. Medan tidigare metoder fokuserar på bilder eller 3D voxels, ofta dunkla naturliga 3D-mönster och invarianter av 3D-data, vi arbetar direkt på råpunktmoln genom att poppa upp RGB-D skanningar. En viktig utmaning för detta tillvägagångssätt är dock hur man effektivt kan lokalisera objekt i punktmoln av storskaliga scener (regionförslag). Istället för att enbart förlita sig på 3D-förslag utnyttjar vår metod både mogna 2D-objektdetektorer och avancerade 3D-djupinlärning för objektlokalisering, för att uppnå effektivitet och hög recall för även små objekt. Med fördel av att lära sig direkt i råa punktmoln, vår metod kan också exakt uppskatta 3D avgränsande lådor även under stark ocklusion eller med mycket glesa punkter. Utvärderad på KITTI och SUN RGB-D 3D detektionsriktmärken, vår metod överträffar den senaste tekniken med anmärkningsvärda marginaler samtidigt som den har kapacitet i realtid.
REF utnyttjar mogna 2D-objektdetektorer för att lära sig direkt från 3D-punktmoln.
4,868,248
Frustum PointNets for 3D Object Detection from RGB-D Data
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
4,262
Abstract-This paper presenterar en effektiv algoritm för segmentering av olika typer av lungknutor inklusive höga och låga kontrastknutor, knutor med vaskulatur fäste, och knutor i närheten av lungväggen eller membran. Algoritmen utför en adaptiv sfärisk kontrastregion som växer på den suddiga konnektivitetskartan över objektet av intresse. Denna region växer drivs inom en volymetrisk mask som skapas genom att först tillämpa en lokal adaptiv segmenteringsalgoritm som identifierar förgrunds- och bakgrundsregioner inom en viss fönsterstorlek. Förgrundsobjekten fylls sedan för att ta bort eventuella hål, och en rumslig konnektivitetskarta skapas för att skapa en 3-D mask. Masken förstoras sedan till att innehålla bakgrunden samtidigt som oönskade förgrundsområden utesluts. Förutom att generera en begränsad sökvolym, masken används också för att uppskatta parametrarna för den efterföljande regionen odling, samt för att omplacera utsädespunkten för att säkerställa reproducerbarhet. Metoden användes på 815 pulmonella knölar. Genom att använda slumpmässigt placerade fröpunkter visade sig metoden vara fullt reproducerbar. När det gäller godtagbarhet inspekterades segmenteringsresultaten visuellt av en kvalificerad radiolog för att söka efter någon större missindelning. 84% av de första resultaten av segmenteringen accepterades av radiologen, medan för de återstående 16% nodule, alternativa segmenteringslösningar som tillhandahölls genom metoden valdes.
Jamshid Dehmeshki kombinerade regionen växande och den luddiga konnektivitet regionen växande strategier i papper REF.
1,631,959
Segmentation of Pulmonary Nodules in Thoracic CT Scans: A Region Growing Approach
{'venue': 'IEEE Transactions on Medical Imaging', 'journal': 'IEEE Transactions on Medical Imaging', 'mag_field_of_study': ['Medicine', 'Mathematics', 'Computer Science']}
4,263
Abstract-This paper presenterar en ny inomhusnavigering och spänner strategi med hjälp av en monocular kamera. De föreslagna algoritmerna är integrerade med samtidig lokalisering och kartläggning (SLAM) med fokus på tillämpningar för inomhusluftfartyg. Vi validerar experimentellt de föreslagna algoritmerna med hjälp av ett helt fristående mikroantennfordon (MAV) med bildbehandling ombord och SLAM-funktioner. Räckviddsmätningsstrategin är inspirerad av de viktigaste adaptiva mekanismerna för djupuppfattning och mönsterigenkänning som finns hos människor och intelligenta djur. Navigationsstrategin förutsätter en okänd, GPS-förnekad miljö, som kan representeras via hörnliknande funktionspunkter och raka arkitektoniska linjer. Experimentella resultat visar att systemet endast begränsas av kamerans kapacitet och tillgången till bra hörn.
Nyligen, Celik et al. REF presenterade sitt system för inomhus SLAM med hjälp av en monokulär kamera och ultraljud.
1,127,205
Monocular vision SLAM for indoor aerial vehicles
{'venue': '2009 IEEE/RSJ International Conference on Intelligent Robots and Systems', 'journal': '2009 IEEE/RSJ International Conference on Intelligent Robots and Systems', 'mag_field_of_study': ['Computer Science']}
4,264
Att matcha efterfrågan på resurser ("belastning") med tillgången på resurser ("kapacitet") är ett grundläggande problem som uppstår inom många områden inom teknik, logistik och ekonomi och har övervägts i stor utsträckning både på Internet och i trådlösa nät. Den pågående utvecklingen av cellulära kommunikationsnät till täta, organiska och oregelbundna heterogena nätverk ("HetNets") har ökat lastmedvetenheten till ett centralt problem, och introducerar många nya finesser. Detta dokument förklarar hur flera långvariga antaganden om cellulära nätverk behöver omprövas i samband med en belastningsbalanserad HetNet: vi belyser dessa som tre djupt rotade myter som vi sedan skingrar. Vi undersöker och jämför de primära tekniska förhållningssätten till HetNet belastningsbalansering: (centraliserad) optimering, spelteori, Markov beslutsprocesser, och den nyligen populära cellområdet expansion (alias. "Publicering"), och dra konstruktionslektioner för ODDMA-baserade cellulära system. Vi identifierar också flera öppna områden för framtida prospektering. Mobila nätverk blir alltmer komplicerade, med heterogenitet i många olika designdimensioner. Till exempel kan en typisk smarttelefon ansluta till Internet via flera olika radiotekniker, inklusive 3G-cell (t.ex. HSPA eller EVDO), LTE och flera typer av WiFi (t.ex. 802.11g, n, eller ac), där vart och ett av dessa använder flera icke-överlappande frekvensband. Mobila basstationer (BS) blir också allt mer varierande, med traditionella makroceller ofta krymper till mikroceller, och ytterligare kompletteras med picocells, distribuerade antenner, och femtocells. Denna myt är djupt rotad inom områdena kommunikation och informationsteori, och faktiskt, även i de "fem bars" display på praktiskt taget varje mobiltelefon som existerar. Det var sant konventionellt, och är fortfarande "instantant". Till exempel är sannolikheten för korrekt detektion för en given konstellation monotont relaterad till detektionstiden SINR (dvs. eventuella kvarstående störningar som inte avlägsnats av mottagaren behandlas som buller), vilket bekräftas i alla kommunikationsteorier. Avbrott är också vanligtvis tänkt i termer av ett mål SINR, nämligen sannolikheten för att vara under det. Dessutom säger informationsteorin oss att uppnåelig datahastighet följer B log(1 + SNR), eller B log(1 + SINR) om interferensen modelleras som Gaussian brus, där B är bandbredden. Att öka datahastigheten verkar därför komma ner till att öka SNR (eller SINR) - vilket ger minskande avkastning på grund av loggen - eller förvärva mer bandbredd. Den kritiska saknade biten är belastningen på BS, som ger en vy av resursfördelning över tiden. Moderna trådlösa system fördelar dynamiskt resurser på en millisekunds tidsskala, så även ett 100 msek-fönster (ungefär det minsta perceptuella tidsfönstret för en människa) ger ett betydande medelvärde. Den klassiska kommunikations- och informationsteorin som i föregående stycke ger däremot bara en "snapshot" av hastighet och tillförlitlighet. Men användarfrekvensen är deras momentana hastighet multiplicerad med den andel resurser (tid/frekvensplatser) som de får använda, vilket för ett typiskt schemaläggningssystem (t.ex. proportionellt rättvis eller rund robin) är ca 1/K, där K är antalet andra aktiva användare på det BS i det bandet. Detta är ganska intuitivt: alla har upplevt stora nedgångar i genomströmningen på grund av trängsel vid rusningstider eller i trånga händelser, oavsett signalkvalitet, t.ex. "Jag har fem 1 Hädanefter ska vi inkludera WiFi AP som en typ av BS: en som använder olicensierat spektrum och en tvistebaserad 3 bar, varför kan jag inte skicka detta sms?" Den tekniska utmaningen är att belastningen K varierar både rumsligt och temporalt och därför är omöjlig att bestämma en priori för en viss basstation. Det är ofta svårt att ens hitta en bra modell för belastningen K: det är tydligt relaterat till täckningsområdet, eftersom större celler vanligtvis har fler aktiva användare, men också beror på andra faktorer som distribution av användare, trafikmodeller och andra extrinsiska faktorer. Ett av huvudmålen med detta dokument är att införa några nya metoder för att lasta-aware cellulära nätverk modeller, tillsammans med en uppskattning av begränsningarna i last-blind modeller. 2 Myt 2: "Spectrum Crunch" Det är en nästan universell artikel i tron att mängden elektromagnetiska spektrum som tilldelas trådlösa bredbandstillämpningar är bedrövligt otillräcklig. Det vi har är snarare en brist på infrastruktur, inte en brist på spektrum. Nästan alla håller med om att små celler bör läggas till i snabb takt för att minska överbelastningen av nätet, och att detta kommer att vara den viktigaste faktorn för att gå mot 1000x. De små cellerna (mikro, pico, femto) kommer emellertid att sättas in opportunistiskt, oregelbundet och på fasta platser och ha en viss mängd resurser som de kan tillhandahålla (dvs. spektrum och backhaul). I skarp kontrast flyttar de enheter som de betjänar runt och begär sporadiskt omfattande resurser från nätverket, medan de vid andra tillfällen är vilande. Den last som erbjuds varje basstation varierar därför dramatiskt över tid och rum. Ett litet cellnät kommer därför att kräva mycket mer proaktiv lastbalansering för att kunna utnyttja den nyutplacerade infrastrukturen på ett bra sätt. Naturligtvis, trots ovanstående myter, har många andra inom både industri och akademi insett vikten av att inkludera belastning i analysen av hastighet. Den förenande punkten är att modellering och optimering av belastning bör höjas för att ha en liknande status som mängden spektrum eller SINR. Men det är inte enkelt att göra detta på ett tekniskt rigoröst sätt. Utanför kommunikationssystem har lastbalansering länge studerats som ett tillvägagångssätt för att balansera arbetsbelastningen mellan olika servrar (i nätverk) och maskiner (i tillverkning) för att optimera mängder som resursutnyttjande, rättvisa, vänta/behandla förseningar, eller genomströmning. I framväxande trådlösa nätverk, på grund av de olika överföringskrafter och basstationer kapacitet, även med en ganska enhetlig användardistribution, "naturliga" användarföreningsmått som SINR eller RSSI kan leda till en stor belastning obalans. Som ett exempel, skillnaden mellan en maximal SINR och en optimal (sum log rate vise) association i en tre nivåer HetNet illustreras i Figur 1 Grundläggande, hastighetsoptimerad kommunikation kommer ner till en stor systemnivå optimering, där beslut som användaren schemaläggning och cell association är kopplade på grund av belastning och störningar i nätverket. I allmänhet, att hitta den verkligt optimala användar-server association är ett kombinatoriskt optimeringsproblem och komplexiteten växer exponentiellt med omfattningen av nätverket, vilket är en återvändsgränd. Vi ger en kort översikt över några viktiga tekniska metoder för lastbalansering i HetNets. Eftersom en allmän nyttomaximering av (lastviktad) hastighet, med förbehåll för en resurs eller / och kraftbegränsning, resulterar i ett kopplat förhållande mellan användarnas association och schemaläggning, är detta tillvägagångssätt NP hårt och inte kan beräknas även för blygsamma stora cellulära nätverk. Dynamisk trafik gör problemet ännu mer utmanande, vilket leder till ett långvarigt problem som har studerats ingående i köteori, med endast marginella framsteg, känd som det kopplade köproblemet. Ett sätt att göra problemet konvex är genom att anta en fullt laddad modell (dvs. alla BS sänder alltid) och tillåter användare att associera med flera BS, som övre gränser prestanda kontra en binär förening [3]. En grundläggande form är att maximera nyttan av lastviktad hastighet, under förutsättning att en resurs eller / och makt begränsning, där den binära association indikatorn är avslappnad till ett reellt tal mellan 0 och 1. Efter standardoptimeringsverktyg, nämligen dubbel nedbrytning, kan en distribuerad algoritm med låg komplexitet, som konvergerar till en nästan optimal lösning, sedan utvecklas. Som det kan observeras i figur 2, Det finns en stor (3.5x) 6 hastighetsvinst för "cell-edge" användare (bottom 5-10%) och en 2x hastighetsvinst för "median" användare, jämfört med en maximal mottagen effekt baserad association. Markov Decision Processes (MDPs) ger en ram för att studera den sekventiella optimeringen av diskreta tidsstokastiska system i närvaro av osäkerhet. Målet är att utföra åtgärder i det nuvarande tillståndet för att maximera den framtida förväntade belöningen. I samband med HetNets har MDP använts för att studera överlämnande mellan olika radioaccess teknologier 7 ger en möjlig metod för självorganiserande HetNets att kombinera fördelarna med både centraliserad och distribuerad design. Spelteori, eftersom en disciplin möjliggör analys av interaktiva beslutsprocesser, och ger praktiska metoder för utredning av mycket stora decentraliserade optimeringsproblem. Till exempel, en användarcentrerad metod, utan att kräva någon signalerande overhead eller samordning mellan olika accessnät, analyseras i [6]. Ett annat exempel är studien av dynamiken i nätverksval i [7], där användare inom olika serviceområden konkurrerar om bandbredd från olika trådlösa nätverk. Även spelteori är ett användbart verktyg, särskilt för tillämpningar i självorganiserande/dynamiska nätverk, konvergensen av resulterande algoritmer är i allmänhet inte garanterad. Även om algoritmerna konvergerar, ger de inte nödvändigtvis en optimal lösning, vilket tillsammans med stora overhead kan leda till ineffektiv användning. Dessutom, eftersom spelteorins huvudsakliga fokus ligger på strategiskt beslutsfattande, finns det inget slutet uttryck för att karakterisera förhållandet mellan ett prestandamått och nätverksparametrarna. Således, även om vi inte är övertygade om att spelteori är den bästa analysen eller designverktyg för HetNet lastbalansering, kan det ge viss insikt om hur okoordinerade UEs och BSs bör associera. Biased mottagen kraftbaserad användarorganisation kontroll är en populär suboptimum teknik för proaktivt avlasta användare till lägre kraftstationer och är en del av 3GPP standardisering [8] [9]. I denna teknik, användarna avlastas till mindre celler med hjälp av en association partisk. Formellt, om det finns K-kandidatnivåer tillgängliga för en användare att associera, då indexet för den valda nivån är (1) där B i är snedsteget för nivå i och P rx, i är den mottagna effekten från nivå i. Enligt överenskommelse är nivå 1 makrocellsnivån och har en bias på 1 (0 dB). Till exempel en liten cellfördel på 10 dB innebär att en UE skulle associera med den lilla cellen upp tills dess mottagna effekt var mer än 10 dB mindre än A naturliga frågan gäller optimalitet gapet mellan CRE och de mer teoretiskt jordade lösningar som tidigare diskuterats. Det är något förvånande och betryggande att en enkel per-tier-fördomsfullhet nästan uppnår den optimala lastmedvetna prestandan, om de sneda värdena väljs noggrant [3] (se bild. 2 )............................................................................................................... I allmänhet är det dock svårt att föreskriva optimala förutfattade meningar som utnyttjar optimeringstekniker. De tidigare verktygen och teknikerna försöker maximera en nyttofunktion U för den nuvarande nätverkskonfigurationen, för vilken vi karakteriserade vinsten i genomsnittlig prestanda som (2) där och är uppsättningen av lösningsutrymme. Alternativt kan dock en underliggande distribution för nätverkskonfigurationen utgöra ett annat problem i stället som i (3), där optimeringen är över det genomsnittliga verktyget. (3) Den senare formuleringen omfattas av stokastisk optimering, dvs. de berörda variablerna är slumpmässiga. Lösningen till (3) skulle säkert vara suboptimal för (2) -och redan vi observerade gapet mellan en optimerad men statisk CRE och den globalt optimala lösningen i den sista delen - men har fördelen att erbjuda mycket lägre komplexitet och overhead (både beräkning och meddelanden) kontra att åter optimera föreningarna för varje nätverk förverkliga. Stochastic geometri som en gren av tillämpad sannolikhet kan användas för endwing basstation och användarplatser i nätverket genom en punktprocess. Genom att använda Poisson point process (PPP) för att modellera användare och basstationer, i synnerhet, kan dragbara uttryck erhållas för nyckelmått som SINR och hastighet [11], som sedan kan användas för optimering. Detta tillvägagångssätt har också fördelen av att ge insikter om inverkan av viktiga systemnivåparametrar som överföringskrafter, densiteter och bandbredder för olika nivåer på konstruktionen av lastbalanseringsalgoritmer. Som ett exempel på tillämpligheten av detta ramverk, cellområde expansion har analyserats med hjälp av stokastisk geometri i [12] genom i genomsnitt över alla potentiella nätverkskonfigurationer, avslöjar effekten av viktiga nätverksparametrar i en koncis form. Modellering basstationer som slumpmässiga platser i HetNets gör den exakta association regionen och lastfördelning intractable. En analytisk approximation för associationsområdet föreslogs i [12], som sedan användes för lastfördelning (förutsatt enhetlig användarfördelning) och följaktligen kan man hitta en fördelning av skattesatsen i termer av biasparametrar per nivå [12] [13]. Den härledda räntefördelningen kan sedan användas för att hitta de optimala förvrängningarna helt enkelt genom att maximera den partiska räntefördelningen som en funktion av det sneda värdet. Vi undersöker nu flera designfrågor som introduceras med lastbalansering. Hur mycket till partiskhet? Kan interferenshantering hjälpa, hur kan det göras, och hur mycket är vinsten? När små celler kontinuerligt rullas ut över tiden, hur (eller gör) belastningsbalanseringen förändras när den lilla celltätheten ökar? I detta avsnitt besvarar vi dessa frågor, med de resultat som sammanfattas i tabell 1. Bias Values. Det finns två stora fall att överväga för partiskhet: co-channel utbyggnader (makro
Ändå är det optimala bias värdet mycket svårt att få och känslig för spatio-temporal distribution av användare REF.
8,861,881
An Overview of Load Balancing in HetNets: Old Myths and Open Problems
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
4,265
Abstrakt. Detta dokument beskriver en stor fallstudie som undersöker tillämpligheten av ontologi resonemang på problem inom det medicinska området. Vi undersöker om det är möjligt att använda sådana resonemang för att automatisera vanliga kliniska uppgifter som för närvarande är arbetsintensiva och felbenägna, och fokuserar vår fallstudie på att förbättra kohortval för kliniska prövningar. Ett hinder för att automatisera sådana kliniska uppgifter är behovet av att överbrygga den semantiska klyftan mellan råa patientdata, såsom laboratorietester eller specifika läkemedel, och hur en kliniker tolkar dessa data. Vår nyckelinsikt är att matcha patienter till kliniska prövningar kan formuleras som ett problem för semantisk hämtning. Vi beskriver de tekniska utmaningarna för att bygga en realistisk fallstudie, som inkluderar problem relaterade till skalbarhet, integrering av stora ontologier, och hantering av bullriga, inkonsekventa data. Vår lösning är baserad på SNOMED CT R ontology, och skalar till ett års patientjournaler (ca. 240000 patienter).
I REF presenterade de en genomförbarhetsstudie för en ontologibaserad metod för att matcha patientjournaler med kliniska prövningar.
951,563
Matching Patient Records to Clinical Trials Using Ontologies
{'venue': 'ISWC/ASWC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
4,266
I detta dokument föreslås en ny gemensam metod för överföring av kraft och resurser för att möjliggöra ultratillförlitlig låg latenskommunikation (URLLC) i fordonsnätverk. Målet är att minimera fordonsanvändarnas nätomfattande elförbrukning och samtidigt säkerställa hög tillförlitlighet när det gäller probabilistiska köförseningar. I synnerhet definieras en tillförlitlighetsåtgärd för att karakterisera extrema händelser (dvs. när fordonens kölängder överskrider en fördefinierad tröskel med icke försumbar sannolikhet) med hjälp av extremvärdesteori (EVT). Utjämningsprinciper från federerat lärande (FL), fördelningen av dessa extrema händelser som motsvarar slutfördelningen av köer uppskattas av VUES på ett decentraliserat sätt. Slutligen används Lyapunov-optimering för att hitta policyer för gemensam överföring av kraft och resursfördelning för varje VUE på ett distribuerat sätt. Den föreslagna lösningen valideras genom omfattande simuleringar med hjälp av en Manhattan-mobilitetsmodell. Det visas att FL gör det möjligt för den föreslagna distribuerade metoden att uppskatta slutfördelningen av köer med en noggrannhet som är mycket nära en centraliserad lösning med upp till 79 % minskning av mängden data som behöver utbytas. Dessutom ger den föreslagna metoden upp till 60 %-ig minskning av VUE med stora kölängder, utan ytterligare effektförbrukning, jämfört med ett genomsnittligt köbaserat basvärde. Jämfört med system med fast strömförbrukning och med fokus på köstabilitet samtidigt som den genomsnittliga strömförbrukningen minimeras, är minskningen av extrema händelser av den föreslagna metoden ungefär två storleksordningar.
I REF föreslås en gemensam fördelning av sändningskraft och resurser för fordonsnätverk med ultratillförlitlighet och låga latensbegränsningar.
43,934,501
Federated Learning for Ultra-Reliable Low-Latency V2V Communications
{'venue': '2018 IEEE Global Communications Conference (GLOBECOM)', 'journal': '2018 IEEE Global Communications Conference (GLOBECOM)', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
4,267
Obemannade flygfordon monterade basstationer (UAV-BS) kan tillhandahålla trådlösa tjänster i en mängd olika scenarier. I detta brev föreslår vi en optimal placeringsalgoritm för UAV-BS som maximerar antalet täckta användare med minsta sändningseffekt. Vi frikopplar UAV-BS-utplaceringsproblemen i vertikala och horisontella dimensioner utan att förlora optimalitet. Dessutom modellerar vi UAV-BS-utplaceringen i den horisontella dimensionen som ett cirkelplaceringsproblem och ett minsta cirkelproblem. Simuleringar genomförs för att utvärdera prestandan hos den föreslagna metoden för olika rumsliga fördelningar av användarna.
Energieffektiv användning av UAV-BS studeras i REF som maximerar antalet användare som omfattas med hjälp av minsta sändningseffekt.
505,889
3-D Placement of an Unmanned Aerial Vehicle Base Station (UAV-BS) for Energy-Efficient Maximal Coverage
{'venue': 'IEEE Wireless Communications Letters', 'journal': 'IEEE Wireless Communications Letters', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
4,268
Abstrakt. Övergående fel är hårdvarufel som orsakas av höga energipartiklar från rymden, tillverkningsfel, överhettning och andra källor. Sådana fel kan vara förödande för säkerhets- och säkerhetskritiska system. För att mildra dessa problem kan programvaruutvecklare lägga redundans på olika sätt till sina programvarusystem. Men sådan redundans är svår att resonera om och hörnfall är lätta att missa, vilket gör dessa system sårbara. För att lösa detta problem har vi utvecklat en logik, baserad på Separation Logic, för att resonera om fel som resurser. Vi visar hur man använder denna logik som ett språk av påståenden och införliva den i en Hoare Logic för att verifiera tvingande program. Denna Hoare Logic är parameteriserad av en formell felmodell och det kan användas för att bevisa tvingande program korrekt med avseende på den modellen. Förutom att utveckla denna grundläggande verifieringsplattform har vi utformat en modal operatör som tar bort effekterna av enskilda fel, möjliggör modularisering av bevis och avsevärt förenklar resonemanget i fråga. Logiken bevisas vara sund och studeras genom ett antal exempel, inklusive en förenklad version av RSA Sign/Verifiera algoritm.
REF föreslår en substrukturell logik för resonemang om feltoleranta program.
12,837,826
Faulty Logic: Reasoning about Fault Tolerant Programs
{'venue': 'ESOP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
4,269
I detta dokument tar vi upp problemet med att kombinera linjära vektormaskiner (SVM) för klassificering av storskaliga icke-linjära datauppsättningar. Motiveringen är att utnyttja både effektiviteten hos linjära SVM (LSVM) i lärande och förutsägelse och kraften hos icke-linjära SVM i klassificering. I detta syfte utvecklar vi en LSVM blandningsmodell som utnyttjar en splitter-ochconquer-strategi genom att dela upp funktionen utrymme i subregioner av linjärt separerade datapunkter och lära sig en LSVM för var och en av dessa regioner. Vi gör detta implicit genom att härleda en generativ modell över gemensamma data och märkning distributioner. Följaktligen kan vi införa priors på blandningskoefficienterna och göra implicita modellval på ett top-down sätt under parameteruppskattningsprocessen. Detta garanterar att den lärda modellen är sparsam. Experimentella resultat visar att den föreslagna metoden kan uppnå effektiviteten hos LSVM i förutsägelsefasen samtidigt som den ger en klassificeringsprestanda som är jämförbar med icke-linjära SVM.
Fu m.fl. REF diskuterade ett problem med att kombinera linjära SVM:er för att klassificera icke-linjära datamängder och hävdade experimentella resultat som visar att deras metod kan uppnå effektiviteten hos LSVM:er i prognosfasen samtidigt som den ger en klassificeringsprestanda som är jämförbar med icke-linjära SVM:er.
5,811,408
Mixing Linear SVMs for Nonlinear Classification
{'venue': 'IEEE Transactions on Neural Networks', 'journal': 'IEEE Transactions on Neural Networks', 'mag_field_of_study': ['Computer Science', 'Medicine']}
4,270
Ett ords evaluativa karaktär kallas dess semantiska orientering. Positiv semantisk orientering indikerar beröm (t.ex. "ärlighet", "intrepid") och negativ semantisk orientering indikerar kritik (t.ex. "störande", "överflödande"). Semantisk orientering varierar i både riktning (positiv eller negativ) och grad (mild till stark). Ett automatiserat system för mätning av semantisk orientering skulle ha tillämpning i textklassificering, textfiltrering, spårning av åsikter i onlinediskussioner, analys av enkätsvar och automatiserade chattsystem (chatbots). Denna artikel introducerar en metod för att härleda ett ords semantiska orientering från dess statistiska association med en uppsättning positiva och negativa paradigmord. Två fall av detta tillvägagångssätt utvärderas, baserat på två olika statistiska mått av ordassociation: punktvis ömsesidig information (PMI) och latent semantisk analys (LSA). Metoden testas experimentellt med 3 596 ord (inklusive adjektiv, adverb, substantiv och verb) som manuellt har märkts positiva (1 614 ord) och negativa (1 982 ord). Metoden uppnår en noggrannhet på 82,8% på den fullständiga testuppsättningen, men noggrannheten stiger över 95% när algoritmen tillåts avstå från att klassificera milda ord.
REF beslutar om semantisk orientering av ett ord (positivt, negativt kombinerat med milt eller starkt) med hjälp av statistisk association med en uppsättning positiva och negativa paradigmord.
2,024
Measuring praise and criticism: Inference of semantic orientation from association
{'venue': 'TOIS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
4,271
Under de senaste åren har intresset för oövervakad inlärning av olika representationer ökat avsevärt. Det viktigaste antagandet är att verkliga data genereras av några förklarande faktorer för variation och att dessa faktorer kan återvinnas av oövervakade inlärningsalgoritmer. Ett stort antal oövervakade inlärningsmetoder som bygger på automatisk kodning och kvantitativa utvärderingsmått för disentangling har föreslagits, men ändå har effektiviteten i de föreslagna metoderna och nyttan av föreslagna begrepp om disentangling inte ifrågasatts i tidigare arbete. I detta dokument ger vi en nykter titt på den senaste tidens framsteg på området och utmanar vissa gemensamma antaganden. Vi visar först teoretiskt att det oövervakade lärandet av disentanglade representationer är i grunden omöjligt utan induktiva fördomar på både modeller och data. Sedan utbildar vi mer än 12 000 modeller som täcker de sex mest framträdande metoderna och utvärderar dem över sex disentanglingsmått i en reproducerbar storskalig experimentell studie på sju olika datamängder. På den positiva sidan observerar vi att olika metoder framgångsrikt genomdriva egenskaper "uppmuntrade" av motsvarande förluster. På den negativa sidan observerar vi i vår studie att välavskilda modeller till synes inte kan identifieras utan tillgång till mark-sanningsetiketter även om vi tillåts överföra hyperparametrar över datamängder. Dessutom tycks den ökade uppdelningen inte leda till en minskad urvals komplexitet när det gäller lärande för uppgifter i senare led. Dessa resultat tyder på att det framtida arbetet med att lösa inlärningen bör vara uttryckligt om rollen av induktiva fördomar och (implicit) övervakning, undersöka konkreta fördelar med att se till att de inlärda representationerna löses, och överväga en reproducerbar experimentell uppsättning som omfattar flera datauppsättningar.
Den senaste tidens arbete inom REF tyder på att framtida forskning om läran om löslig representation bör undersöka konkreta fördelar med att se till att de inlärda representationerna löses upp och vara tydlig med vilken roll induktiva förutfattade meningar och tillsyn spelar.
54,089,884
Challenging Common Assumptions in the Unsupervised Learning of Disentangled Representations
{'venue': 'Proceedings of the 36th International Conference on Machine Learning (ICML 2019)', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
4,272
I detta dokument presenteras en storskalig utvärdering av beroendebaserade distributionssemantiska modeller. Vi utvärderar beroendefiltrerade och beroendestrukturerade DSMs i ett antal vanliga semantiska likhetsuppgifter och utforskar systematiskt deras parameterutrymme för att ge dem en "rättvis bild" mot fönsterbaserade modeller. Våra resultat visar att rätt inställda fönsterbaserade DSM fortfarande överträffar de beroendebaserade modellerna i de flesta uppgifter. Det verkar inte finnas något behov av språkberoende resurser och beräkningskostnader i samband med syntaktisk analys. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning.
REF utvärderar prestandan hos beroendebaserade och enklare fönsterbaserade modeller för beräkning av semantisk likhet och finner att den enklare modellen är överlägsen i de flesta fall.
10,897,193
Large-scale evaluation of dependency-based DSMs: Are they worth the effort?
{'venue': 'EACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
4,273
Distant övervakning har väckt intresse för utbildning information utvinning system eftersom det inte kräver någon mänsklig notation utan snarare använder befintliga kunskapsbaser för att heuritiskt märka en utbildning corpus. Tidigare arbete har dock misslyckats med att ta itu med problemet med falska negativa utbildningsexempel felaktigt märkta på grund av kunskapsbasernas ofullständighet. För att ta itu med detta problem föreslår vi ett enkelt men ändå nytt ramverk som kombinerar en passage hämtning modell med hjälp av grova funktioner till en state-of-the-art relation extrakt eller med hjälp av multi-instance lärande med fina funktioner. Vi anpassar tekniken för informationshämtning av återkoppling av pseudorelevans för att expandera kunskapsbaser, förutsatt att enhet par i topprankade passager är mer benägna att uttrycka en relation. Vår föreslagna teknik förbättrar avsevärt kvaliteten på fjärrövervakad relationsextraktion, vilket ökar återkallandet från 47,7% till 61,2% med en genomgående hög precisionsnivå på cirka 93% i experimenten.
Dessutom korrigerar REF falska negativa fall genom att använda pseudo-relevans återkoppling för att utöka kunskapsbasen.
11,438,164
Filling Knowledge Base Gaps for Distant Supervision of Relation Extraction
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
4,274
Detta dokument ger en formell och praktisk ram för en sund abstraktion av prob abilistiska åtgärder. Vi börjar med att exakt definiera begreppet sund abstraktion inom ramen för finit-horisont plan ning (där varje plan är en ändlig sekvens av åtgärder). Därefter visar vi att en sådan abstraction inte kan utföras inom ramen för den traditionella probabilistiska aktionsrepresentationen, som modellerar en värld med en enda prob-kapacitetsfördelning över statsrymden. Vi presenterar sedan den begränsade massan som tecken representation, som modellerar världen med en uppsättning sannolikhetsfördelningar och är en generalisering av massuppdrag representationer. Inom denna ram presenterar vi sunda abstraktionsförfaranden för tre typer av aktionsabstraction. Vi avslutar dokumentet med diskussioner och relaterat arbete om ljud och approximativ abstraktion. Vi ger pekare till papper där vi diskuterar andra sunda abstraktion-relaterade frågor, inklusive tillämpningar, uppskatta förlust på grund av abstraktion, och automatiskt generera abstraktion hierarkier. På senare tid har det funnits ett antal föreslagna tekniker för att minska komplexiteten i den prob abilistiska och beslutsteoretiska planeringen [2, 11, 8, 1, 7]. [2, 1]................................................................ Dessa tillvägagångssätt tyder på att ungefärlig abstraktion används för att minska storleken på problemet med input planering genom att abstraktera bort ointressanta detaljer. I kontrast, ljud abstraktion. tenderar att användas endast i vissa faser av planmng algo ritm och syftar till att minska den tid som krävs för att hitta optimala planer. Det utmärkande för sund abstraktion är att den garanterar att planen ner aldrig hoppar till falska slutsatser eftersom slutsatser gjorda på abstrakta nivåer måste vara förenliga med dem som görs på lägre nivåer. Exempel på sunda abstraktionsmetoder är BURIDAN [11] och DRIPS [7]. Det har varit lite arbete att försöka formalisera ljud abstraktion tekniker för probabilistisk planering trots det faktum att sådana tekniker används ofta av flera planerare (t.ex., BURIDAN, DRIPS), och att de är lovande f r Bayesian network inference, beslut träd evaluatiOn, liksom kvalitativa planeringsstrategier. Att utveckla en för mal ram för sund abstraktion innebär flera viktiga uppgifter, inklusive följande: För det första en gen: al representation ram måste utvecklas, wh1ch definierar begreppen stat, värld, handling, plan, projicering, förväntad nytta, etc.................................................................................................. Inom denna ram "':' ork, begreppet ljud abstractiOn kan sedan prec1sely definieras. För det andra måste en konkret representationsram utvecklas. Detta innebär att ge välavvägda syntaxer och semantik för världar, åtgärder och planer, samt att utveckla förfaranden för projektionsplaner och förfaranden för beräkning av den förväntade nyttan av en plan. För det tredje måste sunda abstraktionsmetoder identifieras inom den konkreta representationsramen. Procedurer för att skapa en abstrakt enhet från medlemsenheter -som att skapa en beskrivning av en abstrakta åtgärder från medlemsaktiviteter - måste tas bort. För det fjärde måste man utveckla förfaranden för att uppskatta förlust av infor mation på grund av abstraktion. I ett tidigare dokument [8] försökte vi ta itu med de tre första frågorna. Vi gav rättfärdigar för sund handling abstraktion. Vi har sedan identifierat flera användningsrika typer av aktionsabstraction och presenterat förfaranden för att skapa abstraktionerna. Men eftersom vi arbetade inom den traditionella probabilistiska representationen (därför SPD-representationen), som modellerar en värld med en enda probabilistisk fördelning, kan de abstraktionsmetoder som presenteras i detta dokument inte tillämpas på abstrakta handlingar. Detta är en allvarlig begränsning eftersom man förväntar sig att använda sådana tekniker för att skapa abstraktionshierarkier. Så vi måste hitta en ny representationsram som accomoderar sund abstraktion, och utveckla sunda abstraktionsmetoder inom denna ram. Detta dokument ger en sådan formell ram för en sund abstraktion av åtgärder. För det första definierar vi ljuddämpande i samband med ändlig-horisontell probabilis tic planering, där varje plan är en ändlig sekvens av åtgärder. För det andra presenterar vi den begränsade massan som tecken representation, som modellerar en värld med en uppsättning sannolikhetsfördelningar och är en generalisering av massuppdrag representationer. För det tredje lägger vi fram sunda abstraktionsförfaranden för tre typer av aktionsabstraction. Slutligen avslutar vi dokumentet med en diskussion om relaterade arbeten om ljud och approximativ abstraktion. På grund av utrymmesbegränsningen hänvisas läsaren till [5] för en mer detaljerad diskussion om de viktigaste punkterna i detta dokument, liksom diskussioner om tillämpningar, uppskattning av förlust på grund av abstraktion och automatiskt konstruktion av abstraktionshierarkier. 2 I detta avsnitt presenterar vi en allmän representationsram för ändlig-horisontell besluts-teoretisk planering. Vi diskuterar förhållandet mellan stater, världar, handlingar och planer. Vi diskuterar också behovet av projektionsförfaranden och fastställer sunda projektionsförfaranden. Inom denna ram definierar vi sund abstraktion. Ett tillstånd anger helt planeringsdomänen vid en viss tidpunkt. Vi betecknar uppsättningen av alla möjliga stater med!.1. En värld representerar osäkerheten om planeringsdomänens tillstånd vid ett visst tillfälle. Vi tolkar varje värld som en uppsättning probabil it distributioner över!.1. Vanligtvis är världar repreSound Abstraction of Probabilistic Actions 229 skickade med hjälp av någon representationsmekanism som inte kan representera alla möjliga uppsättningar av sannolikhetsspridningar. En konkret åtgärd kartlägger en uppsättning sannolikhetsfördelningar i en uppsättning sannolikhetsfördelningar. Denna kartläggning representeras med funktionen exec { åtgärd, uppsättning sannolikhetsfördelningar). Ekvationen Ppost = exec( a, Ppre) anger att åtgärden en kartor uppsättning sannolikhetsfördelningar f;Jpre i uppsättningen av sannolikhetsfördelningar f;Jpost. Konkreta planer är ändliga sekvenser av konkreta åtgärder. Liksom åtgärder, planer också kartlägga uppsättningar av sannolikhetsfördelningar i uppsättningar av sannolikhetsfördelningar. Vi re p ogilla denna kartläggning med funktionen exec (plan, uppsättning sannolikhetsfördelningar). För en plan p = a1 a2 · · ·a, där ai är konkreta åtgärder, har vi Genom att utföra en plan, beräkna uppsättningen av sannolikhetsfördelningar exakt är normalt omöjligt i alla utom mycket små domäner. En gemensam strategi för att lösa detta problem är att utveckla ett projiceringsförfarande som ger en post-proje cti på uppsättning av sannolikhetsfördelningar som är en approximation av den post-execution set. Lägg märke till den karta ping framkallas av denna projektion förfarande med funktionsprojektet (åtgärd, värld)1, ekvationen Wpost = projekt( a, Wpre) anger att när åtgärden a är projicerad i världen W p re (eller snarare på den uppsättning probability distributioner som representeras av världen W p re ) vi få som post-projicering resulterar (uppsättning av probability distributioner representerade av) världen Wpost. Projicering av en plan p = a1a2 ··an i en värld Wpre ger en värld W p ost som beräknas som Vi säger projiceringsförfarandet i samband med funtion projektet är ljud om och endast om för någon konkret plan p och värld w vi har projekt (p, w) exec(p, w). Ett exempel på ett sunt projektionsförfarande är det FORWARD-förfarande som presenteras i [11]. En abstrakt handling är byggd av konkreta eller lägre abstrakta handlingar med hjälp av ett antal abstraktionsoperor; varje konkret znstantiation av en abstrakt handling är en sekvens av konkreta handlingar. En abstrakt plan är en ändlig sekvens av abstrakta och konkreta handlingar. Om den abstrakta planen p* är a*1 a* 2 · · a• "'där a• i är abstrakta eller konkreta handlingar, då en konkret momenti iatzon av planen p* är St s2 · · · Sn, där varje s; är en konkret omedelbarion av en \. Vi säger en abstraktion ram som uppfyller 1Funktionsprojektet definieras för världar eftersom vi endast är intresserade av de fall där planer genomförs på uppsättningar av sannolikhetsfördelningar som kan representeras med världar. I det föregående avsnittet presenterade vi en allmän representativitetsram för probabilistisk planering där världar representeras med uppsättningar av sannolikhetsfördelningar över statsrymden. I detta avsnitt traducerar vi en konkret representationsram som kommer att fungera som vårt substrat för ljudabstraction. Motivering
I REF visar vi att i det allmänna fallet är konvex efter projektionen som anges i CMA-ramverket inte den minsta konvexa uppsättningen som subsumerar uppsättningen efter utförande.
8,209,479
Sound Abstraction of Probabilistic Actions in The Constraint Mass Assignment Framework
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
4,275
Abstract Data-centrerade affärsmodeller par data och kontrollflöde för att specificera flexibla affärsprocesser. Det kan dock vara svårt att förutsäga det faktiska beteendet hos en datacentrisk modell, eftersom den globala processen vanligen distribueras över flera dataelement och eventuellt specificeras på ett deklarativt sätt. Vi föreställer oss därför en datacentrisk processmodelleringsmetod där processens standardbeteende först specificeras i en klassisk, imperativ processanmärkning, som sedan omvandlas till en deklarativ, datacentrisk processmodell som kan förfinas ytterligare till en komplett modell. För att stödja denna vision definierar vi ett halvautomatiskt tillvägagångssätt för att syntetisera en objektcentrerad design från en affärsprocessmodell som specificerar flödet av flera statiska objekt mellan aktiviteter. Den objektcentrerade designen specificerar på ett absolut nödvändigt sätt objektens livscykler och objektinteraktionerna. Därefter definierar vi en kartläggning från en objektcentrisk design till ett deklarativt Guard-Stage-Milestone schema, som kan förfinas till en komplett specifikation av ett datacentriskt BPM-system. Syntetiseringsmetoden har implementerats och testats med hjälp av ett graftransformeringsverktyg.
Eshuis m.fl. REF definierar en semiautomatiserad metod som utgår från UML Activity Diagrams och producerar en datacentrerad processmodell i GSM.
13,927,178
Synthesizing data-centric models from business process models
{'venue': 'Computing', 'journal': 'Computing', 'mag_field_of_study': ['Computer Science']}
4,276
Tillgång till och delning av innehåll i sociala multimedianät är huvudsakligen beroende av modeller och mekanismer för tillträdeskontroll. En enkel tillämpning av säkerhetspolitiken i den traditionella modellen för tillträdeskontroll kan inte på ett effektivt sätt skapa ett förtroendeförhållande mellan parterna. I detta dokument föreslogs att en ny tvåpartsstruktur (TPTA) skulle tillämpas i ett generiskt MSN-scenario. Enligt arkitekturen antas säkerhetspolitik genom spelteoretiska analyser och beslut. Baserat på formaliserade verktyg av säkerhetspolicyer och säkerhetsregler, valet av säkerhetspolicyer i innehållsåtkomst beskrivs som ett spel mellan innehållsleverantören och innehållsförfrågan. Genom spelmetoden för kombinationen av säkerhetspolitiken nytta och dess inflytande på varje parts fördelar, Nash jämvikt uppnås, det vill säga en optimal och stabil kombination av säkerhetspolitik, för att skapa och öka förtroendet bland intressenter.
En spelbaserad analys av säkerhetsstrategier som utvecklats i REF ger en optimal kombination av säkerhetsstrategier för tillgång till innehåll i MSN.
17,363,044
A Game-Theoretical Approach to Multimedia Social Networks Security
{'venue': 'The Scientific World Journal', 'journal': 'The Scientific World Journal', 'mag_field_of_study': ['Medicine']}
4,277