src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
I detta dokument studerar vi problemet med gemensam in-band backhauling och störningsreducering i 5G heterogena nätverk (HetNets) där en massiv multiple-input multipleoutput (MIMO) makrocell basstation utrustad med ett stort antal antenner, överlagd med själv-backhauled små celler antas. Detta problem är kastat som ett nätverk verktyg maximering med förbehåll för trådlösa backhaul begränsningar. På grund av problemets oåtkomlighet tar vi först till slumpmässig matristeori för att få ett slutet formuttryck av den uppnåeliga hastigheten och överföra kraft i den asymptotiska regimen, d.v.s., eftersom antalet antenner och användare växer stort. Därefter utnyttjas ramen för stokastisk optimering, problemet frikopplas till dynamisk schemaläggning av makrocellsanvändare och backhaul avsättning av små celler som en funktion av interferens och backhaul länkar. Via simuleringar utvärderar vi prestandavinsterna i vårt föreslagna ramverk under olika nätverksarkitekturer och låg-/högfrekvensband. Vår föreslagna HetNet-metod uppnår den uppnåeliga genomsnittliga UE-genomströmningen på 1,7 Gbps samt säkerställer 1 Gbps-cellkantig UE-genomströmning vid servering av 200 UE per km 2 vid 28 GHz med 1 GHz bandbredd. I ultradense-nätverk uppnår UE-genomströmningen vid 28 GHz 62× förstärkning jämfört med 2,4 GHz.
Vårt tidigare arbete i REF har övervägt problemet med gemensam inband schemaläggning och störningsreducering i 5G HetNets utan att överväga användarföreningen.
816,426
Joint In-Band Backhauling and Interference Mitigation in 5G Heterogeneous Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
3,368
Den senaste tidens explosion av intresse för gränssnitt mellan hjärna och maskin (BMI) har stimulerat forskningen om att välja den optimala ingångssignalkällan för en önskad applikation. Signalerna med högsta bandbredd-single neuron åtgärder potentialer eller spikar-vanligt är svåra att registrera i mer än några år efter implantation av intrakortikala elektroder. Lyckligtvis har fältpotentialer som registrerats inom cortex (lokala fältpotentialer, LFPs), på dess yta (elektrokortikogram, ECoG) och på duralytan (epidurala, EFPs) också visat sig innehålla betydande information om rörelser. Dessa signalers relativa prestanda har dock ännu inte jämförts direkt. Dessutom, även om det är brett postulerat, har det ännu inte visats att dessa fält potentiella signaler är mer hållbara än spik inspelningar. Syftet med denna studie var att behandla båda dessa frågor. Vi utvärderade offline avkodning prestanda EFPs, LFPs och spikar, registreras sekventiellt, i primära motor cortex (M1) när det gäller deras förmåga att avkoda målet att nå rörelser, samt endpoint bana. Vi undersökte också avkodning prestanda för LFPs på elektroder som inte registrerar spikar, jämfört med prestanda när de spelade in spikar. Spikes var fortfarande närvarande på några av de andra elektroderna under hela denna studie. Vi visade att LFPs utförde nästan lika bra som spikar i avkodningshastighet, och något sämre i avkodningsläge och i målklassificering. EFP-prestandan var något sämre än den som rapporterades för ECOG hos människa. Vi lade också fram bevis som visade att rörelserelaterad information i LFP förblir hög oavsett förmågan att registrera spikar samtidigt på samma elektroder. Detta är den första studien som ger belägg för att LFP behåller information om rörelse i frånvaro av spikar på samma elektroder. Dessa resultat tyder på att LFP:er verkligen kan förbli informativa efter att spikinspelningar gått förlorade, vilket ger en robust och korrekt signalkälla för BMI:er.
I REF jämfördes dessutom prestandan för LFP-signalerna och topparna.
12,324,318
Accurate decoding of reaching movements from field potentials in the absence of spikes
{'venue': 'Journal of neural engineering', 'journal': 'Journal of neural engineering', 'mag_field_of_study': ['Computer Science', 'Medicine']}
3,369
Abstrakt. Rust är ett systemprogrammeringsspråk som är utformat för att ge bättre minnessäkerhet samtidigt som prestandan upprätthålls. Formalisering Rust är ett nödvändigt sätt att bevisa sin minnessäkerhet och konstruera formella analysverktyg för Rust. I den här artikeln introducerar vi en exekverbar formell semantik av Rust med K-ramverk (K), kallad K-Rust. K-Rust innehåller två delar: (1) den formella modellen för ägarsystemet, som är en av Rust mest övertygande funktioner för att förverkliga sin minnessäkerhet och noll-kust abstraktion; (2) den formella operativa semantik av Rust baserat på ett kärnspråk. De formella modellerna testas mot olika program och jämförs med Rusts kompilator för att säkerställa semantikens överensstämmelse mellan K-Rust och kompilatorn. Genom konstruktionen av K-Rust upptäckte vi inkonsekvenser i ägarmekanismen mellan Rust-kompilatorn och specifikationen i Rust-programmeringsspråket.
Självständigt, Kan et al. föreslog en exekverbar formell semantik av Rust i K ramverket REF.
5,025,627
K-Rust: An Executable Formal Semantics for Rust
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
3,370
Abstrakt. Vi anser att problemet med att klassificera kirurgiska gester och skicklighetsnivå i robotiska kirurgiska uppgifter. Tidigare arbete i detta område modellerar gester som tillstånd av en dold Markov modell (HMM) vars observationer är diskret, Gaussian eller faktor analyseras. Även framgångsrika, dessa metoder är begränsade i uttryckskraft på grund av användningen av diskreta eller Gaussiska observationer. I detta dokument föreslår vi en ny modell som kallas sparse HMMs vars observationer är glesa linjära kombinationer av element från en ordbok med grundläggande kirurgiska rörelser. Med tanke på rörelsedata från många kirurger med olika färdighetsnivåer föreslår vi en algoritm för att lära sig en ordbok för varje gest tillsammans med en HMM grammatik som beskriver övergångarna mellan olika gester. Vi använder sedan dessa ordböcker och grammatiken för att representera och klassificera nya rörelsedata. Experiment på en databas över kirurgiska rörelser som förvärvats med da Vinci-systemet visar att vår metod fungerar på samma sätt som eller bättre än toppmoderna metoder.Detta tyder på att det är viktigt att lära sig en grammatik baserad på glesa rörelseordlistor vid gester och färdighetsklassificering.
I REF infördes Sparse Hidden Markov Modeller för klassificering av gester och färdigheter i kirurgiska uppgifter.
17,952,638
Sparse hidden markov models for surgical gesture classification and skill evaluation
{'venue': 'In Information Processing in Computer-Assisted Interventions', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,371
Det är alltid attraktivt och utmanande att utforska de invecklade beteendedata och avslöja människors motivation, preferenser och vanor, som kan vara till stor nytta många uppgifter inklusive länk förutsägelse, objekt rekommendation, etc. Traditionellt arbete studerar vanligtvis människors beteende utan tid information på ett statiskt eller diskret sätt, förutsatt att de underliggande faktorerna förblir invariant i en lång period. Men vi tror att människors beteende är dynamiskt, och de bidragande faktorerna inklusive det sociala inflytandet och personliga preferenser för beteenden varierar kontinuerligt över tiden. En sådan kontinuerlig dynamik förmedlar viktig kunskap om människors beteendemönster; att ignorera dem skulle leda till felaktiga modeller. I detta arbete tar vi upp den kontinuerliga dynamiska modellering av temporal beteende. För att modellera den helt kontinuerliga temporal dynamik av beteenden och de underliggande faktorerna, föreslår vi DP-Space, en dynamisk preferens sannolikhet utrymme, som kan fånga deras smidiga variation i olika former över tid med flexibla basfunktioner. På det föreslår vi en generativ dynamisk beteendemodell, ConTyor, som betraktar temporal objekt-adoption beteenden som gemensam effekt av dynamiskt socialt inflytande och varierande personliga preferenser över kontinuerlig tid. Vi utvecklar också effektiva slutledningsmetoder för ConTyor och presenterar dess tillämpningar. Vi genomför en omfattande experimentell studie med hjälp av verkliga dataset för att utvärdera effektiviteten hos vår modell och tidsmodellen. Resultaten bekräftar att ConTyor överträffar befintliga state-of-the-art static och temporal modeller i beteendeprognoser. Dessutom visar vi i vår detaljerade studie om tidsbaserad modellering att tidsbaserad modellering är överlägsen statiska infallsvinklar och modellering över kontinuerlig tid är ännu bättre än över diskret tid. Vi visar också att forntida beteendedata fortfarande kan bli viktiga och nyttiga om modellerade väl.
REF föreslog Continuous Temporal Dynamic Behavior (ConTyor) att förutsäga temporal beteende genom att överväga det sociala inflytandet och personliga preferenser över kontinuerlig tid.
11,951,719
Inferring Continuous Dynamic Social Influence and Personal Preference for Temporal Behavior Prediction
{'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']}
3,372
Vi beskriver en metod för 3D-objektskanning genom att rikta djupskanningar som togs från runt ett objekt med en tid-av-flight-kamera. Dessa ToF-kameror kan mäta djupskanningar med videohastighet. På grund av jämförelsevis enkel teknik har de potential för lågkostnadsproduktion i stora volymer. Vår lättanvända, kostnadseffektiva skanningslösning baserad på en sådan sensor skulle kunna göra 3D-scanningsteknik mer tillgänglig för vanliga användare. Den algoritmiska utmaningen vi står inför är att sensorns nivå av slumpmässigt buller är betydande och att det finns en icke-trivial systematisk skevhet. I detta papper visar vi det överraskande resultatet att 3D-skanningar av rimlig kvalitet också kan erhållas med en sensor av sådan låg datakvalitet. Etablerad filtrerings- och avsökningsteknik från litteraturen misslyckas med att uppnå detta mål. Däremot är vår algoritm baserad på en ny kombination av en 3D-superupplösningsmetod med en probabilistisk injusteringsmetod som uttryckligen tar hänsyn till sensorns bulleregenskaper.
År 2010, Cui m.fl. REF beskrev en metod för 3D-objektsökning med hjälp av en tid för flygning (ToF) kamera.
2,084,943
3D shape scanning with a time-of-flight camera
{'venue': '2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition', 'journal': '2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
3,373
Utvecklare av trådsäkra klasser kämpar med två motsatta mål. Klassen måste vara korrekt, vilket kräver synkroniserande samtidiga åtkomster, och klassen bör ge rimliga prestanda, vilket är svårt att inse i närvaro av onödig synkronisering. Att validera prestandan hos en gängsäker klass är utmanande eftersom det kräver olika arbetsbelastningar som använder klassen, eftersom befintliga prestandaanalystekniker fokuserar på enskilda flaskhalsmetoder, och eftersom det är svårt att mäta prestandan vid samtidiga utföranden. Detta papper presenterar SpeedGun, en automatisk prestanda regressionstestteknik för gängsäkra klasser. Nyckelidén är att generera flertrådiga prestandatester och att jämföra två versioner av en klass med varandra. Analysen meddelar utvecklare när man ändrar en trådsäker klass avsevärt påverkar prestandan hos kunder i denna klass. En utvärdering med 113 par klasser från populära Javaprojekt visar att analysen effektivt identifierar 13 prestandaskillnader, inklusive prestandaregressioner som respektive utvecklare inte var medvetna om.
SpeedGun REF genererar automatiskt multitrådade prestanda regressionstester som hittar flaskhalsar på grund av synkronisering.
5,505,100
Performance regression testing of concurrent classes
{'venue': 'ISSTA 2014', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,374
Tjänsteleverantörer som Google och Amazon flyttar in i SaaS (Software as a Service) verksamhet. De förvandlar sin enorma infrastruktur till en molnkomputerande miljö och rekryterar aggressivt företag för att köra applikationer på sina plattformar. För att upprätthålla säkerhet och integritet på en sådan tjänstemodell måste vi skydda de data som körs på plattformen. Tyvärr är traditionella krypteringsmetoder som syftar till att ge "okrossbart" skydd ofta inte tillräckliga eftersom de inte stöder utförandet av program som databasfrågor på krypterade data. I detta dokument diskuterar vi det allmänna problemet med säker beräkning på en krypterad databas och föreslår en SCONEDB (Secure Computation on an Enkrypted DataBase) modell, som fångar kraven för utförande och säkerhet. Som en fallstudie fokuserar vi på problemet med K-nearest granne (kNN) beräkning på en krypterad databas. Vi utvecklar en ny asymmetrisk skalarproduktbevarande kryptering (ASPE) som bevarar en speciell typ av skalarprodukt. Vi använder APSE för att bygga två säkra system som stöder KNN beräkning av krypterade data; vart och ett av dessa system visas motstå praktiska attacker av en annan bakgrundskunskapsnivå, till en annan overhead kostnad. Omfattande resultatstudier genomförs för att utvärdera systemens allmänna omkostnader och effektivitet.
Wong m.fl. I REF föreslogs ett nytt krypteringssystem som kallas asymmetrisk skalarproduktbevarande kryptering.
2,854,851
Secure kNN computation on encrypted databases
{'venue': 'SIGMOD Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,375
Diskussionstrådar utgör en central del av upplevelsen på många webbplatser, inklusive sociala nätverkssajter som Facebook och Google Plus och kunskapsskapande webbplatser som Wikipedia. För att hjälpa användarna att hantera utmaningen att fördela sin uppmärksamhet bland de diskussioner som är relevanta för dem, har det funnits ett växande behov av algoritmisk kuration av on-line konversationer - utvecklingen av automatiserade metoder för att välja en delmängd av diskussioner att presentera för en användare. Här tar vi hänsyn till två viktiga underproblem som ingår i konversationsförutsägelsen: längdförutsägelse -prediktera antalet kommentarer en diskussionstråd kommer att få -och den nya uppgiften att förutsäga återinträde -prediktera om en användare som har deltagit i en tråd senare kommer att bidra med ytterligare en kommentar till den. Den första av dessa underproblem uppstår i uppskattningen av hur intressant en tråd är, i betydelsen att generera en hel del konversation; den andra kan hjälpa till att avgöra om användare bör hållas underrättade om utvecklingen av en tråd som de redan har bidragit till. Vi utvecklar och utvärderar en rad olika tillvägagångssätt för dessa uppgifter, baserade på en analys av nätverksstrukturen och ankomstmönstret bland deltagarna, samt en ny dikotomi i strukturen av långa trådar. Vi finner att för båda uppgifterna, lärande-baserade metoder med hjälp av dessa källor av information ger förbättringar för alla prestandamått vi använt.
Backstrom m.fl. REF använde en maskininlärningsmodell för att förutsäga antalet poster och sannolikheten för en användare att skicka in ett nytt inlägg i Twitter diskussionstrådar.
12,885,437
Characterizing and curating conversation threads: expansion, focus, volume, re-entry
{'venue': "WSDM '13", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics']}
3,376
Modeller för de processer genom vilka idéer och inflytande sprids genom ett socialt nätverk har studerats på ett antal områden, bland annat spridningen av medicinska och tekniska innovationer, det plötsliga och utbredda antagandet av olika strategier i spelteoretiska miljöer, och effekterna av "munnord" i främjandet av nya produkter. Motiverad av utformningen av virala marknadsföringsstrategier, Domingos och Richardson utgjorde ett grundläggande algoritmiskt problem för sådana sociala nätverksprocesser: om vi kan försöka övertyga en del av individer att anta en ny produkt eller innovation, och målet är att utlösa en stor kaskad av ytterligare adoptioner, vilken uppsättning individer bör vi rikta? Vi betraktar detta problem i flera av de mest studerade modellerna inom analys av sociala nätverk. Optimeringsproblemet med att välja de mest inflytelserika noderna är NP-hård här. De två konferensdokument som denna artikel bygger på (KDD 2003 och ICALP 2005) ger de första bevisbara approximationsgarantierna för effektiva algoritmer. Med hjälp av en Den här artikeln är en utökad version av två konferensbidrag [51, 52], som publicerades i KDD 2003 respektive ICALP 2005, respektive. * analysram baserad på submodulära funktioner, visar vi att en naturlig girig strategi får en lösning som är bevisligen inom 63% av optimal för flera klasser av modeller; vårt ramverk föreslår en allmän strategi för resonemang om prestandagarantier för algoritmer för dessa typer av påverkansproblem i sociala nätverk. Vi tillhandahåller också beräkningsexperiment på stora samarbetsnätverk som visar att våra approximationsalgoritmer, förutom sina bevisbara garantier, är betydligt bättre än perform nodeval-heuristik baserad på de välstuderade begreppen examenscentralitet och distanscentralitet från området sociala nätverk. Ett socialt nätverk-grafen över relationer och interaktioner inom en grupp av individer-spelar en grundläggande roll som ett medium för spridning av information, idéer, och inflytande bland sina medlemmar. En idé eller innovation kommer att framträda-till exempel, användningen av mobiltelefoner bland college studenter, antagandet av en ny drog inom läkaryrket, eller uppkomsten av en politisk rörelse i ett instabilt samhälle-och det kan antingen dö ut snabbt eller göra betydande intrång i befolkningen. Om vi vill förstå i vilken utsträckning sådana idéer antas, kan det vara viktigt att förstå hur dynamiken i antagandet sannolikt kommer att utvecklas inom det underliggande sociala nätverket: i vilken utsträckning människor sannolikt kommer att påverkas av sina vänners och kollegers beslut, eller i vilken utsträckning "ord-of-mouth"-effekterna kommer att få fäste. Sådana nätverk spridningsprocesser har en lång historia av studier i samhällsvetenskap. Några av de tidigaste systematiska undersökningarna inriktades på data om antagandet av medicinska och jordbruksinnovationer i både utvecklade och utvecklande delar av världen [23, 69, 79], i andra sammanhang, forskning har undersökt diffusionsprocesser för "ord-of-mouth" och "viral marknadsföring" effekter i framgången för nya produkter [8, 14, 26, 33, 32, 59, 68], plötsliga och utbredda antagandet av olika strategier i spelteoretiska miljöer [11, 29, 61, 85, 86], och problemet med kaskadfel i kraftsystem [7, 6]. Domingos och Richardson var motiverade av tillämpningar för marknadsföring och utgjorde ett grundläggande algoritmiskt problem för sådana system [26, 68]. Anta att vi har data på ett socialt nätverk, med uppskattningar av i vilken utsträckning individer påverkar varandra, och vi vill marknadsföra en ny produkt som vi hoppas kommer att antas av en stor del av nätverket. Premissen för viral marknadsföring är att genom att initialt rikta några "influentiella" medlemmar av nätverket-say, ge dem gratis prover av produkten-vi kan utlösa en kaskad av inflytande genom vilken vänner kommer att rekommendera produkten till andra vänner, och många individer kommer i slutändan att prova det. Men hur ska vi välja de få nyckelpersoner som vi kan använda för att så denna process? I [26, 68], denna fråga beaktades i en probabilistisk modell för interaktion; heuristik gavs för att välja kunder med en stor övergripande effekt på nätverket, och metoder utvecklades också för att dra slutsatsen den påverkan data som krävs för att posera dessa typer av problem. I den här artikeln betraktar vi frågan om att välja inflytelserika grupper av individer som ett problem i diskret optimering. Den optimala lösningen är NP-hård för de flesta modeller som har studerats, inklusive modellen av [26]. Den ram som föreslås i [68], å andra sidan, bygger på en enkel linjär modell där lösningen på optimeringsproblemet kan erhållas genom att lösa ett system med linjära ekvationer. Här fokuserar vi på en samling relaterade, NP-hårda modeller som har studerats ingående i sociala nätverk gemenskap, och få de första bevisbara approximationsgarantier för effektiv teori
Kempe, Kleinberg och Tardos REF formulerar problemet som ett diskret optimeringsproblem och tar itu med det med hjälp av en girig algoritm.
7,214,363
Maximizing the Spread of Influence through a Social Network
{'venue': 'Theory of Computing', 'journal': 'Theory of Computing', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
3,377
Bakgrund: Den 27k Illumina Infinium Methylation Beadchip är en populär hög-genomströmning teknik som gör att metyleringstillståndet på över 27.000 CpGs kan analyseras. Medan funktionsval och klassificeringsmetoder har undersökts ingående i samband med genuttrycksdata, är relativt lite känt om hur man bäst utför funktionsval eller klassificering i samband med Illumina Infiniummetyleringsdata. Med tanke på den ökande betydelsen av epigenomik vid cancer och andra komplexa genetiska sjukdomar, och med tanke på de kommande epigenomet breda associationsstudier, är det viktigt att identifiera de statistiska metoder som erbjuder förbättrad inferens i detta nya sammanhang. Resultat: Med hjälp av totalt 7 stora Illumina Infinium 27k Methyleringsdata, som omfattar över 1000 prover från ett brett spektrum av vävnader, ger vi här en utvärdering av populära funktionsval, dimensionsreduktion och klassificeringsmetoder på DNA-metyleringsdata. Specifikt utvärderar vi effekterna av variansfiltrering, övervakade huvudkomponenter (SPCA) och valet av DNA-metyleringsmätning på nedströms statistisk inferens. Vi visar att för relativt stora provstorlekar funktionsval med hjälp av teststatistik är liknande för M- och β-värden, men att i gränsen för små provstorlekar, M-värden tillåter mer tillförlitlig identifiering av sanna positiva. Vi visar också att effekten av variansfiltrering på funktionsvalet är studiespecifik och beroende av den fenotyp av intresse och vävnadstyp profilerad. Speciellt finner vi att variansfiltrering förbättrar upptäckten av verkliga positiva i studier med stora effektstorlekar, men att det kan leda till sämre prestanda i studier med mindre men betydande effektstorlekar. Däremot förbättrar övervakade huvudkomponenter den statistiska kraften, särskilt i studier med små effektstorlekar. Vi visar också att klassificering med Elastic Net and Support Vector Machine (SVM) klart överträffar konkurrerande metoder som LASSO och SPCA. Slutligen, i oövervakad modellering av cancerdiagnos, finner vi att icke-negativ matris factorisation (NMF) klart överträffar huvudkomponentanalys. Våra resultat belyser vikten av att skräddarsy funktionsval och klassificeringsmetod efter provstorleken och det biologiska sammanhanget i DNA-metyleringsstudien. Elastiska nätet framträder som en kraftfull klassificeringsalgoritm för storskaliga DNA-metyleringsstudier, medan NMF gör bra ifrån sig i det oövervakade sammanhanget. De insikter som presenteras här kommer att vara användbara för alla studier som ger sig in på storskalig DNA-metyleringsprofilering med Illumina Infinium beadarrays.
Zhuang m.fl. REF genomförde en annan bra jämförelsestudie av funktionsval och klassificeringsmetoder i DNA med Illumina Infinium-plattformen.
2,712,564
A comparison of feature selection and classification methods in DNA methylation studies using the Illumina Infinium platform
{'venue': 'BMC Bioinformatics', 'journal': 'BMC Bioinformatics', 'mag_field_of_study': ['Medicine', 'Biology', 'Computer Science']}
3,378
Vi undersökte samtal mellan personer med schizofreni (PwS) och familje- eller yrkesvårdare som de ofta interagerade med. Vi allokerade PwS till en av två kommunikationsprofiler: Lågaktivitetskommunikatörer talade mycket mindre än sina samtalspartner, medan högaktivitetskommunikatörer talade mycket mer. Vi använde Leximancer textanalysprogram för att analysera samtalen. Vi fann att vårdare använde olika strategier för att anpassa sig till PwS beteende, beroende på PwS kommunikationsprofil och deras relation. Dessa resultat visar att de optimala kommunikationsstrategierna är beroende av PwS:s konversationstendenser och relationssammanhang. De föreslår också nya möjligheter till kvalitativ bedömning via intelligent textanalysteknik.
I synnerhet har REF utnyttjat konceptkartor för att utforska samtal mellan personer med schizofreni och deras vårdare.
13,190,745
Conversations Between Carers and People With Schizophrenia: A Qualitative Analysis Using Leximancer
{'venue': None, 'journal': 'Qualitative Health Research', 'mag_field_of_study': ['Psychology', 'Medicine']}
3,379
Abstract-A point-to-point trådlöst kommunikationssystem i närvaro av en energiavskiljare och ett uppladdningsbart batteri vid sändaren beaktas. Både energin och datan som anländer till sändaren modelleras som Markov-processer. Försenad kommunikation anses förutsätta att den underliggande kanalen blockeras med minne och kanaltillståndsinformationen är tillgänglig vid sändaren. Problemet med att maximera den förväntade totala data som överförs under sändarens livstid studeras under tre olika uppsättningar antaganden om informationen om de underliggande stokastiska processerna, tillgängliga vid sändaren. En inlärningsteoretisk metod införs, som inte tar hänsyn till någon förhandsinformation om Markovprocesserna som styr kommunikationssystemet. Dessutom studeras online- och offline-optimeringsproblem för samma uppställning under antagande av fullständig statistisk kunskap och kausal information om realiserandet, och icke-causal kunskap i förverkligandet av de stokastiska processerna, respektive. Jämföra de optimala lösningarna i alla tre ramverk prestandaförlust på grund av bristen på sändares information om beteendet hos de underliggande Markov processer identifieras. Numeriska resultat presenteras för att bekräfta våra teoretiska resultat.
Förstärkning Lärande (RL) har använts i REF för att studera en punkt-till-punkt trådlös kommunikation system där sändaren är utrustad med en energi skörd enhet och ett uppladdningsbart batteri.
15,937,163
A Learning Theoretic Approach to Energy Harvesting Communication System Optimization
{'venue': 'IEEE TRANSACTIONS ON WIRELESS COMM UNICATIONS, VOL. 12, NO. 4, APRIL 2013', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,380
I detta dokument presenteras en stereoalgoritm för att erhålla olikhetskartor med ocklusion som uttryckligen upptäcks. För att skapa smidiga och detaljerade skillnadskartor antas två antaganden som ursprungligen föreslogs av Marr och Poggio: unikhet och kontinuitet. Det vill säga, skillnaden kartor har ett unikt värde per pixel och är kontinuerlig nästan överallt. Dessa antaganden tillämpas inom en tredimensionell uppsättning matchvärden i olika rum. Varje matchvärde motsvarar en pixel i en bild och en skillnad i förhållande till en annan bild. En iterativ algoritm uppdaterar matchvärden genom att sprida stöd bland angränsande värden och hämma andra längs liknande linjer av syn. Genom att tillämpa det unika antagandet kan områden som omfattas av undantaget uttryckligen identifieras. För att visa algoritmens effektivitet presenterar vi bearbetningsresultaten från syntetiska och verkliga bildpar, inklusive sådana med mark-sanningsvärden för kvantitativ jämförelse med annan metod 1
De modellerar uttryckligen de kontinuitets- och unika antaganden som ursprungligen föreslogs av Marr och Poggio Ref.
2,298,962
A Cooperative Algorithm for Stereo Matching and Occlusion Detection
{'venue': 'IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,381
Vi studerar röstmodellen med en ändlig densitet av fanatiker-voaters som aldrig ändrar åsikt. För lika många fanatiker av varje art, fördelningen av magnetisering (yttranden) är Gaussian i medelfältsgränsen samt i en och två dimensioner, med en bredd som är proportionell till 1/ Z, där Z är antalet fanatiker, oberoende av det totala antalet väljare. På så sätt kan bara några få fanatiker förhindra samförstånd eller till och med bildandet av en stark majoritet.
I REF granskas röstmodellen med ett godtyckligt antal fanatiker på hela grafen och latticegraferna i en och två dimensioner, och det visas att magnetiseringen har en Gaussisk fördelning vars egenskaper endast beror på antalet fanatiker och inte på hela befolkningen.
16,577,053
On the Role of Zealotry in the Voter Model
{'venue': 'J. Stat. Mech. P08029, (2007)', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Physics']}
3,382
Generativa Adversarial Networks (Gans) har nyligen uppnått betydande förbättringar på parad/oparerad bild-till-bild översättning, såsom foto→ skiss och konstnär målning stil överföring. Befintliga modeller kan dock endast överföra information på låg nivå (t.ex. Färg- eller strukturförändringar), men misslyckas med att redigera högnivåsemantiska betydelser (t.ex. geometrisk struktur eller innehåll) av objekt. Å andra sidan, medan vissa forskare kan syntetisera övertygande verkliga bilder som ges en klassetikett eller bildtext, kan de inte villkora sig på godtyckliga former eller strukturer, som till stor del begränsar deras tillämpning scenarier och tolkningsförmåga modellresultat. I detta arbete fokuserar vi på en mer utmanande semantisk manipuleringsuppgift som syftar till att förändra objektets semantiska betydelse samtidigt som dess egna egenskaper bevaras (t.ex. synpunkter och former), såsom ko→får, motor→ cykel, katt→dog. För att ta itu med så stora semantiska förändringar introducerar vi en kontrasterande GAN (kontrast-GAN) med ett nytt kontradiktoriskt kontrastmål. Istället för att direkt göra de syntetiserade proverna nära måldata som tidigare GAN gjorde, optimerar vårt kontradiktoriska kontrastmål över avståndsjämförelser mellan prover, det vill säga att genomdriva de manipulerade data vara semantiskt närmare de verkliga data med målkategori än inmatningsdata. Utrustad med det nya kontrasterande målet föreslås en ny mask-villkorad kontrast-GAN-arkitektur för att möjliggöra disentanglig bildbakgrund med objektsemantiska förändringar. Experiment på flera semantiska manipulationsuppgifter på ImageNet och MSCOCO dataset visar betydande resultatvinst av vår kontrast-GAN över andra villkorliga GANs. Kvantitativa resultat visar vidare vår modells överlägsenhet när det gäller att generera manipulerade resultat med hög visuell trohet och rimliga objektsemantik.
Efter sammansättningen av cykelkonsistens, Liang et al. REF fokuserar på att redigera semantiskt innehåll på hög nivå av objekt samtidigt som bakgrundsegenskaper bevaras.
37,226,097
Generative Semantic Manipulation with Contrasting GAN
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
3,383
Identitetsbaserad proxyresignatur (IDPRS) är en ny kryptografisk primitiv som gör det möjligt för en semi-tillförlitlig proxy att konvertera en signatur under en identitet till en annan signatur under en annan identitet på samma meddelande genom att använda en omsignaturnyckel. På grund av denna omvandlingsfunktion är IDPRS mycket användbart för att bygga integritetsbevarande system för olika informationssystem. De befintliga IDPRS-systemen tillhandahåller dock inga upphävandemekanismer som gör det möjligt att ta bort felbeteenden eller komprometterade användare från systemet. I detta dokument introducerar vi först ett begrepp som kallas återkallbar identitetsbaserad proxyåtersignatur (RIDPRS) för att uppnå återkallningsfunktionen. Vi tillhandahåller en formell definition av RIDPRS samt dess säkerhetsmodell. Sedan presenterar vi ett konkret RIDPRS-system som kan motstå att underteckna viktig exponering och bevisa att det föreslagna systemet är existentiellt oförfalskat mot adaptiva valda identitets- och meddelandeattacker i standardmodellen. För att ytterligare förbättra prestandan för signaturverifiering i RIDPRS, introducerar vi ett begrepp som kallas server-stödd återkallbar identitet-baserad proxy re-signatur (SA-RIDPRS). Dessutom utvidgar vi det föreslagna RIDPRS-systemet till att omfatta SA-RIDPRS-systemet och bevisar att detta utvidgade system är säkert mot adaptivt valda budskaps- och samverkansattacker. Analysresultaten visar att våra två system fortfarande är effektiva när det gäller beräkningskomplicerade förfaranden för att återkalla användare. Särskilt i SA-RIDPRS-systemet behöver kontrollören endast utföra en tvåradig parnings- och fyra exponentieringsverksamhet för att kontrollera signaturens giltighet. Jämfört med andra IDPRS-system i standardmodellen minskar vårt SA-RIDPRS-system avsevärt beräkningens omkostnader för verifiering.
År 2018, Yang et al. presenterade ett återkallbart identitetsbaserat PRS-system i REF, men deras system är interaktivt.
4,643,724
Revocable identity-based proxy re-signature against signing key exposure
{'venue': 'PLoS ONE', 'journal': 'PLoS ONE', 'mag_field_of_study': ['Medicine', 'Computer Science']}
3,384
Ansiktsmarkeringar utgör den mest komprimerade representationen av ansikten och är kända för att bevara information såsom pose, kön och ansiktsstruktur som finns i ansiktet. Det finns flera verk som försöker utföra ansiktsrelaterade analysuppgifter på hög nivå baserat på landmärken. I detta arbete görs däremot ett försök att ta itu med det omvända problemet med att syntetisera ansikten från sina respektive landmärken. Det primära syftet med detta arbete är att visa att information som bevaras av landmärken (särskilt kön) kan förstärkas ytterligare genom att utnyttja generativa modeller för att syntetisera motsvarande ansikten. Även om problemet är särskilt utmanande på grund av sin illa placerade natur, tror vi att framgångsrik syntes kommer att möjliggöra flera tillämpningar som att öka prestandan av hög nivå ansikte relaterade uppgifter med hjälp av landmärkespunkter och utföra datauppsättning förstärkning. I detta syfte presenteras en ny metod för ansiktssyntes som kallas Gender Preserving Generative Adversarial Network (GP-GAN) och som styrs av kontradiktorisk förlust, perceptuell förlust och en könsbevarande förlust. Vidare föreslår vi en ny generator undernätverk UDeNet för GP-GAN som utnyttjar fördelarna med U-Net och DenseNet arkitekturer. Omfattande experiment och jämförelser med de senaste metoderna görs för att kontrollera den föreslagna metodens effektivitet.
Detta beslut riktar sig till Konungariket Spanien. REF använde en kombination av U-Net och DenseNet för att generera ansikten från landmärkena keypoints.
206,849,289
GP-GAN: Gender Preserving GAN for Synthesizing Faces from Landmarks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
3,385
Rekommenderar system ger personliga förslag om objekt som användarna kommer att nd intressant. Vanligtvis, rekommenderar system kräver ett användargränssnitt som kan \intelli-gently" avgöra intresset för en användare och använda denna information för att ge förslag. Den gemensamma lösningen, \ex-plicit betyg", där användarna berättar för systemet vad de tycker om en bit information, är välförståelig och ganska exakt. Men att behöva stanna för att skriva in explicita betyg kan ändra normala mönster för surfning och läsning. En mer intelligent metod är att använda implicita betyg, där ett kreditbetyg erhålls genom en annan metod än att erhålla det direkt från användaren. Dessa implicita ränteindikatorer har många fördelar, bland annat att ta bort kostnaden för användarbetyget, och att varje användarinteraktion med systemet kan bidra till en implicit värdering. Nuvarande recommender system använder oftast inte implicita betyg, inte heller förmågan av implicita betyg för att förutsäga faktiska användarintresse välförstådda. I denna forskning studeras korrelationen mellan olika implicita betyg och det explicita betyget för en enda webbsida. En webbläsare utvecklades för att registrera användarens åtgärder (implicit betyg) och den explicita betyg på en sida. Åtgärderna inkluderade musklick, musrörelser, rullning och förfluten tid. Denna webbläsare användes av o ver 80 personer som bläddrade mer än 2500 webbsidor. Med hjälp av de data som samlats in av webbläsaren analyserades de individuella implicita betygen och vissa kombinationer av implicita betyg och jämfördes med det explicita betyget. Vi fann att den tid som spenderades på en sida, mängden rullning på en sida och kombinationen av tid och rullning hade en stark korrelation med explicit intresse, medan enskilda rullningsmetoder och musklick inte var effektiva för att förutsäga explicit intresse.
Claypool m.fl. REF utvecklade Nyfiken webbläsare för att samla musklick, musrörelser, rullning och förfluten tid som implicita ränteindikatorer.
327,923
Implicit interest indicators
{'venue': "IUI '01", 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,386
Sammanfattning På grundval av den ökade betoningen på skydd av privatlivet har biometriska igenkänningssystem med användning av fysiska eller beteendemässiga egenskaper som fingeravtryck, ansiktsegenskaper, iris- och fingervrånsmönster eller rösten införts i tillämpningar som dörråtkomstkontroll, personlig certifiering, Internetbank och ATM-maskiner. Bland dessa, finger-vein erkännande är fördelaktigt genom att det innebär användning av billiga och små apparater som är svåra att förfalska. I allmänhet, finger-vein igenkänningssystem fånga bilder genom att använda nära infraröd (NIR) belysning i samband med en kamera. Sådana system kan dock möta operativa svårigheter, eftersom spridning av ljus från huden kan göra det svårt att fånga en klar bild. För att lösa detta problem föreslog vi en ny metod för bildkvalitetsförbättring som mäter riktning och tjocklek på venlinjer. Denna insats representerar ny forskning i fyra avseenden. För det första, eftersom venlinjer upptäcks i indatabilder baserade på åtta riktningsprofiler av en grå bild i stället för binariserade bilder, kan detektionsfelet på grund av den icke-uniforma belysningen av fingerområdet minskas. För det andra bestämmer vår metod adaptivt ett Gabor-filter för optimal riktning och bredd på grundval av den beräknade riktningen och tjockleken på en upptäckt venlinje. För det tredje kan en klar venbild erhållas genom att använda detta optimerade Gabor-filter. Slutligen tillämpas ytterligare bearbetning av den morfologiska verksamheten i Gabors filtrerade bild och den resulterande bilden kombineras med den ursprungliga, genom vilken fingeravbildning av högre kvalitet erhålls. Experimentella resultat från tillämpning av vår föreslagna bildförbättringsmetod visar att den lika felfrekvensen (EER) för finger-vein igenkänning minskar till cirka 0,4% i fallet med en lokal binär mönsterbaserad igenkänning och till cirka 0,3% i fallet med en wavelet transform-baserad igenkänning.
I REF, de förbättrade kvaliteten på finger-vein bilden genom en optimal Gabor filter design baserat på riktning och tjocklek uppskattning av finger-vein linjer.
61,813,419
Image Quality Enhancement Using the Direction and Thickness of Vein Lines for Finger-Vein Recognition
{'venue': None, 'journal': 'International Journal of Advanced Robotic Systems', 'mag_field_of_study': ['Computer Science']}
3,387
Vi undersöker problemet med läsbarhetsbedömning med hjälp av en rad lexiska och syntaktiska egenskaper och studerar deras inverkan på att förutsäga textens gradnivå. Som empirisk grund kombinerade vi två webbaserade textkällor, Weekly Reader och BBC Bitesize, med inriktning på olika åldersgrupper, för att täcka ett brett utbud av skolbetyg. På den konceptuella sidan undersöker vi användningen av lexiska och syntaktiska åtgärder som ursprungligen utformats för att mäta språkutvecklingen i produktionen av andraspråkslärare. Vi visar att utvecklingsåtgärderna från forskning inom Second Language Acquisition (SLA) i kombination med traditionella läsbara funktioner som ordlängd och meningslängd ger en bra indikation på textläsbarhet i olika betyg. De resulterande klassificeringarna överträffar betydligt de tidigare metoderna för läsbarhetsklassificering och uppnår en klassificeringsnoggrannhet på 93,3 %.
REF visade att bedömning av läsnivå kan dra nytta av forskning inom Second Language Acquisition (SLA).
10,919,200
On Improving the Accuracy of Readability Classification using Insights from Second Language Acquisition
{'venue': 'Proceedings of the Seventh Workshop on Building Educational Applications Using NLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,389
Roger Hughes föreslog en makroskopisk modell för fotgängare dynamik, där individer försöker minimera sin restid men försöker undvika regioner med hög densitet. En av de grundläggande antagandena är att den totala densiteten i folkmassan är känd för varje agent. I detta dokument presenterar vi en ändring av Hughes-modellen för att inkludera lokala effekter, nämligen begränsad vision, och en övertygelse om beslutsfattande. Det modifierade hastighetsfältet möjliggör smidig vridning och temporärt väntande beteende. Vi diskuterar modellering i den mikro- och makroskopiska inställningen samt den effektiva numeriska simuleringen av endera beskrivningen. Slutligen illustrerar vi modellen med olika numeriska experiment och utvärderar beteendet med avseende på evakueringstiden och den övergripande prestandan.
År 2016, Carrillo et al. REF förbättrade Hughes-modellen för smidig svängning och tillfällig väntan på fotgängare.
54,080,690
An improved version of the Hughes model for pedestrian flow
{'venue': 'Mathematical Models and Methods in Applied Sciences', 'journal': 'Mathematical Models and Methods in Applied Sciences', 'mag_field_of_study': ['Mathematics']}
3,390
Abstract-Stor mängd information som finns i distribuerade databaser måste utnyttjas av organisationer för att vara konkurrenskraftig på marknaden. För att utnyttja denna information, frågor ställs därefter. Dessa frågor kräver effektiv behandling, som uppdrag att utforma optimal frågebehandling strategier som genererar effektiv frågebehandling planer för en given distribuerad fråga. Antalet möjliga frågebehandling planer växer snabbt med ökningen av antalet platser som används, och förbindelser som nås, av frågan. Det finns ett behov av att generera effektiva frågebehandlingsplaner bland alla möjliga frågeplaner. Den föreslagna metoden försöker generera sådana frågebehandlingsplaner med hjälp av genetisk algoritm. Metoden genererar frågeplaner baserade på närhet av data som krävs för att svara på användarens fråga. De frågeplaner som har de nödvändiga uppgifterna bosatta på färre platser, anses effektivare, och är därför att föredra, framför frågeplaner som har data spridda över ett stort antal platser. De frågeplaner så som genereras innebär minimalt antal platser för att svara på användarens fråga som leder till effektiv frågebehandling. Dessutom visar experimentella resultat att den GA-baserade metoden snabbt konvergerar mot de optimala frågebehandlingsplanerna för en observerad crossover och mutationsfrekvens.
I REF ges ett tillvägagångssätt som genererar "nära" frågeplaner med avseende på antalet berörda platser och koncentrationen av relationer på platserna för en distribuerad relationsfråga.
57,061,788
Distributed Query Processing Plans Generationusing Genetic Algorithm
{'venue': None, 'journal': 'International Journal of Computer Theory and Engineering', 'mag_field_of_study': ['Computer Science']}
3,391
Abstrakt. Vi reducerar JavaScript till en kärnanalys strukturerad som en småskalig operationell semantik. Vi presenterar flera egenheter i språket och visar att vår kalkyl modellerar dem. Vi explicerar avsockringsprocessen som förvandlar JavaScript-program till sådana i kärnan. Vi visar trohet mot JavaScript genom att använda verkliga testsviter. Slutligen illustrerar vi nyttan genom att definiera en säkerhetsfastighet, genomföra den som ett typsystem på kärnan, och utvidga den till hela språket. Den växande användningen av JavaScript har skapat helt nya tekniska och affärsmodeller för programkonstruktion och installation. JavaScript är ett funktionsrikt språk med många egenheter, och dessa egenheter utnyttjas ofta av säkerhets- och integritetsattacker. Detta gäller särskilt i fall där JavaScript har en välbekant syntax men en okonventionell semantik. På grund av dess popularitet och brister har företag och forskare försökt tämja JavaScript via programanalyser [4, 9, 10, 13], underspråk [5, 7, 17] och mycket mer. Dessa verk hävdar, men visar inte på sundhet, delvis på grund av att vi saknar en lättfattlig skildring av språket. JavaScript-standarden [6] är kapig och informell, medan en stor formell semantik [15] är stor, inte mottaglig för konventionella bevistekniker, och ärver standardens komplexitet, som vi diskuterar i avsnitt 5. I kontrast: -Vi presenterar ett kärnspråk, λ JS, som förkroppsligar JavaScripts väsentliga funktioner (sans eval). λ JS passar på tre sidor och lämpar sig väl för bevistekniker som ämnesreduktion. -Vi visar att vi kan avsockra JavaScript till λ JS. I synnerhet, avsockring handtag beryktade JavaScript funktioner som denna och med, så λ JS själv förblir enkel (och därmed förenklar bevis som använder den). -Vi mekaniserar både λ JS och avsockring. -För att visa överensstämmelse med verkligheten, vi framgångsrikt testa λ JS och avsockring mot själva Mozilla JavaScript testsviten. -Slutligen visar vi användningen av våra semantik genom att bygga en säker delmängd av JavaScript. Detta program belyser hur vår partitionering av JavaScript in i kärnan och syntaktiskt socker ger struktur till bevis. Våra tilläggsmaterial (full avsockring, verktyg, etc.) finns tillgängliga på
Al REF föreslår en kärnanalysmetod för att ge semantik till JavaScript-de ger en sockeravdunstare från JavaScript till en kärnanalys som kallas λJS, som har en småskalig strukturell operationell semantik.
21,333,729
The Essence of JavaScript
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
3,392
Vi presenterar grafen uppmärksamhet nätverk (GAT), nya neurala nätverk arkitekturer som fungerar på graf-strukturerade data, utnyttja maskerade självuppmärksamhet lager för att ta itu med bristerna i tidigare metoder baserade på graf konvolutioner eller deras approximationer. Genom att stapla lager i vilka noder kan delta över sina stadsdelars funktioner, möjliggör vi (implicit) ange olika vikter till olika noder i ett område, utan att kräva någon form av dyr matris operation (såsom inversion) eller beroende på att veta grafstrukturen i förskott. På så sätt tar vi itu med flera viktiga utmaningar för spektral-baserade graf neurala nätverk samtidigt, och gör vår modell lätt tillämplig på såväl induktiva som transduktiva problem. Våra GAT modeller har uppnått eller matchat state-of-t heart resultat över fyra etablerade transduktiva och induktiva graf riktmärken: Cora, Citeseer och Pubmed citeringsnätverk dataset, samt en proteinprotein interaktion dataset (där test grafer förblir osedda under träning).
Diagramuppmärksamhet Nätverk (GAT) REF har i stor utsträckning använts för grafdataanalys och inlärning.
3,292,002
Graph Attention Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
3,393
Metoderna för att lindra problemet med statsexplosion vid modellkontroll kan grovt klassificeras i symboliska metoder och abstraktionsmetoder [6]. Med symboliska metoder förstår vi användningen av koncisa datastrukturer och symboliska algoritmer som hjälper till att hålla tillståndsexplosion under kontroll genom att komprimera information, t.ex. med binära beslutsscheman eller effektiva SAT-förfaranden. Abstraction metoder i kontrast försöker minska storleken på tillståndet utrymme genom att använda kunskap om systemet och specifikationen för att modellera endast relevanta funktioner i Kripke struktur. En abstraktionsfunktion associerar en Kripke struktur à med en abstrakt Kripke struktur à sådan att två egenskaper innehar: Bevarande. à bevarar alla beteenden i Ã. Bevarande säkerställer att varje universell specifikation som är sant i à är också sant i Ã. Den motsatta innebörden kommer dock inte att hålla i allmänhet: en universell egendom som är falsk i Ö kan fortfarande vara sant i Ö. I detta fall kan det motexempel som erhållits över Ö inte rekonstrueras för betong Kripke struktur Ã, och kallas en falsk motexempel [10], eller en falsk negativ. Ett viktigt exempel på abstraktion är existentiell abstraktion [11] där de abstrakta staterna i huvudsak betraktas som likvärdiga klasser av konkreta stater; en övergång mellan två abstrakta stater äger rum om det sker en övergång mellan två konkreta medlemsstater i motsvarande ekvivalensklasser. I vissa fall kommer användarkunskapen om systemet att vara tillräcklig för att möjliggöra manuell bestämning av en god abstraktionsfunktion. I allmänhet, dock, att hitta abstraktion funktioner ger upphov till följande dikotomi: Om à är för liten, då falska motexempel är sannolikt att uppstå. Om à är för stor, då verifiering förblir ogenomförbar. Counterexample-Guided Abstraction Raffinement (CEGAR) är ett naturligt tillvägagångssätt för att lösa denna situation genom att använda en adaptiv algoritm som gradvis förbättrar en abstraktion funktion genom att analysera falska kontraexempel. (i) Inledande. Skapa en initial abstraktionsfunktion. ii) Förlagakontroll. Verifiera den abstrakta modellen. Om verifieringen lyckas är specifikationen korrekt, och algoritmen avslutas framgångsrikt. Annars kan man skapa ett motexempel på den abstrakta modellen. iii) Sanitetskontroll. Bestäm, om det abstrakta motexempelet är falskt. Om ett konkret motexempel
Dessutom, Counterexample-Guided Abstraction Raffinement (CEGAR) verifieringsmetod ( REF ) består också i matchande modell-kontroll motexempel till program exekveringar.
9,192,961
Counterexample-guided abstraction refinement
{'venue': 'In Computer Aided Verification', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,394
Sammanfattning Denna artikel fokuserar på hierarkiska klassificeringsproblem där de klasser som ska förutsägas är organiserade i form av ett träd. Standarden top-down-klyfta och erövra strategi för hierarkisk klassificering består av att bygga en hierarki av klassificerare där en klassificerare är byggd för varje intern (icke-blad) nod i klassträdet. Varje klassificerare diskriminerar endast mellan sina barnklasser. När klassifikationsträdet har byggts, använder systemet dem för att klassificera exempel på en klassnivå i taget, så att när exemplet tilldelas en klass på en given nivå behöver endast barnklasserna beaktas på nästa nivå. Detta tillvägagångssätt har nackdelen att om ett testexempel är felaktigt klassificerat på en viss klassnivå, kommer det också att vara felaktigt klassificerat på djupare nivåer. I detta dokument föreslår vi hierarkiska klassificeringsmetoder för att mildra denna nackdel. Mer exakt föreslår vi en metod som kallas Hierarkisk Ensemble of Hierarkical Rule Sets (HEHRS), där olika ensembler byggs på olika nivåer i klassträdet och varje ensemble består av olika regeluppsättningar byggda från träningsexempel på olika nivåer av klassträdet. Vi använder också en Partikelsvamoptimeringsalgoritm (PSO) för att optimera de regelvikter som HEHRS använder för att kombinera förutsägelser av olika regler till en klass som ska tilldelas ett givet testexempel. Dessutom föreslår vi en variant av en metod för att mildra den ovan nämnda nackdelen med top-down klassificering. Dessa tre typer av metoder jämförs mot den standardiserade hierarkiska klassificeringsmetoden uppifrån och ned i sex utmanande bioinformatiska datauppsättningar, med förutsägelse av proteinfunktion. Totalt får HEHRS med de regelvikter som optimerats av PSO-algoritmen den bästa prediktiva noggrannheten av de fyra typerna av hierarkisk klassificeringsmetod.
I Holden och Freitas REF, olika ensembler av regler byggs för varje nivå av klassen hierarki-med hjälp av utbildning exempel på nivå-och en PSO algoritm används för att optimera de vikter som används för att kombinera förutsägelser av olika regler på ett top-down-sätt.
7,692,424
Hierarchical Classification of Protein Function with Ensembles of Rules and Particle Swarm Optimisation
{'venue': None, 'journal': 'Soft Computing', 'mag_field_of_study': ['Computer Science']}
3,395
Det har gjorts flera ansträngningar för att få statiska typslut till objektorienterade dynamiska språk som Ruby, Python och Perl. Enligt vår erfarenhet är dock sådana typer av slutledningssystem extremt svåra att utveckla, eftersom dynamiska språk vanligtvis är komplexa, dåligt specificerade och innehåller funktioner, såsom utvärdering och reflektion, som är svåra att analysera. I det här dokumentet introducerar vi begränsningsbaserade dynamiska typslutsatser, en teknik som leder till statiska typer baserade på dynamiska programutföranden. I vårt tillvägagångssätt sveper vi in varje run-time-värde för att associera det med en typvariabel, och omslaget skapar begränsningar för denna typvariabel när det inlindade värdet används. Denna teknik undviker många av de ofta alltför konservativa approximationer av statiska verktyg, eftersom begränsningar genereras baserat på hur värden används under faktiska programkörningar. Att använda omslag är också lätt att implementera, eftersom vi bara behöver skriva en begränsningsupplösningsalgoritm och en omvandling för att introducera omslag. Det bästa är att vi kan äta vår kaka också: vår algoritm kommer att dra slutsatser ljudtyper så länge den observerar varje väg genom varje metod kropp-notera att antalet sådana vägar kan vara dramatiskt mindre än antalet vägar genom programmet som helhet. Vi har utvecklat Rubydust, en implementering av vår algoritm för Ruby. Rubydust utnyttjar Rubys dynamiska funktioner för att implementera wrappers som språkbibliotek. Vi tillämpade Rubydust på ett antal små program och fann att det var både lätt att använda och användbart: Rubydust upptäckte 1 riktigt typfel, och alla andra inferredtyper var korrekta och läsbara.
Slutligen, RubyDust REF implementerar typ inference för Ruby på körtid.
6,588,378
Dynamic inference of static types for ruby
{'venue': "POPL '11", 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,396
I detta dokument presenteras en formell ram och beskrivs en metod som autonoma agenter kan använda för att förhandla fram semantiken i sitt kommunikationsspråk i körtid. En sådan förmåga behövs i öppna multiagentsystem så att agenter kan se till att de förstår implikationerna av de uttalanden som görs och så att de kan skräddarsy betydelsen av de primitiva för att bäst passa deras rådande omständigheter. I detta syfte utgör den semantiska rymdramen ett systematiskt sätt att klassificera de primitiva längs med flera relevanta dimensioner. Denna klassificering kan sedan användas av agenterna för att strukturera deras förhandlingsprocess (eller semantisk fixering) så att de konvergerar till de ömsesidigt angenäma semantik som är nödvändiga för ett sammanhållet socialt samspel.
I REF presenteras en formell ram för agenter att förhandla semantik deras ACL på runtime.
6,245,176
Negotiating the Semantics of Agent Communication Languages
{'venue': 'Comput. Intell.', 'journal': 'Comput. Intell.', 'mag_field_of_study': ['Computer Science']}
3,397
Abstract-A misslyckades test avslöjar en potentiell bugg i den testade koden. Utvecklare måste förstå vilka delar av testet som är relevanta för felet innan de startar felrättning. Detta dokument presenterar en helt automatiserad teknik (och dess verktyg genomförande, kallas MisslyckandeDoc) för att förklara en misslyckad test. MisslyckandeDoc förstärker den misslyckade provningen med förklarande dokumentation i form av kodkommentarer. Kommentarerna visar på förändringar i testet som skulle få det att gå igenom, vilket hjälper programmerare att förstå varför testet misslyckas. Vi utvärderade MisslyckandeDoc på fem riktiga program. MisslyckandeDoc genererade meningsfulla kommentarer för de flesta misslyckade tester. De slutsatser som drogs var koncisa och avslöjade viktiga felsökningstips. Vi genomförde vidare en användarstudie. Resultaten visade att MisslyckandeDoc är användbar vid feldiagnos.
MisslyckandeDoc REF förstärker ett misslyckat test med felsökning av ledtrådar, som kunde utökas för att hjälpa till att förklara varför testerna som genereras av @COMMENT misslyckas.
14,846,118
Automated documentation inference to explain failed tests
{'venue': '2011 26th IEEE/ACM International Conference on Automated Software Engineering (ASE 2011)', 'journal': '2011 26th IEEE/ACM International Conference on Automated Software Engineering (ASE 2011)', 'mag_field_of_study': ['Computer Science']}
3,399
Detta dokument presenterar en metod för att känna igen mänskliga handlingar från sekvenser av djupkartor. Specifikt använder vi en åtgärd diagram för att modellera explicit dynamiken i åtgärderna och en påse med 3D-punkter för att karakterisera en uppsättning framträdande positioner som motsvarar noderna i åtgärd grafen. Dessutom föreslår vi ett enkelt, men effektivt projektionbaserat provtagningsschema för att provta påsen med 3D-punkter från djupkartorna. Experimentella resultat har visat att över 90% igenkänningsnoggrannhet uppnåddes genom provtagning endast ca 1% 3D-punkter från djupkartorna. Jämfört med den 2D siluettbaserade igenkänningen halverades igenkänningsfelen. Dessutom visar vi potentialen hos påsen med punkter hållning modell för att hantera ocklusioner genom simulering.
Löjtnant m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m för m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. REF-provpunkter från siluett av en djupbild för att få en påse med 3D-punkter som är grupperade för att möjliggöra igenkänning.
4,333,408
Action recognition based on a bag of 3D points
{'venue': '2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition - Workshops', 'journal': '2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition - Workshops', 'mag_field_of_study': ['Computer Science']}
3,400
Även om det tidigare primära målet att optimera programvara var run time optimering, idag finns det en växande medvetenhet om behovet av att minska energiförbrukningen. Dessutom vill ett växande antal utvecklare bli mer energimedvetna när de programmerar och känner brist på verktyg och kunskap för att göra det. I detta dokument definierar vi en rankning av energieffektivitet i programmeringsspråk. Vi anser att en uppsättning datorproblem genomförs i tio välkända programmeringsspråk, och övervakade den energi som förbrukas vid utförandet av varje språk. Våra preliminära resultat visar att även om de snabbaste språken tenderar att vara de minst konsumerande, finns det andra intressanta fall där långsammare språk är mer energieffektiva än snabbare.
Huvudfokus för REF var metoden och jämförelsen av CPU-baserad energieffektivitet på 10 av de 28 språken.
29,631,374
Towards a Green Ranking for Programming Languages
{'venue': 'SBLP 2017', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,401
Visuella signaler i en video kan delas in i innehåll och rörelse. Medan innehållet anger vilka objekt som finns i videon, beskriver rörelse deras dynamik. Baserat på detta tidigare föreslår vi ramverket Motion and Content decomposed Generative Adversarial Network (MoCoGAN) för videogenerering. Det föreslagna ramverket genererar en video genom att kartlägga en sekvens av slumpmässiga vektorer till en sekvens av videoramar. Varje slumpmässig vektor består av en innehållsdel och en rörelsedel. Medan innehållet är fast, den rörelse delen realiseras som en stokastisk process. För att lära sig rörelse och innehållsnedbrytning på ett oövervakat sätt introducerar vi ett nytt kontradiktoriskt inlärningsprogram som utnyttjar både bild- och videodiskriminatorer. Omfattande experimentella resultat på flera utmanande datauppsättningar med kvalitativ och kvantitativ jämförelse med de senaste metoderna, verifiera effektiviteten i det föreslagna ramverket. Dessutom visar vi att MoCoGAN tillåter en att generera videor med samma innehåll men olika rörelse samt videor med olika innehåll och samma rörelse. Vår kod finns på https://github.com/sergeytulyakov/mocogan.
MoCoGAN REF ] videogenerering ram kartlägger slumpmässiga vektorer till videoramar, med varje vektor som består av en innehållsdel och en rörelsedel.
4,475,365
MoCoGAN: Decomposing Motion and Content for Video Generation
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
3,402
Abstrakt. I detta dokument beskriver vi hur vi har lagt till stöd för dynamisk delegering av befogenheter som antas genom utfärdande av referenser från en användare till en annan, till XACML-modellen för beslutsfattande om auktorisation. Inledningsvis presenterar vi de problem och krav som en sådan modell kräver, med tanke på att flera domäner vanligtvis kommer att vara inblandade. Därefter beskriver vi vår arkitektbaserade lösning baserad på XACML konceptuella och dataflödesmodeller. Vi presenterar också på konceptuell nivå de politiska element som är nödvändiga för att stödja denna modell av dynamisk delegering av befogenheter. Med tanke på att dessa policyelement skiljer sig väsentligt från dem i den befintliga XACML-policyn föreslår vi att en ny konceptuell enhet som kallas Credential Validation Service (CVS) ska arbeta tillsammans med XACML PDP i beslutsfattandet om auktorisation. Slutligen presenterar vi en översikt över vår första specifikation av en sådan policy och dess genomförande i motsvarande CVS.
Chadwick m.fl. REF föreslog en lösning baserad på konceptuella XACML- och dataflödesmodeller som stöder dynamisk delegering av befogenheter.
18,530,076
Adding support to xacml for dynamic delegation of authority in multiple domains
{'venue': 'In Communications and Multimedia Security, 10th IFIP TC-6 TC-11 International Conference, CMS 2006, Heraklion', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,403
Vi tillhandahåller teoretisk undersökning av läroplan lärande i samband med stokastisk lutning nedstigning när optimera konvex linjär regressionsförlust. Vi visar att graden av konvergens av en idealisk inlärningsmetod i läroplanen ökar monotont med svårigheten i exemplen. Dessutom, bland alla lika svåra punkter, konvergens är snabbare när man använder punkter som medför större förlust i förhållande till den nuvarande hypotesen. Därefter analyserar vi läroplanslärandet i samband med att vi utbildar ett CNN. Vi beskriver en metod som leder fram till läroplanen genom att överföra lärande från ett annat nätverk, som är förskolat på en annan uppgift. Även om detta tillvägagångssätt bara kan approximera den idealiska läroplanen, observerar vi empiriskt liknande beteende som den som förutspås av teorin, nämligen en betydande ökning av konvergenshastigheten i början av utbildningen. När uppgiften försvåras observeras också förbättringar i generaliseringens prestanda. Slutligen, läroplans lärande visar robusthet mot ogynnsamma förhållanden såsom överdriven legalisering.
I det senaste arbetet, Weinshall m.fl. Ref överväga inlärningsuppgifter med konvex linjär regressionsförlust och visa att konvergensgraden för en perfekt undervisningsmetod ökar med svårigheten i exemplen.
5,004,002
Curriculum Learning by Transfer Learning: Theory and Experiments with Deep Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
3,404
Personåteridentifiering över delade kameravyer har i stor utsträckning tillämpats i videoövervakning, men det är fortfarande ett utmanande problem. En av de största utmaningarna ligger i bristen på rumsliga och timliga signaler, vilket gör det svårt att hantera stora variationer av ljusförhållanden, synvinklar, kroppsposer och ocklusioner. På senare tid har flera djupt lärande baserade metoder för att identifiera personer föreslagits och uppnått anmärkningsvärda resultat. Men de flesta av dessa närmar sig extrahera diskriminerande egenskaper från hela ramen vid en glimt utan att differentiera olika delar av personerna för att identifiera. Det är i huvudsak viktigt att undersöka flera mycket diskriminerande lokala regioner av personen bilder i detaljer genom flera glimtar för att hantera den stora utseende variansen. I detta dokument föreslår vi en ny modell baserad på mjuk uppmärksamhet, dvs. nätverket för jämförande uppmärksamhet (CAN), som är särskilt anpassat för att identifiera personer. Den end-to-end KAN lära sig att selektivt fokusera på delar av par av personbilder efter att ha tagit några glimtar av dem och adaptivt jämföra deras utseende. CAN-modellen kan lära sig vilka delar av bilder som är relevanta för urskiljande personer och integrerar automatiskt information från olika delar för att avgöra om ett par bilder tillhör samma person. Med andra ord simulerar vår föreslagna CAN-modell den mänskliga perceptionsprocessen för att kontrollera om två bilder kommer från samma person. Omfattande experiment på tre referenspersoners omidentifieringsdata, inklusive CUHK01, CHUHK03 och Market-1501, visar tydligt att vår föreslagna end-to-end CAN för person omidentifiering överträffar väl etablerade baslinjer avsevärt och erbjuder nya state-of-the-art prestanda.
Liu m.fl. I REF föreslås ett nätverk för jämförande uppmärksamhet från början till slut för att skapa en bildbeskrivning.
2,057,858
End-to-End Comparative Attention Networks for Person Re-identification
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
3,405
Vi presenterar grupp equivariant kapselnätverk, en ram för att införa garanterad equivariance och invariance egenskaper till kapseln nätverk idé. Vårt arbete kan delas in i två bidrag. För det första presenterar vi en allmän routing genom avtal algoritm definieras på delar av en grupp och visar att likformighet av utdata utgör vektorer, liksom invarians av utdata aktiveringar, hålla under vissa villkor. För det andra kopplar vi samman de resulterande equivarianta kapselnäten med arbete från området för gruppkonvolutionella nätverk. Genom denna anslutning ger vi intuitioner om hur båda metoderna relaterar och kan kombinera styrkan i båda tillvägagångssätten i en djup neural nätverksarkitektur. Det resulterande ramverket möjliggör sparsam utvärdering av koncernens konvolutionsoperatör, ger kontroll över specifika likformighets- och variationsegenskaper, och kan använda routing genom överenskommelse i stället för poolning. Dessutom är det möjligt att ge tolkningsbara och likvärdiga representation vektorer som utgång kapslar, som löses bevis på objektet existens från dess pose.
REF kombinerade kapselnät med gruppkonvolutioner för att garantera jämbördighet och variabilitet i kapselnät.
49,188,713
Group Equivariant Capsule Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
3,406
Sammanfattning av denna webbsida: En Kalman-baserad hypotestestningsalgoritm (KHT) föreslås för mobil lokaliseringsuppskattning i non-line of seende (NLOS) miljöer. Hypotestester används för att upptäcka om miljön är NLOS eller LOS tillsammans med ankomsttid (TOA) och mottagen signalstyrka (RSS) mätningar. Och sedan används ett utökat Kalman-filter till icke-linjär uppskattning. Simuleringsresultat visar att den Kalman-baserade hypotestestningsalgoritmen har högre uppskattningsnoggrannhet jämfört med det utökade Kalman-filtret. Nyckelord: Wireless sensor networks, non-line of see, indoor localization, Kalman filter, hypotestesting Klassificering: Trådlösa kretsar och enheter [1] Y. Kong, Y. Kwon, och G. Park, "Robust localization over obstruktioned interferences for inbuilding wireless applications", IEEE Trans. Fulländning.
En Kalman bashypotes testalgoritm föreslås för NLOS lokalisering REF.
33,128,234
Mobile location estimation scheme in NLOS environment
{'venue': 'IEICE Electronic Express', 'journal': 'IEICE Electronic Express', 'mag_field_of_study': ['Computer Science']}
3,407
Abstrakt. Interaktion med en webbtjänst möjliggör marknadsplats för att uppnå en komplex uppgift innebär sekvensering av en uppsättning enskilda tjänster verksamhet, samla in information från tjänsterna, och göra val. Vi föreslår att problemet med att utfärda förfrågningar om en sammansättning av webbtjänster kodas som ett restriktionsbaserat problem.
I REF är användarens önskemål och sammansättningar av webbtjänster statiskt modellerade genom begränsningar.
6,347,844
Encoding Requests to Web Service Compositions as Constraints
{'venue': 'CP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,408
Sammanfattning I detta dokument föreslår vi en ny rigid rörelsesegmenteringsalgoritm kallad randomiserad röstning (RV)
Jung m.fl. REF föreslog en ny algoritm för rigid rörelsesegmentering baserad på randomiserad röstning (RV).
10,772,442
Rigid Motion Segmentation Using Randomized Voting
{'venue': '2014 IEEE Conference on Computer Vision and Pattern Recognition', 'journal': '2014 IEEE Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
3,409
Abstract-This paper diskuterar effektiviteten av djup autoencoder neurala nätverk i visuell förstärkning inlärning (RL) uppgifter. Vi föreslår en ram för att kombinera utbildning av djupa auto-kodare (för att lära kompakta utrymmen) med nyligen föreslagna batch-mode RL algoritmer (för lärande politik). Tonvikten läggs på dataeffektiviteten hos denna kombination och på att studera egenskaperna hos de funktionsutrymmen som automatiskt konstrueras av de djupa autokodarna. Dessa utrymmen visas empiriskt för att på ett adekvat sätt likna befintliga likheter och rumsliga samband mellan observationer och göra det möjligt att lära sig användbara strategier. Vi föreslår flera metoder för att förbättra topologin av de funktioner utrymmen som använder sig av uppgiftsberoende information. Slutligen presenterar vi de första resultaten om att framgångsrikt lära sig en bra kontrollpolitik direkt på syntetiserade och verkliga bilder.
På ett tidigt stadium, djupa auto-kodare användes för att extrahera funktioner utrymmen för att lösa förstärkning inlärningsuppgifter REF.
1,240,464
Deep auto-encoder neural networks in reinforcement learning
{'venue': 'The 2010 International Joint Conference on Neural Networks (IJCNN)', 'journal': 'The 2010 International Joint Conference on Neural Networks (IJCNN)', 'mag_field_of_study': ['Computer Science']}
3,410
Applicationsnivå videoobjekt segmentering är en viktig teknik för videoredigering och komprimering. För att fånga temporal samstämmighet, i detta papper, utvecklar vi MaskRNN, ett återkommande neuralt nät tillvägagångssätt som smälter samman i varje ram utgången av två djupa nät för varje objekt exempel - ett binärt segmenteringsnät som ger en mask och ett lokaliseringsnät som ger en avgränsande låda. På grund av den återkommande komponenten och lokalisering komponenten, vår metod kan dra nytta av långsiktiga tidsmässiga strukturer av videodata samt avvisa avvikande. Vi validerar den föreslagna algoritmen på tre utmanande referensdataset, DAVIS-2016-datasetet, DAVIS-2017-datasetet och Segtrack v2-datasetet som uppnår toppmoderna prestanda på alla.
I REF, ett återkommande neuralt nät tillvägagångssätt föreslås att sammansmälta resultaten av en binär segmentering nät ger en mask och en localization nät ger en avgränsande låda för varje objekt instans i varje ram, som är i stånd att dra nytta av långsiktiga tidsmässiga strukturer av videodata samt avvisa utliers.
200,629
MaskRNN: Instance Level Video Object Segmentation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
3,411
I detta dokument föreslår vi, i stället för att modellera aktiviteter i videor individuellt, en hierarkisk ram som tillsammans modellerar och erkänner relaterade aktiviteter med hjälp av rörelse och olika kontextfunktioner. Detta motiveras av iakttagelserna att de aktiviteter som är relaterade till rum och tid sällan sker självständigt och kan fungera som ett sammanhang för varandra. Med en video detekteras actionsegment automatiskt med rörelsesegmentering baserad på en icke-linjär dynamisk modell. Vi strävar efter att slå samman dessa segment till aktiviteter av intresse och skapa optimala etiketter för verksamheten. Mot detta mål använder vi en strukturell modell i ett maxmarginalramverk som tillsammans modellerar de underliggande aktiviteterna som är relaterade till rum och tid. Modellen lär sig explicit varaktighet, rörelse och kontextmönster för varje aktivitetsklass, samt spatio-temporala relationer för grupper av dem. Den lärda modellen används sedan för att optimalt märka aktiviteterna i testvideorna med hjälp av en girig sökmetod. Vi visar lovande resultat på VIRAT Ground Dataset som visar fördelarna med gemensam modellering och erkännande av aktiviteter i ett stort område.
I samtida arbete utför REF gemensam segmentering och märkning med hjälp av en strukturell modell som tar hänsyn till aktivitetstid, rörelsefunktioner och kontextfunktioner.
12,554,179
Context-Aware Modeling and Recognition of Activities in Video
{'venue': '2013 IEEE Conference on Computer Vision and Pattern Recognition', 'journal': '2013 IEEE Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
3,412
Abstract-Den ständigt ökande efterfrågan på innehåll anstränger operatörernas nätverk, vilket kräver utveckling av alternativa mekanismer för innehållsleverans. Distribuerade caching arkitekturer utgör en lovande lösning för att minska effekterna av efterfrågetillväxt genom att placera populära innehållsfiler i närheten av användarna, snarare än på en central webbplats. I detta dokument studerar vi problemet med innehållsplacering i hierarkiska cachenätverk på flera nivåer där användarens önskemål om filer riktas uppåt mot innehållsservrar, nöjda med mellanliggande noder om de senare har cacheerat de begärda filerna. Vårt mål är att minska serverbelastningen genom att fylla så många förfrågningar som möjligt i cachen. Vi visar att problemet är NP-Hard i dess allmänna form, men det kan lösas optimalt i polynom-tid när caches installeras på en enda hierarkisk väg. I det allmänna fallet utvecklar vi en algoritm som uppnår ett bevisligen bättre approximationsförhållande än de mest kända motsvarigheterna. Numeriska experiment visar upp till 56% minskning av serverbelastning över befintliga algoritmer, med vinster ökar i takt med att innehållet popularitet distributioner blir brantare och mer varierande mellan noder, och cache kapacitet på den övre hierarkin nivåer ökar. Vår utvärderingskod är allmänt tillgänglig till nytta för forskarsamhället.
Referens REF ger upphov till problem med innehållsplacering och utformar en optimal policy för innehållsplacering för att minska serverbelastningen genom att uppfylla så många önskemål som möjligt genom cachefilerna.
19,353,924
On the Complexity of Optimal Content Placement in Hierarchical Caching Networks
{'venue': 'IEEE Transactions on Communications', 'journal': 'IEEE Transactions on Communications', 'mag_field_of_study': ['Computer Science']}
3,413
Feature representation och metrisk inlärning är två kritiska komponenter i person om-identifiering modeller. I detta dokument fokuserar vi på funktionen representation och hävdar att handgjorda histogram funktioner kan komplettera Convolutional Neural Network (CNN) funktioner. Vi föreslår en ny funktion utvinning modell som heter Feature Fusion Net (FFN) för fotgängare bild representation. I FFN gör ryggförökning CNN-funktioner som begränsas av handgjorda funktioner. Använda färghistogram funktioner (RGB, HSV, YCbCr, Lab och YIQ) och textur funktioner (multi-skala och multi-orientering Gabor funktioner), får vi en ny djup funktion representation som är mer diskriminerande och kompakt. Experiment på tre utmanande dataset (VIPeR, CUHK01, PID450s) validerar effektiviteten i vårt förslag.
Wu och Al. REF kombinerar de handgjorda histogramfunktionerna och de djupa funktionerna för att finjustera klassificeringsnätverket.
1,008,985
An Enhanced Deep Feature Representation for Person Re-identification
{'venue': '2016 IEEE Winter Conference on Applications of Computer Vision (WACV)', 'journal': '2016 IEEE Winter Conference on Applications of Computer Vision (WACV)', 'mag_field_of_study': ['Computer Science']}
3,414
Abstract-Efter utbrottet av dot-com bubblan i hösten 2001 har Internet blivit ett deltagande medium, som gör det möjligt för användare att interagera med varandra och med tjänster från var som helst och när som helst. Potentialen av en sådan förändring är fortfarande att utnyttjas fullt ut, och fenomen som sociala nätverk och molntjänster är bara två av de många innovativa lösningar som har fötts från Web 2.0. Samtidigt etablerar sig en ny klass av användare i Internetlandskapet: i och med tillkomsten av sakernas Internet (IoT) blir smarta objekt det nya, och möjligen det största, Internetgemenskapen. I detta dokument föreslår vi WebIoT, en ny webbapplikationsram, baserad på Google Web Toolkit, som syftar till att förbättra interaktionen mellan saker och mellan människor och saker. Vårt ramverk bygger på följande principer: thing-centric design, modularity och webbtjänstkommunikation. Vi kommer att beskriva de viktigaste komponenterna i ramverket, deras interaktioner och hur enkelt det är att utveckla någon anpassad IoT-applikation integrera alla antal och typer av smarta saker. I synnerhet kommer vi att visa hur olika saker kan integreras i ramverket, hur de interagerar och hur användarna kan utnyttja dessa interaktioner för att utveckla alla komplexa funktioner. Slutligen beskriver vi en typisk HealthCare ansökan för IoT realiseras med WebIoT.
Web IoT, en ny webbapplikationsram baserad på Google Web Toolkit, ger användarna enkla metoder för att integrera smarta saker, och förbättrar interaktionen mellan människor och saker eller bland saker REF.
16,672,826
WebIoT: A web application framework for the internet of things
{'venue': '2012 IEEE Wireless Communications and Networking Conference Workshops (WCNCW)', 'journal': '2012 IEEE Wireless Communications and Networking Conference Workshops (WCNCW)', 'mag_field_of_study': ['Computer Science']}
3,415
Vi föreslår en routingstrategi för att förbättra transporteffektiviteten på komplexa nät. Istället för att använda routing strategi för kortaste vägen, ger vi en generaliserad routing algoritm för att hitta den så kallade effektiva vägen, som överväger den eventuella trängsel i noderna längs faktiska vägar. Eftersom noderna med den största graden är mycket känsliga för trafikstockningar, ett effektivt sätt att förbättra trafik och kontroll trängsel, som vår strategi, kan omfördela trafikbelastning i centrala noder till andra icke-centrala noder. Simuleringsresultat indikerar att nätkapaciteten i trafikhanteringen förbättras mer än 10 gånger genom att optimera den effektiva vägen, vilket är i god överensstämmelse med analysen. DOI: 10.1103/PhysReve.73.046108 PACS-nummer: 89.75.Hc Sedan det seminala arbetet med skalfria nätverk av Barabási och Albert tillBA-modell och om det småvärldsfenomenet av Watts och Strogatz och Strogatz på senare tid, har strukturen och dynamiken i komplexa nätverk lockat till sig en enorm mängd intresse och uppmärksamhet från fysikgemenskapens sida. Den allt större betydelsen av stora kommunikationsnät som Internet, där vårt samhälle överlever, kräver en hög effektivitet när det gäller att hantera och leverera information. Att hitta optimala strategier för trafikplanering är en av de viktiga frågor som vi måste ta itu med. Det har gjorts många tidigare studier för att förstå och kontrollera trafikstockningar på näten, med ett grundläggande antagande om att nätet har en homogen struktur 7-11. Många verkliga nätverk visar dock både skal-fria och små-världen funktioner, och därför är det av stort intresse att studera effekten av nätverk topologi på trafikflödet och effekten av trafik på nätets utveckling. Guimerá m.fl. presentera en formalism som samtidigt kan hantera sök- och trafikdynamiken i parallella transportsystem, Denna formalism kan användas för att optimera nätverksstruktur under en lokal sökalgoritm, medan man för att få formalismen bör känna till den globala informationen i hela nätverken. Holme och Kim ger en fördjupad analys av de vertex/edge överbelastning kaskad uppdelningar baserat på utvecklande nätverk, och föreslår en metod för att undvika sådana laviner med 13,14. Genom att använda en global och dynamisk söka algoritm som syftar till de kortaste vägarna, Zhao et al. tillhandahålla de teoretiska uppskattningarna av kommunikationskapaciteten på 15. Eftersom global information vanligtvis inte finns tillgänglig i storskaliga nätverk, Tadić et al. undersöka trafikdynamiken på WWW-nätverksmodellen på basis av lokal kunskap, ge insikt i förhållandet mellan globala statistiska egenskaper och mikroskopiska fluktuationer densitet på 17-19. De routing strategier för Internet och oordnade nätverk och 21 på studeras också. En annan intressant fråga är samspelet mellan trafikdynamiken och nätverksstrukturerna, vilket tyder på ett nytt scenario för nätverkets utveckling på 22-26. I detta sammanhang, för enkelhetens skull, behandlar vi alla noder som både värdar och routrar. I kommunikationsnät levererar routrar datapaket genom att se till att alla konvergerar till en bästa uppskattning av den väg som leder till varje destinationsadress. Med andra ord, routing processen sker enligt kriteriet om den kortaste tillgängliga vägen från en given källa till dess destination. När nätverksstorleken N inte är för stor, är det möjligt att beräkna alla kortaste vägar mellan alla noder, och därmed trafiksystemet kan använda en fast routing tabell för att behandla information. När det gäller varje par av källa och destination, kan det finnas flera kortaste vägar mellan dem. Vi väljer slumpmässigt en av dem och lägger den i den fasta routing tabellen, som följs av alla informationspaket. Även om det blir opraktiskt i enorma kommunikationssystem, är den fasta routing algoritmen allmänt används i medelstora eller små system på 28,29. Detta beror på att den fasta routingmetoden har uppenbara fördelar i fråga om ekonomiska och tekniska kostnader, jämfört med den dynamiska routingalgoritmen och mekanismen för återkoppling av information. Modellen beskrivs på följande sätt: Vid varje steg finns R-paket som genereras i systemet, med slumpmässigt valda källor och destinationer. Det antas att alla routrar har samma förmåga att leverera och hantera informationspaket, det vill säga, varje gång steg alla noder kan leverera som mest C-paket ett steg mot sina destinationer enligt den fasta routing tabellen. Vi sätter C = 1 för enkelhet. Ett paket avlägsnas från systemet när det når sin destination. Vi är mest intresserade av det kritiska värdet R c på det antal paket som skapas inom nätverket per tidsenhet och där en fasövergång sker från fritt flöde till överbelastad trafik. Detta kritiska värde kan bäst återspegla den maximala kapaciteten hos ett system som hanterar sin trafik. I synnerhet, för R på R c, antalet skapade och levererade paket är balanserade, vilket leder till ett stadigt fritt trafikflöde. För R till R c, trafikstockningar uppstår som antalet ackumulerade paket ökar med tiden, helt enkelt eftersom kapaciteten hos noderna för att leverera paket är begränsade. Vi använder *Elektronisk adress: [email protected] PHYSICAL REVIEW E 73, 046108 2006
Författarna till studien utvärderade det kritiska värdet Rc(packets som genereras i systemet inom enhetstid) där en fasövergång sker från fritt flöde till överbelastad trafik, och de analyserade huvudsakligen dess egenskaper i BA-modell, och Rc i BA-modell för p = 0 till 2 i REF.
4,657,802
Efficient routing on complex networks
{'venue': 'Phys. Rev. E 73, 046108 (2006)', 'journal': None, 'mag_field_of_study': ['Physics', 'Medicine']}
3,416
Detta dokument gör en omfattande utvärdering av kapselnätverkens sårbarhet för olika kontradiktoriska attacker. Det senaste arbetet tyder på att dessa arkitekturer är mer robusta mot kontradiktoriska attacker än andra neurala nätverk. Men våra experiment visar att kapselnätverk kan luras lika lätt som konvolutionella neurala nätverk.
När det gäller kapselnät, Michels et al. REF har redan visat att de kan luras av kontradiktoriska attacker lika lätt som CNN.
182,952,520
On the Vulnerability of Capsule Networks to Adversarial Attacks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
3,417
Abstrakt. Upptäcka skuggor från bilder kan avsevärt förbättra prestandan av flera vision uppgifter såsom objektdetektering och spårning. Nya metoder har främst använt belysning invarianter som kan misslyckas allvarligt när kvaliteten på bilderna inte är särskilt bra, som är fallet för de flesta konsument-kvalitet fotografier, som de på Google eller Flickr. Vi presenterar en praktisk algoritm för att automatiskt upptäcka skuggor som kastas av objekt på marken, från ett enda konsumentfoto. Vår huvudhypotes är att de typer av material som utgör marken i utomhusscener är relativt begränsade, oftast inklusive asfalt, tegel, sten, lera, gräs, betong, etc. Som ett resultat, utseendet av skuggor på marken är inte så mycket varierande som allmänna skuggor och därmed, kan läras från en märkt uppsättning bilder. Vår detektor består av en trestegsprocess som inkluderar (a) utbildning av en beslutsträdsklassificering på en uppsättning skuggkänsliga funktioner som beräknas runt varje bildkant, (b) en CRF-baserad optimering för att gruppera upptäckta skuggkanter för att generera sammanhängande skuggkonturer, och (c) som innehåller alla befintliga klassificerare som är särskilt utbildade för att upptäcka grunder i bilder. Våra resultat visar god detektionsnoggrannhet (85%) på flera utmanande bilder. Eftersom de flesta objekt av intresse för siktapplikationer (som fotgängare, fordon, skyltar) är fästa på marken, tror vi att vår detektor kan hitta bred tillämplighet.
För att upptäcka markskuggor, Lalonde et al. I Ref föreslogs en inlärningsmetod för utbildning av beslutsträdssortering på en uppsättning skuggkänsliga egenskaper.
10,124,817
Detecting ground shadows in outdoor consumer photographs
{'venue': 'In European Conference on Computer Vision', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,418
Vi studerar problemet med gemensamt svar på frågor (QA) och frågegenerering (QG) i detta dokument. Vår intuition är att QA och QG har inneboende anslutningar och dessa två uppgifter kan förbättra varandra. Å ena sidan bedömer QA-modellen om den genererade frågan om en QG-modell är relevant för svaret. Å andra sidan ger QG-modellen sannolikheten för att generera en fråga med tanke på svaret, vilket är ett användbart bevis på att i sin tur underlättar QA. I detta dokument betraktar vi kvalitetssäkring och kvalitetssäkring som dubbla uppgifter. Vi föreslår ett utbildningsramverk som tränar modellerna av QA och QG samtidigt, och uttryckligen utnyttjar deras probabilistiska korrelation för att vägleda utbildningsprocessen för båda modellerna. Vi implementerar en QG-modell baserad på sekvens-till-sekvens-inlärning, och en QA-modell baserad på återkommande neurala nätverk. Eftersom alla komponenter i modellerna QA och QG är olika kan alla parametrar som ingår i dessa två modeller läras in konventionellt med bakutbredning. Vi utför experiment på tre datauppsättningar. Empiriska resultat visar att vårt träningsramverk förbättrar både QA- och QG-uppgifter. Den förbättrade QA-modellen fungerar på ett jämförbart sätt med starka baslinjestrategier för alla tre datauppsättningarna.
REF behandlade frågesvar och frågegenerering som en dubbel uppgift och visade hur effektivt tvåhandsbaserat lärande är.
37,738,077
Question Answering and Question Generation as Dual Tasks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
3,419
Vi beskriver Sentimentanalys i Twitter-uppgiften, som drevs som en del av SemEval-2014. Det är en fortsättning på förra årets uppgift som gick bra som en del av SemEval-2013. Liksom under 2013 var detta den mest populära SemEval uppgiften; totalt 46 lag bidrog 27 bidrag för subtask A (21 lag) och 50 bidrag för subtask B (44 lag). I år introducerade vi tre nya testuppsättningar: (i) vanliga tweets, (ii) sarkastiska tweets och (iii) LiveJournal meningar. Vi testade vidare på (iv) 2013 tweets, och (v) 2013 SMS-meddelanden. Den högsta F1-poäng på (i) uppnåddes av NRC-Kanada vid 86.63 för subtask A och av TeamX vid 70.96 för subtask B.
I SemEval-2014 REF, liksom i föregående utgåva, var de mest populära klassificeringarna SVM, MaxEnt och Naive Bayes.
62,442,869
SemEval-2014 Task 9: Sentiment Analysis in Twitter
{'venue': 'SemEval-2014', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,420
Aspect-level känsla klassificering är en finkornig uppgift i känsloanalys. Eftersom den ger mer fullständiga och djupgående resultat har analys av känslor på aspektnivå fått stor uppmärksamhet under dessa år. I detta dokument avslöjar vi att känslan av en menings polaritet inte bara bestäms av innehållet utan också i hög grad hänger samman med den berörda aspekten. Till exempel, "Förrätterna är ok, men tjänsten är långsam.", för aspekt smak, polariteten är positiv medan för service, polariteten är negativ. Därför är det värt att undersöka sambandet mellan en aspekt och innehållet i en mening. I detta syfte föreslår vi ett uppmärksamhetsbaserat långfristigt minnesnätverk för klassning av känslor på aspektnivå. Uppmärksamhetsmekanismen kan koncentrera sig på olika delar av en mening när olika aspekter tas som input. Vi experimenterar med datasetet SemEval 2014 och resultaten visar att vår modell uppnår toppmoderna resultat när det gäller klassifikation av aspekter och känslor.
I Ref föreslogs en uppmärksamhetsbaserad LSTM-metod för ASC-uppgiften genom att man koncentrerade sig på olika delar av en mening till olika aspekter.
18,993,998
Attention-based LSTM for Aspect-level Sentiment Classification
{'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,421
Abstract-Användningen av millimetervåg frekvensband (mm-våg) i den femte generationen (5G) av mobil kommunikation är en mycket debatterad aktuella ämne. Mm-våg MIMO system kommer att använda matriser med ett stort antal antenner vid sändaren och mottagaren, implementeras på ett relativt litet område. Med den inneboende höga direktiviteten hos dessa matriser, algoritmer för att hjälpa användaren att hitta basstationen och upprätta en kommunikationslänk bör noggrant utformas. Mot detta undersöker vi två strålformningssystem, nämligen slumpmässig strålformning (RPBF) och riktningsstråleformning (DBF), och testar deras påverkan på Cramér-Rao nedre gränser (CRB) att gemensamt uppskatta riktningen-av-arrival, riktning-av-av-partiur, tid-av-arrival, och den komplexa kanalvinst, under line-of-sight kanalmodellen. Resultaten visar att tillämpningen av RPBF är lämpligare i det aktuella scenariot eftersom den uppnår en lägre CRB med färre balkar jämfört med DBF.
I referens REF drog författarna en liknande slutsats genom att analysera Cramér-Rao lägre gräns för att uppskatta riktningar för ankomst och avgång (i huvudsak rumslig synkronisering).
28,306,887
Random-Phase Beamforming for Initial Access in Millimeter-Wave Cellular Networks
{'venue': '2016 IEEE Global Communications Conference (GLOBECOM)', 'journal': '2016 IEEE Global Communications Conference (GLOBECOM)', 'mag_field_of_study': ['Computer Science']}
3,422
Det senaste arbetet med att lära sig flerspråkiga ordrepresentationer bygger vanligtvis på användningen av ordnivåanpassningar (t.ex. härleds med hjälp av GIZA++) mellan översatta meningar, för att anpassa ordet inbäddning på olika språk. I denna workshop uppsats undersöker vi en autoencoder modell för att lära flerspråkiga ord representationer som gör utan sådana ord-nivå anpassningar. Autoencodern är utbildad för att rekonstruera bag-of-word representationen av en viss mening från en kodad representation extraheras från dess översättning. Vi utvärderar vår strategi för en flerspråkig dokumentklassificeringsuppgift, där märkta data endast finns tillgängliga för ett språk (t.ex. Engelska) medan klassificeringen måste ske på ett annat språk (t.ex. Franska). I våra experiment observerar vi att vår metod på ett gynnsamt sätt jämförs med en tidigare föreslagen metod som utnyttjar ordnivåanpassningar för att lära sig ordrepresentationer.
Mer nyligen föreslog REF en påse-of-words autoencoder modell, där påse-words representation på ett språk används för att träna inbäddningar i ett annat.
13,599,696
Learning Multilingual Word Representations using a Bag-of-Words Autoencoder
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
3,423
Abstrakt. Nyligen, Wireless Sensor Networks (WSN) gemenskap har bevittnat ett program fokus skifte. Även om övervakning var den första tillämpningen av trådlösa sensornätverk, i nätverk databehandling och (nära) realtid aktivering förmåga har gjort trådlösa sensornätverk lämplig kandidat för händelsedetektering och alarmerande applikationer också. Otillförlitlighet och dynamik (t.ex. När det gäller utplaceringsområde, nätresurser och topologi) är normal praxis inom WSN-området. Därför kräver effektiva och pålitliga metoder för händelsedetektering för WSN robusta och intelligenta metoder för att bryta dolda mönster i sensordata, samtidigt som olika typer av dynamik stöds. På grund av att händelser ofta är funktioner av mer än ett attribut, datafusion och användning av fler funktioner kan bidra till att öka händelsedetekteringsfrekvensen och minska falsk larmfrekvens. Dessutom kan sensorfusion leda till mer exakt och robust händelsedetektering genom att eliminera avvikelser och felaktiga avläsningar av enskilda sensornoder och kombinera enskilda händelsedetekteringsbeslut. I detta dokument föreslår vi en två nivåers sensorfusionsbaserad händelsedetekteringsteknik för WSN. Den första nivån av händelsedetektering i vårt föreslagna tillvägagångssätt utförs lokalt inuti sensorn noderna, medan den andra nivån utförs på en högre nivå (t.ex. i ett klusterhuvud eller gateway) och innehåller en fusionsalgoritm för att nå samförstånd bland individuella detekteringsbeslut som fattas av sensornoder. Genom att betrakta brand som en händelse utvärderar vi vår strategi genom flera experiment och illustrerar sensorfusionens inverkan på att uppnå bättre resultat.
Bahrepour m.fl. I REF föreslås en teknik för att upptäcka händelser på två nivåer för WSN.
12,374,363
Sensor fusion-based event detection in Wireless Sensor Networks
{'venue': '2009 6th Annual International Mobile and Ubiquitous Systems: Networking & Services, MobiQuitous', 'journal': '2009 6th Annual International Mobile and Ubiquitous Systems: Networking & Services, MobiQuitous', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
3,424
varierade fyra monokulära kurer till uppfattat djup i en faktoriell design. Försökspersonerna bedömde avståndet mellan testobjekten. Med tanke på de viktigaste effekterna i analysen av varians drog författarna slutsatsen att de som uppfattade informationen integrerade de fyra olika informationskällorna, i stället för att bara välja en enda källa. Eftersom det inte fanns några interaktioner i analysen av varians, drog författarna slutsatsen att integrationsprocessen var additiv snarare än multiplikativ. Den tvetydighet som finns i Brunos och Cuttings experiment och analyser diskuteras. Som presenterats gav deras resultat inga belägg för integration av djupkurer eller bevis för additionalitet, oberoende och parallell behandling av signalerna. En ytterligare analys av fördelningen av de kreditvärderingsbedömningar som deras ämnesområden har gjort ger dock vissa belägg för att dessa riktlinjer har integrerats. Den luddiga logiska modellen av perception (FLMP) utvidgas till att beskriva perceptuell igenkänning av djup. Modellen förutsätter självständighet i samband med utvärderingen av särdragen och en icke-additiv integrationsprocess där de minst tvetydiga signalerna har störst inverkan på domen. FLMP kontrasteras med en modell som antar additionalitet av signalerna. Eftersom båda modellerna beskriver resultaten lika väl återstår det för framtida forskare att tillhandahålla definitiva tester mellan modellerna. En persons imponerande upplösning av den visuella världen kan vara en följd av att han har flera källor till information om den. Bland annat anger dessa informationskällor (exocentriska) avståndet mellan två objekt. Även om dessa signaler förmodligen överspecificerar avstånd, är det inte förvånande att typiska experiment underspecificerar vad signalerna är och hur de bearbetas. Bruno and Cuttings (1988) experimentella analys av exocentrisk distans var ett steg framåt eftersom den förbättrades på den klassiska enfaktorsdesignen. Det prototypiska experimentet i visuell perception har varit att eliminera eller att hålla konstant alla potentiella signaler men en, variera kö av intresse, och observera dess beteendemässiga konsekvenser. Utformningen av en enda faktor är dock svag i informationsvärdet, eftersom den inte kan mäta den relativa betydelsen av signalerna eller ta itu med behandlingen av flera signaler. Med tanke på att alla signaler utom en neutraliseras, kan designen med en enda faktor också överskatta bidraget från den signal som manipuleras. Bruno och Cutting användning av en faktoriell design har potential att ta itu med flera viktiga frågor som inte kan hanteras av en faktor design (Anderson, 1981; Massaro, 1985 Massaro,, 1987.
Förmodligen den mest kända av sådana modeller är den suddiga logiska modellen av perception (FLMP) av REF Massaro & Friedman, 1990 ).
16,331,700
Ambiguity in perception and experimentation
{'venue': 'J Exp Psychol Gen', 'journal': None, 'mag_field_of_study': ['Psychology', 'Medicine']}
3,425
Vi föreslår en djupamortiserad klusterbildning (DAC), en neural arkitektur som lär sig att samla datauppsättningar effektivt med hjälp av några framåtpass. DAC lär sig implicit vad som gör ett kluster, hur man grupperar datapunkter i kluster och hur man räknar antalet kluster i datauppsättningar. DAC är metalärd med hjälp av märkta dataset för utbildning, en process som skiljer sig från traditionella klusteralgoritmer som vanligtvis kräver handspecificerade förkunskaper om klusterformer/strukturer. Vi visar empiriskt, på både syntetiska och bilddata, att DAC effektivt och exakt kan samla nya dataset från samma distribution som används för att generera träningsdataset. Under granskning som ett konferensdokument på ICLR 2020 liknande filosofi som Neural Processes (Garnelo et al., 2018b; a), som meta-lär sig från flera dataset för att lära sig en tidigare över funktioner.
Deep Amortized Clustering REF föreslog att använda Set Transformers att kluster uppsättningar av punkter med endast några få framåtpass.
203,593,408
Deep Amortized Clustering
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
3,426
Abstract-Samexistensen av små cellbasstationer (SBS) med konventionella makrocell basstation är ett lovande tillvägagångssätt för att öka kapaciteten och täckningen av cellulära nätverk. En förtätning av nätet med en viral spridning av SBS kan dock avsevärt öka energiförbrukningen. För att minska beroendet av ohållbara energikällor, kan man anta självdrivna SBS som enbart är beroende av energiupptagning. På grund av osäkerheten kring energitillförseln och energilagringssystemens begränsade kapacitet måste de självstyrande SBS-systemen optimera sitt ON- och OFF-schema på ett smart sätt. I detta dokument studeras problemet med ON/ OFF schemaläggning av självdrivna SBS, i närvaro av osäkerhet om energiupptagning med målet att minimera driftskostnaderna som består av energiförbrukning och överföringsfördröjning av ett nät. För det ursprungliga problemet visar vi att en algoritm kan lösa problemet i det illustrativa fallet. För att minska komplexiteten i det ursprungliga problemet föreslås en tillnärmning. För att lösa det ungefärliga problemet föreslås ett nytt tillvägagångssätt baserat på ramen för skiduthyrning, ett kraftfullt onlineoptimeringsverktyg. Med hjälp av detta tillvägagångssätt, kan varje SBS effektivt besluta om sin ON / OFF schema autonomt, utan någon tidigare information om framtida energi ankomster. Genom att använda konkurrensanalys utvecklas en deterministisk onlinealgoritm och en randomiserad onlinealgoritm (ROA). ROA visar sig sedan uppnå det optimala konkurrensförhållandet i tillnärmningsproblemet. Simuleringsresultat visar att ROA, jämfört med ett referensvärde, kan ge resultatvinster på upp till 15,6 % när det gäller minskad total energiförbrukning för SBS och upp till 20,6 % när det gäller minskning av förseningar per SBS-nät. Resultaten belyser också de grundläggande aspekter som påverkar SBS-systemets tid, samtidigt som de visar att den föreslagna avkastningen på sysselsatt kapital kan minska den totala kostnaden med upp till 69,9 % jämfört med ett referensvärde.
Författarna i REF tillämpar ett Skirental-ramverk baserat på online-algoritm för optimal på/av-schemaläggning för att minimera driftskostnaderna för ett nätverk som består av självdrivna basstationer.
15,356,629
Online Ski Rental for ON/OFF Scheduling of Energy Harvesting Base Stations
{'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
3,427
ABSTRACT Under de senaste åren har efterfrågan på omfattande multimediatjänster över mobila nät ökat kraftigt. Traditionell särskild nätverksutrustning kanske inte effektivt kan stödja den fenomenala tillväxten av trafikbelastningen och användarens efterfrågan dynamik samtidigt som en onödigt stor mängd energiresurser förbrukas. Nyligen, mobilt innehåll caching, där populärt innehåll är cached inuti de mobila front-haul och back-haul nätverk så att krav på detta innehåll från användare i närheten lätt kan tillgodoses utan överflödiga sändningar från avlägsna källor, har uppstått som en effektiv teknik för multimediainnehåll leverans. Mobil innehållscachelagring är särskilt lämplig för femte generationens (5G) mobila system som håller på att utformas för att införliva avancerad molndatateknik och nätverksfunktionsvirtualiseringsteknik. Därför föreslår vi först i detta dokument begreppet "Caching-as-a-Service" (CaaS) baserat på molnbaserade radioaccessnätverk, och virtualiserade utvecklade paketkärna, vilket ger möjlighet att cache allt när som helst, var som helst i molnbaserade 5G mobila system för att tillfredsställa användarens krav från alla tjänsteplatser med hög elasticitet och anpassningsförmåga, och att ge tredjepartsleverantörer med flexibel kontroll och programmerbarhet. Därefter studerar vi potentiella tekniker relaterade till virtualisering av caching, och diskuterar de tekniska detaljerna för virtualisering och optimering av CaaS i 5G mobila nätverk. Vissa nya system för CaaS föreslås vara inriktade på olika mobila tillämpningar och tjänster. Vi utforskar också nya möjligheter och utmaningar för ytterligare forskning. INDEX TERMS 5G, caching som tjänst (CaaS), virtualisering, nätverk för leverans av innehåll.
Författarna i REF föreslår konceptet "Caching-as-a-Service" (CaaS) baserat på C-RANS som ett sätt att cache allt, när som helst, och var som helst i molnbaserade 5G-mobilnätverk i syfte att tillfredsställa användarens krav från alla tjänsteplatser med hög QoS. Dessutom diskuterar de de tekniska detaljerna för virtualisering, optimering, tillämpningar och tjänster av CaaS i 5G mobilnät.
7,695,160
CaaS: Caching as a Service for 5G Networks
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
3,428
Trots den ökande populariteten och fördelarna med tunn-klient system, har de fortfarande några viktiga brister. Nuvarande tunn-klient system är idealiska för att användas med klassiska kontor-applikationer men så snart multimedia och 3D spelapplikationer används kräver de en stor mängd bandbredd och processorkraft. Dessutom är de flesta av dessa tillämpningar starkt beroende av den grafiska bearbetningsenheten (GPU). På grund av den arkitektoniska utformningen av tunn-klient system, kan de inte dra nytta av GPU resulterar i långsam prestanda och dålig bildkvalitet. I detta dokument föreslår vi en tunn-klient system som tar itu med dessa problem: vi introducerar en realtid desktopstreamer med hjälp av en videocodec för att strömma den grafiska utgången av applikationer efter GPU-behandling till en tunn-klient enhet, som kan avkoda en videoström. Vi jämför detta tillvägagångssätt med ett antal populära klassiska tunn-klientsystem när det gäller bandbredd, fördröjning och bildkvalitet. Resultatet är en arkitektur för en hybrid protokoll, som dynamiskt kan växla mellan en klassisk tunn-klient protokoll och realtid desktopstreaming.
Vinter och al. REF föreslår ett tunt klientsystem speciellt utformat för streaming och interaktiva spel.
6,882,082
A hybrid thin-client protocol for multimedia streaming and interactive gaming applications
{'venue': "NOSSDAV '06", 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,429
ABSTRACT Med utvecklingen av DNA-mikroarrayteknik kan forskare nu mäta uttrycksnivåerna av tusentals gener samtidigt i ett enda experiment. En aktuell svårighet att tolka mikroarray data kommer från deras medfödda natur av "högdimensionell låg provstorlek." Därför krävs robusta och exakta genurvalsmetoder för att identifiera differentialt uttryckt grupp av gener över olika prover, t.ex. mellan cancerceller och normala celler. Framgångsrika genval kommer att bidra till att klassificera olika cancertyper, leda till en bättre förståelse av genetiska signaturer i cancer, och förbättra behandlingsstrategier. Även om genval och cancerklassificering är två nära relaterade problem, de flesta befintliga metoder hanterar dem separat genom att välja gener före klassificering. Vi tillhandahåller ett enhetligt förfarande för samtidig genval och cancerklassificering, vilket ger hög noggrannhet i båda aspekterna. Resultat: I detta papper utvecklar vi en ny typ av legalisering i stödvektormaskiner (SVM) för att identifiera viktiga gener för cancerklassificering. En särskild icke konvex påföljd, som kallas den smidigt klippta absoluta avvikelsepåföljden, utdöms på gångjärnsförlustfunktionen i SVM. Genom att systematiskt begränsa små uppskattningar till nollor eliminerar det nya förfarandet överflödiga gener automatiskt och ger en kompakt och exakt klassificering. En successiv andragradsalgoritm föreslås för att omvandla det icke-differentierbara och icke-konvexa optimeringsproblemet till lättlösliga linjära ekvationssystem. Metoden tillämpas på två verkliga datamängder och har gett mycket lovande resultat.
För att effektivt lösa SCAD-penalized SVM, Zhang et al. REF föreslog en successiv andragradsalgoritm (SQA) som omvandlade det icke-differentierbara och icke-konvexa optimeringsproblemet till ett enkelt löst linjärt ekvationssystem.
14,791,297
Gene Selection Using Support Vector Machines With Nonconvex Penalty
{'venue': 'Bioinformatics', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Medicine']}
3,430
Abstrakt. Rutnätsarbetsflöden utvecklas som en av de mest intressanta programklasserna för Grid. I detta dokument 3 presenterar vi AGWL, ett nytt arbetsflödesspråk för Grid för att beskriva arbetsflödet för Grid-applikationer på en hög abstraktionsnivå. AGWL har utformats så att användaren kan koncentrera sig på att beskriva vetenskapliga Grid-tillämpningar. Användaren är skyddad från detaljer om den underliggande Grid-infrastrukturen. AGWL är XML-baserat som definierar en graf av aktiviteter som hänvisar till beräkningsuppgifter eller användarinteraktioner. Aktiviteterna är kopplade till kontroll- och dataflödeslänkar. Vi har definierat AGWL för att stödja användaren i att orkestrera arbetsflöden i Grid genom en rik uppsättning konstruktioner, inklusive sekvens av aktiviteter, delaktiviteter, kontrollflödesmekanismer (sekvensflöde, exklusivt val och sekventiella slingor), dataflödesmekanismer (input/output-portar) och dataarkiv. Dessutom skiljer sig vårt arbete från de flesta befintliga arbetsflödesspråk genom avancerade arbetsflöden, t.ex. parallellt utförande av aktiviteter med pre- och postvillkor, parallella slingor, händelsebaserade synkroniseringsmekanismer och fastighetsbaserat urval av aktiviteter. Dessutom kan användaren specificera begränsningar och egenskaper på hög nivå för aktiviteter och dataflödeslänkar.
Abstract Grid Workflow Language (AGWL) REF är ett språk baserat på XML som beskriver applikationer för Grid-arbetsflöden.
9,963,182
A-GWL: Abstract Grid Workflow Language
{'venue': 'International Conference on Computational Science', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,431
Abstrakt. Säkerhetsspecifikationer för webbtjänster uttrycks vanligtvis som en blandning av XML-scheman, exempelmeddelanden och berättande förklaringar. Vi föreslår ett nytt specifikationsspråk för att skriva kompletterande maskinkontrollerbara beskrivningar av SOAP-baserade säkerhetsprotokoll och deras egenskaper. Vårt TulaFale-språk är baserat på pi-kalkylen (för att skriva samlingar av SOAP-processorer som körs parallellt), plus XML-syntax (för att uttrycka SOAP-meddelanden), logiska predikat (för att konstruera och filtrera SOAP-meddelanden) och korrespondenspåståenden (för att ange autentiseringsmål för protokoll). Vår implementering sammanställer TulaFale till den tillämpade pi-kalkylen, och kör sedan Blanchet's upplösningsbaserade protokollkontrollant. Därför kan vi automatiskt verifiera autentisering egenskaper hos SOAP-protokoll. Webbtjänster är en omfattande distribuerad systemteknik, baserad på asynkront utbyte av XML-meddelanden som överensstämmer med SOAP-meddelandeformatet [BEK + 00,W3C03]. WS-Security-standarden [NKHBM04] beskriver hur man signerar och krypterar delar av SOAP-meddelanden, för att uppnå end-to-end-säkerhet. Detta dokument introducerar TulaFale, ett nytt språk för att definiera och automatiskt verifiera modeller av SOAP-baserade kryptografiska protokoll, och illustrerar dess användning för en typisk begäran / svar protokoll: vi skissar protokollet, beskriver potentiella attacker, och sedan ge en detaljerad beskrivning av hur man definierar och kontrollerar begäran och svar meddelanden i TulaFale. En grundläggande motivation för webbtjänster är att stödja programmatisk tillgång till webbdata. HTML returneras av en typisk webbplats är en blandning av data och presentationsmarkup, väl lämpad för mänsklig surfning, men förekomsten av markup gör HTML en rörig och skör format för databehandling. Däremot är XML som returneras av en webbtjänst bara data, med vissa tydligt särskiljande metadata, väl lämpad för programmatisk åtkomst. Till exempel, sökmotorer exportera webbtjänster för programmatisk webbsökning, och e-handel webbplatser exportera webbtjänster för att tillåta anslutna webbplatser direkt tillgång till sina databaser. I allmänhet växer ett brett spektrum av tillämpningar för webbtjänster fram, från en väletablerad användning av SOAP som plattform och leverantörsneutralt mellanprogram inom en enda organisation, till den föreslagna användningen av SOAP för interaktion mellan enheter [S + 04]. I början, "SOAP" stod för "Enkel Object Access Protocol", och var avsedd att genomföra "RPC med XML över HTTP" [Win98, Win99, Box01]. HTTP underlättar driftskompatibiliteten mellan geografiskt avlägsna maskiner och mellan dem inom skyddsområden åtskilda av företagets brandväggar som blockerar många andra transporter. XML underlättar interoperabilitet mellan olika leverantörers implementationer, till skillnad från olika binära format av tidigare RPC-teknik. Ändå bör webbtjänstteknik inte misstolkas som HTTP-specifik RPC för distribuerade objekt [Vog03]. HTTP är för närvarande det vanligaste transportprotokollet, men SOAP-formatet är oberoende av HTTP, och vissa webbtjänster använder andra transporter såsom TCP eller SMTP [SMWC03]. Designmålen för SOAP/1.1 [BEK + 00] utesluter uttryckligen objektorienterade funktioner såsom objektaktivering och distribuerad sophämtning; enligt version 1.2 [W3C03] är "SOAP" ett rent namn, inte en akronym. Det primitiva meddelandemönstret i SOAP är ett enda enkelriktat meddelande som kan behandlas av noll eller fler mellanhänder mellan två slutpunkter; RPC är ett härlett meddelandemönster byggt från en begäran och ett svar. I korthet är SOAP inte bunden till objekt, och webbtjänster är inte bundna till webben. Ändå är vårt körexempel en RPC över HTTP, vilket fortfarande verkar vara det vanliga fallet. Webbtjänster specifikationer stöder SOAP-nivå säkerhet via en syntax för att inbädda kryptografiska material i SOAP-meddelanden. För att uppfylla sina säkerhetsmål kan webbtjänster och deras kunder konstruera och kontrollera säkerhetsrubriker i meddelanden, enligt WS-säkerhetsformatet [IM02, NKHBM04]. WS-Security kan ge meddelandesekretess och autentisering oberoende av den underliggande transporten, t.ex. med hjälp av säkra hashfunktioner, kryptering med delad nyckel eller kryptering med öppen nyckel. WS-Security har flera fördelar jämfört med att använda en säker transport som SSL, inklusive skalbarhet, flexibilitet, transparens för mellanhänder som brandväggar och stöd för icke-avvisning. Väsentligt nog föreskriver dock inte själva WS-Security ett särskilt säkerhetsprotokoll: varje tillämpning måste fastställa sina säkerhetsmål och behandla säkerhetsrubriker i enlighet därmed. Webbtjänster kan vara sårbara för många av de väldokumenterade klasserna av angrepp på vanliga webbplatser [SS02,HL03]. Dessutom, till skillnad från typiska webbplatser, webbtjänster som förlitar sig på SOAP-baserade kryptografiska protokoll kan dessutom vara sårbara för en ny klass av XML omskrivning attacker: en rad attacker där en angripare kan spela in, ändra, spela om och omdirigera SOAP-meddelanden, men utan att bryta de underliggande kryptografiska algoritmer. Flexibilitet kommer till ett pris när det gäller säkerhet, och det är förvånansvärt lätt att misstolka de garantier som faktiskt erhålls från bearbetning av säkerhetsrubriker. XML är därför en ny inställning för ett gammalt problem går tillbaka till Needham och Schroeder banbrytande arbete om autentisering protokoll; SOAP säkerhetsprotokoll bör bedömas säkert, eller inte, med avseende på en angripare som kan "interpose en dator på 2 alla kommunikationsvägar, och därmed kan ändra eller kopiera delar av meddelanden, spela upp meddelanden, eller avge falskt material" [NS78]. XML-omskrivningsattacker ingår i WS-I-hotmodellen [DHK + 04]. Vi har hittat en mängd olika repris- och imiteringsattacker i praktiken. Användningen av formella metoder för att analysera kryptografiska protokoll och deras sårbarheter börjar med arbete av Dolev och Yao [DY83]. Under de senaste åren har det bedrivits intensiv forskning om modellen Dolev-Yao, vilket lett till att många formalismer och verktyg har utvecklats. TulaFale bygger på forskningslinjen med hjälp av pi-kalkylen. Pi-kalkylen [Mil99] är en allmän teori om interaktion mellan samtidiga processer. Flera varianter av pi-kalkylen, inklusive spi [AG99], och en generalisering, tillämpad pi [AF01], har använts för att formalisera och bevisa egenskaper kryptografiska protokoll. En rad komposition resonemang tekniker finns tillgängliga för att bevisa protokoll egenskaper, men bevis kräver vanligtvis mänsklig skicklighet och beslutsamhet. På senare tid har emellertid Blanchet [Bla01, Bla02] föreslagit en rad automatiska tekniker, som ingår i hans teoremprovare ProVerif, för att kontrollera vissa sekretess- och autentiseringsegenskaper hos den tillämpade pi-kalkylen. ProVerif arbetar genom att sammanställa pi kalkyl till Horn klausuler och sedan kör upplösningsbaserade algoritmer. TulaFale är ett nytt skriptspråk för att ange SOAP säkerhetsprotokoll, och verifiera frånvaron av XML omskrivning attacker: TulaFale = processer + XML + predicates + påståenden pi calculus är kärnan i TulaFale, och tillåter oss att beskriva SOAP processorer, såsom klienter och servrar, som kommunikationsprocesser. Vi utökar pi-kalkylen med en syntax för XML plus symboliska kryptografiska operationer; därför kan vi direkt uttrycka SOAP-meddelanden med WS-säkerhetshuvuden. Vi anger deklarativt konstruktion och kontroll av SOAP-meddelanden med Prolog-stil predikat; därför kan vi beskriva de operativa detaljerna i SOAP bearbetning. Självständigt anger vi säkerhetsmål med hjälp av olika påståenden, såsom korrespondens för meddelandeautentisering och korrelation. Det är viktigt att TulaFale kan uttrycka den detaljerade strukturen av XML-signaturer och kryptering för att fånga låga nivåer attacker på denna struktur, såsom kopiera en del av en XML-signaturer till en annan; mer abstrakta representationer av meddelandeformat, typiskt i studien av Dolev-Yao-modellen och används till exempel i tidigare arbete med SOAP-autentisering protokoll [GP03], är okänsliga för sådana attacker. Vår metodik vid utveckling av TulaFale har varit att studera specifika webbtjänster implementationer, och att utveckla TulaFale skript modellera sina, en särskild implementering av WS-Säkerhet och relaterade specifikationer. Vi har implementerat det löpande exempelprotokollet i detta dokument med hjälp av WSE, och kontrollerat att de SOAP-meddelanden som anges i vårt skript troget återspeglar de SOAP-meddelanden som observerats i detta genomförande. För en diskussion om genomförandet av relaterade protokoll, inklusive loggar av SOAP meddelanden, se den tekniska rapporten version av en tidigare dokument [BFG04a]. Bilda. 1 illustrerar vår metodik. Till vänster har vi den användarbaserade koden för att implementera ett protokoll för webbtjänster, t.ex. det här dokumentet, ovanpå WSE-biblioteket. Till höger har vi TulaFale-skriptet som modellerar den användarbaserade koden, tillsammans med en del bibliotek bygger på modelleringsåtgärder som utförs av WSE. Även till höger har vi TulaFale-verktyget, som sammanställer sina inmatningsskript i den rena tillämpade pi-kalkylen som ska analyseras via ProVerif. TulaFale är ett direkt genomförande av pi kalkyl beskrivs i en tidigare formell semantik av webbtjänster autentisering [BFG04a]. Det ursprungliga bidraget från detta dokument är att presentera en konkret språkdesign, att rapportera ett genomförande av automatisk verifiering av påståenden i TulaFale skript med Blanchet ProVerif, och att utveckla ett betydande exempel. Avsnitt 2 introducerar informellt en enkel begäran/svar protokoll och dess säkerhetsmål: autentisering och korrelation av de två meddelandena. Avsnitt 3 presenterar TulaFale syntax för XML med symbolisk kryptografi och för predikat, och som en källa till exempel, förklarar ett bibliotek av TulaFale predicates för att bygga och kontrollera SOAP-meddelanden. Avsnitt 4 beskriver predikat som är specifika för meddelandena i vår begäran/svar protokoll. I avsnitt 5 introduceras processer och säkerhetspåståenden i TulaFale och beskrivs deras genomförande via ProVerif. Avsnitt 6 beskriver processer och predikat specifika för vårt protokoll, och visar hur man verifierar sina säkerhetsmål. Slutligen avslutas avsnitt 7. Vi anser att en enkel SOAP-baserad begäran / svar protokoll, av det slag som lätt implementeras med hjälp av WSE för att göra en RPC till en webbtjänst. Våra säkerhetsmål är helt enkelt meddelandeautentisering och korrelation. För att uppnå dessa mål, innehåller begäran ett användarnamn token identifiera en viss användare och en signatur token signerad av en nyckel härledd från användarens lösenord; omvänt, svaret innehåller en signatur token signerad av serverns öppna nyckel. Dessutom, för att bevara sekretessen för användarens lösenord från ordlista attacker, användarnamnet token i begäran meddelandet krypteras med serverns öppna nyckel. (För enkelhetens skull är vi inte intresserade av några sekretessegenskaper, såsom sekretess för de faktiska meddelandeorganen, och vi modellerar inte någon behörighetspolicy.) I resten av detta avsnitt presenterar vi en detaljerad men informell specifikation av vårt avsedda protokoll, och överväga vissa variationer som är föremål för XML omskrivning attacker. Vårt protokoll omfattar följande huvudmän: -En enda certifieringsmyndighet (CA) utfärda X.509 offentliga nyckelcertifikat för tjänster, undertecknat med CA: s privata nyckel. -Två servrar, var och en utrustad med en offentlig nyckel som certifierats av CA och exporterar ett godtyckligt antal webbtjänster. -Multiple kunder, agerar på uppdrag av mänskliga användare. Förtroende mellan huvudansvariga modelleras som en databas som associerar lösenord till auktoriserade användarnamn, tillgängliga från kunder och servrar. Vår hotmodell har en aktiv angripare i kontroll av nätverket, i besittning av alla offentliga nycklar och användarnamn, men inte i besittning av något av följande: (1) Den privata nyckeln till CA. (2) Den privata nyckeln till en offentlig nyckel som godkänts av CA. (3) Lösenordet för alla användare i databasen. Den andra och tredje punkten utesluter i huvudsak "insiderattacker", vi antar att klienterna, servrarna och CA tillhör en enda sluten institution. Det är lätt att utvidga vår modell för att studera effekterna av insiderattacker, och faktiskt för att tillåta mer än två servrar, men vi utelämnar detaljerna i detta expositionsexempel. Bilda. 2 visar en avsedd körning av protokollet mellan en klient och servern. -Den huvudsakliga klienten (kr,U) agerar på uppdrag av en användare som identifierats av U (en XML-kodning av användarnamn och lösenord). Parametern kr är den öppna nyckeln till CA, som kunden behöver för att kontrollera giltigheten av allmänna nyckelcertifikat. -Den huvudsakliga servern (sx,cert,S) implementerar en tjänst som identifieras av S (en XML-kodning av en webbadress, en SOAP-åtgärd, och ämnesnamnet som visas på tjänstens certifikat). Parametern sx är serverns privata signeringsnyckel, medan cert är dess offentliga certifikat. -Kunden skickar en begäran meddelande som uppfyller ärMsg1(−,U,S,id1,t1,b1), som vi definierar senare att betyda att meddelandet har kropp b1, timestamp t1, och meddelande identifierare id1, är adresserad till en webbtjänst S, och har en <Security> rubrik som innehåller en token som identifierar U och krypteras med S: s öppna nyckel, och en signatur av S, id1, t1 och b1 av U. - Servern skickar ett svar meddelande som uppfyller ärMsg2(−,S,id1,id2,t2,b2), som vi definierar senare för att betyda att meddelandet har kropp b2, timestamp t2, och meddelandeidentifieraren id2, skickas från S, och har en <Security> rubrik som innehåller S certifikat cert och en signatur av id1, id2, t2 och b2 av S. -Kunden och servern antar start-och slut-händelser märkta C1(U,S,id1,t1,b1) för att registrera de data som överenskommits efter mottagandet av det första meddelandet. På samma sätt registrerar start- och sluthändelserna märkta C2(U,S,id1,t1,b1,id2,t2,b2) de data som överenskommits efter att båda meddelandena mottagits. Varje start-händelse markerar en avsikt att skicka data. Varje sluten händelse markerar tydligen framgångsrik överenskommelse om data. Start-och slut-event definierar våra autentiserings- och korrelationsmål: för varje slut-event med en viss etikett, det finns en föregående start-event med samma etikett i alla körningar av systemet, även i närvaro av en aktiv angripare. Sådana mål kallas engångskorrespondenser [WL93] eller icke-injektivavtal [Low97]. C1-händelserna anger autentisering av begäran, medan C2-händelserna anger autentisering av svaret. Genom att inkludera uppgifter från begäran anger C2-händelser också korrelationen mellan begäran och svar. Som de flesta meddelanden, bild. 2 illustrerar helt enkelt en typisk protokoll körs, och är i sig inte en lämplig specifikation. I avsnitten 4 och 6 presenterar vi en formell specifikation i TulaFale: vi definierar huvudpersonerna Client(kr,U) och Server(sx,cert,S) som parametriska processer, och vi definierar kontrollerna isMsg1 och isMsg2 som predikerar på vår XML-modell med symbolisk kryptografi. Den formella modellen förtydligar följande punkter, som lämnas implicita i figuren: -Kunden kan godtyckligt välja vilken tjänst S att ringa, och vilka data t1 och b1 att skicka. (I den formella modellen gör vi vanligtvis sådana godtyckliga val genom att mata in data från motståndaren.) Omvänt måste kunden generera en ny identifierare ID1 för varje begäran, annars är det omöjligt att korrelera svaren från två samtidiga förfrågningar till samma tjänst. -Liksom servern kan godtyckligt välja svarsdata id2, t2 och b2. Å andra sidan tar vår formella modell inte direkt upp reprisskydd. För att utesluta direkt replays av korrekt undertecknade meddelanden, skulle vi behöva specificera att för varje slut-event finns det en unik föregående start-event med samma etikett. Detta kallas en brevväxling eller ett injiceringsavtal. I praktiken kan vi skydda oss mot direktåterspel med hjälp av en cache av nyligen mottagna meddelandeidentifierare och tidsstämplar för att säkerställa att inga två meddelanden accepteras med samma identifierare och tidsstämpel. Därför, om vi kan bevisa att protokollet upprättar icke-injektiv överenskommelse om data, inklusive identifierare och tidsstämplar, då, med tanke på sådan replay skydd, protokollet genomförandet också fastställer injiceringsavtal. Vi avslutar detta avsnitt genom att diskutera några bristfälliga variationer av protokollet, motsvarande faktiska brister vi har stött på i användarkoden för webbtjänster. -Förutsätt att checken ärMsg1(−,U,S,id1,t1,b1) krävs bara att S, id1 och b1 är undertecknade av U, men inte tidsstämpeln t1. Återspelskydd baserat på tidsstämpeln är nu ineffektivt: motståndaren kan spela in ett meddelande med tidsstämpel t1, vänta tills en viss tid t2 när tidsstämpeln har gått ut, och meddelandeidentifieraren id1 inte längre är cachad, skriva om det ursprungliga meddelandet med tidsstämpel t2, och sedan spela upp meddelandet igen. Det resulterande meddelandet uppfyller isMsg1(−,U,S,id1,t2,b1), eftersom t2 inte behöver signeras och därmed accepteras av servern. Bilda. 3 visar attacken, och det resulterande misslyckandet av korrespondens C1. -Suppstå att en klient återanvänder samma meddelandeidentifierare i två olika samtal till en webbtjänst; motståndaren kan manipulera meddelanden så att kunden behandlar svaret på det första samtalet som om det vore svaret på det andra samtalet. Bilda. 4 visar attacken. Kunden skickar en första begäran med organ b1 och ID1. Motståndaren avlyssnar svaret med kropp b2, och skickar ett SOAP-fel tillbaka till klienten. Därefter skickar kunden en andra begäran med samma identifieringskod1 som den första, och kropp b1". Motståndaren kan ta bort denna begäran för att förhindra att den når tjänsten, och sedan spela upp det ursprungliga svaret. Kunden anser nu att b2 är svaret på b1', när det i själva verket är svaret på b1, kanske helt annorlunda. Formellt är detta ett misslyckande med korrespondensen C2. -Uppstå som att servern inte inkluderar begäran id1 i signaturen på svarsmeddelandet. Då kan motståndaren montera en liknande korrelation attack, bryta C2-vi utelämna detaljer. Vi kan enkelt anpassa vårt TulaFale-skript för att modellera dessa variationer i protokollet. Vårt verktyg upptäcker automatiskt och snabbt felen och returnerar beskrivningar av de meddelanden som skickas under attackerna. Dessa brister i webbtjänster kod är typiska för fel i kryptografiska protokoll historiskt. Den praktiska effekten av dessa brister är svår att bedöma, som de konstaterades i den preliminära koden, före införandet. Ändå är det klokt att eliminera dessa sårbarheter, och verktyg som TulaFale kan systematiskt utesluta dem. I detta avsnitt introduceras termen och det grundläggande språket i TulaFale, via en serie grundläggande konstruktioner som behövs för t.ex. protokollet i avsnitt 2. Hela 8 papperet, för utställningens skull, vi bort vissa detaljer i SOAP kuvert, såsom vissa rubriker och attribut, som inte är kopplade till säkerhet. Här är en TulaFale term för en SOAP begäran, som illustrerar formatet för det första meddelandet i vårt exempel protokoll: Varje SOAP meddelande består av en XML <Envelope> element, med två barn: en valfri <Header > och en obligatorisk <Body>. I detta exempel har rubriken fyra barn, och kroppen har en Id-attribute, den bokstavliga strängen "1". Vi baserar TulaFale på en sorterad (eller typad) term algebra, uppbyggd från en uppsättning funktionssymboler och variabler. De grundläggande typerna för XML-data inkluderar sträng (för bokstavssträngar), att (för namngivna attribut) och objekt (antingen ett element eller en sträng). Varje element eller attributtag (t.ex. Kuvert eller Id) motsvarar en sorterad funktionssymbol i den underliggande algebran. Även om TulaFale syntax är nära XML-trådformat, är det inte identiskt. Vi undertrycker all information om namnrymden. Som tidigare nämnts utelämnar vi att stänga elementtaggar; till exempel skriver vi </> istället för </Envelope>. Bokstavliga strängar citeras alltid, som i <Created>"2004-03-19T09:46:32Z" </>. I standardformatet för tråd, skulle dubbla citat utelämnas när en sträng är en elementkropp. Vi använder citat för att skilja strängar från termer variabler, såsom variablerna uri, ac, id, utok, sig, och begära i exemplet ovan. I TulaFale representerar vi kryptografiska algoritmer symboliskt, som funktionssymboler som agerar på en sorts bytes av byte arrayer. Varje funktion är antingen en data konstruktör, utan medföljande omskrivning regel, eller det är en destructor, utrustad med en omskrivning regel för att testa eller extrahera data från en tillämpning av en konstruktör. Krypteringsfunktioner är till exempel konstruktörer och dekrypteringsfunktioner är destructors. Detta tillvägagångssätt, grunden för Dolev-Yao-modellen [DY83], antar 9 att den underliggande kryptografin är perfekt, och kan troget återspeglas av abstrakta ekvationsegenskaper hos funktionerna. Den abstracterar också några detaljer, såsom längden på strängar och byte arrayer. Den TulaFale syntax för att införa konstruktörer och destructors är baserad på den syntax som används av ProVerif. Till exempel deklarerar vi funktionssymboler för RSA-nyckelgenerering, kryptering med öppen nyckel och avkryptering med hjälp av följande TulaFale-deklarationer: konstruktör pk(byte):bytes. konstruktör rsa(bytes, bytes):bytes. Destructor decrsa( bytes, byte): bytes med decrsa(s,rsa(pk(s),b) = b. Konstruktören pk representerar förhållandet mellan privata och offentliga nycklar (båda byte arrayer, av sort bytes); det tar en privat nyckel och returnerar motsvarande offentliga nyckel. Det finns ingen omvänd eller destructor, eftersom vi avser att representera en enkelriktad funktion: givet endast pk(s) det är omöjligt att extrahera s. konstruktören rsa(k,x) krypterar data x:bytes under den offentliga nyckeln k, vilket producerar en krypterad byte array. Destructor decrsa(s,e) använder motsvarande privata nyckel s för att dekryptera en byte array som genereras av rsa(s),x. Destructordefinitionen uttrycker dekrypteringsfunktionen som en omskrivningsregel: när en tillämpning av decrsa i en term matchar den vänstra sidan av regeln, kan den ersättas med motsvarande höger sida. För att deklarera RSA public-key signatures, introducerar vi en annan konstruktör rsasha1(s,x) som producerar en RSA signatur av en kryptografisk hash av data x under den privata nyckeln s: konstruktör rsasha1(bytes,bytes):bytes. Destructor checkrsasha1(bytes, bytes, byte):bytes med checkrsasha1(pk(s),x,rsasha1(s,x))=pk(s). För att kontrollera giltigheten av en signatur sig på x med hjälp av en offentlig nyckel k, kan man bilda termen checkrsasha1( k,x,sig) och jämföra den med k. Om k är en offentlig nyckel i formuläret pk(s) och sig är resultatet av signering x under motsvarande privata nyckel s, då skrivs denna term om till k. I detta papper binder ett X.509 certifikat en nyckel till ett ämnesnamn genom att inbädda en digital signatur som genereras från den privata nyckeln hos någon attesterande myndighet (CA). Vi deklarerar X.509 certifikat enligt följande: konstruktör x509(bytes, sträng, sträng, bytes):bytes. Destructor x509key(byte):bytes med x509key(x509(s,u,a,k))=k. Destructor x509user(byte):sträng med x509user(x509(s,u,a,k))=u. Destructor x509alg(byte):sträng med x509alg(x509(s,u,a,k))=a. Destructor checkx509(bytes, byte):bytes med checkx509(x509(sr,u,a,k),pk(sr)=pk(sr). Termen x509 (sr,u,a,k) representerar ett certifikat som binder ämnesnamnet u till den öppna nyckeln k, för användning med signaturalgoritmen a (vanligtvis rsasha1). Detta certifikat är signerat av CA med privat nyckel sr. Med ett sådant certifikat, destructors x509key, x509user, och x509alg extrahera de tre offentliga fälten av certifikatet. Ungefär som checkrsasha1 för vanliga digitala signaturer, kan en ytterligare destructor checkx509 användas för att kontrollera äktheten av den inbyggda signaturen. Därefter skriver vi logiska predikat för att konstruera och tolka XML krypterad under någon känd RSA offentlig nyckel. Ett predikat skrivs med hjälp av en Prolog-liknande syntax; det tar en tuple av termer och kontrollerar logiska egenskaper, såsom om två termer är lika eller om en term har ett specifikt format. Det är bra att tänka på några av de termer som ges till predikatet som ingångar och de andra som utgångar. Enligt denna tolkning beräknar predikatet utdatatermer som uppfyller de logiska egenskaperna genom mönstermatchning. Predikatet mkEncryptedData tar en vanlig text:item och en RSA offentlig krypteringsnyckel ek:bytes, och det genererar ett XML-element krypterat som innehåller XML-kodning av vanlig krypterad under ek. predicate mkEncryptedData (krypterad:item,plain:item,ek:bytes) :– chiffer = rsa(ek,c14n(plain)), krypterad = <EncryptedData> <CiferData> <CiferValue>base64(chiffer) </> </> </> Den första bindningen i predikatdefinitionen beräknar den krypterade bytesmatrisen, chiffer, med hjälp av den rsa-krypteringsfunktion som tillämpas på nyckeleket och klartextsslätten. Eftersom rsa endast definieras över byte arrays, är vanlig:item först konverteras till bytes med hjälp av (reversibel) c14n konstruktör. Den andra bindningen genererar ett XML- element (<EncryptedData>) som innehåller de krypterade bytena. Eftersom endast strängar eller element kan inbäddas i XML-element, konverteras den krypterade byte-matrisen, chiffer, först till en sträng med hjälp av (reversibel) base64-konstruktören. I detta papper använder vi tre transformationsfunktioner mellan olika typer: c14n (med invers ic14n) transformerar ett objekt till en bytes, bas64 (med invers ibase64) transformerar en bytes till en sträng, och utf8 (med invers iutf8) transformerar en sträng till en bytes. Alla tre funktionerna har specifika betydelser i samband med XML-omvandlingar, men vi behandlar dem helt enkelt som tvångsfunktioner mellan olika typer. För att bearbeta ett givet element, låt oss säga att vi ibland skriver tydliga predikat på sändarsidan respektive på mottagningssidan av protokollet. Enligt överenskommelse, för att konstruera ett <Foo> element, skriver vi en predikat som heter mkFoo vars första parameter är det element som konstrueras; för att tolka och kontrollera det, skriver vi en predikat som heter isFoo. För <EncryptedData>, till exempel, är det logiska predikatetEncryptedData tolkar element som konstruerats av mkEncryptedData; det tar ett element krypterat 11 och en dekrypteringsnyckel dk:bytes och, om krypterat är ett <EncryptedData> element med någon vanlig text krypterad under motsvarande krypteringsnyckel pk(dk), returnerar det den enkla texten som vanlig. predicate isEncryptedData (krypterad:item,plain:item,dk:bytes) :— krypterad = <CryptedData> <CipherData> <CipherValue>base64(chiffer) </> </>, c14n(plain) = decrsa(dk, chiffer). Abstractly, detta predicate reverserar de beräkningar som utförs av mkEncryptedData. En skillnad, naturligtvis, är att medan mkEncryptedData passerar den offentliga krypteringsnyckeln ek, är isEncryptedData predicate istället passerade den privata nyckeln, DK. Den första raden matchar krypterad mot ett mönster som representerar elementet <EncryptedData> och extraherar det krypterade bytesystemet, chiffer. konstruktören bygger på mönstermatchning och är implicit inverterad med hjälp av sin destructor ibase64. Den andra raden dekrypterar chiffer med hjälp av dekrypteringsnyckeln dk, och implicit inverterar c14n med hjälp av dess destructor ic14n för att beräkna vanlig. Tjänster och X509 Security Tokens
Karthikeyan Bhargavan m.fl. REF utvecklade ett verktyg som heter TulaFale för att ange SOAP-baserade säkerhetsprotokoll i pi-calculus och analysera dess sårbarheter.
2,922
TulaFale: A Security Tool for Web Services
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
3,432
Abstract-Eftersom informationen har ökat enormt i världen, är det svårt att få rätt information enligt användarens tillfredsställelse. I vårt föreslagna arbete används dokumentcrawler för att samla in och extrahera information från de dokument som finns tillgängliga från online-databaser och andra databaser. Eftersom sökytan är för stor används Genetisk Algoritm (GA) för att ta reda på kombinationstermer. I det föreslagna dokumentsökningssystemet extraherar vi nyckelorden från dokumentkrånglaren och med dessa nyckelord skapar GA kombinationstermer. Det föreslagna arbetet har tre huvuddrag: Först är att extrahera nyckelord och annan information från databasen av en dokument krypare. Det andra är att generera kombinationstermer med hjälp av genetisk algoritm. För det tredje tillämpas resultaten från god jordbrukshävd och goda miljöförhållanden på systemet för insamling av information för att generera bättre resultat. Utifrån de resultat som erhållits verifieras dokumentens relevans med hjälp av utvärderingsåtgärder, dvs. precision och återkallande.
I REF användes Genetisk algoritm för att generera den optimala kombinationen av termer för effektiv informationssökning.
5,237,873
A Document Retrieval System with Combination Terms Using Genetic Algorithm
{'venue': None, 'journal': 'International Journal of Computer and Electrical Engineering', 'mag_field_of_study': ['Computer Science']}
3,433
Abstract Fullt konvolutionella nätverk (FCN) har visat sig vara mycket framgångsrika för semantisk segmentering, men FCN-utgångar är omedvetna om objekt instanser. I detta dokument utvecklar vi FCN som kan föreslå kandidater på instansnivå. I motsats till den tidigare FCN som genererar en poängkarta, är vår FCN utformad för att beräkna en liten uppsättning exempelkänsliga poängkartor, som var och en är resultatet av en pixel-wise klassificering av en relativ position till fall. Utöver dessa exempelkänsliga poängkartor kan en enkel monteringsmodul visa kandidaten vid varje position. I motsats till den senaste DeepMask metoden för segmentering av instanser, har vår metod inte några högdimensionella lager relaterade till masken upplösning, utan utnyttjar istället bilden lokal samstämmighet för att uppskatta fall. Vi presenterar konkurrenskraftiga resultat av exempelsegmentförslag på både PASCAL VOC och MS COCO.
I synnerhet har metoden för Ref, där en FCN beräknar en liten uppsättning exempelkänsliga poängkartor som är sammansatta i objektsegmentförslag, visat sig effektivt förbättra semantisk segmentering på instansnivå när de införlivas i MNC-ramen.
7,153,187
Instance-sensitive Fully Convolutional Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
3,434
För att utföra uppgifter som anges i instruktioner i naturligt språk, autonoma agenter måste extrahera semantiskt meningsfulla representationer av språket och kartlägga det till visuella element och åtgärder i miljön. Detta problem kallas för uppgiftsorienterad språkbaserad grundläggning. Vi föreslår en end-to-end trainingable neural arkitektur för uppgiftsorienterad språk grundläggning i 3D-miljöer som förutsätter inga tidigare språkliga eller perceptuella kunskaper och kräver endast rå pixlar från miljön och den naturliga språkundervisningen som ingång. Den föreslagna modellen kombinerar bild och text representationer med hjälp av en Gated-Attention mekanism och lär sig en politik för att utföra den naturliga språkundervisningen med hjälp av standard förstärkning och imitation inlärningsmetoder. Vi visar hur effektiv den föreslagna modellen är på osynliga instruktioner och på osynliga kartor, både kvantitativt och kvalitativt. Vi introducerar också en ny miljö baserad på en 3D spelmotor för att simulera utmaningarna med uppgiftsorienterade språk grundläggning över en rik uppsättning av instruktioner och miljötillstånd.
Vårt arbete bygger på REF ) som föreslog en gated-attention arkitektur för att kombinera språket och bildfunktioner för att lära sig en policy som utför skriftlig undervisning i en 3D-miljö.
2,921,786
Gated-Attention Architectures for Task-Oriented Language Grounding
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
3,435
ABSTRACT Självskötta åtkomstpunkter (APs) med växande intelligens kan optimera sina egna prestationer men utgör potentiella negativa effekter på andra utan energieffektivitet. I detta dokument fokuserar vi på att modellera den samordnade interaktionen mellan intresseoberoende och självkonfigurerade AP, och genomföra elfördelning fallstudie i det autonoma Wi-Fi-scenariot. Speciellt bygger vi en "samordning Wi-Fi-plattform (CWP), en offentlig plattform för APs interagerar med varandra. OpenWrt-baserade AP i den fysiska världen är kartlagda till virtuella agenter (VAs) i CWP, som kommunicerar med varandra genom en standard begäran-svarande process definieras som AP prat protokoll (ATP). Med ATP föreslås en metod för aktiv interferensmätning som återspeglar både störningar inom räckvidd och dolda terminalinterferenser, och Nash-förhandlingsbaserad effektkontroll är ytterligare formulerad för störningsminskningar. CWP är utplacerat i en verklig kontorsmiljö, där samordningsinteraktioner mellan VAs kan ge en maximal 40-Mb/s genomströmningsförbättring med Nash förhandlingsbaserad kraftkontroll i multi-AP experimenten. INDEX TERMS Samordnad interaktion, Wi-Fi, OpenWrt, Nash förhandlingar.
En samordningsplattform för Wi-Fi-hantering har utformats i REF, som samordnar AP för att minska störningar genom maktstyrning, och Nash förhandlingsbaserad maktstyrning modell är formulerad och löst på ett distribuerat sätt.
20,178,039
Interference-Aware Coordinated Power Allocation in Autonomous Wi-Fi Environment
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
3,436
Sammanfattning av denna webbsida: Under vitreoretinal kirurgi manipulerar kirurgen näthinnevävnad med interaktionskrafter mellan verktyg och vävnader under den mänskliga sensoriska tröskeln. En kraftsensor (FS) integrerad med konventionella kirurgiska verktyg kan avsevärt förbättra resultatet kirurgi genom att ge taktil feedback till kirurgen. Vi designade och byggde ett kirurgiskt verktyg integrerat med en miniatyr FS med en ytterdiameter mindre än 1 mm för vitreoretinal kirurgi baserad på låg koherens Fabry-Pérot (FP) interferometri. Kraftavkänningselementen är placerade vid verktygsspetsen som är i direkt kontakt med vävnad under kirurgi och FP-hålans längd förhörs av ett fiberoptiskt faskänsligt optiskt koherenstomografisystem (OCT). Vi har kalibrerat FS reaktion på axiala och laterala krafter och utfört experiment för att verifiera att vår FS kan mäta både axiala och laterala kraftkomponenter samtidigt.
Liu m.fl. REF utvecklade en optisk kraftsensor baserad på låg koherens Fabry-Perot interferometri.
7,792,428
Miniature fiber-optic force sensor based on low-coherence Fabry-Pérot interferometry for vitreoretinal microsurgery
{'venue': 'Biomedical Optics Express', 'journal': 'Biomedical Optics Express', 'mag_field_of_study': ['Medicine', 'Computer Science']}
3,437
Låg effekt, skalbara detektionssystem kräver aggressiva tekniker för att uppnå energieffektivitet. Algoritmiska metoder som kan minska energiförbrukningen genom att kompromissa med prestanda är kända som energimedvetna. Vi föreslår ett ramverk som inför energimedvetenhet på kaskaderade detektionsalgoritmer. Detta görs genom att fastställa detektorernas tröskelvärden för att göra en systematisk avvägning mellan energiförbrukning och detektionsprestanda. Tröskelvärdena bestäms genom att lösa vår föreslagna energibegränsade version av Neyman-Pearson-detektionskriteriet. Vår föreslagna optimeringsmetod bestämmer systematiskt de energioptimala tröskelvärdena och anpassar sig dynamiskt till kraven på tidsvarierande system. Detta ramverk tillämpas på en tvåstegs kaskad, och simuleringar visar att våra energimedvetna kaskaddetektorer överträffar en energimedveten detektionsalgoritm baserad på inkrementell förfining. Slutligen, att kombinera vårt ramverk med stegvis förfining avslöjar en lovande strategi för utformningen av energieffektiva detektionssystem.
Senare införlivade Jun och Jones REF en energiresursrestriktion i Neyman-Pearson-baserad optimering över tröskelvärdena för en tvåstegs kaskade.
16,728,009
An energy-aware framework for cascaded detection algorithms
{'venue': '2010 IEEE Workshop On Signal Processing Systems', 'journal': '2010 IEEE Workshop On Signal Processing Systems', 'mag_field_of_study': ['Computer Science']}
3,438
Den rika uppsättningen interaktioner mellan individer i samhället [1] [2] [3] [4] [5] [6] [6] [7] resulterar i komplex samhällsstruktur, fånga högt anslutna kretsar av vänner, familjer eller yrkesgrupper i ett socialt nätverk 3, [7] [8] [9] [10]. Tack vare frekventa förändringar i individers aktivitets- och kommunikationsmönster är det tillhörande sociala nätverket och kommunikationsnätet föremål för ständig utveckling 7, [11] [12] [13] [14] [15] [16]. Vår kunskap om de mekanismer som styr den underliggande samhällsdynamiken är begränsad, men är nödvändig för en djupare förståelse av samhällets utveckling och självoptimering som helhet [17] [18] [19] [20] [21] [22]. Vi har utvecklat en algoritm baserad på clique percolation 23, 24 som gör det möjligt för oss att undersöka tidsberoendet av överlappande samhällen i stor skala, och därmed avslöja grundläggande relationer som kännetecknar samhällsutvecklingen. Vårt fokus ligger på nätverk som fångar upp samarbetet mellan forskare och samtalen mellan mobiltelefonanvändare. Vi finner att stora grupper består längre om de är i stånd att dynamiskt förändra sitt medlemskap, vilket tyder på att en förmåga att ändra gruppens sammansättning resulterar i bättre anpassningsförmåga. Små gruppers beteende visar den motsatta tendensen - villkoret för stabilitet är att deras sammansättning förblir oförändrad. Vi visar också att kunskap om medlemmarnas tidsengagemang i ett visst samhälle kan användas för att uppskatta samhällets livstid. Dessa resultat ger insikt i de grundläggande skillnaderna mellan små gruppers dynamik och stora institutioner. De datamängder vi anser är (1) den månatliga listan över artiklar i Cornell University Library e-print kondenserade materia (cond-mat) arkiv som sträcker sig 142 månader, med över 30 000 författare 25, och (2) rekordet av telefonsamtal mellan kunderna i ett mobiltelefonföretag som sträcker sig 52 veckor (ackumuleras över två veckor långa perioder), och innehåller kommunikationsmönster för över 4 miljoner användare. Båda typerna av samarbetsevenemang (en ny artikel eller ett telefonsamtal) dokumenterar förekomsten av social interaktion mellan de inblandade individerna (nodes), och kan representeras som (tidsberoende) länkar. Extrahering av de föränderliga länkvikterna från de primära uppgifterna beskrivs i kompletterande information. På bild. 1a, b vi visar den lokala strukturen vid en given tidpunkt steg i de två nätverken i närheten av en slumpmässigt vald individ (markerad av en röd ram). De samhällen (sociala grupper som representeras av tätare sammankopplade delar inom ett nätverk av sociala länkar) är färgkodade, så att svarta noder/kanter inte tillhör någon gemenskap, och de som samtidigt tillhör två eller flera samhällen visas i rött. De två nätverken har ganska olika lokal struktur: samverkansnätverket av forskare framträder som en en-stegs projektion av tvåpartsgrafen mellan författare och papper, så den är ganska tät och överlappningen mellan samhällen är mycket betydande. I telefonsamtalsnätet är däremot samhällena mindre sammankopplade och är ofta åtskilda av en eller flera knutpunkter/kanter inom gemenskapen. Medan telefonskivan fångar kommunikationen mellan två personer, tilldelas alla individer som bidrar till ett papper en helt ansluten klick. Som ett resultat av detta domineras telefondata av enskilda länkar, medan samförfattardata har många täta, starkt anslutna stadsdelar. Dessutom, länkarna i telefonnätet motsvarar omedelbar kommunikation händelser, fånga en relation som det händer. Däremot beaktade man uppgifterna från medförfattaren. a, Samförfattarnätverket. Figuren visar den lokala samhällsstrukturen vid en given tidpunkt steg i närheten av en slumpmässigt vald nod. B, Som en men för telefon-samtal nätverket. c, De fyllda svarta symbolerna motsvarar den genomsnittliga storleken på den största undergruppen av medlemmar med samma zip-kod, AEn verkliga ae, i telefonsamtalsgemenskaperna dividerat med samma mängd som finns i slumpmässiga uppsättningar, AEn rand ae, som en funktion av gemenskapens storlek, s. På samma sätt visar de öppna symbolerna den genomsnittliga storleken på den största undergruppen av samhällsmedlemmar med en ålder som faller i ett treårigt tidsfönster, dividerat med samma mängd i slumpmässiga uppsättningar. Felraderna i båda fallen motsvarar AEn real ae/ (AEn rand ae 1 s rand ) och AEn real ae/(AEn rand ae 2 s rand ), där s rand är standardavvikelsen när det gäller slumpmässiga uppsättningar. d, AEn verkliga ae/s som en funktion av s, för både zip-koden (fyllda svarta symboler) och ålder (öppna symboler). e, Möjliga händelser i samhällsutvecklingen. f, Identifiering av evolverande samhällen. Länkarna vid t (blå) och länkarna vid t 1 1 (gul) slås samman till en gemensam graf (grön). Varje CPM gemenskap vid t eller t 1 1 är en del av en CPM gemenskap i den sammanfogade grafen, så dessa kan användas för att matcha de två uppsättningar av samhällen.
Fokus i REF ligger på evolution och tidsdynamiken i en liten grupp, medan vårt dokument tar upp en rad andra frågor, bland annat förhållandet mellan individers sociala nätverk, och kopplingen mellan individers interaktionsmönster och deras relationer.
4,420,074
Quantifying social group evolution
{'venue': 'Nature', 'journal': 'Nature', 'mag_field_of_study': ['Medicine', 'Biology', 'Mathematics', 'Physics']}
3,439
Abstract Vi föreslår CornerNet, en ny metod för att upptäcka objekt där vi upptäcker ett objekt avgränsande rutan som ett par keypoints, det övre vänstra hörnet och det nedre högra hörnet, med hjälp av en enda konvolution neurala nätverket. Genom att upptäcka objekt som parade nyckelpunkter eliminerar vi behovet av att utforma en uppsättning ankarlådor som vanligen används i tidigare enstegsdetektorer. Förutom vår nya formulering, introducerar vi hörnpooling, en ny typ av pooling lager som hjälper nätverket bättre lokalisera hörn. Experiment visar att CornerNet uppnår en 42,2% AP på MS COCO, överträffar alla befintliga enstegsdetektorer.
CornerNet REF introducerade en insikt om att de avgränsande rutorna kan förutspås som ett par nyckelpunkter.
51,923,817
CornerNet: Detecting Objects as Paired Keypoints
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
3,440
I detta dokument använder vi oss av en teoretisk ram av sammankopplade mänskliga och naturliga system för att se över de metodologiska framstegen när det gäller modellering av efterfrågan på urbant vatten under de senaste tre decennierna. Syftet med denna översyn är att kvantifiera kapaciteten hos alltmer komplexa modelleringsmetoder för att ta hänsyn till komplexa mänskliga och naturliga processer, osäkerhet och motståndskraft över rumsliga och tidsmässiga skalor. Denna översyn inleds med kopplade mänskliga och naturliga systemteorier och placerar efterfrågan på urbant vatten inom denna ram. I det andra avsnittet granskas urban vattenefterfrågans litteratur och sammanfattas metodologiska framsteg i förhållande till fyra centrala teman: 1) interaktioner inom och över flera rumsliga och tidsmässiga skalor, 2) erkännande och kvantifiering av osäkerhet, 3) identifiering av tröskelvärden, icke-linjär systemrespons och konsekvenserna för motståndskraft, och 4) övergången från enkel statistisk modellering till fullt integrerad dynamisk modellering. Denna översyn kommer att visa att allt effektivare modeller har blivit resultatet av tekniska framsteg inom rumslig vetenskap och innovationer inom statistiska metoder. Dessa modeller ger opartiska, korrekta uppskattningar av bestämningsfaktorerna för efterfrågan på urbant vatten vid en allt finare rumslig och tidsmässig upplösning. Dynamiska modeller som kan införliva alternativa framtidsscenarier och lokal stokastisk analys leder en trend bort från deterministiska förutsägelser. Citering: House-Peters, L. A., och H. Chang (2011), Urban vatten efterfrågan modellering: Granska begrepp, metoder, och organisera principer, Water Resour. Res., 47, W05401,
En översyn av olika modeller för vattenefterfrågan under de senaste tre decennierna ges i REF.
55,652,039
Urban water demand modeling: Review of concepts, methods, and organizing principles
{'venue': None, 'journal': 'Water Resources Research', 'mag_field_of_study': ['Engineering']}
3,441
Vi presenterar en ny metod för grammatisk felkorrigering baserad på alternativ strukturoptimering. Som en del av vårt arbete introducerar vi NUS Corpus of Learner English (NUCLE), en helt kommenterad en miljon ord corpus of learner Engelska tillgängliga för forskningsändamål. Vi gör en omfattande utvärdering för artikel- och prepositionsfel med hjälp av olika funktionsuppsättningar. Våra experiment visar att vårt tillvägagångssätt överträffar två baslinjer som är utbildade på icke-lärande text respektive inlärartext. Vårt tillvägagångssätt överträffar också två kommersiella grammatiska kontrollprogrampaket.
Ett nytt tillvägagångssätt baserat på omväxlande strukturoptimering föreslogs för att korrigera artikel- och prepositionsfel REF.
14,113,283
Grammatical Error Correction with Alternating Structure Optimization
{'venue': 'Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,442
Abstract-Software utvecklare ställs ofta inför ändringar uppgifter som involverar källa som är spridd över en kodbas. Vissa beroenden mellan källkoden, t.ex. mellan källkoden skriven på olika språk, är svåra att avgöra med hjälp av befintliga statiska och dynamiska analyser. För att förstärka befintliga analyser och hjälpa utvecklare att identifiera relevant källkod under en ändringsuppgift, har vi utvecklat ett tillvägagångssätt som tillämpar data mining tekniker för att bestämma förändringsmönster-uppsättningar av filer som ändrades tillsammans ofta i det förflutna-från förändringshistoriken av kodbasen. Vår hypotes är att förändringsmönster kan användas för att rekommendera potentiellt relevant källkod till en utvecklare som utför en ändringsuppgift. Vi visar att detta tillvägagångssätt kan avslöja värdefulla beroenden genom att tillämpa strategin för Eclipse och Mozilla öppen källkod projekt och genom att utvärdera förutsägbarheten och intressantheten i de rekommendationer som produceras för faktiska ändringar uppgifter på dessa system.
Ying m.fl. REF har utvecklat ett tillvägagångssätt som tillämpar data mining tekniker för att bestämma förändringsmönster - uppsättningar av filer som ändrades tillsammans ofta i det förflutna - från förändringshistoriken för kodbasen.
1,168,238
Predicting source code changes by mining change history
{'venue': 'IEEE Transactions on Software Engineering', 'journal': 'IEEE Transactions on Software Engineering', 'mag_field_of_study': ['Computer Science']}
3,443
Abstract-Vi undersöker kvantitativt hur maskininlärningsmodeller läcker information om de enskilda dataposter på vilka de utbildades. Vi fokuserar på den grundläggande medlemskap inference attack: med tanke på en datapost och black-box tillgång till en modell, avgöra om posten var i modellens träningsdataset. För att göra en medlemsslutsats mot en målmodell använder vi oss av maskininlärning och utbildar vår egen inferensmodell för att känna igen skillnader i målmodellens förutsägelser om de ingångar som den tränade på jämfört med de ingångar som den inte tränade på. Vi utvärderar empiriskt våra inferenstekniker på klassificeringsmodeller som utbildats av kommersiella "maskininlärning som en tjänst" leverantörer som Google och Amazon. Med hjälp av realistiska datauppsättningar och klassificeringsuppgifter, inklusive en datauppsättning för sjukhusutskrivning vars medlemskap är känsligt ur ett sekretessperspektiv, visar vi att dessa modeller kan vara sårbara för medlemsinferensattacker. Vi undersöker sedan de faktorer som påverkar detta läckage och utvärderar begränsningsstrategier.
Shokri et al REF presenterade en medlemsinference attack för att avgöra om en viss datapost tillhör modellen träningssetet med en svart-box tillgång till modellen.
10,488,675
Membership Inference Attacks Against Machine Learning Models
{'venue': '2017 IEEE Symposium on Security and Privacy (SP)', 'journal': '2017 IEEE Symposium on Security and Privacy (SP)', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
3,444
Abstract-Extreme skalning praxis inom kiselteknik leder snabbt till integrerade kretskomponenter med begränsad tillförlitlighet, där fenomen som tidiga transistor fel, gate-oxid utslitning, och övergående fel blir allt vanligare. För att lösa dessa problem och utveckla robusta designtekniker för stora integrerade kretsar av kisel, är det nödvändigt att förlita sig på noggranna analysramar för felanalys som gör det möjligt för designhus att troget utvärdera både effekterna av ett brett spektrum av potentiella misslyckanden och förmågan hos kandidatens tillförlitliga mekanismer att övervinna dem. Tyvärr, även om felfrekvensen redan ökar över ekonomiskt bärkraftiga gränser, finns det ännu inget ramverk för felanalys som är både korrekt och kan fungera på ett komplext integrerat system. För att åtgärda detta tomrum presenterar vi CrashTest, ett snabbt, högfidelt och flexibelt system för analys av resiliens. Med tanke på en modell för maskinvarubeskrivning av konstruktionen under analys kan CrashTest orkestrera och utföra en omfattande analys av konstruktionsresiliens genom att undersöka hur konstruktionen reagerar på fel när programvara körs. Efter avslutad, CrashTest ger en high-fidelity analys rapport som erhållits genom att utföra en felinjektion kampanj på gate-level nätlistan för konstruktionen. Felinsprutnings- och analysprocessen påskyndas avsevärt genom användning av en FPGA maskinvaruemuleringsplattform. Vi genomförde experimentella utvärderingar på en rad olika system, inklusive ett komplext LEON-baserat system på chip, och utvärderade effekten av insprutningsfel på portnivå på systemnivå. Vi fann att CrashTest är 16-90x snabbare än en likvärdig mjukvarubaserad ram, när man analyserar konstruktioner genom direkta primära I/Os. Som framgår av våra LEON-baserade SoC-experiment uppvisar CrashTest emuleringshastigheter som är sex storleksordningar snabbare än simulering.
Crashtest testar logik reiliency och utvärderar hur konstruktionen reagerar på fel REF.
6,018,781
CrashTest: A fast high-fidelity FPGA-based resiliency analysis framework
{'venue': '2008 IEEE International Conference on Computer Design', 'journal': '2008 IEEE International Conference on Computer Design', 'mag_field_of_study': ['Computer Science']}
3,445
Trots genombrotten i noggrannhet och hastighet av enkelbild super-upplösning med hjälp av snabbare och djupare konvolutionella neurala nätverk, återstår ett centralt problem i stort sett olöst: hur kan vi återställa de finare textur detaljer när vi super-löser på stora uppskalningsfaktorer? Uppförandet av optimeringsbaserade superupplösningsmetoder drivs främst av valet av den objektiva funktionen. Den senaste tidens arbete har till stor del fokuserat på att minimera det genomsnittliga kvadratrekonstruktionsfelet. De resulterande uppskattningarna har hög signal-till-brusförhållande, men de saknar ofta högfrekvensdetaljer och är perceptuellt otillfredsställande i den meningen att de inte matchar den trohet som förväntas vid den högre upplösningen. I denna artikel presenterar vi SRGAN, ett generativt kontradiktoriskt nätverk (GAN) för bildsuperupplösning (SR). Till vår kunskap är det den första ramen som kan sluta sig till fotorealistiska naturliga bilder för 4× upscaling faktorer. För att uppnå detta föreslår vi en perceptuell förlustfunktion som består av en kontradiktorisk förlust och en innehållsförlust. Den kontradiktoriska förlusten driver vår lösning till det naturliga bildgrenröret med hjälp av ett discriminatornätverk som är tränat för att skilja mellan de superupplösta bilderna och de ursprungliga fotorealistiska bilderna. Dessutom använder vi en innehållsförlust som motiveras av perceptuell likhet istället för likhet i pixelutrymme. Vårt djupa resterande nätverk kan återställa fotorealistiska texturer från kraftigt nedplockade bilder på offentliga riktmärken. En omfattande medel-opinion-score (MOS) test visar enormt betydande vinster i perceptuell kvalitet med hjälp av SRGAN. MOS poäng som erhållits med SRGAN är närmare de ursprungliga högupplösta bilder än de som erhållits med någon toppmodern metod.
I enlighet med denna allmänna ram föreslog REF en superupplösningsarkitektur för en enda bild som kallas SRGAN.
211,227
Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial Network
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
3,446
Rendering IEEE Datorgrafik och applikationer han realistiska modellering av vegetation är ett viktigt problem i datorgrafik. Vegetation tillför en betydande dimension av realism till en scen. I synnerhet träd utgör en integrerad del av arkitektoniska landskap. Många tekniker 1, 2-4 och modellering paket (till exempel Tree Professional Software och MaxTrees) har utvecklats för att bygga ett träd av en viss typ. Skillnaderna mellan två träd av en enda typ kan dock vara mycket betydande, beroende på faktorer som sträcker sig från tillväxtförhållanden (t.ex. mängden och riktningen för solljuset som når trädet) till mänsklig intervention (t.ex. beskärningsgrenar). Ibland vill du skapa en 3D-trädmodell som liknar ett specifikt träd. Ett sådant behov kan till exempel uppstå i planeringen av ändringar i en befintlig arkitektonisk scen; modellering av föreslagna förändringar kräver en trogen modell av den befintliga scenen. De tekniker och paket som för närvarande finns tillgängliga ger inte tillräcklig kontroll över modellens slutliga form och utseende för att vara användbara för att rekonstruera specifika träd. Därför föreslår vi en lösning för att rekonstruera en trogen 3D-modell av ett lövträd från en uppsättning instrumenterade fotografier. Procedurteknik har i stor utsträckning använts för att generera detaljerade 3D-modeller. 5 Deras kraft ligger i att ha en hög databas förstärkningsfaktor, eller deras förmåga att generera ett brett spektrum av komplexa strukturer från en liten uppsättning av angivna parametrar. Men på grund av sin makt är procedurmodellerna svåra att kontrollera, eftersom en liten störning i parameterutrymmet resulterar i en betydande förändring av den resulterande strukturen. Kanske är detta anledningen till att man inte har gjort så mycket arbete med omvända förfarandemodeller, vilket tvingar fram en förfarandemodell för att reproducera en enhet som redan finns. Eftersom det är svårt att kontrollera procedurmodeller, ett tillvägagångssätt för att konstruera en omvänd förfarandemodell genom en parameter space search verkar intractable; därför behöver andra tekniker utvecklas. I ett nyligen utfört arbete erkänner 6 Sakaguchi kraften i de processuella tillväxtmodellerna, men påpekar att svårigheterna med att exakt dra slutsatser om parametrar i en sådan modell har fått honom att utveckla ett annat, orelaterat tillvägagångssätt. Sakaguchi frön små grenar runt trädets 3D form, sedan gradvis sammanfogar dem tillsammans till större grenar. Eftersom detta förfarande ger ett antal oönskade artefakter, rättar han dem med hjälp av ett antal heuristiker. Även om detta tillvägagångssätt har gett några rimliga resultat, kan det inte lätt kopplas till det högt utvecklade området för förfarandemodellering av vegetation. Vår strategi syftar däremot till att ta fram tillräckligt med information från en uppsättning bilder för att låta en förfarandemodell användas. I den här artikeln föreslår vi en hybridstrategi för att lösa det omvända problemet med att rekonstruera ett lövträd. Vår metod innebär att först bygga skelettet (trunk och de stora grenarna) av trädet, och sedan tillämpa ett L-system från detta skelett. L-system är en av de mer kända procedurmodellerna i grafikvärlden, särskilt efter deras popularisering av Lindenmayer och Prusinkiewicz. 7 Sidofältet "Relaterat arbete" ger lite bakgrund på L-system. Strukturellt sett är träden oerhört komplexa. Med detta i åtanke kan vi bara hoppas på ett återuppbyggnadsprogram som producerar ett liknande träd som, även om det skiljer sig avsevärt från originalet i sin struktur, ändå behåller sitt helhetsintryck. Detta är anledningen till att vi har begränsat omfattningen av detta projekt till lövträd: det är svårt att reproducera intrycket av ett ofolierat (vinter) träd utan att uppnå en högfidelitet strukturell rekonstruktion av dess grenningssystem. Med lövträd, dock, en rimlig förgrening struktur räcker för att bevara det övergripande intrycket av originalet, eftersom vi inte kan se de ursprungliga grenarna. När vi observerar ett lövträd, drar vi slutsatsen att det är en intuitiv förgrenande struktur från formen på det lövträd och vår kunskap om träd i allmänhet. Denna process tjänar som motivation för vårt tillvägagångssätt. Trots de utmärkta resultaten på syntetiska L-systems topiary i Prusinkiewicz et al., 8 där buskar odlas och beskärs för att fylla fördefinierade former buskar är endast avlägset relaterade till träd. Intrycken från en
Shlyakhter m.fl. REF bygga 3D-modell av lövträd från instrumenterade (snarare än okalibrerade) fotografier med målet att generera realistiska träd i datorgrafikapplikationer.
206,427,217
Reconstructing 3D Tree Models from Instrumented Photographs
{'venue': 'IEEE Computer Graphics and Applications', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,447
Genomträngande datormiljöer innebär nya utmaningar som hindrar traditionella metoder för programvaruteknik. I detta dokument tar vi itu med en sådan utmaning: behovet av omfattande programutvecklare att ha tillgång till konstruktioner som möjliggör resursupptäckt i dynamiska miljöer. Vi definierar först den framväxande tuples modellen, en ny utvidgning till traditionella tuple utrymmen som gör det möjligt för applikationer att bädda in sammanhangsmedveten anpassning direkt i strukturer som traditionellt används för distribuerad samordning. Beteendeapplikationer inbäddade i utvecklande tuples kan därefter användas av upptäckt frågor för att tillåta miljöegenskaper att direkt påverka resultaten av upptäckt. Vår strategi minimerar den mängd infrastruktur som måste finnas tillgänglig för att stödja upptäckt genom att inbädda upptäckten funktionalitet nästan uteslutande inom tuple och gör resursupptäcktsprocessen transparent. Samtidigt behåller vår modell många av fördelarna med traditionella tuple space-strategier, nämligen att tillhandahålla innehållsbaserad samordning som är lätt för utvecklare att förstå och genomföra. Den föränderliga tuples inneboende flexibilitet gör det också möjligt för resursupptäckt att anpassa sig till föränderliga resurser, tillämpningar och miljöer.
Den utvecklande tuples modellen, som presenteras i REF, är en förlängning till traditionella Linda tuple utrymmen med målet att stödja resurs upptäckt i ett genomträngande system, förlitar sig på idéer inspirerade till TOTA.
7,999,495
Resource discovery with evolving tuples
{'venue': "ESSPE '07", 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,448
Abstrakt. Vi studerar relationen mellan sociala medier och National Football League (NFL) spel, med hjälp av en datauppsättning som innehåller meddelanden från Twitter och NFL spelstatistik. Speciellt anser vi tweets som rör specifika lag och spel under NFL säsongen och använder dem tillsammans med statistiska speldata för att bygga prediktiva modeller för framtida spelresultat (vilket lag kommer att vinna?) och sportspel resultat (vilket lag kommer att vinna med punkt spridning? kommer den totala poängen att vara över / under raden?). Vi experimenterar med flera funktioner och finner att enkla funktioner med hjälp av stora volymer av tweets kan matcha eller överträffa prestandan hos mer traditionella funktioner som använder spelstatistik.
Sinha m.fl. REF använde n-gram som härletts från Twitter för att förutsäga resultaten av National Football League (NFL) och jämförde prestandan för denna modell med en modell som använder enkel statistik.
10,660,065
Predicting the NFL using Twitter
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Physics', 'Mathematics']}
3,449
Vi anser att schemaläggningen av godtyckliga trådlösa länkar i den fysiska modellen av störningar minimerar tiden för att uppfylla alla förfrågningar. Vi studerar här det kombinerade problemet med schemaläggning och kraftstyrning, där vi söker både en tilldelning av effektinställningar och en partition av länkarna så att varje uppsättning uppfyller begränsningarna signal-till-interference-plus-buller (SINR). Vi ger en algoritm som uppnår ett approximationsförhållande av O(log n · log log ), där n är antalet länkar och är förhållandet mellan den längsta och den kortaste länklängden. Under det naturliga antagandet att längder representeras i binära, detta ger den första approximation förhållandet som är polylogaritmisk i storleken på inmatningen. Algoritmen har den önskvärda egenskapen att använda en oöverträffad makttilldelning, där den kraft som tilldelas en avsändare endast beror på länkens längd. Vi ger bevis för att detta beroende av är oundvikligt, vilket visar att varje rimligtvis ouppmärksam makttilldelning resulterar i en (logglogg )-uppskattning. Dessa resultat har också för det (viktade) kapacitetsproblemet att hitta en maximal (viktad) del av länkar som kan schemaläggas i en enda tidsrymd. Dessutom får vi förbättrad approximation för en dubbelriktad variant av schemaläggning problem, ge partiella svar på frågor om nyttan av grafer för modellering av fysisk störning, och generalisera inställningen från standard 2-dimensionella Euclidean plan till dubblering mätvärden. Slutligen undersöker vi nyttan av grafmodeller för att fånga trådlös störning.
Detta förbättrades till en O(log n)-faktor för dubblering av mätvärden i REF.
6,049,168
Wireless scheduling with power control
{'venue': 'TALG', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
3,450
Undersystemet för minne står för en betydande del av den sammanlagda energibudgeten för moderna inbyggda system. Dessutom finns det en stor potential för att optimera energiförbrukningen i minnesdelsystemet. Följaktligen utformas såväl nya minnen som nya algoritmer för deras effektiva användning. Skrappads är kända för att prestera bättre än cache när det gäller kraft, prestanda, område och förutsägbarhet. Till skillnad från caches de är beroende av programvara allokering tekniker för deras utnyttjande. I det här dokumentet presenterar vi en allokeringsteknik som analyserar applikationen och infogar instruktioner för att dynamiskt kopiera både kodsegment och variabler på repasatsen vid körning. Vi visar att problemet med dynamiskt overlaying scrappad är en förlängning av problemet Global Register Allocation. Problemet med överlägg löses optimalt med hjälp av ILP-formuleringstekniker. Vår strategi förbättrar den enda tidigare kända allokeringstekniken för att statiskt fördela både variabler och kodsegment på repet. Experimenten visar en genomsnittlig minskning med 34 % respektive 18 % av energiförbrukningen respektive drifttiden för tillämpningarna. En minimal ökning av kodstorleken rapporteras också. Flera forskare [10, 14] har identifierat minnesdelsystemet som energiflaskan i hela systemet. Minneshierarkier byggs för att minska minnesundersystemets energiavledning. Caches och scrappad minnen representerar två kontrasterande minnesarkitekturer. Caches förbättrar prestandan genom att utnyttja den tidsmässiga och rumsliga lokalitet som finns i programmet. Men för inbyggda system, overheads i samband med caches ofta förneka sina fördelar. Dessutom är kackerlackor ökända för sitt oförutsägbara beteende [9]. Å andra sidan består ett scratchpad-minne (SPM) av bara ett minnessystem och en adressavkodningskrets. På grund av frånvaron av taggminnet och jämförelsen, crappad minnen kräver mycket mindre energi per tillgång än en cache. Dessutom kräver de mindre onchip område och tillåter strängare gränser på WCET förutsägelse av systemet. De kräver dock komplexa programanalyser och explicit stöd från kompilatorn. Tidigare arbete med SPM-användning har främst fokuserat på statisk fördelning av SPM. Till skillnad från en cache som anpassar sitt innehåll efter programmets beteende ändrar inte en statiskt tilldelad SPM sitt innehåll under programmets gångtid. Den statiska tilldelningstekniken kan leda till underutnyttjande av SPM. Följaktligen presenterar vi ett profilbaserat tillvägagångssätt som på grundval av live-intervall för både variabler och kodsegment fyller på SPM:s innehåll. Tekniken identifierar punkterna i programmet för att infoga instruktioner för att kopiera innehållet på och utanför SPM. Poängen väljs optimalt för att orsaka de minsta overhead. Tekniken beräknar också adresser inom SPM-adressområdet där variabler och kodsegment ska kopieras. Dessa adresser är beräknade så att ett stort antal variabler och kodsegment delar samma SPM-utrymme. Resten av pappret är uppbyggt på följande sätt: Efter presentationen av relaterat arbete beskrivs algoritmen för att lösa problemet med scrappad overlay i avsnitt 3. Detta följs av en presentation av det experimentella arbetsflödet. En diskussion om de experimentella resultaten presenteras i avsnitt 5. Dokumentet avslutas med en avslutning och ett framtida arbete.
Den andra metoden REF, genererar overlays från programmet, som sedan dynamiskt kopieras på och utanför SPM vid körning.
158,335
Dynamic overlay of scratchpad memory for energy minimization
{'venue': "CODES+ISSS '04", 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,451
I en rektilinjär dual av en planar graf hörn representeras av enkla rektilinjära polygoner, medan kanter representeras av sidokontakt mellan motsvarande polygoner. En rektilinjär dubbel kallas ett kartogram om arean i varje region är lika med en förspecificerad vikt. Komplexiteten hos ett kartogram bestäms av det maximala antalet hörn (eller sidor) som krävs för en polygon. I en serie av papper har den polygonala komplexiteten hos sådana representationer för maximal planar grafer minskats från de ursprungliga 40 till 34, sedan till 12 och mycket nyligen till de för närvarande mest kända 10. Här beskriver vi en konstruktion med 8-sidiga polygoner, vilket är optimalt i termer av polygonisk komplexitet eftersom 8-sidiga polygoner ibland är nödvändiga. Specifikt visar vi hur man beräknar den kombinatoriska strukturen och hur man förfinar den till en areauniversal rektangulär layout i linjär tid. Den exakta kartogrammet kan beräknas från område-universal layout med numerisk iteration, eller kan approximeras med en kuperad heuristisk. Vi beskriver också en alternativ konstruktion av kartogram för Hamiltonian maximal plana grafer, vilket gör att vi direkt kan beräkna kartogram i linjär tid. Dessutom bevisar vi att även för Hamiltonian grafer 8-sidiga rektilinjära polygoner är nödvändiga, genom att konstruera en icke-trivial lägre bundna exempel. Komplexiteten i kartogram kan reduceras till 6 om Hamiltons väg har den extra prop- * Forskning initierad på Dagstuhl 10461 om schemaläggning † Finansieras delvis av NSF bidrag CCF-0545743 och CCF-1115971 och forskning som stöds av NSERC. § Finansieras delvis: EURGIGA-projektet GraDR & DFG Fe 340/7-2 ¶ Delvis stödd av EURGIGA-projektet GraDR Tillstånd att göra digitala eller papperskopior av hela eller delar av detta arbete för personligt eller klassrumsbruk beviljas utan avgift under förutsättning att kopior inte görs eller distribueras för vinst eller kommersiell fördel och att kopiorna bär detta meddelande och den fullständiga hänvisningen på första sidan. För att kopiera på annat sätt, för att återpublicera, för att posta på servrar eller för att omfördela till listor, krävs tidigare specifik behörighet och/eller avgift. SCG '12, 17-20 juni 2012, Chapel Hill, North Carolina, USA. Copyright 2012 ACM 978-1-4503-1299 erty att det är enbent, som i yttre plana grafer. Således har vi optimala representationer (i termer av både polygonal komplexitet och körtid) för Hamiltonian maximal planar och maximal yttre plana grafer.
I den allmänna rectilinear inställningen har det nyligen visat sig att 8 sidor ibland är nödvändiga och alltid tillräckligt för en rectilinear cartogram av maximal planar grafer REF.
100,369
Computing cartograms with optimal complexity
{'venue': "SoCG '12", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
3,452
Affärsprocesser som spänner över organisatoriska gränser beskriver samspelet mellan flera parter som arbetar mot ett gemensamt mål. De uttrycker också affärsregler som styr beteendet i processen och förklarar för att uttrycka förändringar som återspeglar nya affärsmål och nya marknadssituationer. I vårt tidigare arbete utvecklade vi ett serviceförfrågningsspråk och stödramar som gör det möjligt för användare att formulera sina önskemål mot standard affärsprocesser. I detta dokument utvidgar vi detta tillvägagångssätt genom att presentera en ram som automatiskt kan koppla ihop affärsregler med relevanta processer som är involverade i en användarbegäran. Denna ram planerar och övervakar genomförandet av begäran mot tjänster som ligger till grund för dessa processer. Definitioner och klassificeringar av affärsregler (namngivna påståenden i tidningen) ges tillsammans med ett påståendespråk för att uttrycka dem. Ramverket kan hantera den icke-determinism som är typisk för tjänsteorienterade datormiljöer och bygger på att planering och utförande kopplas samman.
Något i samma anda Lazovik et al. I REF presenteras en planeringsram för tjänster som definieras som BPEL-processer som grundar sig på principen om interlead-planering och utförande.
316,380
Associating assertions with business processes and monitoring their execution
{'venue': "ICSOC '04", 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,453
Abstract-This paper föreslår en ny strategi på lokal (substation) nivå, som syftar till att förebygga eller minska strömavbrott som innebär reläfel eller otillräckligt lokalt diagnostiskt stöd. Strategin består av ett avancerat realtidsverktyg som kombinerar neural nätverksbaserad feldetektering och klassificering (NNFDC) algoritm och synkroniserad provtagning baserad felplats (SSFL) algoritm med ett relä övervakningsverktyg med hjälp av händelse trädanalys (ETA). Felanalysverktyget ger en referens för konventionella distansrelä med bättre prestanda och reläövervakningsverktyget ger detaljerad lokal information om störningarna. Tanken med hela strategin är att uppfylla flera NERC rekommendationer för att förhindra strömavbrott med hjälp av brett område skydd och kontroll.
I REF används kombinationen av Neural Network-baserad felsöknings- och klassificeringsalgoritm (NNFDC) och synkroniserad provtagningsbaserad felplatsalgoritm (SSFL) för att ge en mer exakt felanalys för reläer.
2,208,505
Improving Real-time Fault Analysis and Validating Relay Operations to Prevent or Mitigate Cascading Blackouts
{'venue': '2005/2006 IEEE/PES Transmission and Distribution Conference and Exhibition', 'journal': '2005/2006 IEEE/PES Transmission and Distribution Conference and Exhibition', 'mag_field_of_study': ['Engineering']}
3,454
Abstract-In kognitiva radionät (CR) är spektrumavkänning en avgörande teknik för att upptäcka spektrummöjligheter för sekundära användare (SU). Kvaliteten på spektrumavkänning utvärderas både genom avkänningsnoggrannhet och avkänningseffektivitet. Här representeras avkänningsnoggrannheten av sannolikheten för fellarm och sannolikheten för upptäckt, medan avkänningseffektiviteten representeras av avkänningens overhead- och nätgenomströmning. I detta dokument föreslår vi ett gruppbaserat protokoll för medelhög åtkomstkontroll (MAC) kallat GC-MAC, som tar upp avvägningen mellan mätnoggrannhet och effektivitet. I GC-MAC, de kooperativa SUs grupperas i flera lag. Under en sensationsperiod upplever varje team en annan kanal medan SUs i samma team utför den gemensamma upptäckten på den riktade kanalen. Avkänningsprocessen kommer inte att upphöra om inte en tillgänglig kanal upptäcks. För att minska sensorns overhead presenteras en SU-selecting-algoritm för att selektivt välja de kooperativa SU:erna baserat på kanaldynamiken och användningsmönster. Därefter konstrueras en analytisk modell för att studera avkänningsnoggrannhets-effektiviteten under två typer av kanalförhållanden: en tidsinvariantkanal och en tidsvarierande kanal. Ett optimeringsproblem som maximerar uppnåelig genomströmning är formulerat för att optimera de viktiga konstruktionsparametrarna. Både mättnads- och icke mättnadssituationer undersöks med avseende på genomströmning och avkänning. Simuleringsresultat tyder på att det föreslagna protokollet kan avsevärt minska avkänning overhead och öka nätgenomströmningen med garanterad avkänningsnoggrannhet. Index Terms-Cognitive medium access control (MAC), avkänning noggrannhet, avkänning effektivitet, spektrumavkänning.
Ett gruppbaserat samarbetsprotokoll för MAC (GC-MAC) för att förbättra mätnoggrannheten i CRNs föreslogs i REF.
13,729,323
An Efficient MAC Protocol With Selective Grouping and Cooperative Sensing in Cognitive Radio Networks
{'venue': 'IEEE Transactions on Vehicular Technology', 'journal': 'IEEE Transactions on Vehicular Technology', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
3,455
Abstract-The vikt uppdateringar krävs för grupp beslutsfattande som har liknande parametrar som används av beslutsfattaren (DM). Varje DM som intressent kan ha liknande eller olika parametrar för att välja parametrar. Därför måste vi ta hänsyn till alla beslutsfattares intressen för att få fram alternativa beslut. DM som har valt parametrarna in den ursprungliga vikten (baserat på de klassiska metoderna, och sedan räknar om för att få de uppdaterade vikterna (tills den slutliga vikten ( erhålls för alternativet till gruppbeslut (GDM). Den ursprungliga vikten använder en viktning direkt eller flera kriterier beslutsfattande (MCDM). Denna metod syftar till att ge rättvisa för alla DMs som har olika kunskap när det gäller att bestämma värdet på vikterna och urvalsparametrarna. För att få alternativa beslut använde vi teknik för order preferenser genom likhet med idealisk lösning (TOPSIS) metod för att uppdatera vikt. I detta dokument tillämpas det alternativa resultatet av besluten i två steg: besluten för varje DM och gruppen, där denna produktion består av fyra typer av alternativ. Baserat på den föreslagna metoden visar GDM:s resultat att det tredje alternativet rekommenderas i beslutsfattandet. Denna metod utförs effektivt i beslutsfattande som har olika parametrar och vikter för varje DM för att stödja gruppbeslut.
Hamdani, et.al används teknik för order preferens av likhet med idealisk lösning (TOPSIS) metod för att uppdatera vikt och denna metod utförs effektivt i beslutsfattande som har olika parametrar och vikter för varje DM för att stödja grupp beslut REF.
67,057,651
A Method of Weight Update in Group DecisionMaking to Accommodate the Interests of All the Decision Makers
{'venue': None, 'journal': 'International Journal of Intelligent Systems and Applications', 'mag_field_of_study': ['Computer Science']}
3,456
Vi föreslår ett nytt ramverk för att uppskatta generativa modeller via en kontradiktorisk process, där vi samtidigt utbildar två modeller: en generativ modell G som fångar datadistributionen, och en discriminativ modell D som uppskattar sannolikheten för att ett prov kommer från träningsdata snarare än G. Utbildningsförfarandet för G är att maximera sannolikheten för att D gör ett misstag. Detta ramverk motsvarar ett minimax 2-spelarspel. I utrymmet för godtyckliga funktioner G och D finns en unik lösning, där G återvinner träningsdatadistributionen och D är lika med 1 2 överallt. I det fall där G och D definieras av flerskiktsperceptroner kan hela systemet tränas med backpropagation. Det finns inget behov av någon Markov kedjor eller ovalsade approximativa inference nätverk under vare sig utbildning eller generering av prover. Experiment visar ramens potential genom kvalitativ och kvantitativ utvärdering av de producerade proven.
Deep Generative Models Generative adversarial networks (Gans) innehåller två huvudblock: en generator och en discriminator REF.
1,033,682
Generative Adversarial Nets
{'venue': 'NIPS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,457
Grafiska användargränssnitt (GUI) är viktiga komponenter i dagens programvara. Eftersom grafiska gränssnitt har andra egenskaper än traditionell programvara, konventionella testtekniker inte gäller för grafiska gränssnitt programvara. I tidigare arbete presenterade vi en metod för att generera GUI-testfall, som tar formen av sekvenser av åtgärder. I detta papper utvecklar vi en test oracle teknik för att avgöra om ett grafiskt gränssnitt beter sig som förväntat för ett givet test fall. Vårt orakel använder en formell modell av ett grafiskt gränssnitt, uttryckt som uppsättningar av objekt, objektegenskaper och handlingar. Med tanke på den formella modellen och ett testfall får vårt orakel automatiskt det förväntade tillståndet för varje åtgärd i testfallet. Vi representerar det faktiska tillståndet för ett verkställande grafiskt gränssnitt när det gäller objekt och deras egenskaper som härrör från det grafiska gränssnittets utförande. Med hjälp av det faktiska tillstånd som förvärvats från en exekveringsövervakare, jämför vårt oraklet automatiskt de förväntade och faktiska tillstånden efter varje åtgärd för att verifiera riktigheten av det grafiska gränssnittet för testfallet. Vi implementerade oraklet som en komponent i vårt GUI testsystem, som kallas Planning Assisted Tester för grapHical user interface.Systems (PATHS), som bygger på AI planering. Vi experimentellt utvärderat praktiskheten och effektiviteten av vår orakle teknik och rapportera om resultaten av experiment för att testa och verifiera beteendet hos vår version av Microsoft WordPad's GUI.
-GUI oracles: Slutligen en tidigare rapport av denna forskning beskrivs automatiserade GUI test oracles för planering assisterad testare för GrapHical användargränssnitt system (PATHS) REF.
2,786,937
Automated test oracles for GUIs
{'venue': "SIGSOFT '00/FSE-8", 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,458
Lokalt Decodable Codes (LDC) tillåter en att avkoda någon särskild symbol för inmatningsmeddelandet genom att göra ett konstant antal frågor till ett kodord, även om en konstant bråkdel av kodordet skadas. I ett nyligen verk [Yek08] Yekhanin konstruerar en 3-query LDC med sub-exponentiell längd av storlek exp(exp( O( log n log log n ) )). Denna konstruktion kräver dock en gissning att det finns oändligt många Mersenne primer. I detta papper ger vi den första ovillkorliga konstant fråga LDC konstruktion med sub-exponentiell kodord längd. Dessutom minskar vår konstruktion kodordets längd. Vi ger en konstruktion av en 3-query LDC med kodordslängd exp(exp(O( В log n log log n))). Vår konstruktion kan också utökas till ett större antal frågor. Vi ger en 2 r-query LDC med längd exp(exp(O( r på log n(log log n) r-1 ))).
Efremenko REF konstruerade en 3-query lokalt decodable kod för längd N = exp(exp( O( В log n log log n))) utan antagande.
1,058
3-query locally decodable codes of subexponential length
{'venue': "STOC '09", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
3,459
Bakgrund: Lungcancer är en av de vanligaste cancerformer som resulterar i över en miljon dödsfall per år i världen. Vanligtvis kan problemet angripas genom att utveckla mer diskriminerande diagnosmetoder. I detta papper, datorstödd diagnos användes för att underlätta förutsägelsen av egenskaper hos ensamma pulmonella knutor i CT i lungorna för att diagnostisera tidig lungcancer.
Tao Sun m.fl. I REF föreslogs ett CADx-system för att förutsäga egenskaperna hos pulmonella knölar i lung-CT för att diagnostisera tidig lungcancer.
14,890,819
Computer-Aided Diagnosis for Early-Stage Lung Cancer Based on Longitudinal and Balanced Data
{'venue': 'PLoS ONE', 'journal': 'PLoS ONE', 'mag_field_of_study': ['Medicine']}
3,460
Abstract-Automatiserad vävnad karakterisering är en av de mest avgörande komponenterna i en datorstödd diagnos (CAD) system för interstitiella lungsjukdomar (ILDs). Även om mycket forskning har bedrivits inom detta område är problemet fortfarande ett problem. Djupt lärande tekniker har nyligen uppnått imponerande resultat i en mängd olika datorseende problem, vilket ökar förväntningarna på att de kan tillämpas inom andra områden, såsom medicinsk bildanalys. I detta dokument föreslår och utvärderar vi ett konvolutionellt neuralt nätverk (CNN), utformat för klassificering av ILD-mönster. Det föreslagna nätverket består av 5 konvolutionslager med 2 2 kärnor och LeakyReLU aktiveringar, följt av genomsnittlig poolning med storlek som motsvarar storleken på de slutliga funktionskartorna och tre täta lager. Det sista täta skiktet har 7 utgångar, motsvarande de klasser som beaktas: friskt, malet glas opacitet (GGO), mikronodules, konsolidering, reticulation, honung combing och en kombination av GGO / retaticulation. För att träna och utvärdera CNN använde vi en datauppsättning på 14696 bildlappar, härledda av 120 datortomografier från olika skannrar och sjukhus. Såvitt vi vet är detta det första djupa CNN som utformats för det specifika problemet. En jämförande analys visade att det föreslagna CNN var effektivt i förhållande till tidigare metoder i en utmanande datauppsättning. Klassificeringen prestanda ( ) visade potentialen av CNNs i att analysera lungmönster. I det framtida arbetet ingår att utvidga CNN till tredimensionella data från CT-volymskanning och integrera den föreslagna metoden i ett CAD-system som syftar till att tillhandahålla differentialdiagnos för ILD som ett stödverktyg för radiologer.
Ett annat CNN-baserat system presenteras i REF för kategorisering av interstitiella lungsjukdomar (ILD) mönster genom extraktion av ILD-funktioner från den valda datauppsättningen.
206,749,561
Lung Pattern Classification for Interstitial Lung Diseases Using a Deep Convolutional Neural Network
{'venue': 'IEEE Transactions on Medical Imaging', 'journal': 'IEEE Transactions on Medical Imaging', 'mag_field_of_study': ['Computer Science', 'Medicine']}
3,461
Med hjälp av en dynamisk variant av Vicsek modellen, visar vi att uppkomsten av en förkrossning från en ordnad rörlig mänsklig publik är en icke-equilibrium första ordningen fas övergång. Vi visar också att denna övergång kan vändas genom att ändra dynamiken hos ett fåtal människor, anses vara spel changers. Förvånansvärt nog, den optimala placeringen av dessa spel changers anses vara i regioner med maximal lokal publik hastighet. Förekomsten av sådana spelväxlare är effektiv på grund av den okontinuerliga karaktären av den underliggande fasövergången. På så sätt ger vårt allmänna tillvägagångssätt (i) strategier för att fördröja krossbildning och (ii) vägar för att återhämta sig från en krossning, två aspekter som är av största vikt för att upprätthålla säkerheten vid masssammankomster av människor.
Författarna i REF har utvecklat en dynamisk variant av Vicsek-modellen för att studera kollektiv rörelse i panikfyllda människoskaror.
67,248,349
Sparse game changers restore collective motion in panicked human crowds
{'venue': 'Phys. Rev. Lett. 122, 048002 (2019)', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics', 'Mathematics', 'Medicine']}
3,462
Konventionella lösningar för automatisk summering av arbete är starkt beroende av mänskliga konstruktioner. I detta dokument utvecklar vi en neural datadriven sammanfattning genom att utnyttja de följande 2seq paradigm, där en gemensam kontextdriven uppmärksamhetsmekanism föreslås för att mäta kontextuell relevans i fullständiga texter och en heterogen bibliografi graf samtidigt. Vår motivering är att upprätthålla ämnets samstämmighet mellan ett relaterat arbetsavsnitt och dess måldokument, där både text- och grafiska sammanhang spelar en stor roll för att karakterisera relationen mellan vetenskapliga publikationer på ett korrekt sätt. Experimentella resultat på en stor datauppsättning visar att vårt tillvägagångssätt uppnår en avsevärd förbättring jämfört med en typisk folder2seq-sammanfattning och fem klassiska summering baslinjer.
På senare tid har REF utvecklat en neural datadriven sammanfattning med en gemensam sammanhangsdriven uppmärksamhetsmekanism för att generera relaterade arbetsavsnitt.
53,083,244
Neural Related Work Summarization with a Joint Context-driven Attention Mechanism
{'venue': 'Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing', 'journal': 'Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing', 'mag_field_of_study': ['Computer Science']}
3,463
Abstract-I detta arbete vi ta itu med subrymd kluster problem. Med tanke på en uppsättning dataprover (vektorer) som ungefär dras från en förening av flera subrymder, är vårt mål att samla proverna i sina respektive subrymder och ta bort eventuella avvikelser också. I detta syfte föreslår vi en ny objektiv funktion som heter Låg-Rank Representation (LRR), som söker den lägsta nivån representation bland alla kandidater som kan representera dataprover som linjära kombinationer av baserna i en given ordbok. Det visas att det konvexa programmet som är associerat med LRR löser subrymdsklustret i följande mening: när datan är ren, bevisar vi att LRR exakt återvinner de sanna subrymdsstrukturerna; när datan kontamineras av outliers, bevisar vi att LRR under vissa förhållanden exakt kan återställa radutrymmet för originaldata och upptäcka utlier också; för data som korrumperas av godtyckliga glesa fel, kan LRR också ungefär återställa radutrymmet med teoretiska garantier. Eftersom subrymdsmedlemskapet tydligt bestäms av radutrymmet innebär dessa ytterligare att LRR kan utföra robust subrymdsklustring och felkorrigering på ett effektivt och effektivt sätt.
För att övervinna denna brist, Liu et al. REF föreslog Low-Rank Representation (LRR) som visade sig vara mycket effektivt för robust subrymdssegmentering.
2,105,943
Robust Recovery of Subspace Structures by Low-Rank Representation
{'venue': 'IEEE Trans. Pattern Analysis and Machine Intelligence, 35(2013) 171-184', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Medicine', 'Mathematics']}
3,464
Nya studier visar att ett djupt neuralt nätverk kan lära överförbara funktioner som generaliserar väl till nya uppgifter för domänanpassning. Eftersom djupa funktioner så småningom övergår från allmän till specifik längs nätverket, sjunker funktionen överförbarhet avsevärt i högre lager med ökande domänavvikelse. Därför är det viktigt att formellt minska domänfördelen och förbättra överförbarheten i uppgiftsspecifika skikt. I detta dokument föreslår vi en ny Deep Adaptation Network (DAN) arkitektur, som generaliserar djupa konvolutionella neurala nätverk till domänanpassning scenariot. I DAN är dolda representationer av alla aktivitetsspecifika lager inbäddade i ett reproducerande kärna Hilbert-utrymme där de genomsnittliga inbäddningarna av olika domändistributioner uttryckligen kan matchas. Avvikelsen i domänen minskas ytterligare med hjälp av en optimal urvalsmetod med flera kernlar för genomsnittlig inbäddning av matchningar. DAN kan lära sig invarianta funktioner med förbättrad överförbarhet, och kan skala linjärt genom en opartisk uppskattning av kärnans inbäddning. Omfattande empiriska belägg visar att den föreslagna arkitekturen avsevärt överträffar de senaste resultaten på standardriktmärken för domänanpassning.
Författarna till REF föreslår strukturen för nätverket för djupgående anpassning.
556,999
Learning Transferable Features with Deep Adaptation Networks
{'venue': 'ICML', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
3,465
Epistemisk planering kan användas för beslutsfattande i multiagentiska situationer med distribuerad kunskap och kapacitet. Nyligen har Dynamic Epistemic Logic (DEL) visat sig ge en mycket naturlig och uttrycksfull ram för epistemisk planering. Vi utvidgar den Del-baserade epistemiska planeringsramen till att omfatta perspektivskiften, så att vi kan definiera nya begrepp för sekventiell och villkorlig planering med implicit samordning. Med dessa är det möjligt att lösa planeringsuppgifter med gemensamma mål på ett decentraliserat sätt utan att agenterna behöver förhandla om och engagera sig i en gemensam politik vid planeringstidpunkten. Först definierar vi de centrala planeringsbegreppen och skisserar genomförandet av ett planeringssystem som bygger på dessa begrepp. Därefter tillhandahåller vi några fallstudier för att utvärdera planeraren empiriskt och för att visa att konceptet är användbart för multiagentsystem i praktiken.
Ett begrepp om samarbetsplanering i DEL har studerats i REF, men utan den kontradiktoriska aspekten av spel.
1,826,796
Cooperative Epistemic Multi-Agent Planning for Implicit Coordination
{'venue': 'EPTCS 243, 2017, pp. 75-90', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,466
Vi ger två olika karakteriseringar av den typ av dimensionalitet-reducerande karta Π som kan användas för spektral fel ungefärlig matris multiplikation (AMM). Båda innebär en slumpmässig data-oblivious Π med m = O(r/ε 2 ) rader räcker, varr är den högsta stabila rank, dvs. Squared ratio av Frobenius och operatör normer, av matriserna multipliceras. Detta besvarar den huvudsakliga öppna frågan om [MZ11, KVZ14], och är optimal för alla slumpmässiga oöverträffade karta. Båda karakteriseringarna gäller för en allmän klass av slumpmässig Π, och en till och med för deterministisk Π. där kolumnerna i U utgör en ortonormal grund för E. I en karakterisering, visar vi om denna svans bundnas genom momentmetoden, då för att erhålla AMM räcker det att D vara en (ε, ε, 2r)-OSE. Det vill säga, vi visar att vi är en OSE för dimension (dvs. k innebär svart ruta AMM för matriser av stabil rang k. När detta visas, vårt huvudresultat är då bara en enkel följd av det faktum att subgaussiska kartor med m = och (d + log(1/δ)) /ε 2 ) rader är (ε, δ, d)-OSE. Dessutom, för alla kända OSE: s, är de bästa analyserna verkligen via momentmetoden (eller verktyg som matris Chernoff, som själva också innebär moment gränser). Således våra teorem kan tillämpas på en mycket mer allmän klass av skiss matriser än bara subgaussiska skisser i [MZ11, KVZ14], förutom att uppnå bättre gränser. Detta inkluderar snabba subrymdsinbäddningar såsom Subsampled Randomized Hadamard Transform [Sar06, LWM + 07] eller glesa subrymdsinbäddningar [CW13, MM13, NN13, Coh16], eller till och med konstruktioner som kan utvecklas i framtiden, för att visa att rankgränser i sina analyser i tidigare arbete automatiskt kan ersättas med stabil rang. Vår andra karakterisering identifierar vissa deterministiska villkor som om de uppfylls innebär AMM-garantin. Vi visar att dessa villkor är tillräckligt exakta för att ge optimala resultat för subgaussiska kartor och till och med ett deterministiskt Π som trunkerade SVD. Vårt huvudteorem, via anslutningar med spektral felmatris multiplikation visat i tidigare arbete, innebär kvantitativa förbättringar för ungefärlig minsta kvadrat regression och låg rang approximation [Sar06], och innebär snabbare låg rang approximation för populära kärnor i maskininlärning såsom gaussian och Sobolev kärnor. Vårt huvudsakliga resultat har också redan tillämpats för att förbättra dimensionalitetsreduktionsgarantier för k-medelvärden klustring [CEM + 15], och innebär också nya resultat för icke-parametrisk regression när de kombineras med resultat i [YPW15]. Slutligen påpekar vi en mindre men intressant iakttagelse att beviset på "BSS" deterministiska radprovtagningsresultat av [BSS12] kan modifieras för att visa att för alla matriser A, B av stabil rang som mest, kan man uppnå spektral norm garanti för ungefärlig matris multiplikation av A T B med hjälp av en deterministisk provtagningsmatris med O (r/ε 2 ) icke-noll poster som kan hittas i polynom tid. Det ursprungliga resultatet av [BSS12] var för rankning i stället för stabil rankning. Vår observation leder till en starkare version av en huvudteori av [KMST10]. - Vad är det för fel på dig? [email protected].
Nyligen, Cohen et al. REF ytterligare förbättra beroendet av på och ge en gräns för O (r/ på 2 ), varr är den högsta stabila rank.
8,676,679
Optimal approximate matrix product in terms of stable rank
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
3,467
Det senaste arbetet med att ta fram information har visat att snabba interaktiva verktyg kan vara mycket effektiva, men det är svårt att skapa ett användbart system och det finns få allmänt tillgängliga verktyg. I detta dokument presenterar vi IKE, ett nytt extraktionsverktyg som utför snabba, interaktiva bootstraping för att utveckla högkvalitativa extraktionsmönster för riktade relationer. Centralt för IKE är uppfattningen att ett extraktionsmönster kan behandlas som en sökfråga över en corpus. För att genomföra detta använder IKE ett nytt frågespråk som är uttrycksfullt, lätt att förstå och snabbt att utföra - väsentliga krav på ett praktiskt system. Det är också det första interaktiva extraktionsverktyget för att sömlöst integrera symboliska (booleska) och fördelningsbaserade (liknande-baserade) metoder för sökning. En första utvärdering tyder på att relationstabeller kan befolkas betydligt snabbare än genom manuella mönsterförfattare samtidigt som noggrannheten bibehålls, och mer tillförlitligt än helautomatiska verktyg, ett viktigt steg mot praktisk KB-konstruktion. Vi gör IKE offentligt tillgängligt (http://allenai.org/software/interactive-kunskap-extraktion).
Interactive Knowledge Extraction REF ) (IKE) är ett interaktivt bootstrapping verktyg för att samla relationsextraktionsmönster.
37,047
IKE - An Interactive Tool for Knowledge Extraction
{'venue': 'AKBC@NAACL-HLT', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,468
Abstract-In storskaliga distribuerade datorkluster, såsom Amazon EC2, det finns flera typer av "systembuller" som kan resultera i betydande försämring av prestanda: systemfel, flaskhalsar på grund av begränsad kommunikationsbandbredd, latens på grund av straggler noder, och så vidare. Det har nyligen gjorts resultat som visar effekterna av kodning för ett effektivt utnyttjande av beräknings- och lagrings redundans för att lindra effekten av flaskhalsar i stragglers och kommunikation i homogena kluster. I detta dokument fokuserar vi på allmänna heterogena distribuerade datorkluster som består av en mängd olika datormaskiner med olika kapacitet. Vi föreslår en kodningsram för att påskynda distribuerad databehandling i heterogena kluster genom att handla med redundans för att minska beräkningslatensen. I synnerhet föreslår vi heterogen kodad matris multiplikation (HCMM) algoritm för att utföra distribuerad matris multiplikation över heterogena kluster som är bevisligen asymptotiskt optimala för en bred klass av processtidsfördelningar. Dessutom visar vi att HCMM är obundet snabbare än något okodat system som delar upp den totala arbetsbördan bland arbetstagarna. För att visa hur det föreslagna HCMM-systemet kan tillämpas i praktiken, ger vi resultat från numeriska studier och Amazon EC2-experiment som jämför HCMM med tre referenssystem för lastfördelning – enhetliga okodade, lastbalanserade okodade och enhetliga kodade. I våra numeriska studier uppnår HCMM i synnerhet en hastighetsökning på upp till 73 %, 56 % respektive 42 % jämfört med de tre referenssystem som nämndes tidigare. Dessutom utför vi experiment över Amazon EC2 kluster och visar hur HCMM kan kombineras med hastighetslösa koder med nästan linjär avkodning komplexitet. I synnerhet visar vi att HCMM i kombination med Lubytransform-koderna avsevärt kan minska den totala verkställighetstiden. HCMM anses vara upp till 61 %, 46 % respektive 36 % snabbare än de tre ovannämnda referenssystemen. Dessutom ger vi en generalisering av problemet med optimal lastfördelning i heterogena miljöer, där vi tar hänsyn till de monetära kostnaderna i samband med distribuerade datorkluster. Vi hävdar att HCMM är asymptotiskt optimalt även för budgetkonstruerade scenarier. I synnerhet karakteriserar vi minsta möjliga förväntade A. Reisizadeh och R. Pedarsani är med Institutionen för el- och datateknik, University of California i Santa Barbara, Santa Barbara, CA 93106 USA (e-post: [email protected]; [email protected]). S. kostnad i samband med en beräkning uppgift över en given kluster av maskiner. Dessutom utvecklar vi en heuristisk algoritm för (HCMM) belastningstilldelning för distribuerat genomförande av budgetbegränsade beräkningsuppgifter.
Upphovsmän till REF föreslår en kodningsram för att påskynda distribuerade datorer med heterogena kluster i molnet som innehåller strypande servrar.
88,498,993
Coded Computation Over Heterogeneous Clusters
{'venue': 'IEEE Transactions on Information Theory', 'journal': 'IEEE Transactions on Information Theory', 'mag_field_of_study': ['Computer Science']}
3,469