src
stringlengths 100
134k
| tgt
stringlengths 10
2.25k
| paper_id
int64 141
216M
| title
stringlengths 9
254
| discipline
stringlengths 67
582
| __index_level_0__
int64 0
83.3k
|
---|---|---|---|---|---|
Vi anser att problemet med samverkande slutsatser i ett sensornätverk med heterogena och statistiskt beroende sensorobservationer. Varje sensor syftar till att maximera sin slutsats prestanda genom att bilda en koalition med andra sensorer och dela information inom koalitionen. Det bevisas att slutresultatet är en icke-decreasing funktion av koalitionens storlek. Men i ett energibegränsat nätverk ökar energiförbrukningen av intersensorkommunikation också med ökande koalitionsstorlek, vilket avskräcker bildandet av den stora koalitionen (uppsättningen av alla sensorer). I detta dokument undersöks bildandet av icke-överlappande koalitioner med statistiskt beroende sensorer under en specifik kommunikationsbegränsning. Vi tillämpar ett spelteoretiskt tillvägagångssätt för att fullt ut utforska och utnyttja informationen i det rumsliga beroendet bland sensorer för att maximera individuella sensorprestanda. Innan vi formulerar problemet med distribuerad inferens som ett koalitionsformationsspel, kvantifierar vi först vinsten och förlusten i att bilda en koalition genom att introducera begreppen mångfaldsvinst och redundansförlust för både skattnings- och detektionsproblem. Dessa definitioner, som möjliggörs av den statistiska teorin om kopulor, gör det möjligt för oss att karakterisera påverkan av statistiskt beroende bland sensorobservationer på inferensprestanda. En iterativ algoritm baserad på sammanfogning-och-split-operationer föreslås för lösningen och stabiliteten i den föreslagna algoritmen analyseras. Numeriska resultat ges för att visa överlägsenheten i vårt föreslagna spel teoretiska tillvägagångssätt. | Det har visat sig att det finns mångfaldsvinster och förlust av redundans i detektionsproblemet REF och påverkan av det statistiska beroendet har karakteriserats. | 10,766,139 | A Coalitional Game for Distributed Inference in Sensor Networks with Dependent Observations | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 10,280 |
Abstract-Obemannade luftfarkoster (UAV) kan användas som antennbaserade trådlösa basstationer när cellulära nätverk går ner. Tidigare studier av UAV-baserad trådlös täckning tar vanligtvis hänsyn till en Air-to-Ground-bana förlustmodell, som förutsätter att användarna är utomhus och de är belägna på ett 2D-plan. I detta dokument föreslår vi att man använder en enda UAV för att tillhandahålla trådlös täckning för inomhusanvändare inne i en höghusbyggnad under katastrofsituationer (såsom jordbävningar eller översvämningar), när cellulära nätverk är nere. Vi antar att platserna för inomhusanvändare är jämnt fördelade i varje golv och vi föreslår en partikel svärm optimering algoritm för att hitta en effektiv 3D placering av en UAV som minimerar den totala sändningseffekt som krävs för att täcka inomhusanvändare. Index Terms-Obemannade luftfarkoster, utomhus-till-inomhus väg förlust modell, partikel svärm optimering. | I REF föreslås en optimeringsalgoritm för partikelsvärmar för att hitta en effektiv 3D-placering av en UAV som minimerar den totala sändningseffekt som krävs för att täcka inomhusanvändare utan att diskutera avbrottsprestandan och dess beroende av UAV:s höjd. | 24,739,718 | Efficient 3D Placement of a UAV Using Particle Swarm Optimization | {'venue': '2017 8th International Conference on Information and Communication Systems (ICICS)', 'journal': '2017 8th International Conference on Information and Communication Systems (ICICS)', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 10,281 |
Ett stabilt konstruktionsflöde måste fånga upp konstruktioner på väldefinierade abstraktionsnivåer och gå vidare mot ett effektivt genomförande. De kritiska besluten omfattar systemets arkitektur, som kommer att utföra de beräknings- och kommunikationsuppgifter som är förknippade med designens övergripande specifikation. Att förstå applikationsdomänen är viktigt för att säkerställa en effektiv användning av designflödet. Idag saknar designkedjan tillräckligt stöd. De flesta formgivare på systemnivå använder en samling verktyg som inte är kopplade till varandra. Implementeringen fortsätter sedan med informella tekniker som involverar många mänskliga-språksinteraktioner som skapar onödiga och oönskade iterationer bland grupper av designers i olika företag eller olika divisioner. Dessa grupper har föga förståelse för sina respektive kunskapsområden. Utvecklare kan därför inte vara säkra på att dessa verktyg, kopplade genom manuell eller empirisk översättning av mellanformat, kommer att bevara designens semantik. Denna osäkerhet leder ofta till fel som är svåra att identifiera och felsöka. Flytten mot programmerbara plattformar förskjuter designimplementeringsuppgiften mot inbäddad programvarudesign. När inbäddad programvara når den komplexitet som är typisk för dagens design ökar risken dramatiskt för att programvaran inte kommer att fungera korrekt. Denna risk beror främst på bristfälliga designmetoder och ömtåliga programvarusystemarkitekturer, som beror på att funktionaliteten växer över ett befintligt genomförande som kan vara ganska gammalt och odokumenterat. Metropolis-projektet syftar till att utveckla en enhetlig ram som kan hantera dessa utmaningar. Vi designade Metropolis för att tillhandahålla en infrastruktur baserad på en modell med exakt semantik som är tillräckligt allmän för att stödja befintliga beräkningsmodeller 1 och rymma nya. Denna metamodell kan stödja inte bara funktionalitet fånga och analys, men också arkitektur beskrivning och kartläggning av funktionalitet till arkitektoniska element. Metropolis använder ett logiskt språk för att fånga icke-funktionella och förklarande begränsningar. Eftersom modellen har en exakt semantik kan den förutom simulering stödja flera syntes- och formella analysverktyg. Den första designaktiviteten som Metropolis stödjer, kommunikationen av design intention och resultat, fokuserar på samspelet mellan människor som arbetar på olika abstraktionsnivåer och bland människor som arbetar samtidigt på samma abstraktionsnivå. Metamodellen innehåller begränsningar som representerar abstrakta krav som ännu inte implementerats eller antas vara uppfyllda av resten av systemet och dess miljö. Metropolis bygger på en metamodell med formella semantik som utvecklare kan använda för att fånga design, och ger en miljö för komplex design av elektroniska system som stöder simulering, formell analys och syntes. | Metropolis REF är en modellerings- och simuleringsmiljö baserad på plattformsbaserade designparadigm. | 206,446,849 | Metropolis: an integrated electronic system design environment | {'venue': 'IEEE Computer', 'journal': 'IEEE Computer', 'mag_field_of_study': ['Computer Science']} | 10,282 |
För närvarande används trådlösa sensornätverk (WSN) i många tillämpningar, nämligen miljöövervakning, katastrofhantering, industriell automation och medicinsk elektronik. Sensornoder har många begränsningar som låg batteritid, litet minnesutrymme och begränsad datorkapacitet. För att skapa ett trådlöst sensornätverk mer energieffektivt, har svärm intelligens teknik använts för att lösa många optimeringsproblem i WSNs. I många befintliga kluster tekniker en konstgjord bikoloni (ABC) algoritm används för att samla in information från fältet periodiskt. Icke desto mindre, i händelsebaserade applikationer, en myrkolonioptimering (ACO) är en bra lösning för att förbättra nätverkets livslängd. I denna uppsats kombinerar vi både algoritmer (dvs. ABC och ACO) och föreslår en ny hybrid ABCACO algoritm för att lösa en Nondeterministic Polynomial (NP) hårt och ändligt problem av WSNs. ABCACO-algoritm är uppdelad i tre huvuddelar: (i) val av optimalt antal delregioner och ytterligare delregioner, (ii) val av klusterhuvud med ABC-algoritm och (iii) effektiv dataöverföring med hjälp av ACO-algoritm. Vi använder en hierarkisk klusterteknik för dataöverföring; data överförs från medlemsnoder till subklusterhuvudena och sedan från subklusterhuvuden till de valda klusterhuvudena baserat på ett visst tröskelvärde. Klusterhuvuden använder en ACO-algoritm för att upptäcka den bästa rutten för dataöverföring till basstationen (BS). Det föreslagna tillvägagångssättet är mycket användbart vid utformningen av ramen för upptäckt och övervakning av skogsbränder. Simuleringsresultaten visar att ABCACO-algoritmen förbättrar stabilitetsperioden med 60 % och förbättrar även goodputen med 31 % mot LEACH respektive WSNCABC. | I REF kombinerade författarna en artificiell bikoloni (ABC) algoritm och myrkolonioptimering (ACO) för att förbättra energieffektiviteten i ett trådlöst sensornätverk. | 6,390,713 | Hybrid Swarm Intelligence Energy Efficient Clustered Routing Algorithm for Wireless Sensor Networks | {'venue': 'J. Sensors', 'journal': 'J. Sensors', 'mag_field_of_study': ['Engineering', 'Computer Science']} | 10,283 |
Överväga en flera in-multipel utgång (MIMO) interferens kanal där varje sändare och mottagare är utrustade med flera antenner. Ett effektivt tillvägagångssätt för att praktiskt uppnå hög systemgenomströmning är att distribuera linjära transceivrar (eller strålformare) som optimalt kan utnyttja kanalens rumsliga egenskaper. Det senaste arbetet i Cadambe och Jafar (IEEE Trans. - Inf. - Vad är det? Teori, vol. - Nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, inte nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, 8) tyder på att optimala strålformare bör maximera den totala graden av frihet och uppnå störningsjustering i systemet med hög signal-till-brus-förhållande (SNR). I det här dokumentet överväger vi först problemet med störningsjustering utan kanalutbyggnad och bevisar att problemet med att maximera den totala grad av frihet som uppnåtts för en given MIMO-interferenskanal är NP-hård. Dessutom visar vi att även kontrollera achiefability av en given tuple av frihetsgrader för alla mottagare är NP-hård när varje mottagare är utrustad med minst tre antenner. Det är intressant att lägga märke till att samma problem blir polynomtid som går att lösa när varje transmitterande/mottagande nod är utrustad med högst två antenner. Vi föreslår också en distribuerad algoritm för överföring av covariansmatris design som inte kräver DoF tuple förtilldelning, under antagandet att varje mottagare använder en linjär minsta kvadratfel (MMSE) strålformare. Simuleringsresultaten visar att den föreslagna algoritmen överträffar de befintliga algoritmerna för interferensjustering när det gäller systemgenomströmning. Index Terms-Beamformer design, komplexitet, störningsjustering, MIMO interferens kanal. | Även för samma problem, REF bevisar att genomförbarhet kan lösas i polynom tid när varje nod har två antennelement. | 5,822,309 | Linear Transceiver Design for Interference Alignment: Complexity and Computation | {'venue': 'IEEE Transactions on Information Theory', 'journal': 'IEEE Transactions on Information Theory', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 10,284 |
Vissa komplexa problem, såsom bildmärkning och bearbetning av naturligt språk, är mycket utmanande för datorer, där även toppmodern teknik ännu kan ge tillfredsställande noggrannhet. I stället för att enbart förlita oss på att utveckla nya och bättre algoritmer för att hantera sådana uppgifter, vänder vi oss därför till crowdsourcing-lösningen - att anställa mänskligt deltagande - för att avhjälpa bristen på nuvarande teknik. Crowdsourcing är ett bra komplement till många datoruppgifter. Ett komplext arbete kan delas in i datororienterade uppgifter och mänskliga-orienterade uppgifter, som sedan tilldelas maskiner respektive människor. För att utnyttja kraften i crowdsourcing designar och implementerar vi ett Crowdsourcing Data Analytics System, CDAS. CDAS är ett ramverk som är utformat för att stödja spridning av olika crowdsourcing-tillämpningar. Den centrala delen av CDAS är en kvalitetskänslig svarsmodell som vägleder crowdsourcing-motorn att bearbeta och övervaka de mänskliga uppgifterna. I detta dokument introducerar vi principerna för vår kvalitetskänsliga modell. För att tillfredsställa användarens krav på noggrannhet styr modellen crowdsourcing frågemotorn för design och bearbetning av motsvarande crowdsourcing jobb. Det ger en uppskattad noggrannhet för varje genererat resultat baserat på de mänskliga arbetarnas historiska prestationer. Vid kontroll av resultatets kvalitet använder modellen en onlinestrategi för att minska väntetiden. För att visa modellens effektivitet genomför och distribuerar vi två analysjobb på CDAS, ett jobb med twitterkänslor och ett jobb med bildmärkning. Vi använder riktiga Twitter och Flickr data som våra frågor respektive. Vi jämför våra metoder med toppmoderna klassificerings- och bildanmärkningstekniker. Resultaten visar att de mänskliga medhjälpande metoderna verkligen kan uppnå en mycket högre noggrannhet. Genom att inbädda kvalitetskänslig modell i crowdsourcing frågemotor, minskar vi effektivt bearbetningskostnaden samtidigt som den erforderliga frågesvar kvalitet. | Crowdsourcing data analytics system (CDAS) REF är en crowd sourcing ram där deltagarna är en del av en distribuerad crowdsourced system. | 5,678,570 | CDAS: A Crowdsourcing Data Analytics System | {'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']} | 10,285 |
Abstract-A key problem i framträdande objektdetektion är hur man effektivt modellerar de semantiska egenskaperna hos framträdande objekt på ett datadrivet sätt. I detta dokument föreslår vi en multi-task djup Saliency modell baserad på en helt konvolutional neurala nätverk med global input (hela råa bilder) och global utdata (hel Saliency kartor). I princip utgår den föreslagna lönemodellen från en datadriven strategi för kodning av den underliggande informationen om ersättning i förväg, och därefter inrättas ett system för lärande med flera uppgifter för att undersöka de inneboende sambanden mellan detektering av styrka och semantisk bildsegmentering. Genom samverkande funktioner lärande från sådana två korrelerade uppgifter, de delade helt konvolutionella skikten producerar effektiva funktioner för objektuppfattning. Dessutom är den kapabel att fånga den semantiska informationen om framträdande objekt över olika nivåer med hjälp av de helt konvolutionella skikten, som undersöker funktionen-delning egenskaper av framträdande objektdetektion med en stor minskning av funktion redundans. Slutligen presenterar vi en graf Laplacian regularized icke-linjär regression modell för saliency förfining. Experimentella resultat visar hur effektiv vår strategi är i jämförelse med den senaste tekniken. | Zhao m.fl. I REF föreslogs en multi-task saliency detekteringsmetod baserad på djup CNN, som utförde saliency detektering genom att extrahera de semantiska egenskaperna hos objektet. | 99,982 | DeepSaliency: Multi-Task Deep Neural Network Model for Salient Object Detection | {'venue': 'IEEE Transactions on Image Processing', 'journal': 'IEEE Transactions on Image Processing', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 10,286 |
Abstrakt. Vi presenterar en enkel men effektiv metod som kan träna djupa neurala nätverk på storskaliga svagt övervakade webbbilder, som kröp rå från Internet genom att använda textfrågor, utan någon mänsklig notering. Vi utvecklar en principiell inlärningsstrategi genom att utnyttja läroplanslärandet, med målet att hantera en enorm mängd bullriga etiketter och dataobalans på ett effektivt sätt. Vi utformar en ny läroplan genom att mäta komplexiteten i data med hjälp av dess distributionstäthet i ett funktionsutrymme, och ranka komplexiteten på ett oövervakat sätt. Detta möjliggör ett effektivt genomförande av läroplanslärande på storskaliga webbbilder, vilket resulterar i en högpresterande CNN-modell, där den negativa effekten av bullriga etiketter minskas avsevärt. Viktigt, visar vi genom experiment att dessa bilder med mycket bullriga etiketter förvånansvärt kan förbättra generalisering förmåga av modellen, genom att fungera som ett sätt att legalisera. Våra strategier ger toppmoderna resultat på fyra riktmärken: WebVision, ImageNet, Clothing-1M och Food-101. Med en ensemble av flera modeller uppnådde vi en topp-5 felfrekvens på 5,2 % på WebVision-utmaningen [18] för 1000-kategoriklassificering. Detta resultat var den högsta prestandan med en bred marginal, outperforming andra plats med en nästan 50% relativ felfrekvens. Kod och modeller finns på https://github.com/MalongTech/CurriculumNet. | Guo m.fl. REF utvecklade en principiell inlärningsstrategi genom att utnyttja läroplanslärande inom en svagt övervakad ram, med målet att effektivt lära sig av obalanserade data. | 51,920,640 | CurriculumNet: Weakly Supervised Learning from Large-Scale Web Images | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 10,287 |
ABSTRACT Trådlöst distribuerade lagringssystem kan potentiellt minska den centraliserade trafikbelastningen för basstationer (BS) och ytterligare förbättra systemets tillförlitlighet för innehållsdelning i kommunikation mellan enheter (D2D). Mobila enheter [dvs. innehållsförfrågningar (CRs)] kan inte bara ladda ner sitt önskade innehåll från att servera BS, men kan också få dem från angränsande enheter [dvs., innehållshjälpare (CHs)] med innehav av innehållet. D2D-länkar mellan CR och CH är dock inte nödvändigtvis stabila på grund av användarens rörlighet och den tidsvarierande egenskapen hos trådlösa länkar. Detta dokument fokuserar på utnyttjandet av socialt aktiverade D2D-länkar för att leverera önskat innehåll baserat på distribuerad lagring. Vi utvärderar framgången för nedladdning och reparation i D2D-assisterade nätverk därefter, genom att analysera statistik social interaktion information för potentiella D2D-länkar. Därför är det nödvändigt att underhålla eller tilldela tillräckligt kvalificerade D2D-länkar för att råd innehåll nedladdning och reparation från angränsande enheter. För att minska den totala systemöverföringskostnaden föreslår detta dokument ytterligare en hierarkisk bipartitmetod för att garantera åtminstone k tillåtna D2D-länkar enligt deras statistiska kanalstatsinformation, genom att överväga en typ av raderingskorrigeringskoder, den maximala avståndsskiljbara koden. Simuleringsresultat visar prestandan och fördelen med vårt föreslagna system. INDEX TERMS Trådlöst distribuerat lagringsutrymme, D2D-kommunikation, social interaktion, maximal avståndsskiljbar kod. | En hierarkisk bipartitmetod föreslogs i REF för att garantera tillräckliga D2D-länkar för att stödja nedladdning och reparation av innehåll. | 24,671,306 | Wireless Distributed Storage in Socially Enabled D2D Communications | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 10,288 |
Abstract-Robust mänskliga gångigenkänning är utmanande på grund av förekomsten av kovariata faktorer som bär tillstånd, kläder, gångyta, etc. I detta dokument modellerar vi effekten av kovariater som ett okänt partiellt korruptionsproblem. Eftersom platserna för korruption kan skilja sig åt för olika frågeställningar, kan relevanta funktioner bli irrelevanta när gångtillståndet ändras. I detta fall är det svårt att utbilda en fast klassificeringsapparat som är robust för ett stort antal olika kovariater. För att ta itu med detta problem föreslår vi en klassificeringsmetod som bygger på slumpmässig subrymdsnethod (RSM) och majoritetsomröstning (MV). Dess teoretiska grund antyder att det är okänsligt för platser av korrumperade funktioner, och därmed kan generalisera väl till ett stort antal kovariater. Vi utvidgar också denna metod genom att föreslå två strategier, det vill säga lokal förbättring (LE) och hybrida beslutsnivå fusion (HDF) för att undertrycka förhållandet mellan falska röster och verkliga röster (före MV). Prestandan i vår strategi är konkurrenskraftig mot de mest utmanande kovariaterna som kläder, gångyta och förfluten tid. Vi utvärderar vår metod på USF-datauppsättningen och OU-ISIR-B-datauppsättningen, och den har mycket högre prestanda än andra toppmoderna algoritmer. | Guan m.fl. REF tillämpar en klassificeringsmetod för ensemble för att minska kovariaters påverkan på gångigenkänning. | 364,124 | On Reducing the Effect of Covariate Factors in Gait Recognition: A Classifier Ensemble Method | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 10,290 |
Abstract-Källa lokalisering baserad på signalstyrka mätningar har blivit mycket populär på grund av sin praktiska enkelhet. Den allvarliga icke-linjäritet och icke-konvexitet gör dock det relaterade optimeringsproblemet matematiskt svårt att lösa, särskilt när sändningskraften eller banförlustexponenten (PLE) är okänd. Dessutom kommer den konstruerade datamodellen att bli osäker även om PLE är känd men inte helt uppskattad eller om informationen om ankarplatsen inte är korrekt, vilket gör det ännu en gång svårt att lösa problemet. Detta dokument fokuserar särskilt på Differential mottagen signalstyrka (DRSS)-baserad lokalisering med modellosäkerheter vid okänd sändningseffekt och PLE. En ny vit modell för DRSS-baserad lokalisering med okända sändningskrafter presenteras och undersöks först. När vi antar att PLE är känd, introducerar vi två estimatorer baserade på en exakt datamodell, en avancerad bäst linjär objektiv estimator (A-BLUE) och en Lagrangian estimator (LE), och sedan presenterar vi en robust semidefinite programmering (SDP)-baserad estimator (RSDPE), som kan hantera modellosäkerheter (imperfekt PLE och felaktig ankarplatsinformation). De tre föreslagna estimatorerna har sina egna fördelar ur olika perspektiv: A-BLUE har den lägsta komplexiteten; LE har den bästa noggrannheten för ett litet mätbuller; och RSDPE ger den bästa prestandan under ett stort mätbuller och har en mycket god robusthet mot modellosäkerheter. Slutligen föreslår vi en robust SDP-baserad block koordinat nedstigning estimator (RSDP-BCDE) för att hantera en helt okänd PLE och dess prestanda konvergerar till den av RSDPE med hjälp av en perfekt känd PLE. Index Terms-Källa lokalisering, differential mottagen signalstyrka (DRSS), banförlust exponent (PLE), minst kvadrater, Lagrangian multiplikator, semidefinit programmering (SDP), konvex optimering, block koordinat nedstigning. | Yongchang m.fl. Ref-fokus på Differential mottagen signalstyrka (DRSS)-baserad lokalisering med modellosäkerheter vid okänd sändningseffekt och PLE. | 16,862,585 | Robust Differential Received Signal Strength-Based Localization | {'venue': 'IEEE TRANSACTIONS ON SIGNAL PROCESSING, VOL. 65, NO. 12, JUNE 15, 2017', 'journal': None, 'mag_field_of_study': ['Engineering', 'Computer Science', 'Mathematics']} | 10,291 |
Djupa neurala nätverk kräver en stor mängd märkta träningsdata under övervakad inlärning. Det kan dock i många fall vara omöjligt att samla in och märka så mycket data. I detta dokument inför vi ett system för djup överföringsutbildning, som kallas selektiv gemensam finjustering, för att förbättra utförandet av djupinlärningsuppgifter med otillräckliga utbildningsuppgifter. I detta system utförs ett målinlärningsuppgift med otillräckliga utbildningsdata samtidigt med en annan källinlärningsuppgift med rikliga utbildningsdata. Uppgiften källinlärning använder dock inte alla befintliga utbildningsdata. Vår kärnidé är att identifiera och använda en delmängd av utbildningsbilder från den ursprungliga källinlärningsuppgiften vars lågnivåegenskaper liknar dem från målinlärningsuppgiften, och gemensamt finjustera delade konvolutionslager för båda uppgifterna. Vi beräknar specifikt deskriptorer från linjära eller icke-linjära filterbanksvar på utbildningsbilder från båda uppgifterna, och använder sådana deskriptorer för att söka efter en önskad delmängd av utbildningsprover för källinlärningsuppgiften. Experiment visar att vårt system för djupt överförande lärande uppnår toppmoderna resultat på flera visuella klassificeringsuppgifter med otillräckliga utbildningsdata för djupt lärande. Sådana uppgifter inkluderar Caltech 256, MIT Indoor 67 och finkorniga klassificeringsproblem (Oxford Flowers 102 och Stanford Dogs 120). Jämfört med finjustering utan källdomän kan den föreslagna metoden förbättra klassificeringsnoggrannheten med 2–10 % med hjälp av en enda modell. Koder och modeller finns tillgängliga på https://github.com/ZYSzj/ Selektiv-Joint-Fine-tuning. | I Ref föreslås ett källriktat selektivt gemensamt finjusteringssystem som bygger på observationen att lågnivåegenskaper (shallow network features) är likartade mellan käll- och måldomänerna. | 3,698,230 | Borrowing Treasures from the Wealthy: Deep Transfer Learning through Selective Joint Fine-Tuning | {'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 10,292 |
Abstract-På en sekundär spektrummarknad beror nyttan av en sekundär användare ofta på inte bara om den vinner, utan också vilka kanaler den vinner. Kombinatoriska auktioner är en naturlig passform här för att göra det möjligt för sekundära användare att bjuda på kombinationer av kanaler. I detta sammanhang utgör VCG-mekanismen en generisk auktion som på ett unikt sätt garanterar både sannfärdighet och effektivitet. Det finns också relaterad auktionsdesign som slappnar av effektiviteten på grund av upplevda komplexitetsproblem, och fokuserar på sannfärdighet. Vi börjar med nya empiriska bevis på komplexitetsfrågan och föreslår istället att vi utformar kärnvalsauktioner, som löser VCG:s sårbarhet för samverkan och shill-budgivning och förbättrar säljintäkterna. Medan VCG typ av auktioner är unika för att garantera både effektivitet och sannfärdighet, visar vi att våra kärnval auktioner är unika för att garantera både effektivitet och shill-proofness, och alltid överträffa VCG auktioner i termer av säljare intäkter genererade. Med linjär programmering och andra programmeringsmetoder utformar vi två betalningsregler för att minimera anbudsgivarnas incitament att avvika från sanningen. | Zhu m.fl. REF föreslog att man skulle utforma kärnval av auktioner, vilket löser VCG:s sårbarhet för samverkan och shill-budgivning och förbättrar säljarens intäkter. | 15,476,956 | Core-Selecting Secondary Spectrum Auctions | {'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science']} | 10,293 |
Abstrakt. Optisk Burst Switching (OBS) anses allmänt vara tekniken för det framtida stomnätet på Internet. Burst monteringstid vid ingress noden är känd för att påverka trafikegenskaper och förlustfördelning i stomnätet. Vi föreslår en algoritm för att anpassa sprängningstiden baserat på det observerade förlustmönstret i nätverket. Den föreslagna Learning-baserade Burst Assembly (LBA) algoritm använder lärande automata som sonderar förlusten i nätverket periodiskt och ändra monteringstiden vid ingress nod till en gynnsam. Vi använder en diskret uppsättning av värden för sprängningen monteringstid som kan väljas och tilldela en sannolikhet till var och en av dem. Sannolikheten för att välja en monteringstid uppdateras beroende på den förlust som mäts över banan med hjälp av ett linjärt belöning-Penalty (LR-P ) schema. Konvergensen av dessa sannolikheter leder så småningom till valet av en optimal sprängning monteringstid som minimerar sannolikheten för sprängning förlust (BLP) för varje given trafik mönster. Vi presenterar simuleringsresultat för olika typer av trafik och två nättopologier för att visa att LBA uppnår lägre BLP jämfört med de fasta och adaptiva sprängningsmekanismer som finns i litteraturen. | Å andra sidan föreslog Learning-based Burst Assembly (LBA) REF en algoritm för att anpassa sprängningstiden baserat på det observerade förlustmönstret i nätverket. | 2,571,585 | A novel burst assembly algorithm for optical burst switched networks based on learning automata | {'venue': 'ONDM', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 10,294 |
Vi presenterar en enhetlig, oövervakad statistisk modell för textnormalisering. Förhållandet mellan standard och icke-standard tokens kännetecknas av en log-lineär modell, tillåter godtyckliga funktioner. Vikterna av dessa funktioner tränas i ett maxlikelihood-ramverk, med hjälp av en ny sekventiell Monte Carlo träningsalgoritm för att övervinna det stora etikettutrymmet, vilket skulle vara opraktiskt för traditionella dynamiska programmeringslösningar. Denna modell implementeras i ett normaliseringssystem kallat UNLOL, som uppnår de mest kända resultaten på två normaliseringsdatauppsättningar, som presterar mer komplexa system. Vi använder utdata från UNLOL för att automatiskt normalisera en stor corpus av sociala medier text, avslöjar en uppsättning sammanhängande ortografiska stilar som ligger till grund för språkvariation online. | REF presenterade en enhetlig, oövervakad statistisk modell, där förhållandet mellan standardord och icke-standardord kännetecknas av en log-lineär modell, som tillåter användning av godtyckliga funktioner. | 13,890,994 | A Log-Linear Model for Unsupervised Text Normalization | {'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 10,295 |
Analys av kaskadavbrott i kraftsystem är viktigt för att förstå varför stora strömavbrott uppstår och hur man kan förhindra dem. Cascading avbrott är komplexa dynamik av kraftsystem, och en orsak till dem är samspelet mellan svängdynamik synkrona maskiner och skydd drift av reläer och brytare. Detta papper använder hybrid dynamiska system som en matematisk modell för kaskad avbrott som orsakas av interaktionen. Hybrida dynamiska system kan kombinera familjer av flöden som beskriver svängdynamik med regler för byte som bygger på skyddsdrift. Detta dokument hänvisar till uppgifter om ett avbrott i strömavbrottet i september 2003 i Italien och visar ett hybriddynamiskt system genom vilket spridning av avbrott som reproducerats överensstämmer med uppgifterna. Detta resultat tyder på att hybrida dynamiska system kan ge en effektiv modell för analys av avbrott i effektsystem. Nyckelord: kraftsystem, kaskadavbrott, modellering, hybriddynamiskt system | I REF, Susuki et al. använda ett hybriddynamiskt system för modellering och analys av det kaskadfel som ledde till strömavbrottet 2003 i Italien. | 2,832,237 | Hybrid Model for Cascading Outage in a Power System: A Numerical Study | {'venue': 'IEICE Transactions', 'journal': 'IEICE Transactions', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 10,296 |
Vi introducerar koncentrerad differential integritet, en avkoppling av differential integritet åtnjuter bättre noggrannhet än både ren differential integritet och dess populära "(ε, δ)" avkoppling utan att kompromissa på kumulativ integritet förlust över flera beräkningar. I den grundläggande lagen om informationsåtervinning anges informellt att "mycket korrekta" uppskattningar av "för många" statistik helt förstör integriteten ([DN03] et sequelae). Differentiell integritet är en matematiskt strikt definition av integritet skräddarsydd för analys av stora datamängder och utrustad med ett formellt mått på integritet förlust [DMNS06, Dwo06]. Dessutom tar olika privata algoritmer som indata en parameter, vanligtvis kallad ε, som täcker den tillåtna integritetsförlusten i varje utförande av algoritmen och erbjuder en konkret integritet / användbarhet kompromiss. En av de starka sidorna av differential integritet är förmågan att resonera om kumulativ integritet förlust över flera analyser, med tanke på de värden för ε som används i varje enskild analys. Genom lämpligt val av ε är det möjligt att hålla sig inom ramen för grundlagen samtidigt släppa ett visst antal uppskattad statistik, men innan detta arbete var gränserna inte snäva. Ungefär, differential integritet säkerställer att resultatet av en analys på en databas x distribueras mycket på samma sätt som resultatet på varje angränsande databas y som skiljer sig från x i bara en rad (Definition 2.3). Det vill säga, differentialt privata algoritmer är randomiserade, och i synnerhet den maximala skillnaden mellan dessa två fördelningar (en sort maximal log odds ratio för alla händelser, se definition 2.2 nedan) begränsas av sekretessparametern ε. Denna absoluta garanti på maximal integritet förlust kallas nu ibland "ren" differential integritet. En populär avkoppling, (ε, ε)-differentiell integritet (Definition 2.4) [DKM + 06], garanterar att med sannolikhet högst 1 − δ integritetsförlusten inte överstiger ε. 1 Vanligtvis δ anses vara "kryptografiskt" liten, det vill säga mindre än inversen av någon polynom i storleken på datasetet, och ren differential integritet är helt enkelt det speciella fall där δ = 0. Avkopplingen tillåter ofta asymptotiskt bättre noggrannhet än ren differential integritet för samma värde av ε, även när δ är mycket liten. Vad händer i fallet med flera analyser? Även om sammansättningen av k (ε, 0)-differentiellt integritetsalgoritmer är som värst (kε, 0)-differentiellt privat, är den också samtidigt ( 2k ln(1/ε)ε+ kε(e ε − 1), δ)-differentiellt privat för varje δ [DRV10]. Låt oss dekonstruera uttalandet om detta resultat. För det första är integritetsförlust en slumpmässig variabel som fångar upp skillnader i sannolikhetsfördelningar som erhålls när en randomiserad algoritm M körs på x i motsats till angränsande databas y (se avsnitt 2.1). I allmänhet, om den maximala skillnaden mellan två fördelningar begränsas av ε 1 Observera att sannolikheten är över mynten i den algoritm som utför analysen. Ovanstående formulering är inte omedelbar från definitionen av (ε, ε)-differentiell integritet, detta bevisades i den fullständiga versionen av [DRV10]. 1 sedan deras KL-divergens (Definition 2.1) begränsas av ε(e ε − 1). Detta innebär att den förväntade integritetsförlusten för en enskild (ε, 0)-differentierad privat beräkning begränsas av ε(e ε − 1). Genom linjäritet i förväntan begränsas den förväntade förlusten över k (ε, 0)-differentiellt privata algoritmer av kε(e ε − 1). Påståendet säger därför att den kumulativa integritetsförlusten slumpmässiga variabeln över k beräkningar är starkt koncentrerad om dess medelvärde: sannolikheten för integritetsförlust som överstiger dess förväntningar genom t ε kε faller exponentiellt i t 2 /2 för alla t ≥ 0. Vi kommer att återkomma till denna formulering för närvarande. Mer allmänt visar vi följande avancerade sammansättning teorem, som förbättrar sammansättningen teorem av Dwork, Rothblum, och Vadhan [DRV10] genom att exakt halvera gränsen för förväntad integritet förlust av (ε, 0)-differentiellt integritetsmekanismer (beviset är annars identisk). Närmare uppgifter om den skarpare gränsen finns i avsnitt 3.2. Teorin 1.1. För alla ε, ε, ε′ ≥ 0, uppfyller klassen (ε, ε′)-differentiellt privata mekanismer (2k ln(1/δ)ε + kε(e ε − 1)/2, kδ ′ + δ)-differentiell integritet under k-faldig adaptiv sammansättning. Som theorem visar (återkalla att δ ′ vanligtvis anses vara "sub-polynomiellt liten"), de rena och avslappnade former av differential integritet beter sig ganska på samma sätt under sammansättning. För den mycket viktiga klassen att räkna frågor ("Hur många människor i datauppsättningen uppfyller egenskapen P?") Teorem 1.1 leder till noggrannhetsgränser som skiljer sig från de gränser som införs av (en omedelbar ändring av) grundlagen av en faktor på ungefär 2 log(1/δ). 2 Nyligen, snäva gränser för sammansättningen av (ε, δ)-differentiellt privata algoritmer har getts i [KOV15, MV16] (se nedan). En ny avkoppling. I detta arbete introducerar vi en annan avkoppling, Koncentrerad differentiell integritet (CDP), ojämförlig med (ε, δ)-differentiell integritet men återigen har samma beteende under sammansättning. Koncentrerad differential integritet är närmare "varje δ" egenskap i uttalandet av Theorem 1.1: En algoritm erbjuder (μ, τ)-koncentrerad differential integritet om integritetsförlust slumpmässiga variabeln har medel μ och om, efter att ha subtraherat av detta medelvärde, den resulterande (centrerad) slumpmässig variabeln är subgaussian med standard τ. 3 Till följd av detta (se t.ex., [BK00] Lemma 1.3), x > 0: Således säkerställer koncentrerad differential integritet att den förväntade integritetsförlusten är μ och sannolikheten för förlust som överstiger dess medelvärde med x = tτ begränsas av e −t 2/2, ekar formen av den garanti som erbjuds av Advanced Composition Theorem (Theorem 1.1). Tänk på i vilket fall τ = ε. Å ena sidan är (μ, ε)-koncentrerad differentiell integritet klart svagare än (ε, ε)-differentiell integritet, eftersom även om den förväntade förlusten μ är mycket liten, sannolikheten för integritetsförlust som överstiger ε i den förra kan vara konstant i den förra men är bara δ, som är liten, i den senare. Å andra sidan, i (ε, ε)-differentiell integritet finns det ingen bunden på den förväntade integritetsförlusten, eftersom med sannolikhet alla satsningar är avstängda och förlusten kan vara oändlig. Koncentrerad differentiell integritet har två fördelar jämfört med (ε, ε)-differentiell integritet. • Förbättrad noggrannhet. Koncentrerad differential integritet är skräddarsydd för (realistiska!) fallet med ett stort antal beräkningar. Traditionellt sett, för att säkerställa liten kumulativ förlust med hög sannolikhet, är den tillåtna förlusten för varje enskild fråga satt mycket låg, säger ε ′ = ε (log 1/δ) / k, även om en integritetsförlust av, låt oss säga, ε/10 eller ens ε sig själv kanske inte är av stor betydelse för någon enskild fråga. Detta är just den flexibilitet som vi ger i den koncentrerade differentiella integriteten: mycket mindre oro för förlust av en enda fordran, men med stor sannolikhet gräns för kumulativ förlust. Sammansättningen av k (μ, τ )-koncentrerade differential integritetsmekanismer är (kμ, ε kτ )-koncentrerad differential integritet (Theorem 3.4). Ställa in τ = ε får vi en förväntad integritetsförlust av kμ och, för alla t samtidigt, sannolikheten för integritetsförlust som överstiger dess espektation av t ε kε faller exponentiellt i t 2 / 2, precis som vi fick i sammansättningen för de andra varianterna av differential integritet i Theorem 1.1 ovan. Men vi får bättre exakthet. Till exempel, för att hantera n räkna frågor med hjälp av Gaussian mekanismen, kan vi lägga till oberoende slumpmässigt buller från N (0, n/ε 2 ) till varje fråga, uppnå (ε(e ε − 1)/2, ε)-koncentrerad differential integritet (Theorem 3.2) 4. När ε = och 1) buller skalas till O ( ε n); enligt grundlagen är buller o ( ε n) katastrofalt. • Gruppintegritetsgruppens integritet begränsar integritetsförlusten även för ett par databaser som skiljer sig åt i data från en liten grupp av individer; till exempel kan man i en hälsoundersökning inte bara vilja veta att ens egen hälsoinformation förblir privat utan också att informationen om ens familj som helhet är starkt skyddad. Varje (ε, 0)-differentiellt privat algoritm säkerställer automatiskt (sε, 0)-differentiell integritet för alla grupper av storlek s [DMNS06], med den förväntade integritetsförlusten växer med en faktor på omkring s 2. Situationen för (ε, ε)-differentiell integritet är inte riktigt så elegant: litteraturen visar (sε, se-1 δ)-differentiell integritet för grupper av storlek s, en oroande exponentiell ökning av sannolikheten för misslyckande (se-1 δ term). Situationen för koncentrerad differential integritet är mycket bättre: för alla kända naturliga mekanismer med koncentrerad differential integritet får vi snäva gränser. För (hypotetiska) godtyckliga algoritmer som erbjuder subgaussian integritet förlust, visar Theorem 4.1 gränser som är asymptotiskt nästan-tät (tät upp till låg-order termer). Vi misstänker att de snäva gränserna bör hålla för godtyckliga mekanismer, och det skulle vara intressant att överbrygga klyftan. 1. Vad är det för fel på dig? Under vissa villkor, nöjda med alla rena differential integritetsmekanismer 5, och tillägg av Gaussian buller, alla (μ, τ )-koncentrerad differential integritet mekanism uppfyller (s 2 ·μ, s·τ )-koncentrerad differential integritet för grupper av storlek s, vilket är optimalt. 2. Utgångspunkten är följande: Varje ( (1))-koncentrerad differential integritet för grupper av storlek s. Den bundna håller så länge s · τ är tillräckligt liten (ungefär, (1/τ ) bör förbli kvasi-linjär i s). Se Theorem 4.1 för det formella uttalandet. Vi antar också här att μ ≤ τ 2 2. 6 Anmärkning 1.2. Överväga varje mekanism som byggs genom att komponera en samling av "goda" mekanismer som var och en uppfyller villkoren i punkt 1 ovan. För att bevisa att den sammansatta mekanismen har de bra gruppintegritetsgränserna kan vi först tillämpa gruppintegritetsgränserna för de underliggande "bra" mekanismerna, och sedan tillämpa sammansättningen. Det är intressant att dessa två operationer pendlar. 4 För att uppnå (ε, ε)-differentiell integritet lägger man till buller från N (0, 2 ln(1/δ)), vilket ökar den typiska snedvridningen med en faktor av ln(1/δ). 5 Varje (ε, 0)-differentiellt privat mekanism avkastning (ε(e ε −1)/2, ε)-koncentrerad differentiell integritet (Theorem 3.5). 6 Upp till låg-order villkor, denna relation innehar för alla mekanismer vi känner. För andra mekanismer är det möjligt att härleda en mindre elegant allmän bundet, eller τ kan "artificiellt uppblåst" tills detta villkor håller. Täta gränser på förväntade förluster. Som nämnts ovan förbättrar vi med en faktor av två den kända övre gränsen för förväntad integritetsförlust av någon (ε, 0)-differentiellt privat mekanism, vilket avslutar ett gap som öppnats sedan 2010 [DRV10]. Detta översätts omedelbart till en förbättring med en faktor på 2 på nytta / privacy kompromiss i någon tillämpning av Advanced Composition Theorem. Den nya gränsen, som är tight, erhålls genom att först bevisa resultatet för speciella par av probablit fördelningar som vi kallar antipodal (privacy förlust för alla resultat är i {−ε, 0, ε}), och sedan visar en minskning, där ett godtyckligt par distributioner med maximal divergens begränsas av ε -såsom fördelningen på resultaten av en differentialt privat mekanism när körs på databaser x och y skiljer sig i en enda rad - kan "ersätts" av en antipodal par utan ändring i max divergens och ingen minskning i KL-divergens. Anmärkning 1.3. Om alla (ε, 0)-differentiellt privata algoritmer åtnjuter koncentrerad differential integritet, liksom Gaussian-mekanismen, vilka (ε, ε)-differentiellt privata algoritmer utesluts? Alla (ε, ε)-differentiellt privata algoritmer där det finns en viss sannolikhet δ ′ ≤ δ för oändlig integritet förlust. Detta inkluderar många (men inte alla!) algoritmer i ramverket "Propose-Test-Release" [DL09], där ett differentialt privat test först utförs för att kontrollera att datauppsättningen uppfyller vissa "säkerhetsvillkor" och i så fall utförs en operation som endast garanterar integritet om villkoren är uppfyllda. Det kan finnas en liten sannolikhet för misslyckande i det första steget, vilket innebär att testrapporterna om att säkerhetsvillkoren är uppfyllda, men i själva verket inte, i vilket fall integritet kan äventyras i det andra steget. Hårdhet. Optimalitet i integritetsförlust är en överskuggande subtil och svår fråga under sammansättning. Resultat av Kairouz, Oh och Viswanath [KOV15] få snäva gränser under sammansättningen av godtyckliga (en, en)-mekaniker, när alla mekanismer delar samma värden av till och en. Det är, de finner den optimala till ′, δ ′ sådan att sammansättningen av k mekanismer, som var och en är ( till 0, δ 0 )-differentiellt privat, är ( till ′, δ ′ )-differentiellt privat. Det icke-homogena fallet, där ith-mekanismen är i, i )-differentiellt privat, har analyserats av Murtagh och Vadhan [MV16], där det visas att bestämma gränserna för den optimala sammansättningen är svårt för #P. Båda dessa papper använder en analys liknande den som finns i vår Lemma 3.8, som vi fick innan publiceringen av dessa verk. Optimala gränser för sammansättningen av godtyckliga mekanismer är mycket intressanta, men vi är också intresserade av gränser för de specifika mekanismer som vi har i handen och vill använda och analysera. I detta syfte får vi en fullständig karakterisering av integritetsförlusten av Gaussian mekanismen. Vi visar att integritet förlust av sammansättningen av flera tillämpning av Gaussian mekanismen, eventuellt med olika individuella parametrar, är sig en Gaussian slumpmässig variabel, och vi ger exakta gränser för dess medelvärde och varians. Denna karakterisering är inte möjlig med hjälp av ramen för (en, en)-differentiell integritet, den tidigare rådande synen på den Gaussiska mekanismen. Efterföljande arbete. Motiverad av vårt arbete, Bun och Steinke [BS15] föreslår en avslappning av koncentrerad differential integritet. Istället för att sätta in integritetsförlusten som en subgaussisk slumpmässig variabel som vi gör här, de istället rama in frågan i termer av Renyi entropy, få en avslappning av koncentrerad differential integritet som också stöder en liknande komposition teorem. Deras begrepp ger också integritetsgarantier för grupper. Gränserna vi får med hjälp av koncentrerad 4 differential integritet (Theorem 4.1) är hårdare; vi vet inte om detta är inneboende i definitionerna. Avvikelse. Vi kommer att behöva flera olika begrepp om skillnader mellan distributionerna. Vi kommer också att införa ett nytt begrepp, subgaussisk skillnad i avsnitt 3. Definition 2.1 (KL-divergens). KL-divergensen, eller relativ entropi, mellan två slumpmässiga variablerna Y och Z definieras som: där om stödet för Y inte är lika med stödet för Z, då D KL (Y för Z) inte definieras. Definition 2.2 (största avvikelse). Max Divergensen mellan två slumpvariabler Y och Z definieras som: där om stödet för Y inte är lika med stödet för Z, då D ∞ (Y och Z) inte definieras. Den ungefärliga skillnaden mellan Y och Z definieras som: För en given databas d, en (randomized) icke-interaktiv databasåtkomstmekanism M beräknar en utgång M (x) som senare kan användas för att rekonstruera information om d. Vi kommer att ägna oss åt mekanismer M som är privata enligt olika sekretessbegrepp som beskrivs nedan. Vi tänker på en databas x som en multiuppsättning av rader, var och en från ett datauniversum U. Intuitivt innehåller varje rad uppgifter om en enskild individ. Vi kommer ofta att visa en databas av storlek n som en tuple x på U n för några n på N (antalet individer vars data finns i databasen). Vi behandlar n som offentlig information hela tiden. Vi säger databaser x, y är intilliggande om de bara skiljer sig i en rad, vilket innebär att vi kan få en från den andra genom att ta bort en rad och lägga till en annan. Det vill säga. databaser är intilliggande om de är av samma storlek och deras redigeringsavstånd är 1. För att hantera värsta fall par av databaser, våra sannolikheter kommer att vara över de slumpmässiga val som görs av integritetsmekanismen. där sannolikheterna är över algoritm M mynt. Eller alternativt: En randomiserad algoritm M ger (ε, δ)-differentiell integritet om för alla par av angränsande databaser x och y och alla S på Range(M) där sannolikheterna är över myntflips av algoritmen M. Eller alternativt: Privacy Loss som en slumpmässig variabel. Överväg att köra en algoritm M på ett par databaser x, y. För ett resultat o är integritetsförlusten på o den log-ratio av dess sannolikhet när M körs på varje databas: Koncentrerad differential integritet delar mer djupt in i integritetsförlusten slumpmässig variabel: denna real-värderade slumpmässig variabel mäter integritetsförlusten som följer när algoritm M körs på x (i motsats till y). Det provtas genom att ta y på M (x) och ta ut L (o) (M (x) och M (y). Denna slumpmässiga variabel kan ta positiva eller negativa värden. För (ε, 0)-differentiellt privata algoritmer begränsas dess storlek alltid av ε. För (ε, ε)-differentiellt privata algoritmer, med all sannolikhet är magnituden begränsad av ε. Subgaussiska slumpmässiga variabler infördes av Kahane [Kah60]. En subgaussisk slumpmässig variabel är en för vilken det finns ett positivt reellt tal τ > 0 s.t. momentgeneratorfunktionen är alltid mindre än momentgeneratorfunktionen hos en Gaussian med standardavvikelsen τ och förväntan 0. I detta avsnitt går vi kort igenom definitionen och grundläggande lemmata ur litteraturen. Vi säger att X är subgaussian om det finns τ ≥ 0 s.t. X är τ - subgaussian. För en subgaussisk slumpmässig variabel X är den subgaussiska standarden X: Anmärkningar. En omedelbar konsekvens av definition 2.5 är att en τ - subgaussisk slumpmässig variabel har förväntningar 0, och variansen begränsas av τ 2 (se fakta 2.1). Observera också att den gaussianska fördelningen med förväntan 0 och standardavvikelsen σ är σ-subgaussian. Det finns också kända gränser för de högre ögonblicken av subgaussiska slumpmässiga variabler (se fakta 2.2). Se [BK00] och [Riv12] för vidare diskussion. Lemma 2.1 (subgaussisk koncentration). Om X är τ - subgaussian för τ > 0, då: Bevis. För varje λ > 0 och t > 0: där den första jämlikheten uppnås genom att en exponentiell av alla argument, den andra (i)jämlikhet är av Markov, och detta är genom egenskaperna hos subgaussiska slumpmässiga variabeln X. Höger sida minimeras när λ = t/τ, och därmed får vi det: Beviset att Pr[X ≤ −t · τ ] ≤ e −t 2 /2 är liknande. För alla τ - subgaussian random variabel Y, och heltal k, k-th ögonblick begränsas av: Lemma 2.2 (summan av subgaussians). Låt X 1,. ., X k vara (gemensamt fördelade) real-värderade slumpvariabler sådan att för varje i K, och för varje (x 1,. .., x i-1) Supp(X 1,........................................................................................... .., X k-1 ), det håller att den slumpmässiga variabeln ( Bevis. Beviset är genom induktion över k. Basfallet k = 1 är omedelbart. För k > 1, för alla λ på R, har vi: där den sista ojämlikheten är genom induktionshypotesen. Följande tekniska Lemma om produkter av (gemensamt fördelade) slumpvariabler, av vilka en är exponentiell i en subgaussian, kommer att användas i stor utsträckning för att bevisa gruppintegritet: 7 Lemma 2.3 (Förväntad produkt med Exponential i Subgaussian). Låt X och Y fördelas gemensamt slumpvariabler, där Y är τ - Subgaussian för τ ≤ 1/3. Sedan: Bevis. Tar Taylor expansion av e Y vi har: Av Cauchy-Schwartz ojämlikhet: där den sista ojämlikheten använder det faktum att för en τ -subgaussian RV Y, Var (Y ) ≤ τ 2 (Fact 2.1), och att för att binda den sista summan i Ojämlikhet 2, vi använder linjäritet av förväntan och Cauchy-Schwartz: Använda det faktum att för alla τ -subgaussian distribution Y, det 2k-et moment E [Y 2k ] begränsas av 2), Vi drar slutsatsen från det ovan att för τ < 1: Att sätta ihop ojämlikheter (2) (3), (4), drar vi slutsatsen att för τ ≤ 1/2: där nästa till sista ojämlikhet innehar när τ ≤ 1/3, och den sista ojämlikheten beror på 3 Koncentrerad Olika sekretess: Definition och egenskaper Om stöden för Y och Z inte är lika, då integritetsförlust slumpmässiga variabeln inte definieras. Vi studerar integritetsförlusten slumpmässig variabel, med fokus på fallet där denna slumpmässiga variabel är tätt koncentrerad kring sin förväntan. I synnerhet kommer vi att vara intresserade av det fall där integritetsförlusten (förändrad av dess förväntningar) är subgaussian. ) definieras och subgaussian, och dess subgaussian parameter är som mest τ. Om vi har både D subG (Y på Z) (μ, τ ) och D subG (Z på Y ) (μ, τ ), då säger vi att paret slumpmässiga variabler X och Y är (μ, τ )-subgaussian-oskiljbara. Bevis. Följer av definition 3.3 och koncentrationsegenskaperna hos subgaussiska slumpvariabler (Lemma 2.1). Guassian Mechanism återuppväcktes. Vi ser över Gaussian buller mekanism [DMNS06], vilket ger en snäv karakterisering av integritet förlust slumpmässig variabel. Därefter Gaussian mekanism med brus magnitud σ är (τ 2 /2, τ )-CDP, där τ = och (f )/σ. Senare kommer vi att bevisa (Theorem 3.5) att varje ren differentierad privat mekanism också åtnjuter koncentrerad differentiell integritet. Den Gaussiska mekanismen är annorlunda, eftersom den endast garanterar (ε, ε)-differentierad integritet för δ > 0. av Theorem 3.2. Låt M vara Gaussian mekanism med buller magnitud σ. Låt d, d ′ vara angränsande databaser, och anta w.l.o.g att f (d) = f (d ′ ) + tillf. Vi undersöker integritetsförlust slumpmässiga variabel som erhållits genom att dra en brus magnitud x på N (0, σ 2 ) och utdata: Eftersom x på N (0, σ 2 ), drar vi slutsatsen att fördelningen av integritetsförlust slumpmässiga variabeln L (U och V ) är också Gaussian, med förväntan 2 / 2, och standardavvikelsen. Att ta τ = skaf /σ, Som noterats i inledningen, är det en följd av Theorem 3.2 att vi kan uppnå (ε(e ε − 1)/2, ε)-koncentrerad differentiell integritet genom att lägga till oberoende slumpmässiga buller dras från N (0, n/ε 2 ) till varje fråga. Om vi ytterligare koppla av till (ε, ε)-cdp, kan vi lägga till ännu mindre buller, magnitud ( 1/ε). Detta skulle vara meningsfullt i miljöer där vi förväntar oss ytterligare sammansättning, och så att vi kan fokusera på den förväntade integritetsförlusten (begränsa den med ε) och tillåta mer slapphet i standardavvikelsen. För små ε ger detta ytterligare en storleksordningsförbättring av den snedvridning som införts för att skydda privatlivet. Slutligen observerar vi att gränserna för grupp koncentrerad differential integritet Gaussian mekanismen följer omedelbart från Theorem 3.2, notera att för en grupp av storlek s gruppen känslighet för en funktion f är som mest s · f. Samband 3.3 (grupp CDP för Gaussian Mechanism). Den Gaussiska mekanismen med buller magnitud σ uppfyller ((s)f /σ) 2 /2, s tillf )-koncentrerad differential integritet. Koncentrerad differential integritet komponerar "samt" standard differential integritet. En av CDP:s främsta fördelar är att det möjliggör större noggrannhet och mindre buller, vilket i huvudsak inte innebär någon förlust av privatlivet under sammansättningen. I detta avsnitt bevisar vi dessa kompositionsegenskaper. Vi följer formaliseringen i [DRV10] i modellering sammansättning. Sammansättning omfattar både upprepad användning av (olika) CDP-algoritmer på samma databas, vilket möjliggör moduluppbyggnad av CDP-algoritmer, och upprepad användning av (olika) CDP-algoritmer på olika databaser som kan innehålla information om samma individ. I båda dessa scenarier kan förbättrad noggrannhet hos CDP algoritmer ge större nytta för samma "privacy budget". Sammansättning av k CDP mekanismer (över samma databas, eller olika databaser) formaliseras av en sekvens av par slumpmässiga variabler (U, V ) = ((U (1), V (1) ),. .., (U (k), V (k) ) ). De slumpmässiga variablerna är resultaten av kontradiktoriskt och adaptivt valda CDP mekanismer M 1,. .., M k. I U-sekvensen (verklighet) provtas den slumpmässiga variabeln U (i) genom att köra mekanismen M i på en databas (enligt motståndarens val) som innehåller en individs, säger Bobs, data. I V-sekvensen (alternativ verklighet) provtas den slumpmässiga variabeln V (i) med hjälp av körmekanism M i på samma databas, men där Bobs data ersätts med (motsvarariskt valda) data som tillhör en annan individ, Alice. Kravet är att även för adaptivt och kontradiktoriskt valda mekanismer och databas-par, resultatet av U (Bob-reality) och V (Alice-reality) är "mycket nära", och i synnerhet integritetsförlusten L (U och V ) är subgaussian. I mer detalj, och följande [DRV10], definierar vi ett spel där en återförsäljare vänder ett rättvist mynt att välja mellan symboler U och V, och en motståndare adaptivt väljer en sekvens av par av intilliggande databaser (x U i, x V i ) och en mekanism M i njuta (μ i, τ i )-CDP och som kommer att fungera på antingen vänster element (om dealern valde U ) eller rätt element (om dealern valde V ) av paret, och returnera utdata, för 1 ≤ i ≤ k. Motståndarens val är helt adaptiva och därför kan bero inte bara på godtycklig extern kunskap men också på vad som har observerats i steg 1,.., i − 1. Målet för motståndaren är att maximera integritetsförlusten. Det är inramat som ett spel eftersom stor integritet förlust är förknippad med en ökad förmåga att avgöra vilken av (U, V ) valdes av dealern, och vi föreställer oss att detta är motivation av motståndaren. Teorem 3.4 (Sammanställning av CDP). För varje heltal k på N, varje μ 1,. .., μ k, τ 1........................................................... .., τ k ≥ 0, och konstruerad som i det spel som beskrivs ovan, Vi har att Betrakta de slumpmässiga variabler U och V definieras ovan, och integritet förlust slumpmässig variabel L (U på V ). Denna slumpmässiga variabel erhålls genom att plocka y på U och mata ut ln Mekanismen och datauppsättningar som valts av motståndaren i steg jag beror på motståndarens syn på den tiden. Motståndarens uppfattning omfattar dess slumpmässighet och de resultat som den hittills har observerat. Låta R U och R V betecknar slumpmässigheten i U -världen respektive V - världen, vi har, för alla y = (y 1,. .., y k ) Supp (U) och slumpmässiga sträng r c i (r, y 1,. ......................................................... Nu för varje prefix (r, y 1,. .., y i-1) vi villkor på R U = r, U 1 = y 1,. .., U i‐1 = y i‐1, och analysera den slumpmässiga variabeln c i (R U, U 1,. .., U i ) = c i (r, y 1,. ..,...................................................... När prefixet är fast, nästa par av databaser x U i och x V i och mekanismen M i utdata av advesary bestäms också. Således är U i distribueras enligt M i (x U i ) och för alla värde y i, Vi har är (μ i, τ i ) subgaussian. Genom subgaussiska egenskaper hos de slumpmässiga variablerna C i = c i (r, U (1),. .., U (i) ), har vi att L (U) (U) = i) [k] C i, d.v.s. Den slumpmässiga integritetsförlustvariabeln motsvarar summan av C i:s slumpmässiga variabler. Genom linjäritet i förväntningarna drar vi slutsatsen att: och genom Lemma 2.2 har vi den slumpmässiga variabeln: I detta avsnitt utforskar vi relationen mellan differentiell integritet och koncentrerad differential. Vi visar att alla differentialt privata algoritmer också är koncentrerade differentialt privat. Vårt huvudsakliga bidrag här är en förfinad övre gräns på den förväntade integritetsförlusten av differentialt privata algoritmer: vi visar att om M är ε-DP, då dess förväntade integritetsförlust är endast (i stort sett) ε 2 /2 (för liten nog ε). Vi visar också att integritetsförlusten slumpmässiga variabeln för någon ε-DP algoritm är subgaussian, med parameter τ = O(ε): Theorem 3.5 (DP på CDP). Låt M vara någon ε-DP algoritm. Därefter är M (ε · (e ε − 1)/2, ε)-CDP. Bevis. Eftersom M är (ε, 0)-differentiellt privat, vet vi att integritetsförlust slumpmässig variabel alltid begränsas i magnitud av ε. Den slumpmässiga variabeln som erhålls genom att subtrahera den förväntade integritetsförlusten, kalla den μ, har därför ett medelvärde på noll och ligger i intervallet [−ε − μ, ε − μ]. Det framgår av Hoeffdings Lemma att en sådan avgränsad, centrerad, slumpmässig variabel är (ε − μ − (−ε − μ))/2 = ε-subgaussian. Lemma 3.6 (Hoeffdings Lemma). Låt X vara en noll-medel slumpmässig variabel sådan att Den största utmaningen är därför att begränsa förväntan, nämligen kvantiteten D KL (D-D ′ ), där D är fördelningen av M(x) och D ′ är fördelningen av M(y), och x, y är angränsande databaser. I [DRV10] visades det att: Vi förbättrar denna gräns, erhålla följande förfining: Beviset för Theorem 3.5 följer från Lemma 3.8. För att bevisa Lemma 3.8 introducerar vi begreppet antipodal distribution: Vi använder sedan följande två lemmas om maximalt divergerande distributioner (de bevis som följer nedan) för att bevisa Lemma 3.8: Bevis på Lemma 3.9. Låta ε = påse (D, D ′ ). Vi konstruerar M och M ′ iterativt från D och D ′ genom att räkna över varje x X. För varje sådant x lägger vi till ett nytt element s x till stödet. Tanken är att massan av x i D och D ′ kommer att vara "split" mellan x och s x i M och M ′ (respektive). Denna uppdelning kommer att säkerställa att sannolikheterna för s x i M och i M ′ är identiska, och sannolikheten för x i M och M ′ är "maximalt olika". Vi kommer att visa att "bidrag" av x och s x till KL skillnaden från M till M ′ är minst lika stor som bidraget av x till KL skillnaden från D till D ′. Lemman följer sedan. Vi fortsätter med den fullständiga specifikationen av denna "split" och formaliserar sedan ovanstående intuition. För x X, ta p x = D ′ [x]. Eftersom (D, D ) = e ε, måste det finnas α på [-1, 1] s.t. D[x] = e α·ε · p x. Vi inför en ny punkt s x i stödet och anger vikten av M och M ′ på x och s x enligt följande: = e tecken(α)·ε · p x · e α·ε − 1 e tecken(α)·ε − 1 = p x · (1 - e α·ε − 1 e tecken(α)·ε − 1 ) = p x · (e α·ε − 1 + 1) · e α·ε − 1 e tecken(α)·ε − 1 e tecken(α)·ε − 1 ) = p x · (e α·ε − 1) · e tecken(α)·ε − 1 e tecken(α) · 1 + 1) · e α·ε − 1 e tecken(α)·ε − 1 e tecken (α)·ε − 1 ) = p x · (e α·ε − (e tecken(α)·ε − 1) · e α·ε − 1 e tecken(α) · 1 e tecken(α) · 1 e) Dessutom är M och M ′ antipodal (M, M ′ ) = ε = (D, D ′ ). Distributionerna M och M ′ uppfyller således villkoren för lemma. Slutligen betonar vi att genom ovanstående har vi på x X, M [Vi jämför nu KL divergensen från D till D ′ med divergensen från M till M ′. | Dwork och Rothblum REF föreslog nyligen begreppet koncentrerad differentiell integritet, en avslappning av differentiell integritet som ger bättre noggrannhet än differentiell integritet utan att äventyra den kumulativa kostnaden för integritet över flera beräkningar. | 14,861,086 | Concentrated Differential Privacy | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 10,297 |
Topic modeller har stor potential för att hjälpa användare att förstå dokument corpora. Denna potential hämmas av deras rent oövervakade natur, vilket ofta leder till ämnen som varken är helt meningsfulla eller effektiva i extrinsiska uppgifter (Chang et al., 2009 ). Vi föreslår ett enkelt och effektivt sätt att vägleda ämnesmodeller för att lära sig ämnen av särskilt intresse för en användare. Vi uppnår detta genom att tillhandahålla uppsättningar av fröord som en användare tror är representativa för de underliggande ämnena i en corpus. Vår modell använder dessa frön för att förbättra både ämnesordsdistributioner (genom att förvanska ämnen för att producera lämpliga utsädesord) och för att förbättra dokument-topic-distributioner (genom att förvränga dokument för att välja ämnen som är relaterade till de utsädesord som de innehåller). Extrinsisk utvärdering av ett dokument kluster uppgift visar en betydande förbättring när man använder utsäde information, även över andra modeller som använder utsäde information naivt. | REF föreslog att man skulle styra ämnesmodellering genom att ställa in en uppsättning såddord i början som användaren tror skulle kunna representera vissa ämnen. | 8,853,630 | Incorporating Lexical Priors into Topic Models | {'venue': 'EACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 10,298 |
Sammanfattning av denna webbsida: I laboratoriet mäts ofta markspektra, och det finns ett ökande antal storskaliga markspektralbibliotek som etablerar sig över hela världen. Kalibreringsmodeller som utvecklats från jordbibliotek är dock svåra att tillämpa på spektraldata som erhållits från fältet eller rymden. Överföringsinlärning har potential att överbrygga gapet och göra kalibreringsmodellen överförbar från en sensor till en annan. Syftet med denna studie är att undersöka potentialen för överföring lärande för markspektroskopi och dess prestanda på jord lera innehåll uppskattning med hjälp av hyperspektral data. För det första används ett endimensionellt konvolutionellt neuralt nätverk (1D-CNN) på mineraljordar för markanvändning/landtäcke (LUCAS). För att utvärdera om den förtränade 1D-CNN-modellen var överförbar användes LUCAS organiska jordar för att finjustera och validera modellen. Den finjusterade modellen uppnådde en god noggrannhet (bestämningskoefficient (R 2 ) = 0,756, rot-medel-kvadratfel (RMSE) = 7,07 och förhållandet mellan procentavvikelse (RPD) = 2,26) för uppskattningen av lerhalten. Spektralindex, som föreslogs som en enkel överföringsbar funktion, undersöktes också på LUCAS-data, men fungerade inte bra på uppskattningen av lerinnehåll. Därefter finjusterades den förtränade 1D-CNN-modellen ytterligare av fältprover som samlades in i studieområdet med spektra extraherat från HyMap-bilder, och uppnådde en noggrannhet av R 2 = 0,601, RMSE = 8,62 och RPD = 1,54. Slutligen skapades lerkartan med den finjusterade modellen 1D-CNN och hyperspektraldata. | Överföringslärande av ett CNN i 1D föreslås av REF. | 52,314,629 | Transfer Learning for Soil Spectroscopy Based on Convolutional Neural Networks and Its Application in Soil Clay Content Mapping Using Hyperspectral Imagery | {'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Computer Science', 'Engineering', 'Medicine']} | 10,299 |
Energiförbrukningen på Internet är redan betydande och kommer sannolikt att öka i takt med att operatörerna använder snabbare utrustning för att hantera populära bandbreddsintensiva tjänster, såsom streaming och beställvideo. I det befintliga arbetet med att spara energi beaktas lokal anpassning som i första hand bygger på hårdvarubaserad teknik, såsom sömn och hastighetsanpassning. Vi hävdar att en fullständig lösning kräver ett nätverksövergripande tillvägagångssätt som fungerar tillsammans med lokala åtgärder. Traditionella trafiktekniska mål omfattar dock inte energi. I detta dokument presenteras Energy-Aware Traffic Engineering (EATe), en teknik som tar hänsyn till energiförbrukningen och samtidigt uppnår samma trafikhastigheter som de energimedvetna strategierna. EATe använder en skalbar online-teknik för att sprida belastningen mellan flera vägar för att öka energibesparingen. Våra omfattande ns-2-simuleringar över realistiska topologier visar att EATe lyckas flytta 21 % av länkarna till sömntillståndet, samtidigt som vi håller samma sändningshastighet och är nära den optimala energimedvetna lösningen. Vidare visar vi att EATe framgångsrikt hanterar förändringar i trafikbelastningen och snabbt återställer ett lågt totalt energitillstånd. Alternativt kan EATe flytta länkar till lägre energinivåer, vilket resulterar i energibesparingar på 8 %. Slutligen kan EATe lyckas få 16 % av de aktiva routrarna att sova. | Vasik och al. I REF presenteras EATe, en teknik som tar hänsyn till energiförbrukningen och samtidigt uppnår samma trafikhastigheter mellan käll- och destinationsnoder som omedvetna energistrategier. | 17,684,624 | Energy-aware traffic engineering | {'venue': 'e-Energy', 'journal': None, 'mag_field_of_study': ['Engineering', 'Computer Science']} | 10,300 |
Nya tillämpningar av informationssystem, såsom elektronisk handel och informationssystem för hälso- och sjukvård, måste integrera ett stort antal heterogena databaser över datornät. Att besvara en fråga i dessa applikationer innebär vanligtvis att välja relevanta informationskällor och skapa en frågeplan för att kombinera data automatiskt. Eftersom betydande framsteg har gjorts när det gäller källval och plangenerering har den kritiska frågan förskjutits till frågeoptimering. Detta dokument presenterar en semantisk frågeoptimering (SQO) metod för att optimera frågeplaner av heterogena multidatabassystem. Detta tillvägagångssätt p r o vides global optimering för frågeplaner samt lokal optimering för subqueries som hämtar data från enskilda databaskällor. Ett viktigt inslag i vår lokala optimeringsalgoritm är att vi p r o ve nödvändiga och tillräckliga villkor för att eliminera en onödig anslutning i en konjunktiv fråga av godtycklig gå topologi. Denna funktion gör det möjligt för vår optimer att använda mer uttrycksfulla relationsregler för att ge ett bredare utbud av möjliga optimeringar än tidigare arbete i SQO. Den lokala optimeringsalgoritmen har också en ny datastruktur som kallas AND-OR implikationsgrafer för att underlätta sökandet efter optimala frågor. Dessa funktioner gör det möjligt för den globala optimeringen att effektivt använda semantisk kunskap för att minska kostnaderna för dataöverföring. Vi h a ve genomföra detta tillvägagångssätt i n till pesto query plan optimizer som en del av sims information medlare. Experimentella resultat visar att pesto kan ge signi cant s en wings i fråga utförande kostnad över frågeplan utförande utan optimering. | Ett system med fokus på semantisk frågeoptimering för frågeplaner för heterogena multidatabassystem presenteras i REF. | 14,485,343 | Semantic Query Optimization for Query Plans of Heterogeneous Multidatabase Systems | {'venue': 'ICLP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 10,301 |
Området digitala bibliotek (DLs) sammansmältes 1994: de första digitala bibliotekskonferenserna hölls det året, medvetenheten om World Wide Web ökade, och National Science Foundation tilldelade $24 miljoner (USA) för Digital Library Initiative (DLI). I detta dokument undersöker vi läget för DL-domänen efter ett decennium av verksamhet genom att tillämpa sociala nätverksanalyser på nätverket med upphovsmän från tidigare ACM, IEEE och gemensamma ACM/IEEE digitala bibliotekskonferenser. Vi baserar vår analys på en gemensam binära oriktade nätverk modell för att representera co-authorship nätverket, och från det vi extraherar flera etablerade nätverk åtgärder. Vi introducerar också en vägd riktad nätverksmodell för att representera co-authorship nätverket, där vi definierar AuthorRank som en indikator på effekten av en enskild författare i nätverket. Resultaten är validerade mot konferensprogram kommittémedlemmar under samma period. Resultaten visar tydliga fördelar med PageRank och AuthorRank över grad, närhet och mellanhet centralitetsmått. Vi undersöker också mängden och arten av internationellt deltagande i den gemensamma konferensen om digitala bibliotek (JCDL). | Liu m.fl. REF fokuserar på det första årtiondet av Digital Libraries community genom att analysera det medförfattare nätverk av tidigare ACM, IEEE, och gemensamma ACM / IEEE digitala bibliotek konferenser. | 2,536,130 | Co-Authorship Networks in the Digital Library Research Community | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 10,302 |
Abstract-Det är ett illvilligt problem att återställa den sanna scenen färger från en färg partisk bild genom att diskontera effekterna av scen belysning och kamera spektral känslighet (CSS) på samma gång. De flesta färgbeständighet (CC) modeller har utformats för att först uppskatta belysningsfärgen, som sedan tas bort från färgen partisk bild för att få en bild som tas under vitt ljus, utan uttryckligt beaktande av CSS effekt på CC. I detta dokument studeras först den CSS-effekt på belysningsuppskattning som uppstår i den interdatasetbaserade CC (inter-CC), dvs. utbildning av en CC-modell på en datauppsättning och sedan testning på en annan datauppsättning som fångas upp av en särskild CSS. Vi visar den tydliga nedbrytningen av befintliga CC-modeller för inter-CC-tillämpningar. Sedan föreslås ett enkelt sätt att övervinna sådan nedbrytning genom att först lära sig snabbt en omvandlingsmatris mellan de två distinkta CSS (CSS-1 och CSS-2). Den lärda matrisen används sedan för att konvertera data (inklusive Illuminant marksanning och färgfördelade bilder) som återges under CSS-1 till CSS-2, och sedan träna och tillämpa CC-modellen på färgfördelade bilder under CSS-2, utan behov av betungande förvärv av utbildning som under CSS-2. Omfattande experiment på syntetiska och verkliga bilder visar att vår metod tydligt kan förbättra inter-CC prestanda för traditionella CC-algoritmer. Vi föreslår att genom att ta hänsyn till CSS-effekten, är det mer sannolikt att få den verkligt färg konstanta bilder invariant till förändringarna av både belysnings- och kamerasensorer. | Mer nyligen, arbetet med REF lär sig en transform matris mellan olika par av enhet CSS som används för att omvandla bilder och Illuminant mark-truth, visar färgfördomar av den första sensorn till den andra. | 9,221,623 | Improving Color Constancy by Discounting the Variation of Camera Spectral Sensitivity | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Physics', 'Medicine']} | 10,303 |
Abstract-Modeller av formvariationer har blivit en central komponent för automatisk analys av bilder. En viktig klass av formmodeller är punktfördelningsmodeller (PDM). Dessa modeller representerar en klass av former som en normal fördelning av punktvariationer, vars parametrar beräknas utifrån exempelformer. Huvudkomponentanalys (PCA) används för att få en lågdimensionell representation av formvariationen i termer av de ledande huvudkomponenterna. I detta dokument föreslår vi en generalisering av PDMs, som vi kallar Gaussian Process Morphable Models (GPMMs). Vi modellerar formvariationerna med en Gaussian process, som vi representerar med hjälp av de ledande komponenterna i dess Karhunen-Lo eve expansion. För att beräkna expansionen använder vi oss av ett approximationssystem baserat på Nystr€ om metoden. Den resulterande modellen kan ses som en kontinuerlig analog av en standard PDM. Dock, medan för PDMs formen variation är begränsad till den linjära spännvidden av exemplet data, med GPMMs kan vi definiera formen variation med hjälp av någon Gaussian process. Till exempel kan vi bygga formmodeller som motsvarar klassiska splinemodeller och därmed inte kräver några exempel på data. Dessutom gör Gaussiska processer det möjligt att kombinera olika modeller. Till exempel kan en PDM utökas med en spline modell, för att få en modell som innehåller inlärda formegenskaper men är tillräckligt flexibel för att förklara former som inte kan representeras av PDM. Vi introducerar en enkel algoritm för att montera en GPMM på en yta eller bild. Detta resulterar i en icke-rigid registrering metod vars legalisering egenskaper definieras av en GPMM. Vi visar hur vi kan få olika registreringssystem, inklusive metoder för multi-scale eller hybrid registrering, genom att bygga en lämplig GPMM. Eftersom vårt tillvägagångssätt strikt separerar modellering från monteringsprocessen, uppnås detta utan ändringar i den passande algoritmen. För att visa tillämpligheten och mångsidigheten av GPMMs, utför vi en uppsättning experiment i typiska användningsscenarier i medicinsk bildanalys och datorseende: Den modellbaserade segmenteringen av 3D underarmsbilder och byggandet av en statistisk modell av ansiktet. Som komplement till dokumentet har vi gjort alla våra metoder tillgängliga som öppen källkod. | Gaussian Process Morphable Model (GPMM) ram REF, som vårt arbete bygger på, kan ses som enande av olika begrepp. | 17,420,702 | Gaussian Process Morphable Models | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 10,304 |
Vi föreslår ett linjärt homomorfiskt signatursystem som autentiserar vektorsubrymder i ett givet omgivningsutrymme. Vårt system har flera nya egenskaper som inte finns i tidigare förslag: • Det är det första systemet som autentiserar vektorer definierade över binära fält; tidigare förslag kan bara autentisera vektorer med stora eller växande koefficienter. • Det är det första sådana system som bygger på problemet med att hitta korta vektorer i heltal gitter, och därmed åtnjuter de värsta fall säkerhetsgarantier gemensamma för lattice-baserade kryptosystem. Vårt system kan användas för att autentisera linjära omvandlingar av signerade data, såsom de som uppstår vid beräkning medelvärde och Fourier transform eller i nätverk som använder nätverkskodning. Vår konstruktion ger ett exempel på en kryptografisk primitiv -homomorphic signaturer över F 2 -som kan byggas med lattice metoder, men för närvarande inte kan byggas med hjälp av bilinjära kartor eller andra traditionella algebraiska metoder baserade på factoring eller diskreta log typ problem. Säkerhet för vårt system (i den slumpmässiga oracle modellen) bygger på ett nytt svårt problem på lattices, som kallas k-SIS, som minskar till standard genomsnitt-fall och värsta fall lattice problem. Vår formulering av k-SIS-problemet lägger till "verktygslådan" av lattice-baserad kryptografi och kan vara användbar för att konstruera andra lattice-baserade kryptosystem. Som en andra tillämpning av det nya k-SIS-verktyget konstruerar vi ett vanligt signatursystem och bevisar att det k-tiden är oförfalskat i standardmodellen om man antar hårdheten i k-SIS-problemet. Vår konstruktion kan ses som "att avlägsna det slumpmässiga oraklet" från Gentrys, Peikerts och Vaikuntanatans signaturer på bekostnad av att endast tillåta ett litet antal signaturer. | Baserat på komplexiteten i lattice-problemen införde REF problemet -SIS och konstruerade ett signatursystem över binära fält. | 9,710,300 | Linearly homomorphic signatures over binary fields and new tools for lattice-based signatures | {'venue': 'In Public Key Cryptography — PKC ’11, Springer LNCS 6571', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics']} | 10,305 |
Stanfords beroenden är en djup syntaktisk representation som ofta används för semantiska uppgifter, som att känna igen textdetaljer. Men fångar de all semantisk information som en meningsrepresentation borde förmedla? Detta dokument utforskar denna fråga genom att undersöka genomförbarheten av att kartlägga Stanford beroende tolkar till Hobbsian Logical Form, en praktisk, händelse-teoretisk semantisk representation, med endast en uppsättning deterministiska regler. Även om vi finner att en sådan kartläggning är möjlig i ett stort antal fall, finner vi också fall där en sådan kartläggning verkar kräva information utöver vad Stanfords beroenden kodar. Dessa fall kastar ljus över de typer av semantisk information som finns och inte finns i Stanfords beroenden. | REF karterade Stanfordberoenden (prekursor till UD) till Hobbsian Logical Form, identifiera semantiska luckor i den förra. | 1,663,500 | Is the Stanford Dependency Representation Semantic | {'venue': 'EVENTS@ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 10,306 |
Abstract-Data aggregering är en nyckelfunktion i trådlösa sensornätverk (WSN). Detta dokument fokuserar på data aggregering schemaläggning problem för att minimera fördröjningen (eller latency). Vi föreslår en effektiv distribuerad algoritm som producerar ett kollisionsfritt schema för dataaggregation i WSN. Teoretiskt visar vi att fördröjningen av det aggregeringsschema som genereras av vår algoritm är som mest 16R på Á À 14 tider. Här är R nätverksradien och Á är den maximala nodgraden i det ursprungliga nätverkets kommunikationskurva. Vår algoritm förbättrar avsevärt den tidigare kända bästa dataaggregeringsalgoritmen med en övre fördröjning på 24D 6Á 16 tidsfack, där D är nätverksdiametern (observera att D kan vara så stor som 2R). Vi genomför omfattande simuleringar för att studera de praktiska resultaten av vår föreslagna dataaggregationsalgoritm. Våra simuleringsresultat bekräftar våra teoretiska resultat och visar att våra algoritmer presterar bättre i praktiken. Vi bevisar att den totala lägre fördröjningsgränsen för dataaggregation under någon interferensmodell är maxflog n; Rg, där n är nätverksstorleken. Vi ger ett exempel för att visa att den nedre gränsen är (ungefär) snäv under protokollets interferensmodell när r I 1⁄4 r, där r I är interferensområdet och r är överföringsområdet. Vi härleder också den nedre gränsen av fördröjning under protokollets interferens modell när r < r I < 3r och r I! 3 r. 3 r. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. 1 st. | Xu och al. REF har teoretiskt visat att fördröjningen av det aggregeringsschema som genereras av deras algoritm är som mest | 13,519,867 | A Delay-Efficient Algorithm for Data Aggregation in Multihop Wireless Sensor Networks | {'venue': 'IEEE Transactions on Parallel and Distributed Systems', 'journal': 'IEEE Transactions on Parallel and Distributed Systems', 'mag_field_of_study': ['Computer Science']} | 10,307 |
Vi tar itu med problemet med att säkra sekvenser av SOAP-meddelanden som utbyts mellan webbtjänster och deras kunder. WS-säkerhetsstandarden definierar grundläggande mekanismer för att säkra SOAP-trafik, ett meddelande i taget. För typiska webbtjänster är det dock ganska ineffektivt att använda WS-Security oberoende för varje meddelande; dessutom är det ofta viktigt att säkra integriteten för en hel session, liksom för varje meddelande. I detta syfte tillhandahåller de senaste specifikationerna ytterligare mekanismer på SOAP-nivå. WS-SecureConversation definierar säkerhetssammanhang som kan användas för att säkra sessioner mellan två parter. WS-Trust anger hur säkerhetssammanhang utfärdas och erhålls. Vi utvecklar en semantik för de viktigaste mekanismerna i WS-Trust och WS-SecureConversation, uttryckt som ett bibliotek för TulaFale, ett formellt skriptspråk för säkerhetsprotokoll. Vi modellerar typiska protokoll som förlitar sig på dessa mekanismer och automatiskt bevisar deras viktigaste säkerhetsegenskaper. Vi diskuterar också informellt några fallgropar och begränsningar av dessa specifikationer. | Bhargavan m.fl. REF utvecklar mekanismer för att förfina WS-Trust och WS-Secure Conversation med hjälp av ett formellt skriptspråk för säkerhetsprotokoll. | 287,782 | Secure sessions for Web services | {'venue': 'TSEC', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 10,308 |
Vi presenterar en generativ modell för oövervakad inlärning av beroendestrukturer. Vi beskriver också den multiplikativa kombinationen av denna beroendemodell med en modell av linjär valkrets. Produktmodellen överträffar båda komponenterna på sina respektive utvärderingsmått, vilket ger de bästa publicerade siffrorna för oövervakad tolkning av beroende och oövervakad valmanstolkning. Vi visar också att den kombinerade modellen fungerar och är robust tvärlingvist, att kunna utnyttja antingen fastsättning eller distributionsregelverk som är framträdande i data. | Beroendemodell med Valence (DMV) REF är den mest kända generativa modellen för beroende grammatik induktion. | 1,364,249 | Corpus-Based Induction Of Syntactic Structure: Models Of Dependency And Constituency | {'venue': 'Annual Meeting Of The Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 10,309 |
Djupa neurala nätverk (DNN) har nyligen uppnått state-of-the-art prestanda på en mängd olika mönster-erkännande uppgifter, främst visuella klassificeringsproblem. Med tanke på att DNN nu kan klassificera objekt i bilder med nästan mänsklig prestanda uppstår naturligtvis frågor om vilka skillnader som finns mellan komputer och mänsklig vision. En nyligen genomförd studie [30} visade att man ändrar en bild (t.ex. av ett lejon) på ett sätt som är omärkligt för människor kan få en DNN att märka bilden som något helt annat (t.ex. Att felmärka ett lejon till ett bibliotek). Här visar vi ett relaterat resultat: det är lätt att producera bilder som är helt oigenkännliga för människor, men som toppmoderna DNNs anser vara igenkännliga objekt med 99.99% förtroende (t.ex. Märkning med säkerhet att vitt brus statiskt är ett lejon). Specifikt tar vi konvolutionella neu ral nätverk utbildade för att peiform väl på antingen ImageNet eller MNIST dataset och sedan hitta bilder med evolutionära algoritmer eller lutning stigning som DNNs märka med stort förtroende som tillhör varje dataset klass. Det är möjligt att producera bilder som är helt oigenkännliga för mänskliga ögon och som DNN med stor säkerhet tror är välbekanta objekt, som vi kallar "skumbilderna" (mer allmänt,skumma ex späckar). Våra resultat kastar ljus över intressanta skillnader mellan människans syn och aktuella DNN, och väcker frågor om allmänheten i DNN datorseende. | Konceptet sopprover som föreslås i REF studerar däremot DNN:s sårbarhet för att göra godtyckliga högkonfidensprognoser för slumpmässiga bullerbilder som är helt oigenkännliga för människor, dvs. bilderna innehåller slumpmässiga ljud och inget faktiskt objekt. | 206,592,585 | Deep neural networks are easily fooled: High confidence predictions for unrecognizable images | {'venue': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 10,310 |
Sammanfattning av denna webbsida: I trådlösa ad hoc-nätverk kan co-channel-interferens effektivt undertryckas genom korrekt integrering av kanaltilldelning (CA) och kraftstyrningsteknik (PC). Till skillnad från centraliserade cellulära nät där CA och PC kan samordnas av basstationer är integreringen av CA och PC i infrastrukturlösa trådlösa ad hoc-nät där ingen global information finns tillgänglig mer tekniskt utmanande. Författarna modellerar CA- och PC-problemen som ett icke-kooperativt spel, där alla trådlösa användare tillsammans väljer en optimal kanal och effektnivå för att minimera en gemensam kostnadsfunktion. För att bevisa förekomsten och unikheten av Nash jämvikt (NE) i den föreslagna icke-kooperativa CA och PC-spel (NCPG), författarna bryta NCPG i en CA-delspel och en PC-delspel. Det visas att om NE finns i dessa två delspel säkerställs förekomsten av NE i NCPG. På grund av oförutsägbar nättopologi och olika systemförhållanden i trådlösa ad hoc-nätverk kan dock NCPG drabbas av den "ping-pong"-effekt som gör NE ouppnåelig. En iterativ och distribuerad algoritm som säkerställer konvergens med NE föreslås genom att man införlivar en strategi för samtalsdropping och icke-internt lärande i NCPG. Det visas genom simuleringsresultat att det föreslagna tillvägagångssättet leder till konvergens och resulterar i betydande förbättringar av kraftbevarande och systemkapacitet jämfört med den populära distribuerade dynamiska CA-teknik som införlivas med PC. | Tan och medförfattare i REF modellerade kanaltilldelning och power control problem som ett icke-kooperativt spel, där alla trådlösa användare gemensamt väljer en optimal kanal och effektnivå för att minimera en gemensam kostnadsfunktion. | 1,930,098 | Game theoretic approach for channel assignment and power control with no-internal-regret learning in wireless ad hoc networks | {'venue': 'IET Communications', 'journal': 'IET Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 10,311 |
Vi introducerar det klassade stabila matchningsproblemet, ett problem som motiveras av akademisk anställning. Anta att ett antal institut anställer fakultetsmedlemmar från en pool av sökande. Både institut och sökande har företräde framför den andra sidan. Ett institut klassificerar de sökande utifrån deras forskningsområden (eller något annat kriterium), och för varje klass sätter det en lägre gräns och en övre gräns för antalet sökande som det skulle anställa i den klassen. Målet är att hitta en stabil matchning från vilken ingen grupp av deltagare har anledning att avvika. Dessutom bör matchningen respektera klassernas övre/lägre gränser. I den första delen av tidningen studerar vi klassade stabila matchningsproblem vars klassificeringar tillhör en fast uppsättning "ordertyper". Vi visar att om uppsättningen helt består av nedgående skogar finns det en polynomtidsalgoritm; annars är det NP-komplett att bestämma förekomsten av en stabil matchning. I den andra delen undersöker vi problemet med hjälp av en polyhedral strategi. Antag att alla klassificeringar är laminära familjer och att det inte finns någon lägre gräns. Vi föreslår en uppsättning linjära ojämlikheter för att beskriva stabil matchande polytop och bevisa att den är integrerad. Detta integrality resultat gör att vi kan hitta optimala stabila matchningar i polynom tid med hjälp av Ellipsoid algoritm; dessutom ger det en beskrivning av den stabila matchande polytop för många-till-många (oklassificerade) stabila matchning problem, och därmed svara på en öppen fråga från Sethuraman, Teo och Qian. | Classified Stable Matching problem (CSM), föreslås av Huang REF, är en generalisering av HR-LQ utan sjukhus stängningar. | 1,722,089 | Classified stable matching | {'venue': "SODA '10", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 10,312 |
Abstrakt. Att hitta lösningar på minimala problem för att uppskatta epipolär geometri och kamerarörelse leder till att lösa system av algebraiska ekvationer. Ofta är dessa system inte triviala och därför måste speciella algoritmer utformas för att uppnå numerisk robusthet och beräkningseffektivitet. Den senaste tekniken för att konstruera sådana algoritmer är Gröbners grundmetod för att lösa system av polynomekvationer. Tidigare utformades Gröbners baslösare ad hoc för konkreta problem och de kunde inte enkelt tillämpas på nya problem. I detta dokument föreslår vi ett automatiskt förfarande för att generera Gröbner-baslösare som skulle kunna användas även av icke-experter för att lösa tekniska problem. Ingången till vår lösningsgenerator är ett system av polynomekvationer med ett begränsat antal lösningar. Utgången från vår lösningsgenerator är Matlab- eller C-koden som beräknar lösningar till detta system för konkreta koefficienter. Generera lösare öppnar automatiskt möjligheter att lösa mer komplicerade problem som inte kunde hanteras manuellt eller lösa befintliga problem på ett bättre och effektivare sätt. Vi visar att vår automatiska generator konstruerar effektiva och numeriskt stabila lösare som är jämförbara eller överträffar kända manuellt konstruerade lösare. Den automatiska generatorn finns på http://cmp.felk.cvut.cz/minimal 3. | För att ta itu med denna fråga har en automatisk generator av polynom lösare föreslagits REF. | 7,073,421 | Automatic Generator of Minimal Problem Solvers. ECCV | {'venue': 'ECCV', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 10,313 |
Autonoma fordonsplutoner kommer att spela en viktig roll för att förbättra trafiksäkerheten på vägarna i morgondagens smarta städer. Fordon i en autonom pluton kan utnyttja kommunikationer mellan fordon (V2V) för att samla in miljöinformation för att bibehålla målhastigheten och avståndet mellan fordonen. Men på grund av osäkerheten i den trådlösa kanalen, V2V kommunikation inom en pluton kommer att uppleva en trådlös systemfördröjning. En sådan systemfördröjning kan försämra fordonets förmåga att stabilisera sin hastighet och sina avstånd inom sin pluton. I detta dokument studeras problemet med integrerade kommunikations- och styrsystem för trådlösa anslutna autonoma fordonsplutoner. I synnerhet föreslås ett nytt ramverk för att optimera en plutons drift samtidigt som man gemensamt tar hänsyn till fördröjningen av det trådlösa V2V-nätet och stabiliteten i fordonets kontrollsystem. För det första görs stabilitetsanalys för styrsystemet och de maximala krav på fördröjning av det trådlösa systemet som kan förhindra att kontrollsystemet är instabilt härleds. Därefter utförs fördröjningsanalys för att bestämma end-to-end-fördröjningen, inklusive köning, bearbetning och överföringsfördröjning för V2V-länken i det trådlösa nätverket. Med hjälp av den härledda trådlösa fördröjningen härleds därefter en lägre gräns och ett ungefärligt uttryck för det trådlösa systemets tillförlitlighet, vilket definieras som sannolikheten för att det trådlösa systemet uppfyller styrsystemets fördröjningsbehov. Därefter optimeras styrsystemets parametrar på ett sätt som maximerar den härledda trådlösa systemtillförlitligheten. Simuleringsresultaten bekräftar de analytiska härledningarna och studerar effekterna av parametrar, såsom paketstorleken och plutonens storlek, på fordonsplutonens tillförlitlighet. Viktigare är att simuleringsresultaten belyser fördelarna med att integrera styrsystem och trådlös nätverksdesign samtidigt som de ger riktlinjer för att utforma en autonom pluton för att förverkliga den nödvändiga stabiliteten i det trådlösa nätverket och kontrollsystemet. Manuskript ). M. Bennis är verksam vid Centrum för trådlös kommunikation, Uleåborgs universitet, 90014 Uleåborg, Finland, och även med Terms-Velikulär kommunikation, anslutna autonoma fordon, stabilitetsanalys, fördröjningsanalys, styrsystemsdesign. | I REF infördes ett nytt ramverk för att optimera driften av fordonspluton med begränsningar av fördröjningen av de trådlösa nätverken för fordon till fordon (V2V) och fordonsstabiliteten. | 4,893,668 | Joint Communication and Control for Wireless Autonomous Vehicular Platoon Systems | {'venue': 'IEEE Transactions on Communications', 'journal': 'IEEE Transactions on Communications', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 10,314 |
Sammanfattning: Detektion av gemenskapen är ett av de mest aktiva områdena inom komplexa nätverksanalyser, på grund av dess potentiella värde i praktiska tillämpningar. Många verk inspirerade av olika paradigm ägnar sig åt att utveckla algoritmiska lösningar som gör det möjligt att avslöja nätverksstrukturen i sådana sammanhållna undergrupper. Jämförande studier som rapporteras i litteraturen bygger vanligtvis på en prestandamått med hänsyn till samhällsstrukturen som en partition (Rand Index, Normalized Mutual Information, etc.). Denna typ av jämförelse försummar emellertid de topologiska egenskaperna hos samhällena. I den här artikeln presenterar vi en omfattande jämförande studie av en representativ uppsättning metoder för detektering av samhället, där vi antar båda typerna av utvärdering. Gemenskapsinriktade topologiska åtgärder används för att kvalificera samhällena och utvärdera deras avvikelse från referensstrukturen. För att härma verkliga system använder vi artificiellt genererade realistiska nätverk. Det visar sig att det inte finns någon motsvarighet mellan båda metoderna: en hög prestanda motsvarar inte nödvändigtvis korrekt topologiska egenskaper, och vice versa. De kan därför betraktas som kompletterande, och vi rekommenderar att de tillämpas båda för att göra en fullständig och korrekt bedömning. | Orman m.fl. REF presenterar en jämförande studie av en representativ uppsättning av lokala detektionsalgoritmer med hjälp av LFR-modellen med lämpliga parametrar för att generera realistiska oriktade icke-överlappande nätverk. | 650,925 | Comparative Evaluation of Community Detection Algorithms: A Topological Approach | {'venue': 'Journal of Statistical Mechanics: Theory and Experiment, (2012):P08001', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science', 'Physics']} | 10,315 |
Med den nya tekniken och alla tillhörande apparater, förutspås det att massiva mängder data kommer att skapas under de närmaste åren faktiskt, så mycket som 90% av nuvarande data skapades under de senaste åren - en trend som kommer att fortsätta under överskådlig framtid. Hållbara datorer studerar den process genom vilken datortekniker/forskare designar datorer och tillhörande delsystem på ett effektivt och effektivt sätt med minimal miljöpåverkan. Dagens intelligenta maskininlärningssystem är dock prestationsdrivna – fokus ligger på prediktiv/klassifikationsnoggrannhet, baserad på kända egenskaper som man lärt sig av träningsproven. Till exempel, de flesta maskinlärande-baserade icke-parametriska modeller är kända för att kräva höga beräkningskostnader för att hitta den globala optima. Med inlärningsuppgiften i en stor datauppsättning kommer därför antalet dolda noder inom nätverket att öka avsevärt, vilket så småningom leder till en exponentiell ökning av beräkningskomplexiteten. I detta dokument granskas således den teoretiska och experimentella datamodelleringslitteraturen, inom storskaliga dataintensiva områden, som avser: (1) modelleffektivitet, inklusive beräkningskrav för lärande, och dataintensiva områdens struktur och design, och införs (2) nya algoritmiska metoder med minst minneskrav och bearbetning för att minimera beräkningskostnaderna, samtidigt som dess prediktiv/klassificeringsnoggrannhet och stabilitet bibehålls. | Al-Jarrah m.fl. REF granskade maskininlärning för Big Data med fokus på effektiviteten hos storskaliga system och nya algoritmiska metoder med minskat minnesavtryck. | 14,258,620 | Efficient Machine Learning for Big Data: A Review | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 10,316 |
I detta dokument anser vi att scenariot med flera unicast-flöden skär en gemensam router i ett opportunistiskt trådlöst nätverk. Istället för att vidarebefordra paket i vart och ett av flödena självständigt, kan routern utföra inter-session nätverk kodning och överföra kodord för att förbättra nätverkets dataflöde. Till skillnad från kodning för multicast dataflöde där en optimal kod kan konstrueras i polynom tid, kodning för unicast dataflöden är ett mer komplicerat kodningsproblem och har visat sig vara ett NP-hård problem. Möjligheter till inter-session nätverk kodning har också visat sig finnas i en-hop trådlöst dataspridning nätverk såsom Wi-Fi och WiMAX nätverk. I detta dokument föreslår vi ett effektivt kodningssystem för Unicast-flöden och visar sin högre kodningsvinst jämfört med tidigare föreslagna toppmoderna kodningssystem, validerade med hjälp av simuleringsresultat och spår av trådlösa sensornätverkstester. Vi visar också att vår föreslagna algoritm är optimal för alla 238 icke-isomorfiska kodningsfall för n ≤ 4, och för 9500 av 9608 icke-isomorfiska kodningsfall för n = 5, där n är antalet unicast-paket. | Men att välja när, var och vilka paket som ska kodas i trådlösa nätverk är ett NP-hårdt problem REF. | 36,694,663 | Efficient coding for unicast flows in opportunistic wireless networks | {'venue': 'IET Communications', 'journal': 'IET Communications', 'mag_field_of_study': ['Computer Science']} | 10,317 |
Problemet med förvaltningen av databashanteringssystem handlar om den eektiva huvudsakliga minnestilldelningen och hanteringen för att besvara databasfrågor. Tidigare verk på bu er allokering baseras antingen uteslutande på tillgängligheten av bu ers vid runtime eller på tillträdesmönster för frågor. I detta dokument föreslår vi ett enhetligt tillvägagångssätt för fördelning där båda dessa överväganden beaktas. Vår strategi är baserad på begreppet marginalvinster som specificerar den förväntade minskningen av sidfel genom att tilldela extra buuers till en fråga. Sedan utvidgar vi denna strategi för att stödja en anpassningsbar fördelning. En anpassningsbar bu er allokeringsalgoritm optimerar automatiskt sig själv för specific c frågebörda. För att uppnå denna anpassningsförmåga föreslår vi att man använder information från run-time, t.ex. systemets belastning, i samband med tilldelningsbeslut. Vår strategi är att använda en enkel kömodell för att förutsäga om en bu er tilldelning kommer att förbättra systemets prestanda. Detta dokument ger således en mer teoretisk grund för en ökad fördelning. Simuleringsresultat visar att våra metoder baserade på marginalvinster och våra prediktiva metoder konsekvent överträffar befintliga fördelningsstrategier. Dessutom har de prediktiva metoderna den extra fördelen att de anpassar sin fördelning till ändrade arbetsbelastningar. | Detta är ett begrepp som liknar det av marginalvinst som används i databasbuffert allokering i REF. | 7,478,000 | Flexible and Adaptable Buffer Management Techniques for Database Management Systems | {'venue': 'IEEE Transactions on Computers', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 10,318 |
Vi föreslår en teknik för gemensam källkod och kanalkodning (JSCC) för trådlös bildöverföring som inte är beroende av explicita koder för vare sig komprimering eller felkorrigering; istället kartlägger den bildpixelvärdena direkt till de komplexa kanalinmatningssymbolerna. Vi parameteriserar kodaren och dekoder funktioner av två konvolutionella neurala nätverk (CNN), som är utbildade gemensamt, och kan betraktas som en autoencoder med en icke-trainable lager i mitten som representerar den bullriga kommunikationskanalen. Våra resultat visar att den föreslagna djup JSCC system överträffar digital överföring concatenating JPEG eller JPEG2000 kompression med en kapacitet att uppnå kanalkod vid låg signal-till-brus-förhållande (SNR) och kanal bandbredd värden i närvaro av additiv vit Gaussian brus (AWGN). Mer slående, djup JSCC lider inte av "cliff effekt", och det ger en graciös prestandanedbrytning eftersom kanalen SNR varierar med avseende på SNR värde antas under utbildningen. I fallet med en långsam Rayleigh blekningskanal lär sig djup JSCC bullertåliga kodade representationer och överträffar avsevärt separationsbaserad digital kommunikation vid alla SNR- och kanalbandbreddvärden. Gemensam källkodskodning, djupa neurala nätverk, bildkommunikation. E. Bourtsoulatze är med kommunikationen och lagret; därav namnet djup JSCC. Två kanalmodeller, den additiva vita Gaussian brus (AWGN) kanalen och den långsamma Rayleigh blekningskanalen, beaktas i detta arbete på grund av deras utbredda antagandet i att representera realistiska kanalförhållanden. Den föreslagna lösningen kan enkelt utvidgas till andra kanalmodeller, så länge de kan representeras som ett icke-trainable NN-lager med en differentierad överföringsfunktion. DL-baserade metoder, och särskilt autokodare, har nyligen visat anmärkningsvärda resultat i bildkomprimering, uppnå eller till och med överträffa prestanda av state-of-the-art mars 19, 2019 UTKAST till förlustkompression algoritmer [6]-[8]. Fördelen med DL-baserade metoder för förlustkompression jämfört med konventionella komprimeringsalgoritmer ligger i deras förmåga att extrahera komplexa funktioner från träningsdata tack vare sin djupa arkitektur, och det faktum att deras modellparametrar kan tränas effektivt på stora datauppsättningar genom backpropagation. Medan vanliga komprimeringsalgoritmer, såsom JPEG, tillämpa samma bearbetning pipeline för alla typer av bilder (t.ex., DCT transform, kvantisering och entropi kodning i JPEG), DL-baserade bildkomprimering algoritmer lära sig de statistiska egenskaperna från en stor utbildning dataset, och optimera komprimeringsalgoritmen i enlighet därmed, utan att uttryckligen ange en transform eller en kod. Samtidigt har DL:s potential också utnyttjats av forskare för att utforma nya och effektiva kodnings- och moduleringstekniker inom kommunikation. I synnerhet har likheterna mellan autoencoder-arkitekturen och de digitala kommunikationssystemen motiverat betydande forskningsinsatser i riktning mot modellering av end-to-end-kommunikationssystem med hjälp av autoencoder-arkitekturen [9] [10]. Några exempel på sådana konstruktioner är dekoderkonstruktion för befintliga kanalkoder [11], [12], utjämning av blinda kanaler [13], inlärning av fysiska lagersignaler för SISO [10] och MIMO [14]-system, ODM-system [15], [16], JSCC för textmeddelanden [17] och JSCC för MNIST-bilder för analog lagring [18]. I detta arbete utnyttjar vi den senaste tidens framgång med DL-metoder inom bildkomprimering och kommunikationssystem för att föreslå en ny end-to-end JSCC-algoritm för bildöverföring via trådlösa kommunikationskanaler. Vi betraktar både tidsinvarianta och bleknande AWGN-kanaler, och jämför prestandan hos vår algoritm med toppmoderna komprimeringsalgoritmer i kombination med kapacitetshöjande kanalkoder. Vi visar genom experiment att vår lösning uppnår överlägsen prestanda i system med lågt signal-till-brus-förhållande (SNR) och för begränsad kanalbandbredd, över en tidsinvariant AWGN-kanal. Vi visar också att vår strategi är motståndskraftig mot variationer i kanalförhållanden, och inte lider av abrupt kvalitetsnedbrytningar, känd som "cliff-effekten" i digitala kommunikationssystem: vår algoritm uppvisar graciös prestandanedbrytning när kanalförhållandena försämras. Denna senare egenskap är särskilt attraktiv när man sänder samma bild till flera mottagare med olika kanalkvaliteter, eller när man sänder till en enda mottagare över en okänd blekningskanal. Vi visar faktiskt att den 19 mars 2019 UTKAST TILL | Observera att en djupinlärning baserad gemensam källa-kanal kodning system för bildöverföring föreslogs REF, men deras prestanda metrisk är bild distorsion, i stället för igenkänning noggrannhet beaktas i detta dokument. | 52,167,612 | Deep Joint Source-Channel Coding for Wireless Image Transmission | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science', 'Engineering']} | 10,319 |
Användningen av Recurrent Neural Networks för videotextning har nyligen fått mycket uppmärksamhet, eftersom de kan användas både för att koda indatavideon och för att generera motsvarande beskrivning. I detta dokument presenterar vi ett återkommande videokodningssystem som kan upptäcka och utnyttja videons hierarkiska struktur. Till skillnad från den klassiska encoder-dekoder-metoden, där en video kodas kontinuerligt av ett återkommande lager, föreslår vi en ny LSTM-cell, som kan identifiera diskontinuitetspunkter mellan ramar eller segment och ändra tidsanslutningarna i kodningsskiktet i enlighet därmed. Vi utvärderar vår strategi på tre storskaliga dataset: Montreal Video Annotation dataset, MPII Movie Description dataset och Microsoft Video Description Corpus. Experiment visar att vårt tillvägagångssätt kan upptäcka lämpliga hierarkiska representationer av inmatningsvideor och förbättra de senaste resultaten på filmbeskrivningsdataset. | Den senaste gränsaware video kodaren REF föreslår en alternativ LSTM-cell som kan identifiera diskontinuiteter mellan videoramar eller segment för att bilda ett hierarkiskt återkommande nätverk. | 206,595,494 | Hierarchical Boundary-Aware Neural Encoder for Video Captioning | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 10,320 |
Vi föreslår en abstraktion-baserad multidokument summering ram som kan konstruera nya meningar genom att utforska mer finkorniga syntaktiska enheter än meningar, nämligen substantiv/verb fraser. Vår metod skiljer sig från befintliga abstraktionsmetoder och bygger först upp en samling begrepp och fakta som representeras av fraser från indatadokumenten. Sedan skapas nya meningar genom att välja och slå samman informativa fraser för att maximera svårighetsgraden av fraser och under tiden uppfylla meningen konstruktion begränsningar. Vi använder heltal linjär optimering för att genomföra frasval och sammanslagning samtidigt för att uppnå den globala optimala lösningen för en sammanfattning. Experimentella resultat av referensdatauppsättningen TAC 2011 visar att vårt ramverk överträffar de senaste modellerna under automatisk pyramidutvärdering och att det ger någorlunda goda resultat i fråga om manuell språklig kvalitetsbedömning. | Till exempel, REF skapa nya meningar från subjekt substantiv fraser och verb fraser från källdokumenten. | 8,377,315 | Abstractive Multi-Document Summarization via Phrase Selection and Merging | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 10,321 |
Modeller för de processer genom vilka idéer och inflytande sprids genom ett socialt nätverk har studerats på ett antal områden, bland annat spridningen av medicinska och tekniska innovationer, det plötsliga och utbredda antagandet av olika strategier i spelteoretiska miljöer, och effekterna av "munnord" i främjandet av nya produkter. Motiverad av utformningen av virala marknadsföringsstrategier, Domingos och Richardson utgjorde ett grundläggande algoritmiskt problem för sådana sociala nätverksprocesser: om vi kan försöka övertyga en del av individer att anta en ny produkt eller innovation, och målet är att utlösa en stor kaskad av ytterligare adoptioner, vilken uppsättning individer bör vi rikta? Vi betraktar detta problem i flera av de mest studerade modellerna inom analys av sociala nätverk. Optimeringsproblemet med att välja de mest inflytelserika noderna är NP-hård här. De två konferensdokument som denna artikel bygger på (KDD 2003 och ICALP 2005) ger de första bevisbara approximationsgarantierna för effektiva algoritmer. Med hjälp av en Den här artikeln är en utökad version av två konferensbidrag [51, 52], som publicerades i KDD 2003 respektive ICALP 2005, respektive. * analysram baserad på submodulära funktioner, visar vi att en naturlig girig strategi får en lösning som är bevisligen inom 63% av optimal för flera klasser av modeller; vårt ramverk föreslår en allmän strategi för resonemang om prestandagarantier för algoritmer för dessa typer av påverkansproblem i sociala nätverk. Vi tillhandahåller också beräkningsexperiment på stora samarbetsnätverk som visar att våra approximationsalgoritmer, förutom sina bevisbara garantier, är betydligt bättre än perform nodeval-heuristik baserad på de välstuderade begreppen examenscentralitet och distanscentralitet från området sociala nätverk. Ett socialt nätverk-grafen över relationer och interaktioner inom en grupp av individer-spelar en grundläggande roll som ett medium för spridning av information, idéer, och inflytande bland sina medlemmar. En idé eller innovation kommer att framträda-till exempel, användningen av mobiltelefoner bland college studenter, antagandet av en ny drog inom läkaryrket, eller uppkomsten av en politisk rörelse i ett instabilt samhälle-och det kan antingen dö ut snabbt eller göra betydande intrång i befolkningen. Om vi vill förstå i vilken utsträckning sådana idéer antas, kan det vara viktigt att förstå hur dynamiken i antagandet sannolikt kommer att utvecklas inom det underliggande sociala nätverket: i vilken utsträckning människor sannolikt kommer att påverkas av sina vänners och kollegers beslut, eller i vilken utsträckning "ord-of-mouth"-effekterna kommer att få fäste. Sådana nätverk spridningsprocesser har en lång historia av studier i samhällsvetenskap. Några av de tidigaste systematiska undersökningarna inriktades på data om antagandet av medicinska och jordbruksinnovationer i både utvecklade och utvecklande delar av världen [23, 69, 79], i andra sammanhang, forskning har undersökt diffusionsprocesser för "ord-of-mouth" och "viral marknadsföring" effekter i framgången för nya produkter [8, 14, 26, 33, 32, 59, 68], plötsliga och utbredda antagandet av olika strategier i spelteoretiska miljöer [11, 29, 61, 85, 86], och problemet med kaskadfel i kraftsystem [7, 6]. Domingos och Richardson var motiverade av tillämpningar för marknadsföring och utgjorde ett grundläggande algoritmiskt problem för sådana system [26, 68]. Anta att vi har data på ett socialt nätverk, med uppskattningar av i vilken utsträckning individer påverkar varandra, och vi vill marknadsföra en ny produkt som vi hoppas kommer att antas av en stor del av nätverket. Premissen för viral marknadsföring är att genom att initialt rikta några "influentiella" medlemmar av nätverket-say, ge dem gratis prover av produkten-vi kan utlösa en kaskad av inflytande genom vilken vänner kommer att rekommendera produkten till andra vänner, och många individer kommer i slutändan att prova det. Men hur ska vi välja de få nyckelpersoner som vi kan använda för att så denna process? I [26, 68], denna fråga beaktades i en probabilistisk modell för interaktion; heuristik gavs för att välja kunder med en stor övergripande effekt på nätverket, och metoder utvecklades också för att dra slutsatsen den påverkan data som krävs för att posera dessa typer av problem. I den här artikeln betraktar vi frågan om att välja inflytelserika grupper av individer som ett problem i diskret optimering. Den optimala lösningen är NP-hård för de flesta modeller som har studerats, inklusive modellen av [26]. Den ram som föreslås i [68], å andra sidan, bygger på en enkel linjär modell där lösningen på optimeringsproblemet kan erhållas genom att lösa ett system med linjära ekvationer. Här fokuserar vi på en samling relaterade, NP-hårda modeller som har studerats ingående i sociala nätverk gemenskap, och få de första bevisbara approximationsgarantier för effektiv teori | Ett antal grundläggande modeller för påverkansanalys i sociala nätverk diskuteras i REF. | 7,214,363 | Maximizing the Spread of Influence through a Social Network | {'venue': 'Theory of Computing', 'journal': 'Theory of Computing', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 10,322 |
Numera väljer ett stort antal grupper att distribuera sina program till molnplattformar, särskilt för big data eran. För närvarande är hybridmolnet ett av de mest populära datorparadigmerna för att hålla de integritetsmedvetna applikationer som drivs av kraven på integritetsskydd och kostnadsbesparingar. Det är dock fortfarande en utmaning att förverkliga dataplacering med tanke på både energiförbrukningen i privata moln och kostnaden för att hyra de offentliga molntjänsterna. Mot bakgrund av denna utmaning föreslås en kostnads- och energimedveten dataplaceringsmetod, CEDP, för integritetsmedvetna applikationer över stora data i hybridmoln. Teknisk formaliserad analys av kostnader, åtkomsttid och energiförbrukning görs i hybridmolnsmiljön. Därefter är en motsvarande dataplaceringsmetod utformad för att uppnå kostnadsbesparingar för att hyra de offentliga molntjänsterna och energibesparingar för att utföra uppgifter inom de privata molnplattformarna. Experimentella utvärderingar bekräftar effektiviteten och ändamålsenligheten i vår föreslagna metod. | När det gäller att realisera dataplaceringen med tanke på både energiförbrukningen i privat moln och kostnaden för att hyra de offentliga molntjänsterna har författarna i REF föreslagit en kostnads- och energimedveten dataplaceringsmetod, för integritetsmedvetna applikationer över stora data i hybridmoln. | 46,806,728 | Data Placement for Privacy-Aware Applications over Big Data in Hybrid Clouds | {'venue': 'Security and Communication Networks', 'journal': 'Security and Communication Networks', 'mag_field_of_study': ['Computer Science']} | 10,323 |
Abstract-Mobile cloud computing är tänkt som ett lovande tillvägagångssätt för att öka beräkningskapacitet mobila enheter för framväxande resurshungriga mobila applikationer. I det här dokumentet föreslår vi ett spelteoretiskt tillvägagångssätt för att uppnå effektiv beräkning offloading för mobila molntjänster. Vi formulerar den decentraliserade beräkning offloading beslutsfattande problem bland användare av mobila enheter som en decentraliserad beräkning offloading spel. Vi analyserar den strukturella egenskapen i spelet och visar att spelet alltid medger en Nash jämvikt. Vi utformar sedan en decentraliserad beräkning offloading mekanism som kan uppnå en Nash jämvikt i spelet och kvantifiera dess effektivitet förhållande över den centraliserade optimal lösning. Numeriska resultat visar att den föreslagna mekanismen kan uppnå effektiv beräkning offloading prestanda och skala samt systemets storlek ökar. | I REF presenteras ett decentraliserat spel teoretiskt tillvägagångssätt för beräkning offloading. | 1,130,783 | Decentralized Computation Offloading Game For Mobile Cloud Computing | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 10,324 |
A b s t r a c t Mål: Syftet med denna studie var att utveckla en metod baserad på naturligt språkbehandling (NLP) som automatiskt kartlägger ett helt kliniskt dokument för att koda med modifiers och att kvantitativt utvärdera metoden. Metoder: Ett befintligt NLP-system, MedLEE, anpassades för att automatiskt generera koder. Metoden innebär matchning av strukturerad utdata genererad av MedLEE bestående av resultat och modifiers för att få den mest specifika koden. Återkallelse och precision som applicerats på Unidified Medical Language System (UMLS) kodning utvärderades i två separata studier. Återkallelse mättes med hjälp av en testuppsättning på 150 slumpmässigt utvalda meningar, som behandlades med MedLEE. Resultaten jämfördes med en referensstandard som fastställts manuellt av sju experter. Precision mättes med hjälp av en andra testuppsättning på 150 slumpmässigt utvalda meningar från vilka UMLS-koder automatiskt genererades med metoden och sedan validerades av experter. Resultat: Påminnelse om systemet för UMLS-kodning av alla termer var.77 (95% CI.72-.81), och för kodning termer som hade motsvarande UMLS-koder återkallande var.83 (.79-.87). Återkallelse av systemet för att extrahera alla termer var.84 (.81-.88). Recall of the experts varierade från.69 till.91 för att extrahera termer. Precisionen i systemet var.89 (.87-.91), och precisionen hos experterna varierade från.61 till.91. Utdrag av relevant klinisk information och UMLS-kodning utfördes med en metod baserad på NLP. Metoden verkade vara jämförbar med eller bättre än sex experter. Fördelen med metoden är att den kartlägger text till koder tillsammans med annan relaterad information, vilket gör den kodade utgången lämplig för effektiv hämtning. Den elektroniska patientjournalen innehåller en rik källa till värdefull klinisk information, som skulle kunna användas för ett brett spektrum av automatiserade applikationer som syftar till att förbättra vårdprocessen, såsom varning för potentiella medicinska fel, generera en patientproblemlista, och bedöma svårighetsgraden av ett tillstånd. I allmänhet är dock sådana tillämpningar ännu inte genomförbara eftersom en stor del av informationen är i textform, 1 som inte är lämplig att använda för andra automatiserade tillämpningar. För att informationen ska kunna utnyttjas effektivt av ett brett spektrum av kliniska tillämpningar måste den dessutom vara driftskompatibel mellan olika kliniska tillämpningar, olika kliniska domäner och olika institutioner. Projektet Clinical Document Architecture (CDA), 2 som är en viktig insats för interoperabilitet, har fastställt vikten av en gemensam väl avgränsad representationsmodell för varje dokument i en dokumentklass (t.ex. radiologirapporter) och även för begreppen i dokumenten. En effektiv metod som automatiskt kartlägger relevant text i kliniska dokument till standardiserade koncept skulle bidra till att främja CDA-insatsen. Många rapporter har publicerats 3-10 om metoder som automatiskt kartlägger klinisk text till begrepp inom ett standardiserat kodningssystem, såsom Uniified Medical Language System (UMLS). Dessa metoder, som i första hand har tillämpats på indexeringsprogram, använder metoder baserade på strängmatchning, statistisk bearbetning eller språklig bearbetning, och använder sig av en del av talmärkning (dvs. att klassificera ord som substantiv, verb etc.) följt av identifiering av substantivfraser. För korrekt insamling av klinisk information räcker det dock inte med att kodningsbegreppen i dokumenten isoleras från annan information, t.ex. modifiers, eftersom begreppens underliggande betydelse i hög grad påverkas av andra sambestämmande begrepp. Till exempel, i ett patientdokument, kan begrepp modifieras genom negation (dvs. utan signifikanta skakningar), genom tidsinformation (dvs. tidigare antagen för lunginflammation), genom familjehistoria (dvs. hjärthistoria) eller genom modifikationer som anger att händelsen inte kan ha inträffat (dvs., exponerad för tuberkulos, antagen för synkopeworkup). För att många automatiserade tillämpningar, t.ex. varningsprogram, ska kunna fungera effektivt måste man också redovisa modifikationer av begreppen. En del arbete med identifiering av negerade begrepp har rapporterats, 11, 12 vilket är avgörande för många automatiserade tillämpningar. Andra typer av modifiers upptäcktes dock inte. I denna rapport beskriver vi en kodningsmetod som använder avancerade NLP-tekniker för att generera strukturerad kodad utgång bestående av fynd och motsvarande modifiers. Metoden försöker hitta den mest granulära motsvarande kod genom att matcha den strukturerade utdata, som genererades som ett resultat av tolkning meningarna, med strukturer i en kodning tabell där strukturerna har associerats med koder. En kod erhålls genom att framgångsrikt matcha ett fynd tillsammans med modifiers, baserat på ett antagande att en match som består av ett fynd med de mest modifiers är att föredra framför en match bestående av samma fynd med färre modifiers eftersom det är den mest specifika. Till exempel, för meningen, Status efter hjärtinfarkt 1995, UMLS kod C0856742 (motsvarande UMLS konceptet post mi) skulle erhållas tillsammans med en datummodifierare med värdet 1995. Observera att koden C0027051 (motsvarande UMLS-konceptet myokardinfarkt) också skulle vara lämplig, men inte lika specifik som den som motsvarar post mi, och därför inte väljs. Dessutom beskriver vi också en utvärdering av metoden och de resultat som uppnåtts. Bakgrundsavsnittet diskuterar relaterat arbete, Metodavsnittet beskriver teknikerna och utvärderingsdesignen, Resultatavsnittet presenterar resultatmått, Diskussionsavsnittet diskuterar styrkan och svagheterna i vår metod och frågor i samband med kodning och utvärdering. | REF extraherar strukturerad produktion från anteckningar i form av Uniified Medical Language System (UMLS) koder. | 20,290,601 | Automated Encoding of Clinical Documents Based on Natural Language Processing | {'venue': 'Journal of the American Medical Informatics Association : JAMIA', 'journal': 'Journal of the American Medical Informatics Association : JAMIA', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 10,325 |
I de traditionella tillförlitliga multisändningssystemen för trådlösa cellulära nätverk överför basstationen (BS) upprepade gånger samma paket tills det tas emot av alla mottagare. Användningen av enhet-till-enhet (D2D) kommunikation kan kraftigt avlasta trafiken av BS. I detta dokument behandlas D2D-kommunikationsbaserad multisändning från BS till ett kluster av enheter som är nära varandra (t.ex. i samma byggnad). Hittills, den effektiva D2D retransmission system tillgängliga är att associera varje NACK-enhet (som inte korrekt tar emot data från BS) till några nära ACK-enhet (som korrekt tog emot data) för att bilda subkluster, och låta ACK-enheter återföra data till sina respektive tillhörande NACK-enheter i FDMA-läget genom att använda flera kanaler, syftar till att minimera tidsfrekvens resurskostnaden. Observera att de totala tillgängliga kanalerna är mycket begränsade och enheternas energi är en mycket värdefull resurs, i detta dokument, presenterar vi först subcluster-baserade enkanal D2D retransmission sätt där ACK-enheter använder samma kanal i TDMA-läget. Sedan, som syftar till att minimera den totala energiförbrukningen av retransmittorer, vi formulerar den gemensamma optimeringen av NACK-enheters association och retransmittorer överförings befogenheter att vara ett blandat heltal programmering problem. Slutligen föreslår vi en effektiv algoritm för detta problem för att hitta ett bra associationsmönster och överföringskrafter. Simuleringsresultat visar att med hjälp av D2D-kommunikation minskar flersändningstrafikbelastningen av BS avsevärt. Jämfört med sina motsvarigheter med ett fast antal återsändare minskar vårt system för vidaresändning i hög grad den totala energiförbrukningen hos återsändare. INDEX TERMS Mobila nätverk, multicast, enhet till enhet, energiförbrukning. | I REF utnyttjas D2D-kommunikation för vidaresändning av data, som tas emot i multisändning från basstationen (BS), genom att använda samma kanal (i stället för flera kanaler) i TDMA-läge. | 49,410,648 | Energy-Efficient D2D Communication Based Retransmission Scheme for Reliable Multicast in Wireless Cellular Network | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 10,326 |
Kompromissade webbplatser används ofta av angripare för att leverera skadligt innehåll eller för att vara värd phishing sidor för att stjäla privat information från sina offer. Tyvärr är de flesta av de riktade webbplatser hanteras av användare med liten säkerhetsbakgrund ofta oförmögen att upptäcka denna typ av hot eller att ha råd med en extern professionell säkerhetstjänst. I det här dokumentet testar vi webbhotellsleverantörernas förmåga att upptäcka komprometterade webbplatser och reagera på användarklagomål. Vi testar också sex specialiserade tjänster som ger säkerhet övervakning av webbsidor för en liten avgift. Under en 30-dagarsperiod var vi värd för våra egna sårbara webbplatser på 22 delade hostingleverantörer, inklusive 12 av de mest populära. Vi körde gång på gång fem olika attacker mot var och en av dem. Våra tester inkluderade en bot-liknande infektion, en drive-by nedladdning, uppladdning av skadliga filer, en SQL injektion stjäla kreditkortsnummer, och en phishing kit för en berömd amerikansk bank. Dessutom genererade vi också trafik från till synes giltiga offer för nätfiske och drive-by nedladdning webbplatser. Vi visar att de flesta av dessa attacker kunde ha upptäckts av gratis nätverk eller filanalysverktyg. Efter 25 dagar, om ingen skadlig aktivitet upptäcktes, började vi att lämna in klagomål missbruk till leverantörerna. Detta gjorde det möjligt för oss att studera hur webbhotellen reagerade på både verkliga och falska klagomål. Den allmänna bild vi fick av vårt studium är ganska alarmerande. Den stora majoriteten av leverantörerna, eller "add-on" säkerhetsövervakningstjänster, kan inte upptäcka de enklaste tecknen på skadlig aktivitet på värd webbplatser. | I REF mäter upphovsmännen webbhotellens förmåga att upptäcka utsatta webbplatser genom att distribuera sårbara webbplatser inom dessa webbhotellstjänster. | 3,631,440 | The role of web hosting providers in detecting compromised websites | {'venue': "WWW '13", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 10,327 |
Tillämpningen av nätverksvetenskap på de vetenskapliga disciplinerna strukturell biologi och biokemi, har gett viktiga nya insikter i karaktären och bestämningsfaktorer för proteinstrukturer, funktion, dynamik och vikningsprocessen. Framsteg i vidare förståelse proteinrelationer genom nätverk vetenskap har också omformat hur vi ser anslutning av proteiner i proteinet universum. Den kanoniska hierarkiska klassificeringen kan nu visualiseras till exempel som ett proteinveck. Denna översyn kommer att kartlägga flera viktiga framsteg inom det växande forskningsområde som bedrivs för att studera proteinstrukturer och vik med hjälp av nätverksstrategier. | Grön et al. REF författade en bra översiktsartikel som kartlägger flera viktiga framsteg inom det växande området proteinstruktur och vikforskning med hjälp av nätverksstrategier. | 13,084,469 | Protein structure networks | {'venue': 'Briefings in functional genomics', 'journal': 'Briefings in functional genomics', 'mag_field_of_study': ['Biology', 'Medicine']} | 10,328 |
Abstrakt. Vi inför övervakad latent Dirichlet allokering (sLDA), en statistisk modell av märkta dokument. Modellen rymmer en mängd olika responstyper. Vi härleder ett ungefärligt maxlikelihood-förfarande för parameteruppskattning, som bygger på variationsmetoder för att hantera outtröttliga bakväntningar. Förutsägelseproblem motiverar denna forskning: vi använder den monterade modellen för att förutsäga svarsvärden för nya dokument. Vi testar SLDA på två verkliga problem: film betyg förutspås från recensioner, och den politiska tonen i ändringar i den amerikanska senaten baserat på ändringstexten. Vi illustrerar fördelarna med sLDA kontra modern regulariserad regression, samt kontra en oövervakad LDA analys följt av en separat regression. | REF utvecklar en övervakad latent Dirichlet-fördelningsmodell (sLDA) för dokument-respons-par. | 7,375,081 | Supervised Topic Models | {'venue': None, 'journal': 'arXiv: Machine Learning', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 10,329 |
Abstract Software Product Lines (SPL) ger stöd för produktivitetsvinster genom systematisk återanvändning. Bland de olika kvalitetsattribut som stöder dessa mål, modularitet, stabilitet och uttrycksfullhet i funktionsspecifikationerna framträder deras sammansättning och konfigurationskunskap som strategiska värden i moderna programvaruutvecklingsparadigm. I detta dokument presenteras en metriskbaserad utvärdering som syftar till att bedöma hur väl de valda kvaliteterna stöds av scenariobaserade SPL-kravapproacher. De valda metoderna för denna studie spänner från typ av notation (text eller grafiskt baserad), stil för att stödja variabilitet (annotering eller komposition baserad), och specificering expressivitet. De jämförs med hjälp av de mätvärden som utvecklats i en uppsättning utgåvor från en exemplar fallstudie. Våra viktigaste resultat visar att kompositionsbaserade tillvägagångssätt har större potential att stödja modularitet och stabilitet, och att kvantifieringsmekanismer förenklar och ökar uttryckskraften i konfigurationskunskap och specifikationer sammansättning. | Vissa metoder specialiserar sig på att konfigurera scenariobaserade krav med hjälp av annotation-och sammansättningsbaserade tekniker REF. | 17,987,492 | Evaluating scenario-based SPL requirements approaches: the case for modularity, stability and expressiveness | {'venue': 'Requirements Engineering', 'journal': 'Requirements Engineering', 'mag_field_of_study': ['Computer Science']} | 10,330 |
Caching populära multimediainnehåll är ett lovande sätt att frigöra den ultimata potentialen för trådlösa nätverk. I detta dokument föreslår och analyserar vi cachebaserad innehållsleverans i ett trestegs heterogent nätverk (HetNet), där basstationer (BS), reläer och enhet-till-enhet (D2D) par ingår. Vi förespråkar proaktivt caching populärt innehåll i reläer och delar av användare med caching förmåga när nätverket är offpeak. Det cachade innehållet kan återanvändas för frekvent åtkomst till avlasta den cellulära nätverkstrafiken. Nodplatserna är först modellerade som ömsesidigt oberoende Poisson point-processer (PPPs) och motsvarande protokoll för innehållsåtkomst utvecklas. Den genomsnittliga ergodiska hastigheten och avbrottsannolikheten i nedlänken analyseras sedan teoretiskt. Vi härleder vidare genomströmningen och fördröjningen baserat på multiklass processor-delning kö modell och den kontinuerliga tiden Markov processen. Enligt det kritiska tillståndet i det stabila tillståndet i HetNet undersöks den maximala trafikbelastningen och den globala genomströmningsvinsten. Dessutom utvecklas effekterna av vissa viktiga nätverksegenskaper, t.ex. den heterogena förekomsten av multimediainnehåll, nodtätheter och den begränsade cachekapaciteten på systemets prestanda för att ge värdefull insikt. | Yang m.fl. REF lade fram en omfattande ram för D2D-kommunikation och förespråkade proaktivt cacheinnehåll i partiella användare med caching förmåga när nätverket är off-peak. | 14,642,929 | Analysis on Cache-Enabled Wireless Heterogeneous Networks | {'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 10,331 |
Parafrasgenerering är ett viktigt problem i NLP, särskilt i fråga svar, informationssökning, informationsutdrag, konversationssystem, för att nämna några. I detta dokument tar vi upp problemet med att generera parafraser automatiskt. Vår föreslagna metod är baserad på en kombination av djupa generativa modeller (VAE) med sekvens-till-sekvens modeller (LSTM) för att generera parafraser, givet en inmatning mening. Traditionella VAEs i kombination med återkommande neurala nätverk kan generera fri text, men de är inte lämpliga för parafrasgenerering för en viss mening. Vi tar itu med detta problem genom att konditionering både, kodare och avkodare sidor av VAE, på den ursprungliga meningen, så att det kan generera den givna meningens parafraser. Till skillnad från de flesta befintliga modeller är vår modell enkel, modulär och kan generera flera parafraser, för en viss mening. Kvantitativ utvärdering av den föreslagna metoden med hjälp av referensparafrasdata visar dess effektivitet och dess prestandaförbättringar jämfört med de senaste metoderna med en betydande marginal, medan kvalitativ mänsklig utvärdering visar att de genererade parafraserna är väl utformade, grammatiskt korrekta och relevanta för den ingående meningen. Dessutom utvärderar vi vår metod på en nyutgiven frågeparafras dataset, och etablerar en ny baslinje för framtida forskning. | Gupta m.fl. REF utforskade en VEA metod för att generera parafras meningar med hjälp av återkommande neurala nätverk. | 12,737,290 | A Deep Generative Framework for Paraphrase Generation | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 10,332 |
Abstrakt. I detta dokument analyserar vi de effekter som JPEG och JPEG2000-komprimering har på subrymdsbaserade ansiktsigenkänningsalgoritmer. Detta är den första omfattande studien av standard JPEG2000 kompressionseffekter på ansiktsigenkänning, samt en förlängning av befintliga experiment för JPEG-komprimering. Ett brett spektrum av bithastigheter (kompressionsförhållanden) användes på sondavbildningar och resultaten rapporteras för 12 olika subrymdsalgoritmer för ansiktsigenkänning. Effekter av bildkomprimering på igenkänningsprestanda är av intresse för tillämpningar där bildlagringsutrymme och bildöverföringstid är av avgörande betydelse. Det kommer att visas att inte bara att kompressionen inte försämrar prestanda, men det, i vissa fall, även förbättrar det något. Vissa oväntade effekter kommer att presenteras (som förmågan hos JPEG2000 att fånga den information som krävs för att känna igen förändringar orsakade av bilder tagna senare i tiden) och linjer för ytterligare forskning föreslås. | Referensreferensreferensen innehöll en detaljerad beskrivning av det experiment som utförts av Delac et al. Både JPEG och JPEG2000 komprimeringsmetod användes inom ett brett spektrum av subrymdsalgoritm. | 245,951 | Effects of JPEG and JPEG2000 Compression on Face Recognition | {'venue': 'ICAPR (2)', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 10,333 |
I detta dokument föreslår vi en metod för robust mätning av kärnans densitet. Vi tolkar en KDE med Gaussisk kärna som den inre produkten mellan en kartlagd testpunkt och centroiden för kartlagda träningspunkter i kärnans funktionsutrymme. Vår robusta KDE ersätter centroiden med en robust uppskattning baserad på M-skattning [1]. Den iterativt omviktade algoritmen minst kvadrater (IRWLS) för M-skattning beror endast på inre produkter, och kan därför implementeras med hjälp av kärntricket. Vi bevisar att IRWLS-metoden monotont minskar sitt objektiva värde vid varje iteration för en bred klass av robusta förlustfunktioner. Vår föreslagna metod tillämpas på syntetiska data och nätverkstrafikvolymer, och resultaten jämförs gynnsamt med standard KDE. Index Termskernel densitet uppskattning, M-skattare, outlier, kärna funktion utrymme, kärna trick | En robust kalkylator för kärnans densitet föreslogs i REF, genom att se standard KDE som ett medelvärde i ett funktionsutrymme, och uppskatta medelvärdet robust. | 5,832,354 | Robust kernel density estimation | {'venue': '2008 IEEE International Conference on Acoustics, Speech and Signal Processing', 'journal': '2008 IEEE International Conference on Acoustics, Speech and Signal Processing', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 10,334 |
I detta dokument tar vi itu med problemet med att generera föredragna planer genom att kombinera de kunskaper om procedurkontroll som anges av Hierarchiska Task Networks (HTNs) med rika kvalitativa användarpreferenser. Resultatet av vårt arbete är ett språk för att specificera användarpreferenser, skräddarsydda för HTN-planering, tillsammans med en påvisbart optimal preferensbaserad planerare, HTNPREF, som genomförs som en förlängning av SHOP2. För att beräkna föredragna planer föreslår vi en strategi baserad på framåtkedjad heuristisk sökning. Vår heurist använder en godtagbar utvärderingsfunktion som mäter tillfredsställelsen av preferenser framför partiella planer. Vår empiriska utvärdering visar effektiviteten hos vår HTNPREF-heuristik. Vi visar vår strategi sund och optimal när det gäller de planer den genererar genom att vädja till en situation kalkyl semantik av vårt preferensspråk och av HTN planering. Medan vårt genomförande bygger på SHOP2, de språk och tekniker som föreslås här är relevanta för ett brett spektrum av HTN planerare. | I REF föreslog vi ett kvalitativt språk som är mycket likt det föredragsspråk som diskuteras i detta dokument men som är anpassat till HTN-planering. | 6,606,315 | On Planning with Preferences in HTN | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 10,335 |
I [4], författarna tittar på probabilistiska gränser och lösningar för utforskning av anonyma oorienterade ringar av alla storlekar av en kohort av robotar. Med tanke på identiska, omedvetna och probabilistiska robotar visar de att åtminstone fyra av dem är nödvändiga för att lösa problemet. Dessutom ger de ett slumpmässigt protokoll för fyra robotar som arbetar i någon ring av storlek mer än åtta. Här avslutar vi frågan om optimal (w.r.t. kohortstorleken) ringutforskning av probabilistiska robotar. Vi föreslår faktiskt ett protokoll för fyra robotar som arbetar i vilken ring som helst som är mindre än eller lika med åtta. Genom att skriva detta protokoll med det under [4] får vi ett protokoll för alla ringstorlekar. | I REF gavs en optimal algoritm för probabilistisk undersökning av ringar av mindre storlek än åtta. | 14,873,507 | Optimal exploration of small rings | {'venue': "WRAS '10", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 10,336 |
Federerat lärande innebär nya utmaningar för statistik och system när det gäller utbildning av maskininlärningsmodeller över distribuerade nätverk av enheter. I detta arbete visar vi att multi-task lärande är naturligt lämpad för att hantera de statistiska utmaningarna i denna miljö, och föreslå en ny system-medveten optimeringsmetod, MOCHA, som är robust för praktiska systemfrågor. Vår metod och teori tar för första gången upp frågor om höga kommunikationskostnader, stragglers och feltolerans för distribuerat lärande med flera uppgifter. Den resulterande metoden uppnår betydande hastigheter jämfört med alternativ i den federerade inställningen, som vi demonstrerar genom simuleringar på verkliga federerade datauppsättningar. Mobiltelefoner, bärbara enheter och smarta hem är bara några få av de moderna distribuerade nätverk som genererar enorma mängder data varje dag. På grund av den växande lagrings- och beräkningskraften hos enheter i dessa nätverk blir det allt mer attraktivt att lagra data lokalt och driva mer nätverksberäkning till kanten. Det nascent fält av federerat lärande utforskar utbildning statistiska modeller direkt på enheter [35]. Exempel på potentiella tillämpningar är: inlärningskänsla, semantisk plats, eller aktiviteter för mobiltelefonanvändare; förutsäga hälsohändelser som lågt blodsocker eller hjärtinfarkt risk från bärbara enheter; eller upptäcka inbrott i smarta hem [3, 37, 40]. Efter [24, 34, 25] sammanfattar vi de unika utmaningarna med federerat lärande nedan. 1. Vad är det för fel på dig? Statistiska utmaningar: Syftet med federerat lärande är att passa en modell till data, {X 1,. .., X m }, genereras av m distribuerade noder. Varje nod, t... [m] samlar in data på ett icke-ID sätt över nätverket, med data om varje nod som genereras av en distinkt distribution X t... P t. Antalet datapunkter på varje nod, n t, kan också variera avsevärt, och det kan finnas en underliggande struktur närvarande som fångar förhållandet mellan noder och deras tillhörande distributioner. 2. Utgångspunkten är följande: Systemutmaningar: Det finns vanligtvis ett stort antal noder, m, i nätverket, och kommunikation är ofta en betydande flaskhals. Dessutom kan lagrings-, beräknings- och kommunikationskapaciteten för varje nod variera på grund av variationer i hårdvara (CPU, minne), nätverksanslutning (3G, 4G, WiFi) och effekt (batterinivå). Dessa systemutmaningar, tillsammans med obalanserade data och statistisk heterogenitet, gör frågor som t.ex. stragglers och feltolerans betydligt vanligare än i typiska datacentermiljöer. I detta arbete föreslår vi en modelleringsmetod som skiljer sig avsevärt från tidigare arbete med federerat lärande, där målet hittills har varit att utbilda en enda global modell över hela nätverket [24, 34, 25]. Istället tar vi itu med statistiska utmaningar i den federerade inställningen genom att lära sig separata modeller för varje nod, {w 1,. ..................................................... Detta kan naturligt fångas genom en multi-task lärande (MTL) ram, där målet är att överväga att passa separata men relaterade modeller samtidigt [13, 2, 54, 27]. Tyvärr är dagens inlärningsmetoder med flera uppgifter inte lämpade för att hantera de systemutmaningar som uppstår i samband med federerat lärande, inklusive höga kommunikationskostnader, stragglers och feltolerans. Att ta itu med dessa utmaningar är därför en viktig del av vårt arbete. * Författare bidrog lika mycket. ArXiv:1705.10467v1 [cs. LG] 30 maj 2017 2 Termen inlärning på enhet har använts för att beskriva både uppgiften modellutbildning och modelltjänst. På grund av tvetydigheten i denna fras använder vi uteslutande termen federerad inlärning. 3 Även om inte fokus för vårt arbete, Vi noterar integritet är en viktig oro i den federerade miljön, och att den integritet fördelar i samband med globala federerade lärande (som diskuteras i [34] ) också gäller vår strategi. | I detta tillvägagångssätt är det direkt att lära modeller över nätverket snarare än att överföra data till molnet REF. | 3,586,416 | Federated Multi-Task Learning | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 10,337 |
Abstract Sentiment Analysis (SA) är ett pågående forskningsområde inom textutvinning. SA är den beräkningsmässiga behandlingen av åsikter, känslor och subjektivitet i texten. Detta undersökningsdokument tar upp en omfattande översikt över den senaste uppdateringen på detta område. Många nyligen föreslagna algoritmers förbättringar och olika SA-tillämpningar undersöks och presenteras kortfattat i denna undersökning. Dessa artiklar kategoriseras efter deras bidrag i de olika SA-teknikerna. De relaterade fälten till SA (överföringsinlärning, detektering av känslor och uppbyggnad av resurser) som lockade forskare nyligen diskuteras. Huvudsyftet med denna undersökning är att ge nästan fullständig bild av SA-teknik och relaterade fält med korta detaljer. De viktigaste bidragen i detta dokument är de sofistikerade kategoriseringarna av ett stort antal aktuella artiklar och illustrationen av den senaste utvecklingen av forskningen inom känsloanalysen och dess relaterade områden. Ó 2014 Produktion och värdskap av Elsevier B.V. på uppdrag av Ain Shams University. | I dokument [10] REF undersöks och presenteras förbättringen av olika nyligen föreslagna analysalgoritmer och deras tillämpningar på ett omfattande sätt. | 16,768,404 | Sentiment analysis algorithms and applications: A survey | {'venue': None, 'journal': 'Ain Shams Engineering Journal', 'mag_field_of_study': ['Computer Science']} | 10,338 |
Abstract-I detta dokument anser vi problemet med full-duplex multiple-input multiple-output (MIMO) relä mellan multiantenna källa och destination noder. Den största svårigheten med att införa ett sådant system är att reläets utgående signal, på grund av den begränsade dämpningen mellan reläets sändande och mottagande antennsystem, kan överväldiga dess begränsade dynamiska ingångskretsar, vilket gör det svårt - om inte omöjligt - att återställa den önskade inkommande signalen. Medan explicit modellera sändare/mottagare dynamiska-intervall begränsningar och kanaluppskattning fel, vi härleda tighta övre och nedre gränser på endto-end uppnåelig hastighet av avkoda-och-framåt-baserade full-duplex MIMO reläsystem, och föreslå ett överföringssystem baserat på maximering av den nedre gränsen. Maximeringen kräver att vi (numeriskt) löser ett icke-konvext optimeringsproblem, för vilket vi specificerar ett nytt tillvägagångssätt baserat på bisektionssökning och gradientprojektion. För att få insikter i systemutformningens kompromisser får vi också en analytisk approximation till den uppnåeliga takten och visar numeriskt dess exakthet. Vi studerar sedan beteendet hos den uppnåeliga hastigheten som en funktion av signal-till-brusförhållande, interferens-till-brusförhållande, sändare/mottagare dynamisk räckvidd, antal antenner, och träningslängd, med hjälp av optimerad halv-duplex signalering som baslinje. Index Terms-MIMO reläer, full-duplex reläer, begränsat dynamiskt område, kanaluppskattning. | Sändaren/mottagarens dynamiska intervallbegränsningar och kanaluppskattningsfel vid MIMO DF-reläet anses uttryckligen i REF, och ett FD-överföringssystem föreslås för att maximera en lägre gräns för end-to-end uppnåelig hastighet genom att utforma överföringsmatrisen. | 7,696,154 | Full-Duplex MIMO Relaying: Achievable Rates Under Limited Dynamic Range | {'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science']} | 10,340 |
GPU arkitekturer blir allt viktigare i multi-core eran på grund av deras höga antal parallella processorer. Prestandaoptimering för flerkärniga processorer har varit en utmaning för programmerare. Dessutom är det ännu svårare att optimera för energiförbrukning. Tyvärr, som ett resultat av det stora antalet processorer, har energiförbrukningen hos många huvudprocessorer som GPUs ökat avsevärt. Därför föreslår vi i detta dokument en integrerad modell för beräkning av effekt och prestanda (IPP) för en GPU-arkitektur för att förutsäga det optimala antalet aktiva processorer för en viss applikation. Den grundläggande intuitionen är att när ett program når den maximala minnesbandbredden, med hjälp av fler kärnor inte resulterar i prestandaförbättringar. Vi utvecklar en empirisk maktmodell för GPU. Till skillnad från de flesta tidigare modeller, som kräver uppmätta exekveringstider, maskinvaruprestandaräknare eller arkitektoniska simuleringar, förutsäger IPP exekveringstider för att beräkna dynamiska effekthändelser. Vi använder sedan resultatet av IPP för att kontrollera antalet körkärnor. Vi modellerar också den ökning av energiförbrukningen som följer av temperaturökningen. Med det förutsagda optimala antalet aktiva kärnor visar vi att vi kan spara upp till 22,09 % av GPU-energiförbrukningen och i genomsnitt 10,99 % av den för de fem bandbreddsbegränsade riktmärkena. | De utökar senare sin modell och utvecklar en integrerad effekt- och prestandamodell för GPU:erna REF. | 96,439 | An integrated GPU power and performance model | {'venue': "ISCA '10", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 10,341 |
En rad naturliga språk bearbetning uppgifter innebär att göra bedömningar om semantiska släktskap med ett par meningar, såsom känna igen Textual Entailing (RTE) och svarsval för Question Answering (QA). En viktig utmaning som dessa uppgifter står inför gemensamt är bristen på uttrycklig anpassning mellan ett meningspar. Vi fångar anpassningen genom att använda en ny probabilistisk modell som modellerar trädredigering på beroendeparsträd. Till skillnad från tidigare träd-edit modeller som kräver en separat anpassning-finnande fas och tillgripa ad-hoc avståndsmått, vår metod behandlar anpassningar som strukturerade latenta variabler, och erbjuder en principiell ram för att införliva komplexa språkliga funktioner. Vi demonstrerar robustheten i vår modell genom att utföra experiment för RTE och QA, och visar att vår modell presterar konkurrenskraftigt på båda uppgifterna med samma uppsättning allmänna funktioner. | REF klarar av anpassningen mellan en mening par genom att använda en probabilistisk modell som modellerar Treedit verksamhet på beroende pars träd. | 16,725,676 | Probabilistic Tree-Edit Models with Structured Latent Variables for Textual Entailment and Question Answering | {'venue': 'COLING', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 10,342 |
Transaktionsstöd är avgörande för mobil datahantering. Särskilda egenskaper hos mobila miljöer (t.ex. variabel bandbredd, frånkopplingar, begränsade resurser på mobila värddatorer) gör traditionella transaktionshanteringsmetoder inte längre lämpliga. Flera modeller för mobila transaktioner har föreslagits, men det är svårt att få en överblick över dem alla. I detta dokument analyseras och jämförs flera bidrag till mobila transaktioner. Analysen skiljer två grupper av modeller. Den första gruppen innehåller förslag där transaktioner helt eller delvis utförs på mobila värddatorer. I denna grupp fokuserar vi på ACID-fastigheter stöd. Den andra gruppen behandlar transaktioner som begärts av mobila värddatorer och utförs på det trådbundna nätverket. I detta fall äventyras inte ACID:s egenskaper och fokus ligger på att stödja mobila värdrörelser under transaktionsgenomförandet. Diskussioner som pekar på begränsningar, intressanta lösningar och forskningsperspektiv kompletterar denna uppsats. | Papperet Ref jämför och analyserar de olika bidragen till modeller för mobil transaktion. | 1,413,700 | A Survey of Mobile Transactions | {'venue': 'Distributed and Parallel Databases', 'journal': 'Distributed and Parallel Databases', 'mag_field_of_study': ['Computer Science']} | 10,343 |
Facebook AI Research (FAIR) 0 0,2 0,4 0,6 0,8 1 sannolikhet för marksanning klass 0 1 2 3 4 5 förlust = 0 = 0,5 = 1 = 2 = 5 väl hemligstämplade exempel CE(pt) = − log(pt) FL(pt) = −(1 − pt) γ log(pt) Figur 1. Vi föreslår en ny förlust vi kallar Focal Loss som lägger till en faktor (1 - pt) γ till standardkorsettropikriteriet. Ställa in γ > 0 minskar den relativa förlusten för välklassificerade exempel (pt >.5), sätta mer fokus på hårda, felklassificerade exempel. Som våra experiment kommer att visa, möjliggör den föreslagna fokal förlust utbildning mycket noggranna täta objekt detektorer i närvaro av ett stort antal enkla bakgrund exempel. De högsta noggrannhet objekt detektorer hittills är baserade på en två-stegsinflygning populär av R-CNN, där en klassificering tillämpas på en gles uppsättning kandidat objekt platser. Däremot har enstegsdetektorer som appliceras över en regelbunden, tät provtagning av möjliga objektplatser potential att bli snabbare och enklare, men har följt noggrannheten hos tvåstegsdetektorer hittills. I detta dokument undersöker vi varför så är fallet. Vi upptäcker att den extrema förgrunds-bakgrundsklassobalansen under utbildningen av täta detektorer är den centrala orsaken. Vi föreslår att man tar itu med denna obalans genom att omforma den normala korsentropiförlusten så att den minskar den förlust som hänförs till välklassificerade exempel. Vår roman Focal Loss fokuserar träningen på en gles uppsättning hårda exempel och förhindrar det stora antalet enkla negativ från att överväldiga detektorn under träningen. För att utvärdera effektiviteten av vår förlust, vi utforma och träna en enkel tät detektor som vi kallar RetinaNet. Våra resultat visar att när RetinaNet tränas med fokal förlust, kan matcha hastigheten på tidigare en-stegs detektorer samtidigt överträffa noggrannheten hos alla befintliga state-of-the-art två-stegs detektorer. 50 100 150 200 250 inferenstid (ms) 28 30 32 34 36 38 COCO AP B C D E F G RetinaNet-50 RetinaNet-101 AP-tid [A] YOLOv2 † [26] 21.6 25 [B] SSD321 [21] 28.0 61 [C] DSSD321 [9] 28.0 85 [D] R-FCN ∂ [3] 29.9 85 [E] SSD513 [21] 31.2 125 [F] DSSD513 [9] 33,2 156 [G] FPN FFRN [19] 36,2 172 RetinaNet-50-500 32,5 73 RetinaNet-101-500 34,4 90 RetinaNet-101-800 37.8 198 † Inte plottad tid Figur 2. Varvtal (ms) jämfört med noggrannhet (AP) för COCO test-dev. Vår enkla enstegs-RetinaNet-detektor, som möjliggörs av fokalförlusten, överträffar alla tidigare enstegs- och tvåstegsdetektorer, inklusive det mest rapporterade systemet för snabbare R-CNN [27] från [19]. Vi visar varianter av RetinaNet med ResNet-50-FPN (blå cirklar) och ResNet-101-FPN (orange diamanter) på fem skalor (400-800 pixlar). Ignorera lågnoggrannheten regim (AP < 25), RetinaNet bildar en övre kuvert av alla aktuella detektorer, och en variant tränas för längre (inte visas) uppnår 39,1 AP. Närmare uppgifter ges i 5 §. | identifierade klassobalans under utbildningen som det största hindret för att förhindra att enstegsdetektorer (t.ex. SSD och YOLO) uppnår den senaste noggrannheten och föreslog att man skulle ta itu med detta genom att införa en ny förlustfunktion som heter Focal Loss (FL) REF. | 206,771,220 | Focal Loss for Dense Object Detection | {'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']} | 10,344 |
Abstract -- Högpresterande paketomkopplare använder ofta en centraliserad schemaläggare (även känd som en skiljedomare) för att bestämma konfigurationen av en icke-blockerande crossbar. Schemaläggaren begränsar ofta systemets skalbarhet på grund av dess besluts frekvens och komplexitet. En färsk tidning av C.-S. Chang et al. introducerar en intressant tvåstegsbrytare, där varje steg använder en trivial deterministisk sekvens av konfigurationer. Omkopplaren är enkel att genomföra i hög hastighet och har visat sig ge 100 % genomströmning för en bred klass av trafik. Dessutom finns det en gräns mellan den genomsnittliga fördröjningen av tvåstegsbrytaren och en idealisk utgångsströmbrytare. Men i sin enklaste form, växlar felsekvenser paket med ett godtyckligt belopp. I detta dokument, bygger på två-stegs switch, presenterar vi en algoritm som heter Full Frames First (FFF), som förhindrar felsekvensering samtidigt som prestandafördelar (i termer av genomströmning och fördröjning) av den grundläggande två-stegs switch. | En nackdel med tvåstegs omkopplaren är att den kan uppleva ou-of-sekvens paket leverans REF. | 8,866,686 | Maintaining packet order in two-stage switches | {'venue': 'Proceedings.Twenty-First Annual Joint Conference of the IEEE Computer and Communications Societies', 'journal': 'Proceedings.Twenty-First Annual Joint Conference of the IEEE Computer and Communications Societies', 'mag_field_of_study': ['Computer Science']} | 10,345 |
Sammanfattning av denna webbsida: Bärbara enheter (WD) börjar i allt högre grad användas för insatser för att främja välbefinnande genom att minska ångeststörningar (AD). Elektrokardiogram (EKG) signal är en av de vanligaste biosignaler för att bedöma det kardiovaskulära systemet eftersom det signifikant återspeglar aktiviteten i det autonoma nervsystemet under emotionella förändringar. Lite är känt om noggrannheten av att använda EKG-funktioner för att upptäcka ADs. Under vår litteraturöversikt fann man dessutom ett begränsat antal studier som omfattade EKG-insamling med hjälp av WD för att främja psykiskt välbefinnande. Således, för att bekräfta tillförlitligheten av EKG funktioner för att upptäcka ångest i WD, vi granskade 1040 artiklar, och endast 22 övervägdes för vår studie; specifikt 6 om panik, 4 om posttraumatisk stress, 4 om generaliserad ångest, 3 om social, 3 om blandad, och 2 om tvångssyndrom artiklar. De flesta experimentella studier gav kontroversiella resultat. Vid genomgången av var och en av dessa dokument blev det uppenbart att användningen av EKG-funktioner för att upptäcka olika typer av ångest är kontroversiell, och användningen av EKG-WD är ett framväxande forskningsområde, med begränsade bevis som tyder på dess tillförlitlighet. På grund av den kliniska karaktären hos de flesta studier är det svårt att fastställa den specifika effekten av EKG-funktioner på detektion av AD, vilket tyder på behovet av mer robusta studier efter våra föreslagna rekommendationer. | Tillämpligheten av att utnyttja elektrokardiogram (EKG) funktioner för att upptäcka ångeststörningar med hjälp av bärbara enheter analyserades i en nyligen genomgång av state of the art REF. | 73,479,281 | Assessing Anxiety Disorders Using Wearable Devices: Challenges and Future Directions | {'venue': 'Brain Sciences', 'journal': 'Brain Sciences', 'mag_field_of_study': ['Psychology', 'Medicine']} | 10,346 |
Även om det har skett anmärkningsvärda framsteg i utförandet av visuella igenkänningsalgoritmer, de senaste modellerna tenderar att vara exceptionellt datahungriga. Stora märkta träningsdata, dyra och tråkiga att producera, krävs för att optimera miljontals parametrar i de djupa nätverksmodellerna. De tillgängliga datamängderna släpar efter i tillväxten av modellkapaciteten och blir snabbt föråldrade i fråga om storlek och densitet. För att kringgå denna flaskhals föreslår vi att öka den mänskliga ansträngningen genom ett delvis automatiserat märkningssystem som utnyttjar djupt lärande med människor i slingan. Med början från en stor uppsättning kandidatbilder för varje kategori, vi iterativt prov en delmängd, be folk att märka dem, klassificera de andra med en utbildad modell, dela upp uppsättningen i positiva, negativa och omärkta baserat på klassificering förtroende, och sedan iterera med den omärkta uppsättningen. För att bedöma effektiviteten i detta kaskadförfarande och möjliggöra ytterligare framsteg inom visuell igenkänningsforskning konstruerar vi ett nytt bilddataset, LSUN. Den innehåller cirka en miljon märkta bilder för var och en av 10 scenkategorier och 20 objektkategorier. Vi experimenterar med att utbilda populära konvolutionsnätverk och upptäcker att de uppnår betydande prestandavinster när de tränas på detta dataset. | I REF används en iterativ loop bestående av människor och djupinlärning för att generera en datauppsättning som innehåller cirka en miljon märkta bilder av tio scenkategorier och tjugo objektkategorier. | 8,317,437 | LSUN: Construction of a Large-scale Image Dataset using Deep Learning with Humans in the Loop | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 10,347 |
Abstract-Managing nätverk och tjänster i stora virtuella företag kräver ofta betydande expertis för att dechiffrera och förena information från flera heterogena källor. Detta innebär en betydande utmaning eftersom personen med expertisen för nätverkshantering inte nödvändigtvis är den person som har uppgiften eller visionen om hur man maximerar värdet av dessa tjänster. Omvänt skulle det vara värdefullt för dedikerade nätverksförvaltare att ha insikt i betydelsen av de tjänster som körs över nätet. I detta dokument presenteras en strategi för att ge användarna möjlighet att övervaka och så småningom hantera nätverksenheter och tjänster som de inte nödvändigtvis är experter på. Detta dokument beskriver denna utmaning, presenterar två möjliggörande tekniska ramar och erbjuder två övertygande fallstudier som för närvarande behandlas i projektet Federated, Autonomic Management of End-to-End Communications Services (FAME). På grund av den ständigt ökande mängden övervakningsdata blir frågan om vad som ska visas allt viktigare än hur man ska visa den [1]. När man överväger data från heterogena källor blir det en viktig fråga att relatera informationen så att den kan jämföras och prioriteras. Ett semantiskt lager ovanpå dessa strömmar av data krävs för att ge ett gemensamt ramverk och ordförråd så att jämförelser kan göras. Men en mekanism för att dynamiskt strukturera informationen behövs också för att semantiskt prioritera den, så endast den information som är mest relevant för slutanvändarens behov presenteras. Genom att införa lämpliga semantik och prioriteringar kan en icke-expert användare erbjudas insikter i den underliggande informationen för att göra det möjligt för dem att övervaka och hantera underliggande nätverk och tjänster som informationen härrör från. Det arbete som presenteras i detta dokument presenterar en strategi för att fånga upp och använda domänexpertis för att stödja visualiseringar av sådan övervaknings- och ledningsinformation. Genom att tillämpa domänkunskap på det strukturerade utforskandet av information [2] har användarna befogenhet att gräva bortom en uppsättning statiska resultat för att utforska en uppsättning meningsfulla svar. Det semantiska attributet Reconciliation Architecture (SARA) [3] beskriver ett system som utnyttjar experternas subjektiva expertis för att avgöra vilken information, från flera källor, som kan förenas för att belysa betydelsen för slutanvändaren. Detta dokument ger en översikt över SARA och introducerar Insight Framework and Authoring Tool. Insikt underlättar skapandet av flera visuellt prioriterade informationsöversikter med ett sofistikerat informationsprospekteringsparadigm, att sekvensera och prioritera information för visualisering. I detta dokument presenteras en översikt över SARA och Insight i samband med två fallstudier som belyser utmaningarna från Federated, Autonomic Management of End-to-End Communications Services (FAME) [4] Irish Strategic Research Cluster. Dokumentet börjar med att presentera de visuella övervaknings- och ledningsutmaningar som FAME står inför. Harmonisering av övervakningsdata kräver mekanismer för att kartlägga och federera de stora volymer av lågnivådata som produceras genom övervakningssystem till semantiskt meningsfull information och kunskap som kan förbrukas diskret av alla parter som är involverade i att producera, leverera eller konsumera en kommunikationstjänst. Alla komplexa system kommer att ha domänexperter som är mycket bekanta med hur de ingående delarna av systemet kan hanteras, och är särskilt medvetna om de fullständiga driftsbegränsningarna för dessa delar. Kodning av denna expertis på ett sätt som kan utnyttjas av andra intressenter utgör en betydande utmaning [5], och kräver utan tvekan betydande framsteg inom kunskapsrepresentation och teknik. Fördelarna med att göra det möjligt att koda, aggregera och tolka sådan expertis inom olika områden gör det möjligt för andra berörda parter i andra system att övervaka andra delar av systemet och relatera deras funktion till sitt eget system. Det gör det också möjligt att dela och återanvända gemensam kunskap på flera olika områden. Ur praktisk synvinkel finns det tre stora problem med nuvarande övervaknings- och förvaltningsmetoder som detta arbete försöker lösa. Den första är den inneboende heterogeniteten i förvaltningsinformationen. Till exempel använder många system egna verktyg eller kommandoradsgränssnitt för att konfigurera enheter, nätverk och tjänster, men övervakar deras prestanda med hjälp av de andra övervakningsverktygen som SNMP. Detta kräver en skicklig mänsklig operatör som kan förstå båda språken för att säkerställa att ett utfärdat kommando utförs korrekt, där denna process kan kräva dagar eller veckor av tråkig iterativ finjustering. Den andra är den potentiellt stora mängd data som produceras, vilket till exempel ses med "alarmstormar" som är vanliga i nätverk under stress. Detta leder till "informationsöverbelastning", vilket komplicerar en redan svår uppgift att hantera nätverk, som förvärras när end-to-end-frågor måste förstås av olika system med hjälp av olika förvaltningsfilosofier. Den tredje är förekomsten av Spis-pipe-baserad uppdelning mellan end-toend-användarkvalitet av erfarenhetsfokuserad övervakning och typiskt tekniskt eller geografiskt bundna nätverks- eller nätverkselementövervaknings- och konfigurationsfunktioner. | Vår forskning bygger också på REF för att uttrycka en semantiskt berikad visualiseringsmetod för icke-kunniga användare att övervaka nätverk och tjänster. | 9,545,410 | Towards non-expert users monitoring networks and services through semantically enhanced visualizations | {'venue': '2010 International Conference on Network and Service Management', 'journal': '2010 International Conference on Network and Service Management', 'mag_field_of_study': ['Computer Science']} | 10,348 |
ABSTRACT Under de senaste åren har aktiv forskning om algoritmutveckling för optimal drift av hemenergiledningssystem (HEMS) genomförts. Målet är att beräkna optimerade scheman för utbytbara hushållsapparater. Detta är baserat på efterfrågeflexibilitet (DR) samverkade med förnybara energikällor och energilagringssystem optimal leverans (DRSREOD). En förbättrad algoritm för ett DRSREOD-baserat HEMS föreslås i detta dokument. Denna heuristiska-baserade algoritm tar hänsyn till DR, solcellers tillgänglighet, laddningstillstånd och laddning/urladdningshastigheter för lagringsbatteriet och delningsbaserad parallell drift av mer än en kraftkälla för att leverera den erforderliga belastningen. Hems-problemet har lösts för att minimera kostnaden för energi (CE) och tidsbaserat obehag (TBD) med motstridiga kompromisser. Den blandade schemaläggningen av apparater (fördröjd schemaläggning för vissa apparater och avancerad schemaläggning för andra) införs för att förbättra CE- och TBD-prestandaparametrarna. Ett system med inkrementell blockhastighet ingår också för att minska toppbelastningen. En uppsättning optimerade avvägningar mellan CE och TBD har beräknats för att ta itu med multi-objektivitet med hjälp av en multi-objektiv genetisk algoritm (MOGA) med Pareto optimering (PO) för att utföra kompromissanalysen och för att göra det möjligt för konsumenterna att välja den mest genomförbara lösningen. På grund av den snabba ökningen av efterfrågan på el står utvecklingsländerna inför omfattande utsläpp av last (LS). En innovativ algoritm föreslås också för optimal dimensionering av en avsändbar generator (DG) som kan leverera DRSREOD-baserade HEMS under LS timmar för att säkerställa en oavbruten strömförsörjning. Den föreslagna MOGA/PO-baserade algoritmen gör det möjligt för konsumenterna att välja ett GD av optimal storlek bland ett antal optimala val baserade på kompromisser mellan GD storlek, CE och TBD. INDEX TERMS Demand response, hem energihanteringssystem, avancerad och försenad schemaläggning, leverans av förnybar energi och energilagringssystem, generator dimensionering och utmatning, multi-objektive genetisk algoritm och Pareto optimering. | I energisnåla kraftnät används dessutom DRSREODLDG-baserade HEMS med LSD-kompenserande generaldirektorat för att säkerställa en oavbruten strömförsörjning under LSD-timmarna REF. | 4,594,649 | An Innovative Heuristic Algorithm for IoT-Enabled Smart Homes for Developing Countries | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 10,349 |
Ith löftet om potentiellt obegränsad effekt och skalbarhet, molntjänster (särskilt infrastruktur som en tjänst [IaaS]) stöder utbyggnaden av tillförlitliga tjänster inom flera tillämpningsområden. På sakernas Internet (IoT) kan molnlösningar förbättra kvaliteten på tjänsten (QoS), främja nya affärsmöjligheter inom flera områden, såsom hälso- och sjukvård, finansiering, trafikhantering och katastrofhantering. Tillgängliga mogna lösningar, såsom Amazon IoT och Google Cloud Dataflow, visar framgången för moln-centrerade IoT-programmeringsmodeller och resurs orkestrering tekniker. Den senaste tidens tekniska framsteg har dock stört den nuvarande centraliserade molndatamodellen och flyttat molnresurser nära användarna. Denna utveckling är främst nödvändig för anpassning av molnet paradigm till IoT fenomenet. Det ökande behovet av att stödja interaktion mellan sakernas internet och molndatasystem har också lett till skapandet av egg computing-modellen, som syftar till att tillhandahålla bearbetnings- och lagringskapacitet som en utvidgning av tillgängliga IoT-enheter, utan att behöva flytta data/behandling till ett centralt molndatacenter (t.ex. Amazon Web Services). Detta minskar kommunikationsförseningarna och den totala storleken på de uppgifter som behöver migreras över Internet samt offentliga och privata datacenter. Osmotic computing är ett nytt paradigm som drivs av den betydande ökningen av resurskapacitet/kapacitet vid nätverkskanten, tillsammans med stöd för protokoll för dataöverföring som gör det möjligt för sådana resurser att interagera mer sömlöst med datacenterbaserade tjänster. Det syftar till mycket distribuerade och federerade miljöer, och möjliggör automatisk spridning av mikrotjänster som är sammansatta och sammankopplade över både kant- och molninfrastrukturer. I kemi representerar "osmos" den sömlösa diffusionen av molekyler från en högre till en lägre koncentrationslösning. Vi anser att denna process bör representera hur tjänster kan migreras över datacenter till nätverkskanten. Osmotic computing innebär därför en dynamisk hantering av tjänster och mikrotjänster över moln- och kantdatacenter, tar itu med frågor som rör distribution, nätverk och säkerhet, vilket ger tillförlitlig IoT-stöd med specificerade nivåer av QoS. Osmotic computing ärver utmaningar och frågor relaterade till elasticitet i molnet | På grundval av observationer om att den senaste tidens tekniska framsteg rör Clouds centraliserade datorkapacitet nära användarna, har osmotic computing föreslagits för att representera det nya paradigmet för dynamisk mikroserviceorienterad datorteknik som utnyttjar både Cloud och Edge resurser REF. | 3,059,730 | Osmotic Computing: A New Paradigm for Edge/Cloud Integration | {'venue': 'IEEE Cloud Computing', 'journal': 'IEEE Cloud Computing', 'mag_field_of_study': ['Computer Science']} | 10,350 |
Motivering: Nästa generations DNA-sekvenseringsmaskiner genererar en enorm mängd sekvensdata, vilket ställer oöverträffade krav på traditionella enkelprocessorer som ändrar algoritmer. CloudBurst är en ny parallellläsningsalgoritm optimerad för att kartlägga nästa generations sekvensdata till det mänskliga genomet och andra referensgenom, för användning i en mängd olika biologiska analyser inklusive SNP upptäckt, genotypning och personlig genomik. Det modelleras efter det korta läs-mapping programmet RMAP, och rapporterar antingen alla justeringar eller den otvetydiga bästa anpassningen för varje avläsning med ett antal missmatchningar eller skillnader. Denna nivå av känslighet kan vara oöverkomligt tidskrävande, men CloudBurst använder open-source Hadoop genomförande av MapReduce för att parallellisera körning med flera compute noder. Resultat: CloudBurst kör tid skalor linjärt med antalet avläsningar kartlagda, och med nära linjär upphastighet som antalet processorer ökar. I en 24-processorkärna konfiguration, CloudBurst är upp till 30 gånger snabbare än RMAP kör på en enda kärna, samtidigt som du beräknar en identisk uppsättning av justeringar. Med hjälp av ett större fjärrmoln med 96 kärnor förbättrade CloudBurst prestanda med > 100 gånger, vilket minskar körtiden från timmar till bara minuter för typiska jobb som innebär kartläggning av miljontals korta avläsningar till det mänskliga genomet. Tillgänglighet: CloudBurst är tillgänglig med öppen källkod som modell för parallellisering av algoritmer med MapReduce på http://cloudburst- | Cloudburst använder Hadoop för att kartlägga nästa generations sekvensdata REF. | 2,638,482 | CloudBurst: highly sensitive read mapping with MapReduce | {'venue': 'Bioinformatics', 'journal': 'Bioinformatics', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 10,351 |
Sammanfattning När storskaliga katastrofer inträffar måste evakueringar snabbt evakueras till säkra platser. De kanske emellertid inte har råd att få tillräckligt med information för sina evakueringar i sådana uppkommande situationer. I det här dokumentet föreslår vi en automatisk evakueringsguide med hjälp av evakuerade mobila noder, t.ex. smarta telefoner. Den viktigaste idén för att uppnå automatisk evakuering guide är implicita interaktioner mellan evakuerade och deras mobila noder. Varje mobil nod försöker navigera sin evakuering genom att presentera en evakueringsväg. Samtidigt kan den också spåra den faktiska evakueringsvägen för evakueringen som banan genom att regelbundet mäta hans/hennes positioner. Det föreslagna systemet uppskattar automatiskt blockerade vägsegment från skillnaden mellan den presenterade evakueringsvägen och den faktiska evakueringsvägen och räknar sedan om den alternativa evakueringsvägen. Dessutom delar evakueringar också sådan information mellan dem genom direkt trådlös kommunikation med andra mobila noder och med en server via återstående kommunikationsinfrastrukturer. Genom simuleringsförsök visar vi att 1) det föreslagna systemet Science and Technology, 8916-5 Takayama-cho, Ikoma, 630-0192, Japan 128 Geoinformatica (2018) 22:127-141 fungerar bra när graden av skador är hög och/eller vägsegment ständigt blockeras, 2) den genomsnittliga evakueringstiden kan förbättras även i liten penetrationsgrad i det föreslagna systemet, och 3) den direkta trådlösa kommunikationen kan stödja många evakueringar på nästan samma nivå som kommunikationsinfrastrukturen när antalet evakuerade blir stort. | Eftersom det kan vara svårt för evakuerade att registrera informationen till sina mobila noder i framväxande situationer, Komatsu et al. föreslå en automatisk evakueringsguide baserad på implicit samarbete mellan evakuerade och deras mobila noder REF. | 43,891,797 | Automatic evacuation guiding scheme based on implicit interactions between evacuees and their mobile nodes | {'venue': 'GeoInformatica', 'journal': 'GeoInformatica', 'mag_field_of_study': ['Geography', 'Computer Science']} | 10,352 |
Abstract-Automatisk segmentering i MR-hjärnbilder är viktigt för kvantitativ analys i storskaliga studier med bilder förvärvade i alla åldrar. Detta dokument presenterar en metod för automatisk segmentering av MR-hjärnbilder i ett antal vävnadsklasser med hjälp av ett konvolutionellt neuralt nätverk. För att säkerställa att metoden får exakta segmenteringsdetaljer samt rumslig konsistens använder nätverket flera patchstorlekar och flera konvolutionskärnstorlekar för att få information i flera skalar om varje voxel. Metoden är inte beroende av explicita egenskaper, utan lär sig att känna igen den information som är viktig för klassificeringen baserad på utbildningsdata. Metoden kräver endast en anatomisk MR-bild. Segmenteringsmetoden tillämpas på fem olika datauppsättningar: koronal T 2 -viktade bilder av prematura spädbarn förvärvade vid 30 veckors postmenstruella ålder (PMA) och 40 veckor PMA, axial T 2 -viktade bilder av prematura spädbarn förvärvade vid 40 veckor PMA, axial T 1 -viktade bilder av åldrande vuxna förvärvade vid en genomsnittlig ålder av 70 år, och T 1 -viktade bilder av unga vuxna förvärvade vid en genomsnittlig ålder av 23 år. Metoden erhöll följande genomsnittliga Dice-koefficienter för alla segmenterade vävnadsklasser för varje datamängd: 0,87, 0,82, 0,84, 0,86 respektive 0,91. Resultaten visar att metoden får korrekta segmenteringar i alla fem uppsättningar, och därmed visar dess robusthet mot skillnader i ålder och förvärv protokoll. Index Terms-djup inlärning, konvolutionella neurala nätverk, automatisk bildsegmentering, prematura neonatal hjärna, vuxen hjärna, MRT. | Moeskops m.fl. REF presenterade en flerskalig 2D CNN-arkitektur, som gav exakta segmenteringar och rumslig överensstämmelse med hjälp av en enda bildmodalitet (dvs. T2w MRT). | 5,829,509 | Automatic segmentation of MR brain images with a convolutional neural network | {'venue': 'IEEE Transactions on Medical Imaging, 35(5), 1252-1261 (2016)', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics', 'Medicine']} | 10,353 |
Abstrakt. Handhållna enheter som smartphones har blivit en viktig plattform för att få tillgång till Internettjänster. Den lilla, mobila karaktären hos dessa enheter resulterar i en unik blandning av nätverksanvändning. Andra studier har använt Wi-Fi och 3G trådlösa spår för att analysera session, rörlighet och prestanda egenskaper för handhållna enheter. Vi kompletterar dessa studier genom vår unika studie av skillnaderna i innehåll och flödesegenskaper för handhållen respektive icke handhållen trafik. Vi analyserar paketspår från två separata trådlösa campusnätverk, med 3 dagars trafik för 32 278 unika enheter. Trender för handdatorer inkluderar låg UDP-användning, höga volymer HTTP-trafik och en större andel videotrafik. Våra observationer kan informera nätverkshantering och mobil systemdesign. | Gember et.al har tillhandahållit en jämförande studie av total användning av handhållna och icke handhållna enheter i ett campusnätverk i REF. | 264,539 | A comparative study of handheld and non-handheld traffic in campus wifi networks | {'venue': 'In PAM', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 10,354 |
Abstract-I detta papper tittar vi på problemet med korrekt rekonstruera distribuerade signaler genom insamling av ett litet antal prover vid en datainsamlingspunkt. De tekniker som vi utnyttjar för att göra det är Compressive Sensing (CS) och Principal Component Analysis (PCA). PCA används för att hitta transformationer som sparifierar signalen, som krävs för CS att hämta, med god approximation, den ursprungliga signalen från ett litet antal prover. Vårt tillvägagångssätt anpassar sig dynamiskt till icke-stationära verkliga världssignaler genom onlineuppskattning av deras korrelationsegenskaper i rum och tid; dessa utnyttjas sedan av PCA för att härleda omvandlingarna för CS. Tillvägagångssättet är lättåtkomligt och robust, oberoende av det specifika routingprotokollet som används och som i hög grad kan överträffa standardsystem för insamling av uppgifter. Effektiviteten i vår återställningsalgoritm, i form av antal överföringar i nätverket kontra återuppbyggnadsfel, visas för syntetiska såväl som för verkliga signaler som vi samlat från en faktisk trådlös sensor nätverk (WSN) distribution. Vi betonar att vår lösning inte är begränsad till WSN, utan lätt kan tillämpas på andra typer av nätverksinfrastrukturer som kräver en approximation online av stora och distribuerade datamängder. | I REF presenteras ett system för datainsamling genom gemensam CS-analys och huvudkomponentanalys (PCA). | 5,747,124 | Data Acquisition through Joint Compressive Sensing and Principal Component Analysis | {'venue': 'GLOBECOM 2009 - 2009 IEEE Global Telecommunications Conference', 'journal': 'GLOBECOM 2009 - 2009 IEEE Global Telecommunications Conference', 'mag_field_of_study': ['Computer Science']} | 10,355 |
Abstrakt. Vi anser online routing algoritmer för routing mellan hörnen av inbäddade planar straight linje grafer. Våra resultat inkluderar (1) två deterministiska minneslösa routingalgoritmer, en som fungerar för alla Delaunay triangulationer och den andra som fungerar för alla vanliga trianguleringar, (2) en randomiserad minneslös algoritm som fungerar för alla trianguleringar, (3) en O(1) minnesalgoritm som fungerar för alla konvexa underavdelningar, (4) en O(1) minnesalgoritm som approximerar den kortaste vägen i Delaunay triangulationer, och (5) teoretiska och experimentella resultat på konkurrenskraften hos dessa algoritmer. Nyckelord. Routing, Online algoritmer, Delaunay trianguleringar, kortaste vägen, spänner över väg 1. Inledning. Att finna vägar, eller routing, är centralt för ett antal områden, inklusive geografiska informationssystem, stadsplanering, robotik och kommunikationsnät. I många fall är kunskap om den miljö där routing äger rum inte tillgänglig i förväg, och fordonet/roboten/packet måste lära sig denna information genom utforskning. Algoritmer för routing i dessa typer av miljöer kallas online [3] routingalgoritmer. I detta papper vi anser online routing i följande abstrakta inställning: Miljön är en planar rak linje graf [17], T, med n hörn, vars kanter viktas av Euclidean avstånd mellan sina endpoints, källan v src och destination v dst är hörn av T, och ett paket kan bara röra sig på kanter av T. Inledningsvis, ett paket bara vet v src, v dst, och N (v src ), där N (v ) betecknar den uppsättning hörn i anslutning till v. Vi klassificerar online routing algoritmer baserat på deras användning av minne och / eller randomisering. Definiera v cur som den vertex vid vilken paketet för närvarande lagras. En routing algoritm kallas minneslös om nästa steg som tas av ett paket beror endast på v cur, v dst, och N (v cur ). En algoritm randomiserades om nästa steg som tas av ett paket väljs slumpmässigt från N (v cur ). En randomiserad algoritm är minneslös om den distribution som används för att välja mellan N (v cur ) är en funktion endast v cur, v dst, och N (v cur ). Motiveringen för att studera minneskraven för routingalgoritmer kommer från kommunikationsnät, där minne som används av en algoritm resulterar i huvudinformation som färdas med ett paket. Eftersom denna information endast används för routing och inte är till någon nytta för avsändaren eller mottagaren, producerar den effektivt en minskning av kommunikationsbandbredden. För en algoritm A säger vi att en graf besegrar A om det finns en källa/destination par så att ett paket aldrig når destinationen när den börjar vid källan. Om A hittar en väg P från v src till v dst kallar vi P A vägen från v src till v dst. Här använder vi termen väg i intuitiv betydelse snarare än en strikt graf teoretisk känsla, eftersom P kan besöka samma vertex mer än en gång. I detta dokument betraktar vi också, som ett specialfall, en klass av "väluppfostrade" trianguleringar. Voronoi diagram [16] av S är en uppdelning av utrymme i celler så att alla punkter i en Voronoi cell är närmare samma element p på S än någon annan punkt i S. Delaunay triangulation är den raka-line ansikte dubbla av | Som ett undantag, det visades att på Delaunay triangulations finns det en algoritm som är konkurrenskraftig jämfört med den kortaste vägen mellan källan och destinationen REF. | 11,554,451 | Online Routing in Triangulations | {'venue': 'in Proc. of the 10 th Annual Int. Symp. on Algorithms and Computation ISAAC', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 10,356 |
Vi beskriver utformningen och användningen av ett system som underlättar utbytet av kalenderinformation mellan fjärrbaserade, multigenerationella familjemedlemmar. De flesta tidigare arbeten inom detta område omfattar programvara som gör det möjligt för yngre familjemedlemmar att övervaka sina föräldrar. Vi har emellertid funnit att äldre vuxna är lika, om inte mer intresserade av yngre familjemedlemmars aktiviteter. Det största hindret för dem att delta i informationsutbyte är själva tekniken. Därför har vi utvecklat ett flerskiktsgränssnitt som erbjuder enkel interaktion till äldre användare. I vårt system kan användare välja att mata in information i en datoriserad kalender eller skriva den för hand på digitala papperskalendrar. All information delas automatiskt mellan alla i den distribuerade familjen. Genom att göra gränssnittet mer tillgängligt för äldre användare främjar vi symmetriskt utbyte av information mellan både äldre och yngre familjemedlemmar. Vi presenterar vår deltagande design process, beskriver användargränssnittet, och rapporterar om en undersökande fältstudie i tre hushåll i en utökad familj. | Ett annat exempel är de delade familjekalendrarna som underlättar utbytet av kalenderinformation mellan flera generationers familjemedlemmar REF. | 17,182,946 | Shared family calendars: Promoting symmetry and accessibility | {'venue': 'TCHI', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 10,357 |
Vi tar itu med problemet med storskalig visuell platsigenkänning, där uppgiften är att snabbt och korrekt känna igen platsen för en given frågebild. Vi presenterar följande tre huvudsakliga bidrag. Först utvecklar vi en konvolutionell neurala nätverk (CNN) arkitektur som kan tränas på ett end-to-end sätt direkt för platsen erkännande uppgift. Huvudkomponenten i denna arkitektur, NetVLAD, är ett nytt generaliserat VLAD-lager, inspirerat av "Vector of Locally Aggregated Descriptors" bildrepresentation som vanligen används i bildhämtning. Lagret kan enkelt anslutas till alla CNN-arkitekturer och är kompatibelt med träning via backpropagation. För det andra utvecklar vi ett utbildningsförfarande, baserat på en ny svagt övervakad rankning förlust, för att lära sig parametrar för arkitekturen på ett end-to-end sätt från bilder som skildrar samma platser över tid laddas ner från Google Street View Time Machine. Slutligen visar vi att den föreslagna arkitekturen avsevärt överträffar icke-lärande bildrepresentationer och off-the-shelf CNN-deskriptorer på två utmanande plats igenkänningsriktmärken, och förbättrar över nuvarande toppmoderna kompakta bildrepresentationer på standardiserade riktmärken för hämtning av bilder. | REF Layern kan enkelt anslutas till alla CNN-arkitekturer och lär sig parametrar för arkitekturen på ett end-to-end-sätt. | 44,604,205 | NetVLAD: CNN Architecture for Weakly Supervised Place Recognition | {'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 10,358 |
Abstrakt. Vi bevisar #P-hårdheten av räkneproblemen i samband med olika tillfredsställelse, graf och kombinatoriska problem, när de är begränsade till plana fall. Dessa problem inkluderar 3Sat, 1-3Sat, 1-Ex3Sat, Minimum Vertex Cover, Minimum Dominating Set, Minimum Feedback Vertex Set, X3C, Partition Into Trianglar och Clique Cover. Vi bevisar också NP-fullständigheten av de Ambious Tillfredsställande problem [23] och D Pfullständighet (med avseende på slumpmässig polynom reducibilitet) av de unika tillfredsställande problem [27] som är förknippade med flera av de ovan nämnda problemen, när de är begränsade till plana fall. Tidigare, mycket få #P-hårdhet resultat, inga NP-hårdhet resultat, och inga D P-fullständighet resultat var kända för att räkna problem, tvetydiga tillfredsställelse problem respektive unika tillfredsställande problem, när de begränsas till plana fall. Om man antar P = NP, en korollary av ovanstående resultat är (i) Det finns inga tillnärmelsesalgoritmer för problemen med maximering eller minimering av en linjär objektiv funktion som är föremål för ett planar system av linjära ojämlikhet begränsningar över heltalen. Nyckelord. planar, 3Sat, diagram, #P-komplett, D P-komplett, NP-komplett AMS-ämnesklassificeringar. 68Q15, 68R10. 1. Vad är det för fel på dig? Inledning. Ett antal uppsatser i litteraturen [1, 5, 20, 21, 25], etc., har övervägt komplexiteten i att räkna problem, visar många sådana problem att vara # P-fullständig. Andra tidningar har studerat komplexiteten i Ambigous och Unique satisfiability problem [23, 27], visar sådana problem att vara NP-hård respektive D Phard 1. Ytterligare andra dokument [3, 4, 5, 6, 15] har övervägt komplexiteten i beslutsproblem när de är begränsade till plana fall, vilket visar att många sådana problem är NP-hårda. I denna uppsats kombinerar vi dessa forskningslinjer och bevisar för första gången att även när det är begränsat till plana fall, är många räkneproblem fortfarande #P-fullständiga, många tvetydiga tillfredsställande problem fortfarande NP-fullständiga och många unika tillfredsställande problem fortfarande D P -hård. Tidigare, mycket få #P-hårdhet resultat, inga NP-hårdhet resultat, och inga D P-fullständighet resultat var kända för att räkna problem, tvetydiga tillfredsställelse problem respektive unika tillfredsställande problem, när de begränsas till plana fall. Sådana resultat presenteras för flera tillfredsställande, graf och kombinatoriska problem. Dessa resultat visar att planarräkning, planar tvetydig tillfredsställelse och planar unika tillfredsställande problem är lika svåra som godtyckliga sådana problem, med | Mer nyligen, Hunt et al. bevisade #P-hårdheten hos många grafräkningsproblem när det är begränsat till plana instanser REF. | 5,948,453 | The Complexity of Planar Counting Problems | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 10,359 |
Abstract-Integreringen av kognitiva radioapparater och trådlösa sensornätverk möjliggör ett nytt paradigm för kommunikation där sensornoder kan undvika kraftigt trånga överföringsband genom att justera sina överföringsparametrar till mindre trånga band tack vare den kognitiva radiokapaciteten. I en sådan inställning, sensor noder fungerar som en sekundär användare, opportunistiskt få tillgång till lediga kanaler inom ett band som ursprungligen licensierats till en primär användare. I det här dokumentet diskuterar vi problemet med hur man samlar kognitiva radiosensornoder i en dynamisk frekvensmiljö som ställs in av de primära användarna. Vi introducerar Kognitiv LEACH (CogLEACH), som är en spektrum-medveten förlängning av protokollet Low Energy Adaptive Clustering Hierarchy (LEACH). CogLEACH är ett snabbt, decentraliserat, spektrum-medvetet och energieffektivt klusterprotokoll för kognitiva radiosensornätverk. CogLEACH använder antalet lediga kanaler som en vikt i sannolikheten för att varje nod ska bli ett klusterhuvud. Vi visar att CogLEACH förbättrar nätverkets genomströmning och livslängd jämfört med det vanliga LEACH-protokollet som fungerar i samma inställningar. | I litteraturen REF föreslogs en kognitiv LEACH (CogLEACH) för CRSN. | 6,162,309 | CogLEACH: A spectrum aware clustering protocol for cognitive radio sensor networks | {'venue': '2014 9th International Conference on Cognitive Radio Oriented Wireless Networks and Communications (CROWNCOM)', 'journal': '2014 9th International Conference on Cognitive Radio Oriented Wireless Networks and Communications (CROWNCOM)', 'mag_field_of_study': ['Computer Science']} | 10,360 |
Många djupa neurala nätverk tränas på naturliga bilder uppvisar ett märkligt fenomen gemensamt: på det första lagret de lär sig funktioner som liknar Gabor filter och färg blobs. Sådana första lager funktioner verkar inte vara specifika för en viss datauppsättning eller uppgift, men allmänt i det att de är tillämpliga på många datauppsättningar och uppgifter. Funktionerna måste så småningom övergå från allmän till specifik av det sista skiktet av nätverket, men denna övergång har inte studerats i stor utsträckning. I detta papper kvantifierar vi experimentellt generalitet kontra specificitet av neuroner i varje lager av ett djupt konvolutionellt neuralt nätverk och rapporterar några överraskande resultat. Överförbarheten påverkas negativt av två olika problem: (1) specialiseringen av högre lagerneuroner till deras ursprungliga uppgift på bekostnad av prestanda på måluppgiften, vilket förväntades, och (2) optimering svårigheter relaterade till delning av nätverk mellan co-anpassade neuroner, som inte förväntades. I ett exempel nätverk tränas på ImageNet, visar vi att någon av dessa två frågor kan dominera, beroende på om funktioner överförs från botten, mitten eller toppen av nätverket. Vi dokumenterar också att överförbarheten av funktioner minskar när avståndet mellan basuppgiften och måluppgiften ökar, men att överföra funktioner även från avlägsna uppgifter kan vara bättre än att använda slumpmässiga funktioner. Ett sista överraskande resultat är att initiering av ett nätverk med överförda funktioner från nästan alla lager kan ge en boost till generalisering som dröjer även efter finjustering till målet dataset. | Feature överförbarhet av djupa neurala nätverk har studerats ingående i REF. | 362,467 | How transferable are features in deep neural networks? | {'venue': 'Advances in Neural Information Processing Systems 27, pages 3320-3328. Dec. 2014', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 10,361 |
Vi presenterar en randomiserad algoritm som beräknar en minsta Spanning Tree (MST) i O(log * n) rundor, med hög sannolikhet, i den överbelastade Clique modellen för distribuerad dator. I den här modellen, indata är en graf på n noder, initialt varje nod vet bara sina incidenter kanter, och per runda kan varje två noder byta O(log n) bitar. Vår viktigaste tekniska nyhet är en O(log * n) Graph Connectivity algoritm, vars hjärta är en (rekursiv) skogstillväxt metod, baserad på en kombination av två idéer: en gleshetskänslig skissning som syftar till glesa grafer och en slumpmässig kantprovtagning som syftar till täta grafer. Vårt resultat förbättras betydligt över O(loggloggloggen n) algoritmen av Hegeman et al. [PODC 2015] och algoritmen O(log log n) för Lotker et al. [SPAA 2003; SICOMP 2005]. | I den överbelastade klicken kan MST-problemet lösas mycket snabbare: Ghaffari et al. REF gav en algoritm som löser problemet i O(log * n) rundor med meddelanden av storlek O(log n). | 8,232,138 | MST in Log-Star Rounds of Congested Clique | {'venue': "PODC '16", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 10,362 |
Vi föreslår ett nytt ramverk för att uppskatta generativa modeller via en kontradiktorisk process, där vi samtidigt utbildar två modeller: en generativ modell G som fångar datadistributionen, och en discriminativ modell D som uppskattar sannolikheten för att ett prov kommer från träningsdata snarare än G. Utbildningsförfarandet för G är att maximera sannolikheten för att D gör ett misstag. Detta ramverk motsvarar ett minimax 2-spelarspel. I utrymmet för godtyckliga funktioner G och D finns en unik lösning, där G återvinner träningsdatadistributionen och D är lika med 1 2 överallt. I det fall där G och D definieras av flerskiktsperceptroner kan hela systemet tränas med backpropagation. Det finns inget behov av någon Markov kedjor eller ovalsade approximativa inference nätverk under vare sig utbildning eller generering av prover. Experiment visar ramens potential genom kvalitativ och kvantitativ utvärdering av de producerade proven. | Goodfellow m.fl. föreslog ett generativt kontradiktoriskt ramverk som kunde uppskatta generativa modeller via en kontradiktorisk process, där en generativ modell G och en discriminativ modell D samtidigt utbildades REF. | 1,033,682 | Generative Adversarial Nets | {'venue': 'NIPS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 10,363 |
Abstract-Recently, Rao-Blackwellized partikelfilter (RBPF) har införts som ett effektivt sätt att lösa den samtidiga lokalisering och kartläggning problem. Detta tillvägagångssätt använder ett partikelfilter där varje partikel bär en individuell karta över miljön. En viktig fråga är därför hur man kan minska antalet partiklar. I detta dokument presenterar vi adaptiva tekniker för att minska detta antal i en RBPF för att lära nätkartor. Vi föreslår ett tillvägagångssätt för att beräkna en korrekt förslagsfördelning, med hänsyn inte bara till robotens rörelser, utan också till den senaste observationen. Detta minskar drastiskt osäkerheten om robotens position i filtrets förutsägelsesteg. Dessutom presenterar vi ett tillvägagångssätt för att selektivt genomföra omsampling, vilket allvarligt minskar problemet med partikelutarmning. Experimentella resultat utförda med riktiga mobila robotar i stora inomhus- och utomhusmiljöer illustrerar fördelarna med våra metoder jämfört med tidigare tillvägagångssätt. Index Terms-Adaptive omsampling, förbättrat förslag, rörelsemodell, Rao-Blackwellized partikelfilter (RBPF), samtidig lokalisering och kartläggning (SLAM). | I detta dokument tillämpar vi en variant av vår kartläggningsmetod REF som tillämpar ett Rao-Blackwellized partikelfilter med en informerad förslagsfördelning för att effektivt ta prover på nästa generation partiklar. | 321,256 | Improved Techniques for Grid Mapping With Rao-Blackwellized Particle Filters | {'venue': 'IEEE Transactions on Robotics', 'journal': 'IEEE Transactions on Robotics', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 10,364 |
Vi föreslår en ny teknik för multiple-input multiple-output (MIMO) radar med samtidiga antenner som vi kallar fasad-MIMO radar. Den nya tekniken har fördelarna med MIMO radar utan att offra den största fördelen med fasad radar som är den sammanhållna bearbetningsvinsten vid den sändande sidan. Kärnan i den föreslagna tekniken är att dela upp sändarmatrisen i ett antal underarrays som är tillåtna att överlappa. Därefter används varje subarray för att konsekvent överföra en vågform som är ortogonal till de vågformer som överförs av andra subarrays. Konsekvent bearbetningsvinst kan uppnås genom att utforma en viktvektor för varje delarray för att bilda en stråle mot en viss riktning i rymden. Dessutom kombineras underarrays tillsammans för att bilda en MIMO radar vilket resulterar i högre upplösningskapacitet. De betydande förbättringar som den föreslagna fasade MIMO-radartekniken erbjuder jämfört med tidigare tekniker demonstreras analytiskt och genom simuleringar genom analys av motsvarande strålmönster och uppnåeliga utsignal-till-brus-plus-interferensförhållanden. Både analys- och simuleringsresultat validerar effektiviteten hos den föreslagna stegvisa MIMO-radarn. | I REF har författarna föreslagit en annan typ av MIMO-radar som de kallar Fasad-MIMO-radar. | 6,818,917 | Phased-MIMO Radar: A Tradeoff Between Phased-Array and MIMO Radars | {'venue': 'A. Hassanien and S.A. Vorobyov,"Phased-MIMO radar: A tradeoff between phased-array and MIMO radars,"IEEE Trans. Signal Processing, vol. 58, no. 6, pp. 3137-3151, June 2010', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 10,365 |
Abstrakt. Användningsfall är en populär metod för att fånga och strukturera programvarukrav. Informella användningsfall är både en välsignelse och en förbannelse. Det möjliggör enkel tillämpning och inlärning men är ett hinder för automatiserade metoder för testfallsgenerering, validering eller simulering. Detta dokument presenterar användningsfall diagram, ett exakt sätt att specificera användningsfall som syftar till att behålla fördelarna med enkel förståelse men också stöder automatiserad analys. Den grafiska och abstrakta syntaxen för användningsfallsdiagram ges tillsammans med en skiss av deras formella semantik. | I REF föreslås en grafisk notation kallad "Use Case Charts" för användningsfallsspecifikation. | 10,917,763 | Specifying precise use cases with use case charts | {'venue': 'MoDELS Satellite Events. Volume 3844 of Lecture Notes in Computer Science', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 10,366 |
Datauppsättningar är en integrerad del av samtida objektigenkänningsforskning. De har varit den främsta orsaken till de betydande framstegen på området, inte bara som källa till stora mängder utbildningsdata, utan också som ett sätt att mäta och jämföra prestanda hos konkurrerande algoritmer. Samtidigt har datauppsättningar ofta fått skulden för att ha begränsat fokus på objektigenkänningsforskning och reducerat den till ett enda referensresultatnummer. Vissa datauppsättningar, som började som datainsamlingsinsatser som syftade till att representera den visuella världen, har blivit slutna världar för sig själva (t.ex. Corel världen, Caltech-101 världen, PASCAL VOC världen). Med fokus på att slå de senaste referensnumren på den senaste datauppsättningen, har vi kanske förlorat det ursprungliga syftet ur sikte? Syftet med detta dokument är att göra en bedömning av nuvarande tillstånd för igenkänningsdataset. Vi presenterar en jämförelsestudie med hjälp av en uppsättning populära datauppsättningar, utvärderade utifrån ett antal kriterier, inklusive: relativ datafördel, korsdatauppsättning generalisering, effekter av slutna världen antagande, och urvalsvärde. De experimentella resultaten, några ganska överraskande, föreslår riktningar som kan förbättra datainsamling samt algoritm utvärdering protokoll. Men mer allmänt är förhoppningen att stimulera diskussionen i samhället om denna mycket viktiga, men i stort sett försummade fråga. | Med tanke på CNN:s kraftfulla kapacitet att överanpassa till specifika data, är vi inspirerade att se över arbetet med REF, som presenterade en jämförande studie av populära objekt erkännande dataset med målen att förbättra datainsamling och utvärdering protokoll. | 2,777,306 | Unbiased look at dataset bias | {'venue': 'CVPR 2011', 'journal': 'CVPR 2011', 'mag_field_of_study': ['Computer Science']} | 10,367 |
Code-switching (CS), praxis att växla mellan två eller flera språk i konversationer, är genomgripande i de flesta flerspråkiga samhällen. CS-texter har ett komplext samspel mellan språk och förekommer i informella sammanhang som gör dem svårare att samla in och konstruera NLP-verktyg för. Vi närmar oss detta problem genom språkmodellering (LM) på en ny hindiengelska blandad corpus som innehåller 59 189 unika meningar som samlats in från bloggande webbplatser. Vi implementerar och diskuterar olika språkmodeller som härrör från en flerskiktad LSTM-arkitektur. Vi hypothesize att kodning språkinformation stärker en språkmodell genom att hjälpa till att lära sig code-switching punkter. Vi visar att vår bäst presterande modell uppnår en test perplexitet på 19.52 på CS corpus som vi samlade in och bearbetade. På dessa data visar vi att vår prestanda är en förbättring jämfört med AWD-LSTM LM (en senaste toppmodern på enspråkig engelska). | Språkmodellering (LM) om HIN-ENG-språktexter har föreslagits av REF. | 51,867,289 | Language Informed Modeling of Code-Switched Text | {'venue': 'CodeSwitch@ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 10,368 |
Inlärningsanalys är ett viktigt område för teknikförstärkt lärande som har vuxit fram under det senaste årtiondet. Denna genomgång av området inleds med en genomgång av de tekniska, pedagogiska och politiska faktorer som har drivit utvecklingen av analys i utbildningsmiljöer. Den fortsätter med att kartlägga framväxten av inlärningsanalys, inklusive deras ursprung i 1900-talet, utvecklingen av datadriven analys, ökningen av lärandefokuserade perspektiv och inflytandet av nationella ekonomiska bekymmer. Nästa fokus ligger på relationen mellan lärandeanalys, datautvinning och akademisk analys. Slutligen undersöks utvecklingen av forskningsområden för lärandeanalys, och en rad framtida utmaningar identifieras. | Området Learning Analytics utvecklas snabbt och skiftar gradvis från teknik till utbildningsfokus REF. | 10,976,921 | Learning analytics: drivers, developments and challenges | {'venue': None, 'journal': 'International Journal of Technology Enhanced Learning', 'mag_field_of_study': ['Computer Science']} | 10,369 |
Generativa kontradiktoriska nät [8] introducerades nyligen som ett nytt sätt att träna generativa modeller. I detta arbete introducerar vi den villkorliga versionen av generativa kontradiktoriska nät, som kan konstrueras genom att helt enkelt mata data, y, vi vill villkora både generator och discriminator. Vi visar att denna modell kan generera MNIST siffror som är konditionerade på klass etiketter. Vi illustrerar också hur denna modell kan användas för att lära sig en multimodal modell, och ger preliminära exempel på en applikation för bildmärkning där vi visar hur denna metod kan generera beskrivande taggar som inte ingår i utbildningsetiketter. | Till exempel uppnådde den villkorliga GAN REF detta genom att förse både generatorn och discriminatorn med en klassetikett. | 12,803,511 | Conditional Generative Adversarial Nets | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 10,370 |
Befolkningens åldrande och deras växande önskan att leva självständigt motiverar utvecklingen av välfärds- och hälsovårdsmodeller. Befintliga metoder baserade på den direkta heden-övervakning med hjälp av kroppens sensornätverk (BSN) är exakta och exakta. Men deras påträngande förmåga orsakar icke-acceptans. Nya metoder syftar till indirekt övervakning genom övervakning av aktiviteter i det dagliga livet, vilket visar sig vara en lämplig lösning. ADL övervakningssystem använder många heterogena sensorer, är mindre påträngande, och är billigare än BSN, dock, utbyggnad och underhåll av trådlösa sensornätverk (WSN) hindrar dem från en utbredd acceptans. I detta arbete presenteras en ny teknik för att övervaka den mänskliga aktiviteten, baserad på icke-inträngande belastningsövervakning (NILM). I förslaget används endast smarta mätdata, vilket leder till minsta påträngande förmåga och en potentiell massiv användning till minsta möjliga kostnad. Detta skulle kunna vara nyckeln till att utveckla hållbara hälso- och sjukvårdsmodeller för smarta hem som kan uppfylla äldre människors krav. Denna studie använder också Dempster-Shafer teorin för att ge en daglig poäng normalitet med avseende på det vanliga beteendet. Detta tillvägagångssätt har utvärderats med hjälp av verkliga datauppsättningar och dessutom presenteras en benchmarking mot en Gaussisk blandningsmodell. | I REF kombinerades NILM-informationen med hjälp av Dempster-Shafer-teorin. | 14,494,549 | Assessing Human Activity in Elderly People Using Non-Intrusive Load Monitoring | {'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']} | 10,371 |
Det finns en hel del bevis för att nätnät (statiska multihop trådlösa) nätverk blir allt populärare, både i den akademiska litteraturen och i det kommersiella utrymmet. Inget av de tidigare arbetena har dock utvärderat genomförbarheten av tillämpningar på mesh genom användning av utplacerade nät och verklig användartrafik. Den senaste tekniken är användningen av utplacerade testbäddar med syntetiska spår som består av slumpmässiga trafikmönster. I detta dokument utvärderar vi genomförbarheten av ett nätnät för ett helt trådlöst kontor med hjälp av spår av kontorsanvändare och en faktisk 21-node multi-radio mesh testbädd i ett kontorsområde. Till skillnad från tidigare mesh studier som har undersökt routing design i detalj, undersöker vi hur olika kontors mesh design val påverkar prestanda hos användartrafik. Från våra spår av 11 användare som sträcker sig över en månad, identifierar vi 3 en timmes spårperioder med olika egenskaper och utvärderar nätverksprestanda för dem. Dessutom överväger vi olika användar-server placering, olika trådlösa hårdvara, olika trådlösa inställningar och olika routing mätvärden. Vi finner att vår infångade trafik skiljer sig avsevärt från den syntetiska arbetsbelastning som vanligtvis används i det tidigare arbetet. Vår spårnings- och återspelningsmetod gör att vi direkt kan kvantifiera genomförbarheten av kontorsmaskor genom att mäta den ytterligare fördröjning som uppstår vid enskilda transaktioner som görs av användarapplikationer. Prestanda på vårt mesh-nätverk beror på vald routingmetod, placeringen av användaren/servern och trafikbelastningsperioden. Valet av trådlös hårdvara och trådlösa inställningar har en betydande inverkan på prestanda under tung belastning och utmanande placering. Slutligen drar vi slutsatsen att det under de flesta förhållanden är möjligt att använda alltrådlösa kontorsmaskor för våra spår och utplacerade system. I de flesta fall drabbas enskilda transaktioner av ytterligare förseningar under 20 ms över nätet. Vi anser att detta är en godtagbar fördröjning för de flesta applikationer där ett trådbundet nätverk till varje maskin inte är lätt tillgänglig. Vi hävdar att våra resultat är skalbara till ett nätverk av över 100 användare. | I REF presenteras verkliga mätresultat som studerar genomförbarheten av mesh-nätverk för alltrådlösa kontor. | 124,138 | Feasibility study of mesh networks for all-wireless offices | {'venue': "MobiSys '06", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 10,372 |
Nyligen, metoder har föreslagits som utför textursyntes och stil överföring genom att använda konvolutionella neurala nätverk (t.ex. Gatys m.fl. Europaparlamentets och rådets förordning (EU, Euratom) nr 966/2012 av den 25 oktober 2012 om finansiella regler för unionens allmänna budget och om upphävande av rådets förordning (EG, Euratom) nr 1605/2002 (EUT L 298, 26.10.2012, s. 1). Dessa metoder är spännande eftersom de i vissa fall kan skapa resultat med toppmodern kvalitet. I detta dokument visar vi dock att dessa metoder också har begränsningar i texturkvalitet, stabilitet, nödvändig parameterinställning och brist på användarkontroller. Detta dokument presenterar en flerskalig syntes pipeline baserad på konvolutionella neurala nätverk som förbättrar dessa frågor. Vi ger först en matematisk förklaring av källan till instabilitet i många tidigare tillvägagångssätt. Vi förbättrar sedan dessa instabiliteter genom att använda histogramförluster för att syntetisera texturer som bättre statistiskt matchar exemplar. Vi visar också hur man integrerar lokala stilförluster i vårt flerskaliga ramverk. Dessa förluster kan förbättra kvaliteten på stora funktioner, förbättra separationen av innehåll och stil, och erbjuda konstnärliga kontroller såsom färg genom nummer. Vi visar att vår strategi erbjuder förbättrad kvalitet, konvergens i färre iterationer och mer stabilitet över optimeringen. | I REF föreslogs en histogramförlust för att syntetisera texturer som matchar målet statistiskt. | 10,866,737 | Stable and Controllable Neural Texture Synthesis and Style Transfer Using Histogram Losses | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 10,373 |
Abstract-Routing i storskaliga mobila ad hoc-nätverk är utmanande eftersom alla noder är potentiellt rörliga. Geografisk routing kan delvis lindra detta problem, eftersom noderna kan fatta lokala routingbeslut baserade enbart på destinationernas geografiska koordinater. Geografisk routing kräver dock fortfarande en effektiv lokaliseringstjänst, dvs. en distribuerad databas som registrerar platsen för varje destination nod. Under de senaste åren har man ägnat stor uppmärksamhet åt att utforma effektiva, skalbara och robusta lokaliseringstjänster. Huvudsyftet med detta dokument är att visa att nodrörlighet kan utnyttjas för att sprida information om destinationsorten utan att någon kommunikation uppstår. Vi uppnår detta genom att låta varje nod upprätthålla en lokal databas över tiden och platsen för dess senaste möte med varje annan nod i nätverket. Denna databas konsulteras i paket för att få uppskattningar av deras destination nuvarande plats. Eftersom ett paket reser mot sin destination, kan det successivt förfina en uppskattning av destinationens exakta plats, eftersom nodrörlighet har "diffuerat" uppskattningar av den platsen. Vi definierar och analyserar en mycket enkel algoritm som kallas EASE (Exponential Age SEarch) och visar att i en modell där N noder utför oberoende slumpmässiga promenader på en kvadrat lattice, längden på de rutter som beräknas av EASE är i samma ordning som avståndet mellan källan och destinationen även för mycket stor N. Därför, utan att utbyta någon explicit plats information, längden på EASE rutter är inom en konstant faktor för rutter som erhålls med perfekt information. Vi diskuterar förbättringar av EASE-algoritmen och utvärderar den genom omfattande simuleringar. Vi diskuterar allmänna villkor så att mobilitetsspridningseffekten leder till effektiva rutter utan en explicit lokaliseringstjänst. I praktiska sammanhang, där dessa villkor kanske inte alltid uppfylls, anser vi att spridningseffekten för rörlighet kan komplettera befintliga lokaliseringstjänster och öka deras robusthet och skalbarhet. | I synnerhet bidrar arbetet inom REF till nodrörlighet i syfte att sprida information om destinationsorten utan att det medför några kommunikationsanknytning. | 16,217,147 | Locating nodes with EASE: last encounter routing in ad hoc networks through mobility diffusion | {'venue': 'IEEE INFOCOM 2003. Twenty-second Annual Joint Conference of the IEEE Computer and Communications Societies (IEEE Cat. No.03CH37428)', 'journal': 'IEEE INFOCOM 2003. Twenty-second Annual Joint Conference of the IEEE Computer and Communications Societies (IEEE Cat. No.03CH37428)', 'mag_field_of_study': ['Computer Science']} | 10,374 |
Även om utseendebaserade spårare har förbättrats avsevärt under det senaste årtiondet, kämpar de fortfarande med vissa utmaningar som ocklusion, oskärpa, snabb rörelse, deformation, etc. Som bekant, ocklusion är fortfarande en av ljudstyrka utmaningar för visuell spårning. Andra utmaningar är inte heller helt lösta för de befintliga spårarna. I detta arbete fokuserar vi på att ta itu med det senare problemet inom både färg- och djupområden. Neutrosofisk uppsättning (NS) är som en ny gren av filosofin för att hantera ofullständig, obestämd och inkonsekvent information. I detta papper använder vi den enda värderade neutrosofiska uppsättningen (SVNS), som är en underklass av NS, för att bygga en robust tracker. För det första, färg och djup histogram används som utseende funktioner, och båda funktioner representeras i SVNS domänen via tre medlemsfunktioner T, I och F. För det andra, den enda värderade neutrosofisk kors-entropi åtgärd används för sammansmältning av färg och djup information. Slutligen föreslås en ny SVNS-baserad MeanShift tracker. Tillämpas på videosekvenserna utan allvarlig ocklusion i Princeton RGBD Tracking dataset, prestandan hos vår metod jämfördes med de av toppmoderna trackers. Resultaten visade att vår metod överträffar dessa spårare när det gäller utmanande faktorer som oskärpa, snabb rörelse, deformation, ljusvariation och kamerajitter. | För att sammansmälta både färg och djup funktioner, tre medlemsfunktioner, T, I, och F, föreslogs att ta itu med osäkerhetsproblem för att bedöma robustheten i varje funktion REF. | 3,682,331 | A novel object tracking algorithm by fusing color and depth information based on single valued neutrosophic cross-entropy | {'venue': 'Journal of Intelligent and Fuzzy Systems', 'journal': 'Journal of Intelligent and Fuzzy Systems', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 10,375 |
I detta dokument, föreslår vi en routing optimering algoritm för att effektivt bestämma en optimal väg från en källa till en destination i mobila ad-hoc nätverk. För att bestämma en optimal väg för noderna är viktigt för överföring av data mellan noder i tätt utplacerade nätverk. För att effektivt kunna överföra data till destinationen måste lämpliga routingalgoritmer införas i mobila ad hoc-nät. Den föreslagna algoritmen är utformad med hjälp av en tabu-sökmekanism som är en representativ metaheuristisk algoritm. Den föreslagna tabu sökalgoritmen utför två områdesgenererande operationer för att bestämma en optimal väg och minimera algoritmens exekveringstid. Vi jämför den föreslagna tabu-sökalgoritmen med andra meta-heuristiska algoritmer, som är den genetiska algoritmen och den simulerade glödgningen, i termer av routingkostnad och algoritmexekveringstid. Jämförelseresultaten visar att den föreslagna tabu-sökalgoritmen överträffar de andra algoritmerna och att den är lämplig för att anpassa routingoptimeringsproblemen. | Författarna i REF föreslår en optimeringsalgoritm för att minimera ruttkostnaden från en källa till en destination inom rimlig tid. | 207,248,981 | A tabu search algorithm for routing optimization in mobile ad-hoc networks | {'venue': None, 'journal': 'Telecommunication Systems', 'mag_field_of_study': ['Computer Science']} | 10,376 |
Vi segmenterar flytta objekt i videor genom att rangordna spatiotemporala segmentförslag enligt "rörlig objektitet", hur troligt det är att de innehåller ett rörligt objekt. I varje videoram beräknar vi segmentförslag med hjälp av flera figur-mark segmenteringar på per ram rörelsegränser. Vi rankar dem med en Moving Objectness Detector utbildad på bild- och rörelsefält för att upptäcka rörliga objekt och kasta över/under segmenteringar eller bakgrundsdelar av scenen. Vi utökar de topprankade segmenten till spatio-temporala rör med hjälp av slumpmässiga vandrare på rörelseaffiniteter av täta punktbanor. Vår slutliga rankning överträffar konsekvent tidigare segmenteringsmetoder i de två största videosegmenteringsriktmärken som för närvarande finns tillgängliga, för ett antal förslag. Dessutom ökar våra förslag om objekt som rör sig inom ramen upp till 7 procent jämfört med tidigare toppmoderna statiska förslagsmetoder. | I REF föreslås en metod för segmentering av rörliga objekt. | 1,501,163 | Learning to segment moving objects in videos | {'venue': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 10,377 |
ABSTRACT Spridningen av patientjournaler resulterar i olika risker för patienternas integritet som skadliga aktiviteter i dessa register orsakar allvarliga skador på ryktet, ekonomin, och så vidare för alla parter som direkt eller indirekt är relaterade till uppgifterna. Nuvarande metoder för att effektivt hantera och skydda journaler har visat sig vara otillräckliga. I detta dokument föreslår vi MeDShare, ett system som tar upp frågan om medicinsk datadelning mellan medicinska big dataväktare i en förtroendelös miljö. Systemet är blockchain-baserat och ger data härkomst, revision och kontroll för delade medicinska data i molndatabaser bland stora dataenheter. MeDShare övervakar enheter som har tillgång till data för skadlig användning från ett datadepåsystem. I MeDShare registreras dataövergångar och datadelning från en enhet till en annan, tillsammans med alla åtgärder som utförs på MeDShare-systemet, på ett manipuleringssäkert sätt. Designen använder smarta kontrakt och en mekanism för åtkomstkontroll för att effektivt spåra beteendet hos data och återkalla åtkomst till kränkande enheter vid upptäckt av brott mot behörigheter på data. MeDShares prestanda är jämförbar med de senaste lösningarna för datadelning mellan leverantörer av molntjänster. Genom att implementera MeDShare kommer molntjänstleverantörer och andra dataväktare att kunna uppnå data härkomst och revision samtidigt som de delar medicinska data med enheter som forskning och medicinska institutioner med minimal risk för dataintegritet. | Xia m.fl. REF föreslog ett system som tar upp frågan om delning av medicinska data mellan medicinska big data väktare i en förtroendelös miljö, som är blockchainbaserad och ger data härkomst, revision och kontroll för delade medicinska data i molndatabaser bland stora dataenheter. | 9,991,173 | MeDShare: Trust-Less Medical Data Sharing Among Cloud Service Providers via Blockchain | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 10,378 |
Nya framsteg i djupinlärning har visat spännande löfte att fylla stora hål i naturliga bilder med semantiskt rimliga och sammanhangsmedvetna detaljer, vilket påverkar grundläggande bildmanipulation uppgifter som objekt borttagning. Även om dessa inlärningsbaserade metoder är betydligt mer effektiva för att fånga hög nivå funktioner än tidigare tekniker, de kan bara hantera mycket låg upplösning ingångar på grund av minnesbegränsningar och svårigheter i utbildningen. Även för något större bilder skulle de målade regionerna verka suddiga och obehagliga gränser bli synliga. Vi föreslår en flerskalig neural patch syntes metod baserad på gemensam optimering av bildinnehåll och textur begränsningar, som inte bara bevarar kontextuella strukturer men också producerar högfrekvens detaljer genom att matcha och anpassa patchar med de mest liknande mellanlager funktion korrelationer i en djup klassificering nätverk. Vi utvärderar vår metod på ImageNet och Paris Streetview datauppsättningar och uppnådde state-of-theart inpainting noggrannhet. Vi visar vår strategi producerar skarpare och mer sammanhängande resultat än tidigare metoder, särskilt för högupplösta bilder. | Kombinerad Intra-och Inter-Image Complete För att övervinna ovanstående problem, Yang et al. REF föreslog multi-scale neural patch syntes, som genererar högfrekventa detaljer genom att kopiera patchar från mitten-lager funktioner. | 206,595,891 | High-Resolution Image Inpainting Using Multi-scale Neural Patch Synthesis | {'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 10,379 |
Samtidig lokalisering och kartläggning (SLAM) består i den samtidiga konstruktionen av en miljömodell (kartan), och uppskattningen av tillståndet hos roboten som rör sig inom den. SLAM-samfundet har gjort häpnadsväckande framsteg under de senaste 30 åren, vilket möjliggör storskaliga tillämpningar i verkligheten och bevittnar en stadig övergång av denna teknik till industrin. Vi undersöker det aktuella läget för SLAM och överväger framtida riktningar. Vi börjar med att presentera vad som nu är standardformuleringen de-facto för SLAM. Därefter går vi igenom relaterat arbete, som omfattar ett brett spektrum av ämnen, inklusive robusthet och skalbarhet i långsiktig kartläggning, metriska och semantiska representationer för kartläggning, teoretiska prestandagarantier, aktiv SLAM och prospektering, samt andra nya gränser. Detta papper fungerar samtidigt som en position papper och handledning för dem som är användare av SLAM. Genom att titta på den publicerade forskningen med ett kritiskt öga avgränsar vi öppna utmaningar och nya forskningsfrågor, som fortfarande förtjänar noggranna vetenskapliga undersökningar. Tidningen innehåller också författarnas uppfattning om två frågor som ofta ger upphov till diskussioner under robotkonferenser: Behöver robotar SLAM? Och är SLAM löst? | Numera, lösa den samtidiga Localization och Mapping (SLAM) problem omvandlas till en graf av begränsningar med hjälp av beräkningseffektiv icke-linjär optimering anses state-of-the-art i robotik REF. | 2,596,787 | Past, Present, and Future of Simultaneous Localization and Mapping: Toward the Robust-Perception Age | {'venue': 'IEEE Transactions on Robotics', 'journal': 'IEEE Transactions on Robotics', 'mag_field_of_study': ['Computer Science']} | 10,380 |
Kritiska system för abstrakt säkerhet inbegriper den täta kopplingen mellan potentiellt motstridiga kontrollmål och säkerhetsbegränsningar. Som ett sätt att skapa ett formellt ramverk för styrning av system av detta formulär, och med sikte på fordonstillämpningar, utvecklar detta dokument en metod som gör det möjligt att förena säkerhetsförhållandena uttryckta som kontrollbarriärfunktioner med prestandamål, uttryckta som kontrollfunktioner i samband med realtidsoptimeringsbaserade styrenheter. Säkerhetsförhållandena är specificerade i termer av framåtinvarians av en uppsättning, och verifieras genom två nya generaliseringar av barriärfunktioner; i varje fall, förekomsten av en barriärfunktion som uppfyller Lyapunov-liknande förhållanden innebär framåt invarians av uppsättningen, och förhållandet mellan dessa två klasser av barriärfunktioner karakteriseras. Dessutom ger var och en av dessa formuleringar ett begrepp om kontrollbarriärfunktion (CBF), vilket ger ojämlikhetsbegränsningar i kontrollinmatningen som, när den är tillfredsställd, återigen innebär att uppsättningen är olika framåt. Genom dessa konstruktioner kan CBF naturligtvis förenas med kontrollfunktionerna Lyapunov (CLF) inom ramen för ett kvadratiskt program (QP), vilket gör det möjligt att uppnå kontrollmålen (representerade av CCF) på villkor som gäller för systemets tillåtliga tillstånd (representerade av CBF). Medling av säkerhet och prestanda genom en QP visas på adaptive cruise control och körfältshållning, två bilkontrollproblem som ger både säkerhets- och prestandaöverväganden i kombination med ställdonsbegränsningar. | Kontrollbarriärfunktioner (CBF) användes för att ge garantier för säkerheten för kontinuerliga ickelinjära system med affina ingångar för en adaptiv kryssningskontrollapplikation i REF. | 16,587,254 | Control Barrier Function Based Quadratic Programs with Application to Automotive Safety Systems | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Engineering']} | 10,381 |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.