src
stringlengths 100
134k
| tgt
stringlengths 10
2.25k
| paper_id
int64 141
216M
| title
stringlengths 9
254
| discipline
stringlengths 67
582
| __index_level_0__
int64 0
83.3k
|
---|---|---|---|---|---|
Abstract-Securing kommunikation i mobila trådlösa nätverk är utmanande eftersom de traditionella kryptografiska-baserade metoderna inte alltid är tillämpliga i dynamiska mobila trådlösa miljöer. Att använda fysisk lagerinformation från radiokanal för att skapa nycklar i hemlighet bland trådlösa enheter har föreslagits som ett alternativ i trådlösa mobilnät. Och den mottagna signalstyrka (RSS) baserad hemliga nyckel extraktion vinner mycket uppmärksamhet på grund av RSS-avläsningar är lätt tillgängliga i trådlös infrastruktur. Problemet med att använda RSS för att generera nycklar mellan flera enheter för att säkerställa säker gruppkommunikation är dock fortfarande öppet. I detta arbete föreslår vi en ram för samverkansnyckelgenerering bland en grupp trådlösa enheter som utnyttjar RSS. Det föreslagna ramverket består av ett hemligt nyckelextraktionssystem som utnyttjar den trend som visas i RSS är ett resultat av att skuggan bleknar, vilket är robust för utomstående motståndare som utför stalking attacker. För att hantera mobila enheter som inte ligger inom varandras kommunikationsområde använder vi relänoder för att uppnå tillförlitlig nyckelutvinning. För att möjliggöra säker gruppkommunikation utvecklas två protokoll, nämligen stjärnbaserade och kedjebaserade, inom vårt ramverk genom att använda RSS från flera enheter för att tillsammans utföra gruppnyckelgenerering. Våra experiment i både utomhus- och inomhusmiljöer bekräftar möjligheten att använda RSS för gruppnyckelgenerering bland flera trådlösa enheter under olika mobila scenarier. Resultaten visar också att vårt samarbete viktiga utvinningssystem kan uppnå en lägre bit missmatchning jämfört med befintliga verk när den jämförbara bitgenereringshastigheten bibehålls. | RSS-baserade kollaborativa viktiga extraktionsalgoritmer för en grupp trådlösa enheter föreslogs i REF. | 3,114,569 | Collaborative secret key extraction leveraging Received Signal Strength in mobile wireless networks | {'venue': '2012 Proceedings IEEE INFOCOM', 'journal': '2012 Proceedings IEEE INFOCOM', 'mag_field_of_study': ['Computer Science']} | 4,682 |
Neural maskinöversättning, en nyligen föreslagen metod för maskinöversättning baserad enbart på neurala nätverk, har visat lovande resultat jämfört med de befintliga tillvägagångssätt som frasbaserad statistisk maskinöversättning. Trots sin senaste framgång, neural maskinöversättning har sin begränsning i hantering av ett större ordförråd, som utbildning komplexitet samt avkodning komplexitet öka proportionellt till antalet målord. I detta dokument föreslår vi en metod baserad på viktiga provtagningar som gör det möjligt för oss att använda ett mycket stort målvokal utan att öka utbildningens komplexitet. Vi visar att avkodning kan göras effektivt även med modellen har en mycket stor mål vokabulär genom att välja endast en liten delmängd av hela mål vokabulär. De modeller som tränas genom det föreslagna tillvägagångssättet har empiriskt visat sig matcha, och i vissa fall överträffa, utgångsmodellerna med ett litet ordförråd samt LSTM-baserade neurala maskinöversättningsmodeller. Dessutom, när vi använder en ensemble av några modeller med mycket stora målvokabulärer, uppnår vi prestanda jämförbar med toppmoderna (mätt av BLEU) på både engelska→tyska och engelska→franska översättningsuppgifter WMT'14. | REF föreslog en modell för att hantera mycket stora ordförråd. | 2,863,491 | On Using Very Large Target Vocabulary for Neural Machine Translation | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 4,683 |
Ett dödlägesfritt multicastsystem som kallas prefix multicasting i oregelbundna nätverk (dvs. nätverk med oregelbunden topologi) studeras. I prefix routing, en kompakt routing tabell är associerad med varje nod (processor). I grund och botten tilldelas varje utgående kanal av en nod en speciell etikett och en utgående kanal väljs om dess etikett är ett prefix för etiketten på destinationsnoden. Nod- och kanalmärkning i ett oregelbundet nätverk baseras på ett fördefinierat spannträd som kan vara minst. Den routing processen följer en två-fas process av att gå upp och sedan ner längs det spännande trädet, med en möjlig korskanal mellan två grenar av trädet mellan två faser. Det har visat sig att det föreslagna routingsystemet är dödläges- och livelockfritt. Tillvägagångssättet utvidgas till multicasting där multicast-paketet först vidarebefordras upp i trädet till det längsta gemensamma prefixet (LCP) för destinationer i multicasten. Paketet behandlas sedan som en multi-huvud mask som kan delas vid grenar av det spännande trädet som paketet skickas ner trädet. | Wu REF utformar ett dödläge-fri prefix-baserat multicasting system för oregelbundna nätverk. | 2,242,460 | Deadlock-Free Multicasting in Irregular Networks Using Prefix Routing | {'venue': 'The Journal of Supercomputing', 'journal': 'The Journal of Supercomputing', 'mag_field_of_study': ['Computer Science']} | 4,684 |
Glaukom är den näst största orsaken till blindhet över hela världen, med cirka 60 miljoner fall rapporterade över hela världen under 2010. Om glaukom inte diagnostiseras i tid, orsakar den irreversibla skador på synnerven som leder till blindhet. Den optiska nervhuvud undersökning, som innebär mätning av kopp-till-disk förhållande, anses vara en av de mest värdefulla metoder för strukturell diagnos av sjukdomen. Uppskattning av cup-to-disc förhållandet kräver segmentering av optisk skiva och optik kopp på ögonfondus bilder och kan utföras av moderna datorseende algoritmer. Detta arbete presenterar universellt tillvägagångssätt för automatisk optisk skiva och kopp segmentering, som bygger på djupt lärande, nämligen modifiering av U-Net convolutional neurala nätverk. Våra experiment inkluderar jämförelse med de mest kända metoderna på allmänt tillgängliga databaser DRIONS-DB, RIM-ONE v.3, DRISHTI-GS. För både optisk skiva och kopp segmentering, vår metod uppnår kvalitet jämförbar med nuvarande state-of-the-art metoder, överträffar dem i termer av förutsägelsetiden. | Samma metod tillämpas i REF för segmentering av den optiska skivan och den optiska koppen, eftersom den senare är mindre än den optiska skivan och alltid är inne i den. | 206,841,140 | Optic Disc and Cup Segmentation Methods for Glaucoma Detection with Modification of U-Net Convolutional Neural Network | {'venue': 'Pattern Recognition and Image Analysis', 'journal': 'Pattern Recognition and Image Analysis', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 4,685 |
De senaste tillvägagångssätten för monocular 3D pose estimation bygger på Deep Learning. De antingen träna en Convolutional Neural Network att direkt gå tillbaka från bild till 3D pose [3], som ignorerar beroenden mellan mänskliga leder, eller modellera dessa beroenden via en max-marginal strukturerad läranderam [4], vilket innebär en hög beräkningskostnad vid inference tid. I detta dokument introducerar vi en Deep Learning regressionsarkitektur för strukturerad förutsägelse av 3D posera från monokulära bilder som bygger på en överfullständig auto-encoder för att lära sig en högdimensionell latent pose representation och redogöra för gemensamma beroenden. | Tekin m.fl. REF föreslog en djupinlärning regression för strukturförutsägelse av 3D human pose från monocular image. | 894,265 | Structured Prediction of 3D Human Pose with Deep Neural Networks | {'venue': 'Procedings of the British Machine Vision Conference 2016', 'journal': 'Procedings of the British Machine Vision Conference 2016', 'mag_field_of_study': ['Computer Science']} | 4,686 |
Eftersom trådlös video är den snabbast växande formen av datatrafik, är metoder för spektralt effektiv ondemand trådlös videoströmning nödvändiga för både tjänsteleverantörer och användare. En viktig egenskap för video on-demand är asynkron innehåll återanvändning, så att några populära filer står för en stor del av trafiken, men ses av användare vid olika tidpunkter. Caching av innehåll på trådlösa enheter i kombination med enhet-till-enhet (D2D) kommunikation gör det möjligt att utnyttja denna egenskap, och ge ett nätverk dataflöde som är betydligt större än både den konventionella metoden med unicasting från cellulära basstationer och de traditionella D2D-nätverk för "regelbunden" datatrafik. Detta dokument presenterar i en handledning och koncis form några färska resultat på genomströmningsskalning lagar för trådlösa nätverk med caching och asynkront innehåll återanvändning, kontrastera D2D strategi med några andra konkurrerande metoder, inklusive konventionell unicasting, harmoniska sändningar och en ny kodad multicasting metod baserad på combinatorial cache design och nätverkskodad överföring från den cellulära basstationen endast. Överraskande nog uppnår D2D-systemet med rumslig återanvändning och enkel decentraliserad slumpmässig cachelagring samma nästan optimala genomströmningsskalningslag som kodad multicasting. Båda systemen uppnår en obegränsad genomströmningsvinst (i form av skalningslagstiftning) när det gäller konventionella unicasting- och harmoniska sändningar, i det relevanta systemet där antalet videofiler i biblioteket är mindre än den totala storleken på den distribuerade cachekapaciteten i nätverket. För att bättre förstå de relativa fördelarna med dessa konkurrerande metoder, anser vi en holistisk D2D-systemdesign som innehåller traditionell mikrovåg (2 GHz) samt millimetervåg (mm-våg) D2D-länkar; de direkta anslutningarna till basstationen kan användas för att tillhandahålla de sällsynta videoförfrågningar som inte kan hittas i lokala cache. Vi tillhandahåller omfattande simuleringsresultat under en mängd olika systeminställningar och jämför vårt system med konventionella unicasting, harmoniska sändningar och kodad multicasting. Vi visar att även under realistiska förhållanden och under icke-asymptotiska regimer, under realistiska förhållanden och under icke-asymptotiska regimer erbjuder den föreslagna D2D-metoden mycket betydande genomströmningsvinster när det gäller basstationsbaserade system. Författarna är med | Ji och al. tillhandahöll en omfattande sammanfattning av D2D-cachenät, med införande av lag om genomströmningsskalning och kodad cachelagring i D2D-nät Ref. | 5,724,820 | Wireless Device-to-Device Caching Networks: Basic Principles and System Performance | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 4,687 |
Sammanfattning av denna webbsida: This paper presents a new class of self-organizing sensing agents that adaptively learn anisotropic, spatio-temporal Gaussian process med hjälp av bullriga mätningar och flytta för att förbättra kvaliteten på den uppskattade kovariansfunktionen. Detta tillvägagångssätt är baserat på en klass av anisotropa kovariansfunktioner av Gaussiska processer infördes för att modellera ett brett spektrum av spatio-temporala fysiska fenomen. Kovariansfunktionen antas vara okänd a priori. Det beräknas därför med hjälp av en uppskattning av sannolikheten (MAP) i efterhand. Förutsägelsen av intresseområdet erhålls sedan på grundval av MAP:s uppskattning av kovariansfunktionen. En optimal provtagningsstrategi föreslås för att minimera den informationsteoretiska kostnadsfunktionen hos Fisher Information Matrix. Simuleringsresultaten visar att det föreslagna systemet är effektivt och anpassningsbart. | Xu och Choi REF presenterade en självorganiserande sensor som kan lära sig spatio-temporal Gaussisk process och förbättra kvaliteten på uppskattningen. | 7,197,592 | Adaptive Sampling for Learning Gaussian Processes Using Mobile Sensor Networks | {'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 4,688 |
ABSTRACT Vi rapporterar en ny, proof-of-concept, beräkningsmetod som modellerar en typ av hjärncancer (gliom) endast genom att använda de topologiska egenskaperna hos dess celler i vävnadsbilden. Från lågmagnifiering ( | REF har uppnått en klassificering av hjärncancerceller (gliom) baserat på topologiska egenskaper i vävnadsbilden. | 9,758,096 | The cell graphs of cancer | {'venue': 'Bioinformatics', 'journal': 'Bioinformatics', 'mag_field_of_study': ['Mathematics', 'Medicine', 'Computer Science']} | 4,689 |
Vi introducerar koncentrerad differential integritet, en avkoppling av differential integritet åtnjuter bättre noggrannhet än både ren differential integritet och dess populära "(ε, δ)" avkoppling utan att kompromissa på kumulativ integritet förlust över flera beräkningar. I den grundläggande lagen om informationsåtervinning anges informellt att "mycket korrekta" uppskattningar av "för många" statistik helt förstör integriteten ([DN03] et sequelae). Differentiell integritet är en matematiskt strikt definition av integritet skräddarsydd för analys av stora datamängder och utrustad med ett formellt mått på integritet förlust [DMNS06, Dwo06]. Dessutom tar olika privata algoritmer som indata en parameter, vanligtvis kallad ε, som täcker den tillåtna integritetsförlusten i varje utförande av algoritmen och erbjuder en konkret integritet / användbarhet kompromiss. En av de starka sidorna av differential integritet är förmågan att resonera om kumulativ integritet förlust över flera analyser, med tanke på de värden för ε som används i varje enskild analys. Genom lämpligt val av ε är det möjligt att hålla sig inom ramen för grundlagen samtidigt släppa ett visst antal uppskattad statistik, men innan detta arbete var gränserna inte snäva. Ungefär, differential integritet säkerställer att resultatet av en analys på en databas x distribueras mycket på samma sätt som resultatet på varje angränsande databas y som skiljer sig från x i bara en rad (Definition 2.3). Det vill säga, differentialt privata algoritmer är randomiserade, och i synnerhet den maximala skillnaden mellan dessa två fördelningar (en sort maximal log odds ratio för alla händelser, se definition 2.2 nedan) begränsas av sekretessparametern ε. Denna absoluta garanti på maximal integritet förlust kallas nu ibland "ren" differential integritet. En populär avkoppling, (ε, ε)-differentiell integritet (Definition 2.4) [DKM + 06], garanterar att med sannolikhet högst 1 − δ integritetsförlusten inte överstiger ε. 1 Vanligtvis δ anses vara "kryptografiskt" liten, det vill säga mindre än inversen av någon polynom i storleken på datasetet, och ren differential integritet är helt enkelt det speciella fall där δ = 0. Avkopplingen tillåter ofta asymptotiskt bättre noggrannhet än ren differential integritet för samma värde av ε, även när δ är mycket liten. Vad händer i fallet med flera analyser? Även om sammansättningen av k (ε, 0)-differentiellt integritetsalgoritmer är som värst (kε, 0)-differentiellt privat, är den också samtidigt ( 2k ln(1/ε)ε+ kε(e ε − 1), δ)-differentiellt privat för varje δ [DRV10]. Låt oss dekonstruera uttalandet om detta resultat. För det första är integritetsförlust en slumpmässig variabel som fångar upp skillnader i sannolikhetsfördelningar som erhålls när en randomiserad algoritm M körs på x i motsats till angränsande databas y (se avsnitt 2.1). I allmänhet, om den maximala skillnaden mellan två fördelningar begränsas av ε 1 Observera att sannolikheten är över mynten i den algoritm som utför analysen. Ovanstående formulering är inte omedelbar från definitionen av (ε, ε)-differentiell integritet, detta bevisades i den fullständiga versionen av [DRV10]. 1 sedan deras KL-divergens (Definition 2.1) begränsas av ε(e ε − 1). Detta innebär att den förväntade integritetsförlusten för en enskild (ε, 0)-differentierad privat beräkning begränsas av ε(e ε − 1). Genom linjäritet i förväntan begränsas den förväntade förlusten över k (ε, 0)-differentiellt privata algoritmer av kε(e ε − 1). Påståendet säger därför att den kumulativa integritetsförlusten slumpmässiga variabeln över k beräkningar är starkt koncentrerad om dess medelvärde: sannolikheten för integritetsförlust som överstiger dess förväntningar genom t ε kε faller exponentiellt i t 2 /2 för alla t ≥ 0. Vi kommer att återkomma till denna formulering för närvarande. Mer allmänt visar vi följande avancerade sammansättning teorem, som förbättrar sammansättningen teorem av Dwork, Rothblum, och Vadhan [DRV10] genom att exakt halvera gränsen för förväntad integritet förlust av (ε, 0)-differentiellt integritetsmekanismer (beviset är annars identisk). Närmare uppgifter om den skarpare gränsen finns i avsnitt 3.2. Teorin 1.1. För alla ε, ε, ε′ ≥ 0, uppfyller klassen (ε, ε′)-differentiellt privata mekanismer (2k ln(1/δ)ε + kε(e ε − 1)/2, kδ ′ + δ)-differentiell integritet under k-faldig adaptiv sammansättning. Som theorem visar (återkalla att δ ′ vanligtvis anses vara "sub-polynomiellt liten"), de rena och avslappnade former av differential integritet beter sig ganska på samma sätt under sammansättning. För den mycket viktiga klassen att räkna frågor ("Hur många människor i datauppsättningen uppfyller egenskapen P?") Teorem 1.1 leder till noggrannhetsgränser som skiljer sig från de gränser som införs av (en omedelbar ändring av) grundlagen av en faktor på ungefär 2 log(1/δ). 2 Nyligen, snäva gränser för sammansättningen av (ε, δ)-differentiellt privata algoritmer har getts i [KOV15, MV16] (se nedan). En ny avkoppling. I detta arbete introducerar vi en annan avkoppling, Koncentrerad differentiell integritet (CDP), ojämförlig med (ε, δ)-differentiell integritet men återigen har samma beteende under sammansättning. Koncentrerad differential integritet är närmare "varje δ" egenskap i uttalandet av Theorem 1.1: En algoritm erbjuder (μ, τ)-koncentrerad differential integritet om integritetsförlust slumpmässiga variabeln har medel μ och om, efter att ha subtraherat av detta medelvärde, den resulterande (centrerad) slumpmässig variabeln är subgaussian med standard τ. 3 Till följd av detta (se t.ex., [BK00] Lemma 1.3), x > 0: Således säkerställer koncentrerad differential integritet att den förväntade integritetsförlusten är μ och sannolikheten för förlust som överstiger dess medelvärde med x = tτ begränsas av e −t 2/2, ekar formen av den garanti som erbjuds av Advanced Composition Theorem (Theorem 1.1). Tänk på i vilket fall τ = ε. Å ena sidan är (μ, ε)-koncentrerad differentiell integritet klart svagare än (ε, ε)-differentiell integritet, eftersom även om den förväntade förlusten μ är mycket liten, sannolikheten för integritetsförlust som överstiger ε i den förra kan vara konstant i den förra men är bara δ, som är liten, i den senare. Å andra sidan, i (ε, ε)-differentiell integritet finns det ingen bunden på den förväntade integritetsförlusten, eftersom med sannolikhet alla satsningar är avstängda och förlusten kan vara oändlig. Koncentrerad differentiell integritet har två fördelar jämfört med (ε, ε)-differentiell integritet. • Förbättrad noggrannhet. Koncentrerad differential integritet är skräddarsydd för (realistiska!) fallet med ett stort antal beräkningar. Traditionellt sett, för att säkerställa liten kumulativ förlust med hög sannolikhet, är den tillåtna förlusten för varje enskild fråga satt mycket låg, säger ε ′ = ε (log 1/δ) / k, även om en integritetsförlust av, låt oss säga, ε/10 eller ens ε sig själv kanske inte är av stor betydelse för någon enskild fråga. Detta är just den flexibilitet som vi ger i den koncentrerade differentiella integriteten: mycket mindre oro för förlust av en enda fordran, men med stor sannolikhet gräns för kumulativ förlust. Sammansättningen av k (μ, τ )-koncentrerade differential integritetsmekanismer är (kμ, ε kτ )-koncentrerad differential integritet (Theorem 3.4). Ställa in τ = ε får vi en förväntad integritetsförlust av kμ och, för alla t samtidigt, sannolikheten för integritetsförlust som överstiger dess espektation av t ε kε faller exponentiellt i t 2 / 2, precis som vi fick i sammansättningen för de andra varianterna av differential integritet i Theorem 1.1 ovan. Men vi får bättre exakthet. Till exempel, för att hantera n räkna frågor med hjälp av Gaussian mekanismen, kan vi lägga till oberoende slumpmässigt buller från N (0, n/ε 2 ) till varje fråga, uppnå (ε(e ε − 1)/2, ε)-koncentrerad differential integritet (Theorem 3.2) 4. När ε = och 1) buller skalas till O ( ε n); enligt grundlagen är buller o ( ε n) katastrofalt. • Gruppintegritetsgruppens integritet begränsar integritetsförlusten även för ett par databaser som skiljer sig åt i data från en liten grupp av individer; till exempel kan man i en hälsoundersökning inte bara vilja veta att ens egen hälsoinformation förblir privat utan också att informationen om ens familj som helhet är starkt skyddad. Varje (ε, 0)-differentiellt privat algoritm säkerställer automatiskt (sε, 0)-differentiell integritet för alla grupper av storlek s [DMNS06], med den förväntade integritetsförlusten växer med en faktor på omkring s 2. Situationen för (ε, ε)-differentiell integritet är inte riktigt så elegant: litteraturen visar (sε, se-1 δ)-differentiell integritet för grupper av storlek s, en oroande exponentiell ökning av sannolikheten för misslyckande (se-1 δ term). Situationen för koncentrerad differential integritet är mycket bättre: för alla kända naturliga mekanismer med koncentrerad differential integritet får vi snäva gränser. För (hypotetiska) godtyckliga algoritmer som erbjuder subgaussian integritet förlust, visar Theorem 4.1 gränser som är asymptotiskt nästan-tät (tät upp till låg-order termer). Vi misstänker att de snäva gränserna bör hålla för godtyckliga mekanismer, och det skulle vara intressant att överbrygga klyftan. 1. Vad är det för fel på dig? Under vissa villkor, nöjda med alla rena differential integritetsmekanismer 5, och tillägg av Gaussian buller, alla (μ, τ )-koncentrerad differential integritet mekanism uppfyller (s 2 ·μ, s·τ )-koncentrerad differential integritet för grupper av storlek s, vilket är optimalt. 2. Utgångspunkten är följande: Varje ( (1))-koncentrerad differential integritet för grupper av storlek s. Den bundna håller så länge s · τ är tillräckligt liten (ungefär, (1/τ ) bör förbli kvasi-linjär i s). Se Theorem 4.1 för det formella uttalandet. Vi antar också här att μ ≤ τ 2 2. 6 Anmärkning 1.2. Överväga varje mekanism som byggs genom att komponera en samling av "goda" mekanismer som var och en uppfyller villkoren i punkt 1 ovan. För att bevisa att den sammansatta mekanismen har de bra gruppintegritetsgränserna kan vi först tillämpa gruppintegritetsgränserna för de underliggande "bra" mekanismerna, och sedan tillämpa sammansättningen. Det är intressant att dessa två operationer pendlar. 4 För att uppnå (ε, ε)-differentiell integritet lägger man till buller från N (0, 2 ln(1/δ)), vilket ökar den typiska snedvridningen med en faktor av ln(1/δ). 5 Varje (ε, 0)-differentiellt privat mekanism avkastning (ε(e ε −1)/2, ε)-koncentrerad differentiell integritet (Theorem 3.5). 6 Upp till låg-order villkor, denna relation innehar för alla mekanismer vi känner. För andra mekanismer är det möjligt att härleda en mindre elegant allmän bundet, eller τ kan "artificiellt uppblåst" tills detta villkor håller. Täta gränser på förväntade förluster. Som nämnts ovan förbättrar vi med en faktor av två den kända övre gränsen för förväntad integritetsförlust av någon (ε, 0)-differentiellt privat mekanism, vilket avslutar ett gap som öppnats sedan 2010 [DRV10]. Detta översätts omedelbart till en förbättring med en faktor på 2 på nytta / privacy kompromiss i någon tillämpning av Advanced Composition Theorem. Den nya gränsen, som är tight, erhålls genom att först bevisa resultatet för speciella par av probablit fördelningar som vi kallar antipodal (privacy förlust för alla resultat är i {−ε, 0, ε}), och sedan visar en minskning, där ett godtyckligt par distributioner med maximal divergens begränsas av ε -såsom fördelningen på resultaten av en differentialt privat mekanism när körs på databaser x och y skiljer sig i en enda rad - kan "ersätts" av en antipodal par utan ändring i max divergens och ingen minskning i KL-divergens. Anmärkning 1.3. Om alla (ε, 0)-differentiellt privata algoritmer åtnjuter koncentrerad differential integritet, liksom Gaussian-mekanismen, vilka (ε, ε)-differentiellt privata algoritmer utesluts? Alla (ε, ε)-differentiellt privata algoritmer där det finns en viss sannolikhet δ ′ ≤ δ för oändlig integritet förlust. Detta inkluderar många (men inte alla!) algoritmer i ramverket "Propose-Test-Release" [DL09], där ett differentialt privat test först utförs för att kontrollera att datauppsättningen uppfyller vissa "säkerhetsvillkor" och i så fall utförs en operation som endast garanterar integritet om villkoren är uppfyllda. Det kan finnas en liten sannolikhet för misslyckande i det första steget, vilket innebär att testrapporterna om att säkerhetsvillkoren är uppfyllda, men i själva verket inte, i vilket fall integritet kan äventyras i det andra steget. Hårdhet. Optimalitet i integritetsförlust är en överskuggande subtil och svår fråga under sammansättning. Resultat av Kairouz, Oh och Viswanath [KOV15] få snäva gränser under sammansättningen av godtyckliga (en, en)-mekaniker, när alla mekanismer delar samma värden av till och en. Det är, de finner den optimala till ′, δ ′ sådan att sammansättningen av k mekanismer, som var och en är ( till 0, δ 0 )-differentiellt privat, är ( till ′, δ ′ )-differentiellt privat. Det icke-homogena fallet, där ith-mekanismen är i, i )-differentiellt privat, har analyserats av Murtagh och Vadhan [MV16], där det visas att bestämma gränserna för den optimala sammansättningen är svårt för #P. Båda dessa papper använder en analys liknande den som finns i vår Lemma 3.8, som vi fick innan publiceringen av dessa verk. Optimala gränser för sammansättningen av godtyckliga mekanismer är mycket intressanta, men vi är också intresserade av gränser för de specifika mekanismer som vi har i handen och vill använda och analysera. I detta syfte får vi en fullständig karakterisering av integritetsförlusten av Gaussian mekanismen. Vi visar att integritet förlust av sammansättningen av flera tillämpning av Gaussian mekanismen, eventuellt med olika individuella parametrar, är sig en Gaussian slumpmässig variabel, och vi ger exakta gränser för dess medelvärde och varians. Denna karakterisering är inte möjlig med hjälp av ramen för (en, en)-differentiell integritet, den tidigare rådande synen på den Gaussiska mekanismen. Efterföljande arbete. Motiverad av vårt arbete, Bun och Steinke [BS15] föreslår en avslappning av koncentrerad differential integritet. Istället för att sätta in integritetsförlusten som en subgaussisk slumpmässig variabel som vi gör här, de istället rama in frågan i termer av Renyi entropy, få en avslappning av koncentrerad differential integritet som också stöder en liknande komposition teorem. Deras begrepp ger också integritetsgarantier för grupper. Gränserna vi får med hjälp av koncentrerad 4 differential integritet (Theorem 4.1) är hårdare; vi vet inte om detta är inneboende i definitionerna. Avvikelse. Vi kommer att behöva flera olika begrepp om skillnader mellan distributionerna. Vi kommer också att införa ett nytt begrepp, subgaussisk skillnad i avsnitt 3. Definition 2.1 (KL-divergens). KL-divergensen, eller relativ entropi, mellan två slumpmässiga variablerna Y och Z definieras som: där om stödet för Y inte är lika med stödet för Z, då D KL (Y för Z) inte definieras. Definition 2.2 (största avvikelse). Max Divergensen mellan två slumpvariabler Y och Z definieras som: där om stödet för Y inte är lika med stödet för Z, då D ∞ (Y och Z) inte definieras. Den ungefärliga skillnaden mellan Y och Z definieras som: För en given databas d, en (randomized) icke-interaktiv databasåtkomstmekanism M beräknar en utgång M (x) som senare kan användas för att rekonstruera information om d. Vi kommer att ägna oss åt mekanismer M som är privata enligt olika sekretessbegrepp som beskrivs nedan. Vi tänker på en databas x som en multiuppsättning av rader, var och en från ett datauniversum U. Intuitivt innehåller varje rad uppgifter om en enskild individ. Vi kommer ofta att visa en databas av storlek n som en tuple x på U n för några n på N (antalet individer vars data finns i databasen). Vi behandlar n som offentlig information hela tiden. Vi säger databaser x, y är intilliggande om de bara skiljer sig i en rad, vilket innebär att vi kan få en från den andra genom att ta bort en rad och lägga till en annan. Det vill säga. databaser är intilliggande om de är av samma storlek och deras redigeringsavstånd är 1. För att hantera värsta fall par av databaser, våra sannolikheter kommer att vara över de slumpmässiga val som görs av integritetsmekanismen. där sannolikheterna är över algoritm M mynt. Eller alternativt: En randomiserad algoritm M ger (ε, δ)-differentiell integritet om för alla par av angränsande databaser x och y och alla S på Range(M) där sannolikheterna är över myntflips av algoritmen M. Eller alternativt: Privacy Loss som en slumpmässig variabel. Överväg att köra en algoritm M på ett par databaser x, y. För ett resultat o är integritetsförlusten på o den log-ratio av dess sannolikhet när M körs på varje databas: Koncentrerad differential integritet delar mer djupt in i integritetsförlusten slumpmässig variabel: denna real-värderade slumpmässig variabel mäter integritetsförlusten som följer när algoritm M körs på x (i motsats till y). Det provtas genom att ta y på M (x) och ta ut L (o) (M (x) och M (y). Denna slumpmässiga variabel kan ta positiva eller negativa värden. För (ε, 0)-differentiellt privata algoritmer begränsas dess storlek alltid av ε. För (ε, ε)-differentiellt privata algoritmer, med all sannolikhet är magnituden begränsad av ε. Subgaussiska slumpmässiga variabler infördes av Kahane [Kah60]. En subgaussisk slumpmässig variabel är en för vilken det finns ett positivt reellt tal τ > 0 s.t. momentgeneratorfunktionen är alltid mindre än momentgeneratorfunktionen hos en Gaussian med standardavvikelsen τ och förväntan 0. I detta avsnitt går vi kort igenom definitionen och grundläggande lemmata ur litteraturen. Vi säger att X är subgaussian om det finns τ ≥ 0 s.t. X är τ - subgaussian. För en subgaussisk slumpmässig variabel X är den subgaussiska standarden X: Anmärkningar. En omedelbar konsekvens av definition 2.5 är att en τ - subgaussisk slumpmässig variabel har förväntningar 0, och variansen begränsas av τ 2 (se fakta 2.1). Observera också att den gaussianska fördelningen med förväntan 0 och standardavvikelsen σ är σ-subgaussian. Det finns också kända gränser för de högre ögonblicken av subgaussiska slumpmässiga variabler (se fakta 2.2). Se [BK00] och [Riv12] för vidare diskussion. Lemma 2.1 (subgaussisk koncentration). Om X är τ - subgaussian för τ > 0, då: Bevis. För varje λ > 0 och t > 0: där den första jämlikheten uppnås genom att en exponentiell av alla argument, den andra (i)jämlikhet är av Markov, och detta är genom egenskaperna hos subgaussiska slumpmässiga variabeln X. Höger sida minimeras när λ = t/τ, och därmed får vi det: Beviset att Pr[X ≤ −t · τ ] ≤ e −t 2 /2 är liknande. För alla τ - subgaussian random variabel Y, och heltal k, k-th ögonblick begränsas av: Lemma 2.2 (summan av subgaussians). Låt X 1,. ., X k vara (gemensamt fördelade) real-värderade slumpvariabler sådan att för varje i K, och för varje (x 1,. .., x i-1) Supp(X 1,........................................................................................... .., X k-1 ), det håller att den slumpmässiga variabeln ( Bevis. Beviset är genom induktion över k. Basfallet k = 1 är omedelbart. För k > 1, för alla λ på R, har vi: där den sista ojämlikheten är genom induktionshypotesen. Följande tekniska Lemma om produkter av (gemensamt fördelade) slumpvariabler, av vilka en är exponentiell i en subgaussian, kommer att användas i stor utsträckning för att bevisa gruppintegritet: 7 Lemma 2.3 (Förväntad produkt med Exponential i Subgaussian). Låt X och Y fördelas gemensamt slumpvariabler, där Y är τ - Subgaussian för τ ≤ 1/3. Sedan: Bevis. Tar Taylor expansion av e Y vi har: Av Cauchy-Schwartz ojämlikhet: där den sista ojämlikheten använder det faktum att för en τ -subgaussian RV Y, Var (Y ) ≤ τ 2 (Fact 2.1), och att för att binda den sista summan i Ojämlikhet 2, vi använder linjäritet av förväntan och Cauchy-Schwartz: Använda det faktum att för alla τ -subgaussian distribution Y, det 2k-et moment E [Y 2k ] begränsas av 2), Vi drar slutsatsen från det ovan att för τ < 1: Att sätta ihop ojämlikheter (2) (3), (4), drar vi slutsatsen att för τ ≤ 1/2: där nästa till sista ojämlikhet innehar när τ ≤ 1/3, och den sista ojämlikheten beror på 3 Koncentrerad Olika sekretess: Definition och egenskaper Om stöden för Y och Z inte är lika, då integritetsförlust slumpmässiga variabeln inte definieras. Vi studerar integritetsförlusten slumpmässig variabel, med fokus på fallet där denna slumpmässiga variabel är tätt koncentrerad kring sin förväntan. I synnerhet kommer vi att vara intresserade av det fall där integritetsförlusten (förändrad av dess förväntningar) är subgaussian. ) definieras och subgaussian, och dess subgaussian parameter är som mest τ. Om vi har både D subG (Y på Z) (μ, τ ) och D subG (Z på Y ) (μ, τ ), då säger vi att paret slumpmässiga variabler X och Y är (μ, τ )-subgaussian-oskiljbara. Bevis. Följer av definition 3.3 och koncentrationsegenskaperna hos subgaussiska slumpvariabler (Lemma 2.1). Guassian Mechanism återuppväcktes. Vi ser över Gaussian buller mekanism [DMNS06], vilket ger en snäv karakterisering av integritet förlust slumpmässig variabel. Därefter Gaussian mekanism med brus magnitud σ är (τ 2 /2, τ )-CDP, där τ = och (f )/σ. Senare kommer vi att bevisa (Theorem 3.5) att varje ren differentierad privat mekanism också åtnjuter koncentrerad differentiell integritet. Den Gaussiska mekanismen är annorlunda, eftersom den endast garanterar (ε, ε)-differentierad integritet för δ > 0. av Theorem 3.2. Låt M vara Gaussian mekanism med buller magnitud σ. Låt d, d ′ vara angränsande databaser, och anta w.l.o.g att f (d) = f (d ′ ) + tillf. Vi undersöker integritetsförlust slumpmässiga variabel som erhållits genom att dra en brus magnitud x på N (0, σ 2 ) och utdata: Eftersom x på N (0, σ 2 ), drar vi slutsatsen att fördelningen av integritetsförlust slumpmässiga variabeln L (U och V ) är också Gaussian, med förväntan 2 / 2, och standardavvikelsen. Att ta τ = skaf /σ, Som noterats i inledningen, är det en följd av Theorem 3.2 att vi kan uppnå (ε(e ε − 1)/2, ε)-koncentrerad differentiell integritet genom att lägga till oberoende slumpmässiga buller dras från N (0, n/ε 2 ) till varje fråga. Om vi ytterligare koppla av till (ε, ε)-cdp, kan vi lägga till ännu mindre buller, magnitud ( 1/ε). Detta skulle vara meningsfullt i miljöer där vi förväntar oss ytterligare sammansättning, och så att vi kan fokusera på den förväntade integritetsförlusten (begränsa den med ε) och tillåta mer slapphet i standardavvikelsen. För små ε ger detta ytterligare en storleksordningsförbättring av den snedvridning som införts för att skydda privatlivet. Slutligen observerar vi att gränserna för grupp koncentrerad differential integritet Gaussian mekanismen följer omedelbart från Theorem 3.2, notera att för en grupp av storlek s gruppen känslighet för en funktion f är som mest s · f. Samband 3.3 (grupp CDP för Gaussian Mechanism). Den Gaussiska mekanismen med buller magnitud σ uppfyller ((s)f /σ) 2 /2, s tillf )-koncentrerad differential integritet. Koncentrerad differential integritet komponerar "samt" standard differential integritet. En av CDP:s främsta fördelar är att det möjliggör större noggrannhet och mindre buller, vilket i huvudsak inte innebär någon förlust av privatlivet under sammansättningen. I detta avsnitt bevisar vi dessa kompositionsegenskaper. Vi följer formaliseringen i [DRV10] i modellering sammansättning. Sammansättning omfattar både upprepad användning av (olika) CDP-algoritmer på samma databas, vilket möjliggör moduluppbyggnad av CDP-algoritmer, och upprepad användning av (olika) CDP-algoritmer på olika databaser som kan innehålla information om samma individ. I båda dessa scenarier kan förbättrad noggrannhet hos CDP algoritmer ge större nytta för samma "privacy budget". Sammansättning av k CDP mekanismer (över samma databas, eller olika databaser) formaliseras av en sekvens av par slumpmässiga variabler (U, V ) = ((U (1), V (1) ),. .., (U (k), V (k) ) ). De slumpmässiga variablerna är resultaten av kontradiktoriskt och adaptivt valda CDP mekanismer M 1,. .., M k. I U-sekvensen (verklighet) provtas den slumpmässiga variabeln U (i) genom att köra mekanismen M i på en databas (enligt motståndarens val) som innehåller en individs, säger Bobs, data. I V-sekvensen (alternativ verklighet) provtas den slumpmässiga variabeln V (i) med hjälp av körmekanism M i på samma databas, men där Bobs data ersätts med (motsvarariskt valda) data som tillhör en annan individ, Alice. Kravet är att även för adaptivt och kontradiktoriskt valda mekanismer och databas-par, resultatet av U (Bob-reality) och V (Alice-reality) är "mycket nära", och i synnerhet integritetsförlusten L (U och V ) är subgaussian. I mer detalj, och följande [DRV10], definierar vi ett spel där en återförsäljare vänder ett rättvist mynt att välja mellan symboler U och V, och en motståndare adaptivt väljer en sekvens av par av intilliggande databaser (x U i, x V i ) och en mekanism M i njuta (μ i, τ i )-CDP och som kommer att fungera på antingen vänster element (om dealern valde U ) eller rätt element (om dealern valde V ) av paret, och returnera utdata, för 1 ≤ i ≤ k. Motståndarens val är helt adaptiva och därför kan bero inte bara på godtycklig extern kunskap men också på vad som har observerats i steg 1,.., i − 1. Målet för motståndaren är att maximera integritetsförlusten. Det är inramat som ett spel eftersom stor integritet förlust är förknippad med en ökad förmåga att avgöra vilken av (U, V ) valdes av dealern, och vi föreställer oss att detta är motivation av motståndaren. Teorem 3.4 (Sammanställning av CDP). För varje heltal k på N, varje μ 1,. .., μ k, τ 1........................................................... .., τ k ≥ 0, och konstruerad som i det spel som beskrivs ovan, Vi har att Betrakta de slumpmässiga variabler U och V definieras ovan, och integritet förlust slumpmässig variabel L (U på V ). Denna slumpmässiga variabel erhålls genom att plocka y på U och mata ut ln Mekanismen och datauppsättningar som valts av motståndaren i steg jag beror på motståndarens syn på den tiden. Motståndarens uppfattning omfattar dess slumpmässighet och de resultat som den hittills har observerat. Låta R U och R V betecknar slumpmässigheten i U -världen respektive V - världen, vi har, för alla y = (y 1,. .., y k ) Supp (U) och slumpmässiga sträng r c i (r, y 1,. ......................................................... Nu för varje prefix (r, y 1,. .., y i-1) vi villkor på R U = r, U 1 = y 1,. .., U i‐1 = y i‐1, och analysera den slumpmässiga variabeln c i (R U, U 1,. .., U i ) = c i (r, y 1,. ..,...................................................... När prefixet är fast, nästa par av databaser x U i och x V i och mekanismen M i utdata av advesary bestäms också. Således är U i distribueras enligt M i (x U i ) och för alla värde y i, Vi har är (μ i, τ i ) subgaussian. Genom subgaussiska egenskaper hos de slumpmässiga variablerna C i = c i (r, U (1),. .., U (i) ), har vi att L (U) (U) = i) [k] C i, d.v.s. Den slumpmässiga integritetsförlustvariabeln motsvarar summan av C i:s slumpmässiga variabler. Genom linjäritet i förväntningarna drar vi slutsatsen att: och genom Lemma 2.2 har vi den slumpmässiga variabeln: I detta avsnitt utforskar vi relationen mellan differentiell integritet och koncentrerad differential. Vi visar att alla differentialt privata algoritmer också är koncentrerade differentialt privat. Vårt huvudsakliga bidrag här är en förfinad övre gräns på den förväntade integritetsförlusten av differentialt privata algoritmer: vi visar att om M är ε-DP, då dess förväntade integritetsförlust är endast (i stort sett) ε 2 /2 (för liten nog ε). Vi visar också att integritetsförlusten slumpmässiga variabeln för någon ε-DP algoritm är subgaussian, med parameter τ = O(ε): Theorem 3.5 (DP på CDP). Låt M vara någon ε-DP algoritm. Därefter är M (ε · (e ε − 1)/2, ε)-CDP. Bevis. Eftersom M är (ε, 0)-differentiellt privat, vet vi att integritetsförlust slumpmässig variabel alltid begränsas i magnitud av ε. Den slumpmässiga variabeln som erhålls genom att subtrahera den förväntade integritetsförlusten, kalla den μ, har därför ett medelvärde på noll och ligger i intervallet [−ε − μ, ε − μ]. Det framgår av Hoeffdings Lemma att en sådan avgränsad, centrerad, slumpmässig variabel är (ε − μ − (−ε − μ))/2 = ε-subgaussian. Lemma 3.6 (Hoeffdings Lemma). Låt X vara en noll-medel slumpmässig variabel sådan att Den största utmaningen är därför att begränsa förväntan, nämligen kvantiteten D KL (D-D ′ ), där D är fördelningen av M(x) och D ′ är fördelningen av M(y), och x, y är angränsande databaser. I [DRV10] visades det att: Vi förbättrar denna gräns, erhålla följande förfining: Beviset för Theorem 3.5 följer från Lemma 3.8. För att bevisa Lemma 3.8 introducerar vi begreppet antipodal distribution: Vi använder sedan följande två lemmas om maximalt divergerande distributioner (de bevis som följer nedan) för att bevisa Lemma 3.8: Bevis på Lemma 3.9. Låta ε = påse (D, D ′ ). Vi konstruerar M och M ′ iterativt från D och D ′ genom att räkna över varje x X. För varje sådant x lägger vi till ett nytt element s x till stödet. Tanken är att massan av x i D och D ′ kommer att vara "split" mellan x och s x i M och M ′ (respektive). Denna uppdelning kommer att säkerställa att sannolikheterna för s x i M och i M ′ är identiska, och sannolikheten för x i M och M ′ är "maximalt olika". Vi kommer att visa att "bidrag" av x och s x till KL skillnaden från M till M ′ är minst lika stor som bidraget av x till KL skillnaden från D till D ′. Lemman följer sedan. Vi fortsätter med den fullständiga specifikationen av denna "split" och formaliserar sedan ovanstående intuition. För x X, ta p x = D ′ [x]. Eftersom (D, D ) = e ε, måste det finnas α på [-1, 1] s.t. D[x] = e α·ε · p x. Vi inför en ny punkt s x i stödet och anger vikten av M och M ′ på x och s x enligt följande: = e tecken(α)·ε · p x · e α·ε − 1 e tecken(α)·ε − 1 = p x · (1 - e α·ε − 1 e tecken(α)·ε − 1 ) = p x · (e α·ε − 1 + 1) · e α·ε − 1 e tecken(α)·ε − 1 e tecken(α)·ε − 1 ) = p x · (e α·ε − 1) · e tecken(α)·ε − 1 e tecken(α) · 1 + 1) · e α·ε − 1 e tecken(α)·ε − 1 e tecken (α)·ε − 1 ) = p x · (e α·ε − (e tecken(α)·ε − 1) · e α·ε − 1 e tecken(α) · 1 e tecken(α) · 1 e) Dessutom är M och M ′ antipodal (M, M ′ ) = ε = (D, D ′ ). Distributionerna M och M ′ uppfyller således villkoren för lemma. Slutligen betonar vi att genom ovanstående har vi på x X, M [Vi jämför nu KL divergensen från D till D ′ med divergensen från M till M ′. | I REF föreslås en alternativ avslappning av DP, kallad (μ, τ)-koncentrerad differentiell integritet. | 14,861,086 | Concentrated Differential Privacy | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 4,690 |
Abstract-Problemet att förutsäga lokaliseringen av användare på stora sociala nätverk som Twitter har uppstått från verkliga applikationer såsom social oro upptäckt och online-marknadsföring. Twitteranvändare geolocation är ett svårt och aktivt forskningsämne med en stor litteratur. De flesta av de föreslagna metoderna följer antingen en innehållsbaserad eller en nätverksbaserad metod. Den förra utnyttjar användargenererat innehåll medan den senare använder anslutningen eller interaktionen mellan Twitter-användare. I detta dokument introducerar vi en ny metod som kombinerar styrkan i båda tillvägagångssätten. Konkret föreslår vi en multi-entry neural nätverk arkitektur som heter MENET utnyttja framstegen i djupt lärande och multiview lärande. MENET:s allmängiltighet gör det möjligt att integrera flera datarepresentationer. I samband med Twitter-användarens geolokalisering inser vi MENET med text-, nätverks- och metadatafunktioner. Med tanke på den naturliga fördelningen av Twitter-användare över det berörda geografiska området, delar vi in jordens yta i flerskaliga celler och utbildar MENET med cellernas etiketter. Vi visar att vår metod överträffar den senaste tekniken med en stor marginal på tre referensdatauppsättningar. | I REF föreslogs en modell för lärande med djupa multivyer som kombinerar text-, nätverks- och metadatafunktioner för att förutsäga geolokaliseringen av en tweet. | 21,836,870 | Multiview Deep Learning for Predicting Twitter Users' Location | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 4,691 |
Graph Neural Networks (GNNs) för representation inlärning av grafer följer i stort sett ett område aggregering ram, där representation vektorn för en nod beräknas av rekursivt aggregering och transformera vektorer för sina angränsande noder. Många GNN-varianter har föreslagits och har uppnått toppmoderna resultat på både nod- och grafklassificeringsuppgifter. Trots GNN:s revolutionerande grafrepresentationsinlärning finns det dock begränsad förståelse för deras representationsegenskaper och begränsningar. Här presenterar vi en teoretisk ram för att analysera GNN:s uttryckskraft i att fånga olika grafstrukturer. Våra resultat kännetecknar den diskriminerande kraften hos populära GNN-varianter, såsom Graph Convolutional Networks och GraphSAGE, och visar att de inte kan lära sig att skilja på vissa enkla grafstrukturer. Vi utvecklar sedan en enkel arkitektur som är bevisligen den mest uttrycksfulla bland klassen av GNNs och är lika kraftfull som Weisfeiler-Lehman grafen isomorfism test. Vi validerar empiriskt våra teoretiska resultat på ett antal grafklassificeringsriktmärken och visar att vår modell uppnår toppmoderna resultat. Publicerad som konferensartikel på ICLR 2019 Här presenterar vi ett teoretiskt ramverk för att analysera GNN:s representationskraft. Vi karakteriserar formellt hur uttrycksfulla olika GNN-varianter är i att lära sig att representera och skilja mellan olika grafstrukturer. Vårt ramverk är inspirerat av den nära kopplingen mellan GNNs och Weisfeiler-Lehman (WL) grafen isomorfism test (Weisfeiler & Lehman, 1968), en kraftfull test känd för att skilja en bred klass av grafer (Babai & Kucera, 1979). Likt GNNs, WL testar iterativt uppdaterar en given nod funktion vektor genom att aggregera funktioner vektorer för sina nätverksgrannar. Vad som gör WL-testet så kraftfullt är dess injitiva aggregeringsuppdatering som kartlägger olika nodkvarter till olika funktionsvektorer. Vår nyckelinsikt är att en GNN kan ha lika stor diskriminativ effekt som WL-testet om GNN:s aggregeringssystem är mycket uttrycksfullt och kan modellera injicerande funktioner. För att matematiskt formalisera ovanstående insikt, vårt ramverk först abstracts funktionen vektorer av en nod grannar som en multiset, d.v.s. en uppsättning med möjligen upprepande element. Sedan kan grannen aggregering i GNNs abstrakteras som en funktion över multisetet. Vi studerar noggrant olika varianter av multisetfunktioner och karakteriserar teoretiskt deras diskriminativa kraft, d.v.s. hur väl olika aggregeringsfunktioner kan särskilja olika multiset. Ju mer diskriminerande multiset-funktionen är, desto kraftfullare är representationskraften hos den underliggande GNN. Våra huvudresultat sammanfattas enligt följande: 1) Vi visar att GNN är som mest lika kraftfulla som WL-testet när det gäller att särskilja grafstrukturer. 2) Vi etablerar villkor på grannen aggregering och graf pooling funktioner under vilka den resulterande GNN är lika kraftfull som WL testet. 3) Vi identifierar grafstrukturer som inte kan särskiljas genom populära GNN varianter, såsom GCN (Kipf & Welling, 2017) och GraphSAGE (Hamilton et al., 2017a), och vi exakt karakteriserar de typer av grafstrukturer som GNN-baserade modeller kan fånga. 4) Vi utvecklar en enkel neural arkitektur, Graph Isomorphism Network (GIN), och visar att dess discriminativa/representativa kraft är lika med kraften i WL testet. Vi validerar vår teori genom experiment på grafklassificeringsdata, där GNN:s uttryckskraft är avgörande för att fånga grafstrukturer. I synnerhet jämför vi GNN:s prestanda med olika aggregeringsfunktioner. Våra resultat bekräftar att den mest kraftfulla GNN (our Graph Isomorphism Network (GIN)) har hög representationskraft eftersom den nästan perfekt passar träningsdata, medan de mindre kraftfulla GNN-varianterna ofta kraftigt underutnyttjar träningsdata. Dessutom överträffar de representativa mer kraftfulla GNN de övriga genom att testa noggrannhet och uppnå toppmoderna prestanda på många grafklassificeringsriktmärken. | Moderna GNNs följer i stort sett ett område aggregering system, där varje nodaggregat har vektorer av sina grannar för att få mer representativ funktion vektor REF. | 52,895,589 | How Powerful are Graph Neural Networks? | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 4,692 |
DNS-protokollets prestanda och operativa egenskaper är av stort intresse för forsknings- och nätverksverksamhetens gemenskap. I detta dokument presenterar vi mätresultat från en unik datauppsättning som innehåller mer än 26 miljarder DNS-svarspar insamlade från mer än 600 globalt distribuerade rekursiva DNS-upplösningar. Vi använder denna dataset för att bekräfta resultat i publicerat arbete och märker några betydande skillnader som kan tillskrivas både den föränderliga karaktären av DNS-trafik och vårt olika perspektiv. Till exempel, Vi finner att även om egenskaperna hos DNS trafik varierar kraftigt mellan nätverk, upplösarna inom en organisation tenderar att uppvisa liknande beteende. Vi finner vidare att mer än 50% av DNS-frågor som utfärdas till rotservrar inte returnerar framgångsrika svar, och att den primära orsaken till uppslagningsfel på rotservrar är missbildade frågor med ogiltiga TLDs. Dessutom föreslår vi ett nytt tillvägagångssätt som upptäcker skadliga domängrupper med tidsmässig korrelation i DNS-frågor. Vår strategi kräver ingen heltäckande utbildning som kan vara svår att bygga upp i praktiken. Istället använder den en känd skadlig domän som ankare, och identifierar uppsättningen av tidigare okända skadliga domäner som är relaterade till ankardomänen. Experimentella resultat illustrerar genomförbarheten hos detta tillvägagångssätt, dvs. , Vi uppnår en sann positiv frekvens av mer än 96%, och varje skadlig ankare domän resulterar i en malware domän grupp med mer än 53 tidigare okända skadliga domäner i genomsnitt. | Gao m.fl. I REF föreslås ett nytt tillvägagångssätt som tittar på samtidig förekomst och sekvens i domännamn. | 6,832,542 | An empirical reexamination of global DNS behavior | {'venue': "SIGCOMM '13", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,693 |
Användningen av handgester är ett attraktivt alternativ till besvärliga gränssnittsanordningar för människa-datorinteraktion (HCI). I synnerhet, visuell tolkning av handgester kan bidra till att uppnå den lätthet och naturlighet som önskas för HCI. Vi undersöker litteraturen om visionsbaserat handgesterkännande inom ramen för dess roll i HCI. Antalet tillvägagångssätt för videobaserade handgester har ökat under de senaste åren. Behovet av systematisering och analys av olika aspekter av gestural interaktion har därför utvecklats. Vi diskuterar en komplett modell av handgester som har både rumsliga och dynamiska egenskaper hos mänskliga handgester och kan rymma för alla sina naturliga typer. Två klasser av modeller som har använts för tolkning av handgester för HCI beaktas. Den första använder 3D-modeller av den mänskliga handen, medan den andra bygger på utseendet på den mänskliga handen i bilden. Undersökning av modellparametrar och analysfunktioner och deras inverkan på tolkningen av handgester presenteras mot bakgrund av den naturalitet som önskas för HCI. 3D handmodeller o er ett sätt för fullständig modellering av alla handgester. De saknar dock den enkelhet och beräkningseffektivitet som i hög grad föredras, och som för närvarande är möjlig med de utseendebaserade modellerna. Vi föreslår några metoder som kan öka effektiviteten i gestural gränssnitt för HCI. Integrering av handgester med andra naturliga kommunikationssätt kan ge ett potentiellt svar på detta problem. Icke desto mindre kommer ytterligare arbete som sätter samman framsteg i datorseende med förståelse för människa-datorinteraktion att vara nödvändigt för att producera ett eektivt och naturligt hand gestgränssnitt. | Pavlovic m.fl. REF ger en bra översikt över den visuella tolkningen av handgester. | 7,185,733 | Visual Interpretation of Hand Gestures for Human-Computer Interaction: A Review | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,694 |
Abstract-En av de grundläggande frågorna i sensornätverk är täckningsproblem, som speglar hur väl ett sensornätverk övervakas eller spåras av sensorer. I detta dokument formulerar vi detta problem som ett beslutsproblem, vars mål är att avgöra om varje punkt i sensornätets serviceområde täcks av minst α-sensorer, där α är en given parameter och sensorns avkänningsområden modelleras av bollar (inte nödvändigtvis av samma radie). Detta problem i ett 2D-utrymme löses i [1] med en effektiv polynom-tidsalgoritm (uttryckt i antalet sensorer). I detta dokument visar vi att det fortfarande är möjligt att ta itu med detta problem i ett 3D-utrymme inom polynomtid. Den föreslagna lösningen kan lätt översättas till ett effektivt polynom-tid distribuerat protokoll. | I REF presenteras vissa tillräckliga villkor för sensorer vid en given installation för att kontrollera om varje punkt i en 3D-volym täcks av minst k-sensorer. | 15,438,090 | The coverage problem in three-dimensional wireless sensor networks | {'venue': "IEEE Global Telecommunications Conference, 2004. GLOBECOM '04.", 'journal': "IEEE Global Telecommunications Conference, 2004. GLOBECOM '04.", 'mag_field_of_study': ['Computer Science']} | 4,695 |
Vi presenterar en ny läsförståelse dataset, SQuAD, bestående av 100.000 + frågor från crowdworkers på en uppsättning Wikipedia artiklar, där svaret på varje fråga är ett segment av text från motsvarande läsavsnitt. Vi analyserar datasetet på både manuella och automatiska sätt för att förstå de typer av resonemang som krävs för att svara på frågorna, lutar kraftigt på beroende och valkretsträd. Vi byggde en stark logistisk regressionsmodell, som uppnår en F1-poäng på 51,0 %, en betydande förbättring jämfört med en enkel baslinje (20 %). Människans prestationsförmåga (86,8 %) är dock mycket högre, vilket tyder på att datasetet utgör ett bra problem för framtida forskning. | Slutligen, SQuAD REF består av en uppsättning Wikipedia artiklar, där svaret på varje fråga är ett segment av text från motsvarande läsavsnitt. | 11,816,014 | SQuAD: 100,000+ Questions for Machine Comprehension of Text | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 4,696 |
Realtidstillämpning av djupinlärningsalgoritmer hindras ofta av hög beräknings komplexitet och frekventa minnesåtkomster. Nätbeskärning är en lovande teknik för att lösa detta problem. Beskärning resulterar dock vanligtvis i oregelbundna nätverksanslutningar som inte bara kräver extra representationsinsatser utan också inte passar bra vid parallell beräkning. Vi introducerar strukturerad sparhet på olika skalor för konvolutionella neurala nätverk: har kart-wise, kärn-wise, och intra-kernel steg sparity. Denna strukturerade sparsamhet är mycket fördelaktig för direkta beräkningsresurser på inbyggda datorer, i parallella datormiljöer och i hårdvarubaserade system. För att avgöra betydelsen av nätverksanslutningar och nätvägar använder den föreslagna metoden en partikelfiltreringsmetod. Vikten av varje partikel tilldelas genom att man bedömer felklassificeringshastigheten med ett motsvarande konnektivitetsmönster. Det beskurna nätet omskolas för att kompensera för förlusterna på grund av beskärning. Samtidigt som vi implementerar convolutions som matrisprodukter, visar vi särskilt att intra-kärnan steg spartyngd med en enkel begränsning kan avsevärt minska storleken på kärnan och funktionen kart tensorer. Det föreslagna arbetet visar att när granulariteterna beskärs i kombination kan vi beskära CIFAR-10-nätverket med mer än 70 % med mindre än 1 % noggrannhetsförlust. mål kan uppnås genom att tillämpa beskärningstekniken på högpresterande stora nätverk, där beskärning minskar beräkningskostnaden. Dessutom kan dessa lätta nätverk implementeras med hjälp av endast on-chip minne för energibesparingar eftersom frekventa DRAM-åtkomst förbrukar mycket energi. Beskärning framkallar sparsamhet i ett nätverk och kan kategoriseras som strukturerad och ostrukturerad. Ostrukturerad beskärning följer inte någon specifik geometri eller begränsning. I de flesta fall behöver denna teknik extra information för att representera glesa platser. Det leder till oregelbunden sparhet, vilket är svårt att utnyttja för effektiv beräkning. Å andra sidan placerar strukturerad gleshet icke-nollparametrar på väldefinierade platser. Denna typ av begränsning gör det möjligt för moderna processorer och grafik bearbetningsenheter (GPU) att enkelt utnyttja beräkningsbesparingar. Nätverksbeskärning har undersökts av flera forskare [Han et al. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning. , 2015b Castellano et al. 1997; Collins och Kohli 2014; Stepniewski och Keane 1997; Reed 1993]. Han et als verk. [2015a Han et al.]............................................................................................................. [, 2015b har visat att en mycket större del av vikter kan sättas till noll med minsta eller ingen förlust i prestanda. De tränar ett nätverk med ytterligare L1/L2-förlustfunktion på vikterna och beskär det gradvis. Om vikten på en anslutning är mindre än en tröskel, kopplas anslutningen ned. Författarna i Han et al. [2015b] utöka detta arbete ytterligare genom att kvantifiera det slutligen beskurna nätverket [Han et al. - Vad är det? - 2015a. Båda verken måste dock uttryckligen lokalisera icke-nollvikter med gles representation. Konventionellt använder sparsam representation formatet Komprimerad Sparse Row/Compressed Sparse Column (CSR/CSC) som representerar m icke-nolltal med 2m + n + 1 tal, där n representerar antalet rader eller kolumner. Han et al:s arbete. [2015a] visar att hälften av AlexNets minnesutrymme krävs för att lagra indexen för icke-nollparametrarna. Detta dubblar också minnesåtkomst eftersom varje vikt hämta nu blir ett (index, vikt) par. Vårt föreslagna arbete kräver inte en sådan extra representation. I detta arbete utforskar vi funktionskartan och den intrakärniga sparsamheten som ett sätt att strukturera beskärningen. I funktionen karta beskärning, alla inkommande och utgående vikter till / från en funktion karta beskärs. Den intra-kärna sparty beskär vikter i en kärna. Beskärningen på kärnnivå är ett specialfall av intrakärna med 100 % beskärning. Dessa beskärning granulariteter kan tillämpas i olika kombinationer och olika beställningar. Det föreslagna arbetet innehåller följande bidrag: | REF lokalisera beskärningskandidater via partikelfiltrering och införa strukturerad sparhet på olika skalor. | 7,333,079 | Structured Pruning of Deep Convolutional Neural Networks | {'venue': 'JETC', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 4,697 |
Abstract-We föreslår en medium access control (MAC) protokoll för trådlösa lokala nätverk (LANs) som utnyttjar teorin om compressive sensation. Den föreslagna compressive sensing MAC (CS-MAC) utnyttjar den glesa egenskap som vid en given tidpunkt endast ett fåtal värdar förväntas begära radiokanalåtkomst. Under CS-MAC, en central samordnare, såsom en trådlös åtkomstpunkt (AP) kan återställa en mängd av dessa förfrågningar i en avkodning operation, och sedan schemalägga flera värdar i enlighet därmed. Samordnaren är endast skyldig att ta emot ett relativt litet antal slumpmässiga prognoser av värdförfrågningar, snarare än att rösta enskilda värdar. Detta resulterar i en effektiv metod för att ansöka om bidrag. Via en maskinvaruprototyp baserad på en programvarudefinierad radioplattform demonstrerar vi möjligheten att realisera CS-MAC med tryckmätningar som bildas i luften för att uppnå hög effektivitet. | I medium passerkontrollskiktet (MAC) föreslog REF kompressiv avkänning MAC (CS-MAC) för att utnyttja den glesa egenskapen hos avkänningssignalen som vid en given tidpunkt endast ett fåtal värdar förväntas komma åt kanalen för en datarapport. | 10,302,285 | Compressive sensing medium access control for wireless LANs | {'venue': '2012 IEEE Global Communications Conference (GLOBECOM)', 'journal': '2012 IEEE Global Communications Conference (GLOBECOM)', 'mag_field_of_study': ['Computer Science']} | 4,698 |
Business Intelligence (BI) är en uppsättning tekniker och verktyg som omvandlar rådata till meningsfull information. BI hjälper företagsledare att fatta bättre beslut, vilket speglar sig i en bättre konkurrensfördel. Verktyg med öppen källkod har den största fördelen att de inte ökar kostnaderna för företagen, även om det är nödvändigt att välja ett lämpligt verktyg för att tillgodose deras specifika behov. För en mer exakt utvärdering av BI-verktyg med öppen källkod användes OSSpal-bedömningsmetoden, som kombinerar kvantitativa och kvalitativa utvärderingsåtgärder. Med hjälp av OSSpal-metoden jämför detta papper fyra av de bästa verktygen för affärsunderrättelse: BIRT, Jaspersoft, Pentaho och SpagoBI. | REF utvärderade fyra BI-plattformar med öppen källkod (Birt, Jaspersoft, Pentaho och SpagoBI) med hjälp av OSSpal-metoden. | 41,045,465 | Evaluating Open Source Business Intelligence Tools using OSSpal Methodology | {'venue': 'KDIR', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,699 |
AbsrracCChere är ett ökande behov av Internetvärdar för att snabbt och effektivt kunna lära sig avståndet, i termer av metria såsom latency eller bandbredd, mellan Internet värdar. Till exempel, för att välja närmaste av flera lika innehåll webbservrar. I detta dokument undersöks tekniska frågor som rör inrättandet av en offentlig infrastrukturtjänst för att tillhandahålla sådan information. På så sätt föreslår vi en arkitektur, kallad IDMaps, där Internet distansinformation distribueras över Internet, med IP multicast p u p s, i form av en virtuell distanskarta. System som lyssnar på grupperna kan uppskatta avståndet mellan ett par IP-adresser genom att köra en spanning trädalgoritm över den mottagna distanskartan. Vi a h presenterar resultaten av experiment som ger preliminära bevis för arkitekturen. Detta arbete lägger därmed den första grunden för det framtida arbetet på detta nya område. Det är i allt högre grad så att en viss Intemet-interaktion kan tillfredsställas av en av ett antal Internet-värdar. Exempel sträcker sig från kortvariga interaktioner såsom en enda webbsida åtkomst till någon av flera lika innehåll webbservrar till en långsiktig peering relation mellan två nyheter (NNTP) servrar [I]. I alla sådana interaktioner, alla andra saker är lika, är det fördelaktigt att få tillgång till "glänsande" valet. Med nära menar vi i termer av Internet prestandamått, såsom låg latency eller hög bandbredd. Även när alla andra saker inte är lika, såsom fallet där olika webbservrar har olika svarstider, är det fortfarande användbart att inkludera avstånd till varje kandidat värd som ett av flera kriterier för att göra ett urval [2]. En metod för att få denna distansinformation är att den initierande värden mäter den själv med hjälp av antingen unicast (ping, track route [3]) eller multicast (expanderande ringsökning [4] ) verktyg. Även om dessa verktyg har ett brett spektrum av användningsområden, är deras användbarhet i allmänhet begränsad av deras overhead. Till exempel, kostnaden för att köra en enda spårväg kan överstiga kostnaden för själva webbsidan åtkomst. Ännu viktigare är att ett stort antal värdar som gör oberoende och frekventa mätningar kan ha en allvarlig inverkan på prestanda totalt sett. Helst bör mätningar som görs av ett system (värd eller rquter) göras tillgängliga, till låg kostnad, för andra värdar. En användbar allmän tjänst för Internet skulle vara en tjänst där en värd snabbt och effektivt skulle kunna hålla avståndet mellan två värdar. För att vara till stor nytta bör en sådan tjänst ge ett svar med en fördröjning och en övre gräns som är mindre än de vinster som uppnås genom att använda tjänsten. Ett enkelt protokoll för en sådan tjänst (SONAR) diskuterades i stiftelsen redan i februari 1996 [SI] och i april 1997 som en mer allmän tjänst kallad HOPS (Host Proximity Service) [6]. Båda dessa ansträngningar föreslog lättviktsklienterver quishheply protokoll i linje med en DNS queskply. Båda krävde också att servern skulle kunna producera ett svar på mycket kort tid, helst, men inte nödvändigtvis, genom att använda information som redan lagrats lokalt. Detta dokument handlar om problemet med hur servrar i en sådan SONAIUHOPS-tjänst kan få den distansinformation som behövs för att svara på frågor. Vi undersöker särskilt följande frågor: 1. Vilka system producerar ursprungligen distansinformationen, och hur produceras den? 2. Utgångspunkten är följande: Hur når distansinformationen från dessa producerande system till servrarna? Detta dokument tar därför ett första hugg i att utforska en global, i motsats till endhost baserad, arkitektur för Internet värd avstånd uppskattning och distribution. Vi diskuterar grundläggande aspekter av de frågor som beskrivs ovan, och baserat på detta föreslår en allmän arkitektur för en underliggande tjänst som ger den grundläggande information som används av en SONAIUHOPS-tjänst. T h s underliggande tjänst kallas IDMaps, för Internet Avstånd Karta Service. I avsnitt I1 beskrivs bland annat vilka tillämpningar som behövs, men mer av grundläggande tekniska begränsningar. Avsnitt 111 s t m med en bred diskussion om de grundläggande egenskaperna hos problemet och lösningens art. Den presenterar och utvecklar två varianter av lösningen, "Hop-by-Hop" och "End-to-End", varav den senare är mer elegant men mindre välförståelig och slutar med en diskussion om deras för- och nackdelar. I avsnitt IV beskrivs resultaten av en preliminär analys som testar några av de grundläggande antagandena i End-to-End-lösningen. Dessa resultat tyder på att det har lovat, och uppmuntrar oss att gå vidare med en mer detaljerad utformning och genomförande. Slutligen diskuteras några av de många olösta frågorna i avsnitt V. Det är svårt att ange exakta mål för även en SONAIUHOPS-tjänst. Mycket mindre IDMaps-tjänsten. Detta beror på att SONAFUHOPS kan uppmanas att stödja ett brett spektrum av applikationer, från webbklienter som vill ha en webbserver från vilken man kan hämta en liten mängd data en gång, till Network Tine Protocol-servrar (NTP) som vill etablera en långsiktig koppling till ett peer-system. Vi skulle kunna gå igenom övningen att göra en lista över potentiella tillämpningar och extrahera ut de mest krävande kraven (och i viss utsträckning, åtminstone informellt, vi har gjort detta), men i själva verket denna övning visar snabbt att vi inte ens kan komma nära att uppfylla alla tänkbara krav. Till exempel kan vi inte hoppas på en allmän IDMaps-tjänst för att ge nära-instantan information om aktuella förseningar och bandbredd som ses mellan två Internet-värdar. Även om sådan information kan vara mycket användbar för en värd som vill välja en server som tillhandahåller ett live videoflöde, till exempel. Snarare har vi tagit något motsatt takt-vi bestämde ungefär den bästa servicen vi kan erbjuda med tanke på tekniska begränsningar och behovet av global skalbarhet av tjänsten, och sedan överväga om det finns tillämpningar för vilka denna nivå av tjänst skulle vara användbar. Här följer en diskussion om de mål som blir resultatet. Vårt mål är att tillhandahålla distansinformation i form av latens (t.ex. fördröjning av tur och retur) och, om möjligt, bandbredd. Latency är den enklaste typen av information att ge, och lyckligtvis den mest allmänt användbara. Det finns två skäl till att det är lätt att tillhandahålla. Först är det lätt att mäta. Ett litet antal paket kan ge en bra grov uppskattning. Andra. Det är relativt oberoende av den exakta vägen mellan de två värdarna, men på intet sätt helt oberoende. | Redan i REF har en arkitektur föreslagits för att utforma en global tjänst för estimering av internetvärdens avstånd. | 386,556 | An architecture for a global Internet host distance estimation service | {'venue': "IEEE INFOCOM '99. Conference on Computer Communications. Proceedings. Eighteenth Annual Joint Conference of the IEEE Computer and Communications Societies. The Future is Now (Cat. No.99CH36320)", 'journal': "IEEE INFOCOM '99. Conference on Computer Communications. Proceedings. Eighteenth Annual Joint Conference of the IEEE Computer and Communications Societies. The Future is Now (Cat. No.99CH36320)", 'mag_field_of_study': ['Computer Science']} | 4,700 |
Det är känt att utvärdera en viss approximation till Jones polynom för plat stängning av en fläta är ett BQP-komplett problem. Det vill säga, detta problem fångar exakt kraften i kvantkretsmodellen [13, 3, 1]. Den enda rena qubit-modellen är en modell av kvantberäkning där alla utom en qubit börjar i det maximalt blandade tillståndet. En ren qubit datorer tros vara strikt svagare än standard kvantdatorer, men ändå kunna lösa några klassiskt svårhanterliga problem [21]. Här visar vi att utvärdera en viss approximation till Jones polynom på en femte rot av enhet för spår stängning av en fläta är ett komplett problem för en ren qubit komplexitet klass. Det vill säga, en en ren qubit dator kan approximera dessa Jones polynomials i tiden polynomial i både antalet trådar och antalet korsningar, och problemet med att simulera en en ren qubit dator är reducible till approximering Jones polynomial av spår stängning av en fläta. | Efter publiceringen av den första versionen av detta dokument, visades det nyligen av Shor och Jordan REF att problemet med att tillnärma Jones polynom av spår stängning av en fläta, på den femte roten av enhet, är komplett för en mycket begränsad modell av kvantberäkning, känd som en ren qubit modell. | 2,235,861 | Estimating Jones polynomials is a complete problem for one clean qubit | {'venue': 'Quantum Information and Computation Vol. 8 pg. 681 (2008)', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics', 'Mathematics']} | 4,701 |
Voxel-baserade MRI-studier har visat att vitt spridda kortikala och subkortikala hjärnområden uppvisar atrofiska förändringar i MCI, innan debuten av AD-typ demens. Här utvecklade vi ett nytt ramverk för datautvinning i kombination med tre olika klassificeringar inklusive stödvektormaskin (SVM), Bayes-statistik och röstningsintervall (VFI) för att härleda ett kvantitativt index av mönstermatchning för förutsägelsen av omvandlingen från MCI till AD. MRT samlades in hos 32 AD-patienter, 24 MCI-personer och 18 friska kontroller (HC). Nio av 24 MCI-patienter konverterades till AD efter ett genomsnittligt uppföljningsintervall på 2,5 år. Med hjälp av algoritmer för val av funktioner identifierades hjärnregioner som visade den högsta noggrannheten för diskrimineringen mellan AD och HC och uppnådde en klassificeringsnoggrannhet på upp till 92 %. De extraherade AD-klustren användes som en sökregion för att extrahera de hjärnområden som är prediktiva för omvandling till AD inom MCI-patienter. De mest prediktiva hjärnområdena inkluderade främre cingulat gyrus och orbitofrontal cortex. Den bästa förutsägelsenoggrannheten, som korsvaliderades via tåg-och-test, var 75% för förutsägelsen av omvandlingen från MCI till AD. De nuvarande resultaten tyder på att nya multivariata metoder för mönstermatchning uppnår en kliniskt relevant noggrannhet för prediktionen av progression från MCI till AD. | Växt et al. I REF föreslås en ny ram för datautvinning, med en kombination av tre olika klassificeringar, inklusive SVM, Bayesian statistik och röstningsintervall (VFI), för att härleda ett kvantitativt index för mönstermatchning för att förutsäga övergången från MCI till AD. | 2,203,289 | Automated detection of brain atrophy patterns based on MRI for the prediction of Alzheimer's disease | {'venue': 'NeuroImage', 'journal': 'NeuroImage', 'mag_field_of_study': ['Psychology', 'Medicine', 'Computer Science']} | 4,702 |
Metafor är ett genomträngande inslag i det mänskliga språket som gör det möjligt för oss att konceptualisera och kommunicera abstrakta begrepp med hjälp av mer konkret terminologi. Tyvärr är det också en funktion som förbryllar en dators förmåga att förstå naturligt mänskligt språk. Vi presenterar en metod för att upptäcka språkliga metaforer genom att framkalla en domänmedveten semantisk signatur för en viss text och jämföra denna signatur mot ett stort index av kända metaforer. Genom att träna en svit binära klassificeringar med hjälp av resultaten från flera semantiska signaturbaserade rankningar av indexet, kan vi upptäcka språkliga metaforer i ostrukturerad text med en betydligt högre precision jämfört med flera baslinjemetoder. | REF jämför semantiska meningssignaturer med signaturer av kända metaforer. | 11,907,546 | Semantic Signatures for Example-Based Linguistic Metaphor Detection | {'venue': 'metaphor in NLP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,703 |
Abstract-I detta papper beskriver vi en hel-system live migrering system, som överför hela systemet kör-tid tillstånd, inklusive CPU-tillstånd, minnesdata, och lokal disk lagring, av den virtuella maskinen (VM). För att minimera den driftstoppstid som orsakas av migrering av stora disklagringsdata och behålla dataintegritet och konsekvens föreslår vi en trefasmigreringsalgoritm (TPM). För att underlätta övergången tillbaka till den ursprungliga källmaskinen använder vi en inkrementell migrationsalgoritm (IM) för att minska mängden data som ska migreras. Block-bitmap används för att spåra alla skrivåtkomster till den lokala disklagringen under migreringen. Synkronisering av den lokala disklagringen i migreringen utförs enligt block-bitmap. Experiment visar att våra algoritmer fungerar bra även när I/Ointensiva arbetsbelastningar körs i den migrerade virtuella maskinen. Tiden för migreringen är cirka 100 millisekunder, nära delad lagring migrering. Den totala migrationstiden minskas avsevärt med hjälp av IM. Den blockbitmap-baserade synkroniseringsmekanismen är enkel och effektiv. Prestanda overhead för inspelning av alla skriver på migrerade VM är mycket låg. | I REF, Luo et al. föreslog en trefasmigreringsalgoritm (TPM) för att minska den stilleståndstid som orsakas av bulkdata från diskmigrering. | 16,498,556 | Live and incremental whole-system migration of virtual machines using block-bitmap | {'venue': '2008 IEEE International Conference on Cluster Computing', 'journal': '2008 IEEE International Conference on Cluster Computing', 'mag_field_of_study': ['Computer Science']} | 4,704 |
Förekomsten av mobila enheter och deras förmåga att få tillgång till höghastighetsinternet har förvandlat dem till ett portabelt molngränssnitt. Eftersom mobila enheter är hem för ett brett spektrum av användares personuppgifter använder de ofta molnservrar för lagring och behandling. Känsligheten hos en användares personuppgifter kräver adekvat skyddsnivå på back-end-servrarna. I detta avseende innebär Europeiska unionens dataskyddsförordningar (t.ex. artikel 25.1) begränsningar av lokaliseringen av europeiska användares överföring av personuppgifter. Det som oroar oss är dock att sådana bestämmelser efterlevs. Det första steget i detta avseende är att analysera mobilappar och identifiera platsen för servrar till vilka personuppgifter överförs. I detta syfte utformar och implementerar vi ett appanalysverktyg, PDTLoc (Personal Data Transfer Location Analyzer), för att upptäcka överträdelser av de nämnda reglerna. Vi analyserar 1, 498 mest populära appar i EEA med hjälp av PDTLoc för att undersöka datamottagarens server platser. Vi fann att 16,5 % (242) av dessa appar överför användarnas personuppgifter till servrar på platser utanför Europa utan att stå under kontroll av ett ramverk för dataskydd. Dessutom inspekterar vi integritetspolicyn i apparna och avslöjar att 51% av dessa appar inte tillhandahåller någon integritetspolicy medan nästan alla av dem kontaktar servrarna utanför Europa. | Eskandari m.fl. REF analyserade överföringen av personuppgifter i mobilappar och avslöjade att 51 % av dessa appar inte innehöll någon sekretesspolicy. | 11,205,611 | Analyzing Remote Server Locations for Personal Data Transfers in Mobile Apps | {'venue': None, 'journal': 'Proceedings on Privacy Enhancing Technologies', 'mag_field_of_study': ['Computer Science']} | 4,705 |
Utformningen av approximationsalgoritmer för klusterpunkter i metriska utrymmen är ett blomstrande forskningsområde, med stor ansträngning att få en bättre förståelse för approximationsgarantierna för många objektiva funktioner som k-median, k-medel och min-sum kluster. Denna strävan efter bättre approximation algoritmer drivs delvis av den implicita förhoppningen att bättre approximationer också kommer att ge mer exakta kluster. Särskilt när det gäller problem som att gruppera proteiner efter funktion, eller gruppera bilder efter ämne, är det verkliga syftet att matcha någon okänd korrekt "mål" klustering och den implicita förhoppningen är att ungefär optimera dessa objektiva funktioner faktiskt kommer att producera en klustering som är nära detta mål när det gäller hur datapunkter är kluster. I detta dokument visar vi att om vi gör detta implicita antagande explicit, dvs. om vi antar att vårt fall uppfyller villkoret att varje c-tillnärmning till det givna klustermålet 0 är nära målet, då kan vi effektivt producera kluster som ligger nära målet, även för värden c för vilka en c-uppskattning är NP-hård. Vi kallar detta villkor (c, på)-tillnärmning-stabilitet och visar att vi kan uppnå denna garanti för alla konstant c > 1, för tre viktiga och brett studerade objektiva funktioner, nämligen k-median, k-medel, och min-sum mål. Således kan vi prestera nästan lika bra i termer av avstånd till målet klustering som om vi kunde approxima målet till denna NP-hård värde. Det vill säga, under antagandet att c-uppskattningar är bra lösningar, kan vi närma oss målet även om det i allmänhet är svårt att uppnå en c-uppskattning till målet. | Balcan m.fl. REF visar att detta villkor i själva verket kan användas för att kringgå approximativa hårdhetsresultat för ett antal klustermål, inklusive k-median och k-medel. | 2,859,839 | Approximate clustering without the approximation | {'venue': 'In SODA ’09: Proceedings of the Nineteenth Annual ACM -SIAM Symposium on Discrete Algorithms', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,706 |
ABSTRACT Att identifiera överlappande grupper är viktigt för att analysera nätverksstrukturer, utforska samspelet mellan grupper, studera nätverksfunktioner och få insikt i nätverkens dynamik. Många algoritmer har föreslagits för att upptäcka överlappande samhällen, men att identifiera de inneboende samhällena är fortfarande ett icke-trivialt problem på grund av svårigheterna med parameterinställning, kriterier för användarens partiskhet och bristen på information om grundläggande sanning. I detta dokument föreslår vi en ny modell som kallas OCDID (Overlapping Community Detection based on Information Dynamics) för att avslöja de överlappande samhällen, som behandlar nätverket som ett dynamiskt system som gör det möjligt för en individ att kommunicera och dela information med sina grannar. Informationsflödet i nätverket styrs av den underliggande topologistrukturen (t.ex. samhällsstrukturen), och samhällsstrukturen reflekteras också av informationsdynamiken. Överlappande noder fungerar som broar mellan flera samhällen och informationen från flera samhällen flyter genom dessa noder. Således kan de överlappande noderna identifieras genom att analysera informationsflödet mellan samhällen. Dessutom använder vi monotonkonvergenssatsen för att bekräfta konvergensen i vår modell. Experiment baserade på syntetiska och verkliga nätverk visar att vårt föreslagna tillvägagångssätt i de flesta fall är överlägset andra representativa algoritmer när det gäller kvaliteten på överlappande detektering i samhället. Komplex nätverk, spridning, informationsdynamik, överlappande gemenskap upptäckt. | OCDID REF betraktar nätverket som ett dynamiskt system där varje nod kan kommunicera och sprida information med sina grannar. | 54,463,959 | Overlapping Community Detection Based on Information Dynamics | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 4,707 |
I detta dokument föreslår vi en ny, mycket flexibel kamera. I stort sett alla kameror idag har linser. Linser är användbara eftersom de fokuserar ljuset från scenen på bildplanet för att bilda ljusa och skarpa bilder. Vi är så vana vid kameror med linser att vi ofta förbise deras grundläggande begränsning; linser kraftigt begränsa geometriska och radiometriska kartläggning från scenen till bilden. Målet med detta papper är att utveckla en ny strategi för bildbehandling som underlättar en ny klass av kartläggningar från scenen till bilden, vilket gör det möjligt för kameran att utföra en bred uppsättning av bildfunktioner. Vi föreslår i detta dokument en ny, flexibel videokamera som inte har någon lins. Kamerans design är enkel. Den består av två komponenter, en bilddetektor och en speciell öppning, som placeras på ett litet avstånd från varandra. Figur 1 Konventionella bländare kan realiseras som ett specialfall av denna bländare, med hjälp av ett konstant binärt transmittansmönster. Figur 1 b visar öppningen i sin helhet. En hög med flera kontrollerbara ljusdämpande skikt på olika avstånd från detektorn används. Ett sätt att implementera kontrollerbara försvagande skikt är genom att använda flytande kristallblad 1. Figur 2 belyser skillnaden mellan en konventionell linskamera och vår linslösa kamera. En idealisk linskamera, som visas i figur 2 a, fokuserar scenen på bildplanet. Varje punkt på bilddetektorn integrerar ljus som utgår från en enda punkt i scenen. Därför påverkar bländaren endast den totala ljusstyrkan på bilden och den lokala oskärpa i defokuserade områden. I kontrast har vårt linslösa bildsystem, som visas i figur 2 b, ingen fokusering. Varje punkt på bilddetektorn integrerar ljus som utgår från hela synfältet. Före integrationen moduleras det 2D-ljusfält som är förknippat med varje bildpunkt av den dämpningsöppningen. Därför är det bländaren som bestämmer geometrin och fotometrin i bildprocessen. Vi visar att ett noggrant urval av öppningens transmittansmönster gör det möjligt att modulera ljuset på användbara sätt som inte kan uppnås med konventionella kameror. Eftersom bländaren kan styras kan dessutom imag-1 Andra rumsliga ljusmodulatorer användas, t.ex. en digital mikromirrorenhet (DMD) eller flytande kristall på kisel (LOS). | Zomet & Nayar REF föreslog en volym ljusdämpande skikt som är kontrollerbara i utrymme och tid för ett linslöst bildsystem och visade en mängd olika icke-konventionella bildfunktioner såsom delade synfält. | 1,243,940 | Lensless Imaging with a Controllable Aperture | {'venue': "2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR'06)", 'journal': "2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR'06)", 'mag_field_of_study': ['Computer Science']} | 4,708 |
Abstract-Detta arbete studerar resursfördelning på en molnmarknad genom auktion av Virtual Machine (VM) instanser. Den generaliserar den befintliga litteraturen genom att införa kombinatoriska auktioner av heterogena virtuella maskiner och modeller dynamiska virtuella maskiner. Social välfärd maximering under dynamisk resursförsörjning är bevisad NP-hård, och modelleras med ett linjärt heltal program. En effektiv α-approximationsalgoritm är utformad, med α på 2,72 i typiska scenarier. Vi använder sedan denna algoritm som en byggsten för att utforma en randomiserad kombinatorisk auktion som är beräkningseffektiv, sanningsenlig i förväntan, och garanterar samma sociala approximationsfaktor α. En viktig teknik i designen är att använda ett par skräddarsydda primära och dubbla LP:er för att utnyttja den underliggande förpackningsstrukturen av problemet social välfärd maximering, att bryta ner sin fraktionerade lösning i en konvex kombination av integrerade lösningar. Empiriska studier som drivs av Google Cluster spår verifierar effektiviteten i den randomiserade auktionen. | Zhang m.fl. REF utformade en randomiserad kombinatorisk auktion genom att använda ett par primära och dubbla linjära program, och sträva efter absolut sannfärdighet till priset av beräkningsmässig och ekonomisk effektivitet. | 1,912,338 | Dynamic resource provisioning in cloud computing: A randomized auction approach | {'venue': 'IEEE INFOCOM 2014 - IEEE Conference on Computer Communications', 'journal': 'IEEE INFOCOM 2014 - IEEE Conference on Computer Communications', 'mag_field_of_study': ['Computer Science']} | 4,709 |
A b s t r a c t Mål: Att avgöra om automatisk klassificering av dokumentciteringar kan vara till nytta för att minska den tid som experter som granskar tidskriftsartiklar använder för att uppdatera systematiska utvärderingar av läkemedelsklassens effektivitet för behandling av sjukdomar. Design: En testsamling byggdes med hjälp av de kommenterade referensfilerna från 15 systematiska utvärderingar av läkemedelsklass. Ett röstningsperceptronbaserat automatiserat citeringssystem konstruerades för att klassificera varje artikel som innehållande högkvalitativa, läkemedelsklassspecifika bevis eller inte. Korsvalideringsförsök utfördes för att utvärdera prestanda. Mätningar: Precision, återkallande och F-mätning utvärderades vid en rad urvalsviktningar. Arbete som sparats över provtagning vid 95 % återkallande användes som värdemått för granskningsprocessen. Resultat: En minskning av antalet artiklar som kräver manuell granskning hittades för 11 av de 15 ämnen som undersökts. För tre av ämnena var minskningen 50 % eller mer. Slutsats: Automatisk klassificering av dokumentcitat kan vara ett användbart verktyg för att upprätthålla systematiska utvärderingar av läkemedelsbehandlingens effektivitet. Det krävs ytterligare arbete för att förfina klassificeringssystemet och fastställa det bästa sättet att integrera systemet i produktionen av systematiska utvärderingar. Bruket av evidensbaserad medicin (EBM) innebär att tillämpa de bästa och mest aktuella bevisen, i form av publicerad litteratur, på beslutsfattandet inom patientvården. Medan den ursprungliga visionen av EBM verkade kräva läkare direkt söker primärlitteratur för bevis som är tillämpliga på deras patienter, den moderna uppfattningen av EBM är starkt beroende av destillationer av främst litteratur i form av systematiska utvärderingar (även kallade evidensrapporter), 3,4 såsom de som produceras av Cochrane Collaboration och evidensbaserade Practice Centers (EPCs) av Byrån för hälso- och sjukvård forskning och kvalitet (AHRQ). 5 AHRQ-rapporter är tillgängliga för allmänheten (http://www.ahrq.gov/clinic/ epcindex.htm/) och sammanfattningar av Cochrane-granskningarna finns också tillgängliga (http://www.cochrane.org/reviews/). Epidemiologi vid Oregon Health and Science University är hem för en av AHRQ EPC (http://www.ohsu.edu/epc/). EPC har fokuserat på att tillhandahålla omfattande litteraturöversikter som jämför klasser av läkemedel som används för att behandla särskilda tillstånd. Hittills har Oregon EPC, Southern California EPC, och Research Triangle Institute/University of North Carolina (RTI/UNC) EPC slutfört och publicerat 15 evidensrapporter, utvärdera effekten av läkemedel i läkemedelsklasser såsom orala opioider, skelettmuskelrelaxantia, och östrogenersättning. [6] [7] [8] Att göra dessa bevisrapporter heltäckande och hålla dem uppdaterade är en arbetsintensiv process. 9,10 Liksom alla systematiska utvärderingar, de av drogklasser identifiera tusentals artiklar som måste lokaliseras, triageras, ses över och sammanfattas. Potentiellt relevanta artiklar finns med hjälp av en iterativt förfinad frågebaserad sökning av biomedicinska elektroniska databaser, såsom MEDLINE och Embase. Dessa frågor utvecklas genom att börja med de optimerade kliniska frågor som föreslås och studeras av Haynes et al. [11] [12] [13] och förfinad på grundval av erfarenheterna och kunskaperna från EPC:s personal. För de 15 systematiska läkemedelsrecensioner som nämns ovan skapade personalen frågor om randomiserade kontrollerade prövningar genom att kombinera villkoren för hälsotillstånd och interventioner med Haynes et al. Forskningsmetodikfilter för terapi. Artiklarna tredubblas sedan i en process i två steg. Först granskas det abstrakta, och om det abstrakta uppfyller integrationskriterierna läses hela artikeln. Om den fullständiga textartikeln visar sig uppfylla kriterierna för införande sammanfattas och inkluderas de bevis som presenteras i artikeln i EPC-rapporten. Framsteg i klinisk utvärdering och farmakologi kräver att utvärderingarna av EPC-läkemedel uppdateras regelbundet. Detta leder oundvikligen till arbetsbelastningen i centrum ökar över tid som granskare måste både producera nya recensioner samt övervaka och uppdatera de gamla. Processen för att skapa dessa drogrecensioner är mycket metodisk. Granskarna för detaljerade register över sina sökmetoder, de artiklar för vilka de har granskat abstracts och läst fulltext, och slutligen, vilka artiklar innehåller tillräckligt hög kvalitet bevis för att motivera införande i den systematiska granskningen. Denna process motiverade vårt intresse av att använda dessa data för att utbilda ett automatiserat klassificeringssystem som skulle ha möjlighet att förutsäga vilka nya artiklar som mest sannolikt skulle inkludera bevis som motiverar införande i en översyn uppdatering. Ett automatiserat klassificeringssystem skulle fungera för att triage (eller filtrera) nya artiklar som matchar sökkriterierna i den ursprungliga studien. Detta skulle vara till nytta för granskarna på flera sätt. För det första, genom att övervaka antalet nya artiklar om ett visst ämne som innehåller bevis av hög kvalitet (enligt klassificeringssystemet), skulle granskarna få en enkel och tydlig indikation när det finns väsentlig ny information om ett ämne och rapporten behöver revideras. För det andra skulle klassificeringssystemet kunna minska antalet artiklar som kräver manuell granskning och därmed minska ett av de mest tidskrävande stegen i utarbetandet eller uppdateringen av en systematisk översyn. För det tredje kan klassificering av de mest sannolika dokumenten som innehåller bevis av hög kvalitet hjälpa granskare att prioritera vilka artiklar som läses först och som läses endast om det finns tillräckligt med tid. Detta dokument presenterar utredarnas tillämpning av ett maskininlärningsbaserat klassificeringssystem för att minska det arbete som krävs och förbättra effektiviteten i att hålla läkemedelsrecensioner uppdaterade. Vi är inte medvetna om något tidigare arbete som tillämpar automatiserad klassificering av litteratur för ämnesspecifika evidensbaserade läkemedels- eller terapirecensioner liknande det arbete vi presenterar här. Den närmaste forskningen är arbetet av Aphinyanaphongs et al., 14 som har publicerat arbete undersöka användningen av maskininlärning algoritmer för att förbättra informationshämtning av högkvalitativa artiklar användbara för evidensbaserad medicin i icke-topic-specifika hög nivå kategorier av etiologi, prognos, diagnos, och behandling. Deras forskning fokuserar på att förbättra prestandan över de kliniska frågefilter som först föreslogs av Haynes et al., [11] [12] [13] med hjälp av alla artiklar som publicerades i tio tidskrifter från 1986 till 1991, och om dessa artiklar ingick i AVS Journal Club som en guldstandard. Det har varit mycket mer arbete inom området automatiserad dokumentklassificering för att hjälpa curator annotering av biomedicinska databaser. Liksom arbetet av Aphinyanaphongs et al., 14 målen för dessa uppgifter är att placera artiklar i en av några hög nivå, nontopic-specifika kategorier. Resultaten av dessa automatiserade uppgifter på hög nivå varierar eftersom kraven på återkallande är olika och svåra att jämföra med den ämnesspecifika klassificering som presenteras här. Dobrokhotov m.fl. 15 använde en kombination av NLP och statistiska klassificeringsmetoder för att uppnå ett återkallande av 0,4477 med en precision på 0,6716 för att identifiera artiklar som innehåller information om mänskliga genetiska sjukdomar och polymorfismer, med hjälp av en testuppsättning där 15 % av de ursprungliga artiklarna var relevanta. TREC 2004 Genomics spår inkluderade en uppgift att identifiera artiklar som innehåller information om musgen funktion för Gene Ontology (GO) notation. Med en nyttofunktion som gav 20 gånger vikten av precision, de bästa uppnådda resultaten var en normaliserad nytta på 0,6512, och precision på 0,1579 vid ett återkallande av 0,8881, vilket resulterade i en F-mått på 0,2681. 16 För att bygga och testa ett automatiserat klassificeringssystem för dessa bevisrapporter, fortsatte vi i tre faser. I den första fasen byggde vi testsamlingar för var och en av 15 beredningsämnen. I den andra fasen tränade vi en maskininlärningsbaserad klassificering på testsamlingarna. I slutfasen utvärderade vi strategin för vart och ett av granskningsfrågorna. Figur 1 visar ett diagram över den övergripande processen. Den ursprungliga datamängden bestod av 15 EndNote (http://www. endnote.com/) referensfiler med kommentarer (i de användardefinierade fälten) som gjorts tillgängliga för utredarna av EPC. Varje fält i referensfilen innehöll information om artikelns titel, författare, tidskrift och publiceringsår samt flera användardefinierade fält. De användardefinierade fälten innehöll information som lämnats av EPC-granskarna om huruvida varje artikel klarade den triageutvärdering som gjorts av en expertgranskare på abstract- och artikelnivå. Dessutom kodades ibland en fritextskäl till varför ett papper uteslöts. Därför var dessa fält "semicoded" i att EPC använde en konsekvent uppsättning strängar för att koda triage beslut och kan också ha bifogat ytterligare fri text som beskriver en anledning för tilldelning av en specifik kod. Tillfälliga datainmatningsfel förekom också. För att omvandla dessa data till en enhetlig uppsättning information som skulle kunna användas av ett klassificeringssystem behandlade vi uppgifterna i flera steg. I det första steget exporterade vi data från EndNote med hjälp av en tab-definierad, en post per rad textformat. I det andra steget tog vi fram författare, tidskrift, titel, år och användardefinierad information och använde NCBI Batch Citation Matcher (http://www.ncbi.nlm.nih. gov/entrez/citmatch.cgi) för att slå upp motsvarande PubMed-identifierare (PMID). Sedan producerade vi en ihopfogad fil som inkluderade författaren, tidskrift, titel, år, användardefinierad information, och PMID för varje artikel. För att göra vårt arbete reproducerbart och jämförbart med arbete av andra som tillämpar olika metoder för denna uppgift, behövde vi ha en fast, statisk samling av MEDLINE-skivor. Vi bestämde oss för att använda TREC 2004 Genomics Track dokument corpus, en allmän MEDLINE delmängd som har använts i stor utsträckning i andra experimentella system. Corpus består av alla MEDLINE register (inte bara genomics register, som kan härledas från namnet) för åren 1994 till slutet av 2003. Med hjälp av detta dokument tillåter corpus enkel replikerbarhet av våra resultat och gör det möjligt för andra forskargrupper att direkt jämföra sina resultat med våra egna. 16 Vi behövde begränsa testsamlingen till artiklar för vilka TREC 2004 Genomics Track dokument corpus hade tillgängliga MEDLINE poster. Inte alla artiklar som ingår i referensfilerna indexerades i MEDLINE. Några fanns till exempel i icke-engelska tidskrifter som inte indexerats i MEDLINE. Vi filtrerade testsamlingen av de PMID som fanns i TREC corpus för att säkerställa att vi hade ett MEDLINE-rekord för varje artikel i testsamlingen. I nästa steg normaliserade vi användardefinierade fälten EndNote som innehöll EPC-kodad information för abstract- och artikeltriagebesluten för varje artikel. Vi använde en uppsättning enkla reguljära uttryck, anpassade för varje drog översyn och bestäms genom inspektion av data, för att normalisera resonera fält till en uppsättning av tio konsekvent kodade värden. Koderna och betydelserna visas i tabell 1. Utredarna hade utökat diskussionerna med EPC-granskarna för att fastställa de korrekta reguljära uttrycken för att kartlägga de användardefinierade fälten i de kodade värden som visas i tabell 1 och för att upptäcka och lösa eventuella typografiska fel. Inga artiklar uteslöts från testsamlingen på grund av oförmåga att bearbeta de användarkodade fälten. I denna studie försökte vi särskilja de artiklar som ingick på den abstrakta och fullständiga textnivån från alla de som uteslutits; men vi valde att bevara den information som tillhandahölls i undantagsskälskoderna för användning i framtida arbete. Som ett sista steg kombinerade vi informationen från alla studier till en enda textfil. Varje rad motsvarar en enskild artikel som tredubblats av EPC:s personal för en specifik läkemedelsgranskning, och varje fält motsvarar läkemedelsgranskningens namn, en referensfilsidentifierare, PMID:et och de abstrakta och fullständiga artiklarnas triagefält kodade enligt tabell 1. Exempel på dataposter visas i tabell 2. Observera att även om datamängden endast kommer att innehålla citeringar och inte fulltext artiklar, expert EPC granskare hade tillgång till fulltext artiklar och gjorde sina triage beslut i två steg, den första baserad på abstrakt och den andra baserad på fulltext artikeln. Det är detta slutliga triagebeslut som vi skulle vilja förutsäga med hjälp av en maskininlärningsalgoritm med endast den information som finns i artikelns citering. Observera att i den process som just beskrivs finns det två steg där vi utesluter artiklar som ursprungligen ingick i EndNote-filerna. Vi förlorar artiklar när Batch Citation Matcher inte kan hitta en matchande artikel (dvs. referensen är inte indexerad i MEDLINE) och när artikeln inte finns i den tioåriga MEDLINE-undergruppen. Efter bearbetningen kunde vi konvertera mellan 30% och 50% av referenserna till testsamlingen. Deskriptiv statistik om antalet originalartiklar som granskats för varje studie, antalet artiklar som ingår i textsamlingen och procentandelen positiva artiklar i varje textsamling visas i tabell 3. Den första kolumnen listar namnet på läkemedelsgranskningen, den andra antalet citeringar | Ytterligare arbete för systematiska utvärderingar utfördes av REF. | 13,431,314 | Reducing Workload in Systematic Review Preparation Using Automated Citation Classification | {'venue': 'Journal of the American Medical Informatics Association : JAMIA', 'journal': 'Journal of the American Medical Informatics Association : JAMIA', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 4,710 |
Abstract-This paper beskriver genomförandet av en tjänst för att identifiera och geo-lokalisera verkliga händelser som kan vara närvarande som sociala aktivitet signaler i två olika sociala nätverk. Vi fokuserar specifikt på innehåll som delas av användare på Twitter och Instagram för att utforma ett system som kan samla data över flera nätverk. Tidigare arbete har visat att det verkligen är möjligt att upptäcka fysiska händelser med hjälp av olika sociala nätverksplattformar. Många av dessa signaler behöver dock bekräftas för att kunna hantera händelser som saknar lämpligt stöd inom ett enda nätverk. Vi utnyttjar denna insikt för att utforma en oövervakad strategi som kan korrelera händelsesignaler över flera sociala nätverk. Vår algoritm kan upptäcka händelser och identifiera platsen för händelsen händelsen. Vi utvärderar vår algoritm med hjälp av både simuleringar och verkliga datauppsättningar insamlade med Twitter och Instagram. Resultaten indikerar att vår algoritm avsevärt förbättrar falsk positiv eliminering och uppnår hög precision jämfört med baslinjemetoder på verkliga datauppsättningar. | Social Fusion REF utformar en oövervakad metod som kan korrelera händelsesignaler över flera sociala nätverk. | 21,070,529 | Social Fusion: Integrating Twitter and Instagram for Event Monitoring | {'venue': '2017 IEEE International Conference on Autonomic Computing (ICAC)', 'journal': '2017 IEEE International Conference on Autonomic Computing (ICAC)', 'mag_field_of_study': ['Computer Science']} | 4,711 |
Problemet med att upptäcka anomalier har studerats under lång tid. Kort sagt, avvikelser är onormala eller osannolika saker. I finansiella nätverk är tjuvar och olaglig verksamhet ofta avvikande till sin natur. Medlemmar i ett nätverk vill upptäcka avvikelser så snart som möjligt för att hindra dem från att skada nätverkets gemenskap och integritet. Många maskininlärning tekniker har föreslagits för att ta itu med detta problem; vissa resultat verkar vara ganska lovande men det finns ingen uppenbar överlägsen metod. I detta dokument, vi anser anomali upptäckt särskilt till Bitcoin transaktionsnätverk. Vårt mål är att upptäcka vilka användare och transaktioner som är mest misstänkta; i detta fall är avvikande beteende en proxy för misstänkt beteende. I detta syfte använder vi tre oövervakade inlärningsmetoder inklusive k-means klustring, Mahalanobis avstånd, och Obesudlade Support Vector Machine (SVM) på två grafer som genereras av Bitcoin transaktionsnätverk: en graf har användare som noder, och den andra har transaktioner som noder. | Pham och Lee i REF överväga det allmänna problemet upptäckt av misstänkta användare och transaktioner på två grafer som genereras från Bitcoin blockchain nätverk. | 16,069,399 | Anomaly Detection in Bitcoin Network Using Unsupervised Learning Methods | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 4,712 |
Vi presenterar två djupa generativa modeller baserade på Variational Autoencoders för att förbättra exaktheten av läkemedelsrespons förutsägelse. Våra modeller, Perturbation Variational Autoencoder och dess semi-övervakade förlängning, Drug Response Variational Autoencoder (Dr.VAE), lära latent representation av den underliggande genen tillstånd före och efter läkemedelsapplicering som beror på: (i) läkemedelsinducerad biologisk förändring av varje gen och (ii) övergripande behandlingssvar resultat. Våra VAE-baserade modeller överträffar de aktuella publicerade riktmärkena inom området med allt från 3 till 11% AUROC och 2 till 30% AUPR. Dessutom fann vi att bättre återuppbyggnadsnoggrannhet inte nödvändigtvis leder till förbättrad klassificeringsnoggrannhet och att gemensamt utbildade modeller presterar bättre än modeller som minimerar rekonstruktionsfel oberoende av varandra. | REF använder VEAS för att förbättra noggrannheten hos förutsägelser om läkemedelssvar. | 88,515,081 | Dr.VAE: Drug Response Variational Autoencoder | {'venue': None, 'journal': 'arXiv: Machine Learning', 'mag_field_of_study': ['Mathematics']} | 4,713 |
I detta dokument studeras koalitionsbildning bland egenintresserade agenter som inte kan göra sidobetalningar. Vi visar att -core stabilitet minskar till att analysera om vissa allmännyttiga pro le är maximal för alla agenter. Vi visar också att -kärnan är en undergrupp av starka Nash equilibria. Detta faktum för vår stabilitet direkt över till tre strategiska lösningskoncept. Huvudfokus i dokumentet är att analysera den dynamiska processen för koalitionsbildning genom att explicit modellera kostnaderna för kommunikation och överläggning. Vi beskriver en algoritm för sekventiell åtgärd val där varje agent girigt maximerar sin stegvis payo med tanke på sina övertygelser. Villkor härleds under vilka denna process leder till konvergens av agenternas övertygelser och till en stabil koalitionsstruktur (när processens längd är exogent begränsad samt när agenter kan välja den). Slutligen visar vi att resultatet av varje kommunikation-övervägande process som leder till en stabil koalitionsstruktur är Pareto-optimal för det ursprungliga spelet som inte innehåller kommunikation eller överläggning. Omvänt kan alla Pareto-optimala resultat stödjas av en kommunikation-deliberingsprocess som leder till en stabil koalitionsstruktur. | REF studerar koalitionsbildning bland egenintresserade agenter som inte kan göra sidobetalningar-belöna varandra med betalningar för avtal om att gå med i någon koalition, vilket gör utvärderingen av en koalition enbart på dess nytta. | 1,575,005 | Coalition Formation Processes with Belief Revision among Bounded-rational Self-interested Agents | {'venue': 'J. Log. Comput.', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 4,714 |
Abstrakt. Dokumentet beskriver förfiningsalgoritmen för analys av (Co)Induktiva konstruktioner (CIC) som implementerats i den interaktiva teoremtestaren Matita. Förfiningsalgoritmen är ansvarig för att ge en betydelse åt termer, typer och bevis termer direkt skrivna av användaren eller genereras genom att använda taktik, beslutsförfaranden eller allmän automation. Termerna är skrivna i en "extern syntax" avsedd att vara användarvänlig som tillåter utelämnande av information, otypade bindemedel och en viss liberal användning av användardefinierad undertypning. Raffinören ändrar villkoren för att få relaterade välskrivna termer i den interna syntax som förstås av kärnan i ITP. I synnerhet fungerar det som en typ inference algoritm när alla bindemedel är otypade. Den föreslagna algoritmen är dubbelriktad: med tanke på en term i extern syntax och en typ som förväntas för termen, sprider den så mycket skrivande information som möjligt mot bladen av termen. Traditionella envägsalgoritmer går i stället vidare nedifrån och upp genom att dra slutsatsen om typen av en delterm och jämföra den med den typ som förväntas av dess sammanhang endast i slutet. Vi föreslår några nya dubbelriktade regler för CIC som är särskilt effektiva. Bland fördelarna med dubbelriktad rapportering har vi bättre felrapportering och bättre slutsatser om beroende typer. Dessutom, tack vare dubbelriktadhet, tvångssystem för sub-typning är mer effektivt och typ inference genererar enklare enande problem som är mer sannolikt att lösas av den inneboende ofullständig högre ordning enande algoritmer som genomförs. Slutligen inför vi i den externa syntaxen begreppet vektor för platshållare som gör det möjligt att omedelbart utelämna ett godtyckligt antal argument. Vektorer av platshållare tillåter ett trivialt genomförande av implicita argument och avsevärt förenkla genomförandet av primitiva och enkla taktik. | Ett anmärkningsvärt exempel är arbetet av REF med att beskriva en algoritm för tvåvägsutveckling för analys av (Co)Induktiva konstruktioner (CCIC) som genomförs i Matita. | 9,308,507 | A Bi-Directional Refinement Algorithm for the Calculus of (Co)Inductive Constructions | {'venue': 'LMCS 8 (1:18) 2012', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,715 |
Abstract-Face Recognition har undersökts i många årtionden. I motsats till traditionella handgjorda funktioner som LBP och HOG, mycket mer sofistikerade funktioner kan läras automatiskt genom djupt lärande metoder på ett datadrivet sätt. I detta dokument föreslår vi en tvåstegsstrategi som kombinerar en multi-patch djup CNN och djup metriska lärande, som extraherar lågdimensionella men mycket diskriminerande egenskaper för ansiktsverifiering och erkännande. Experiment visar att denna metod överträffar andra state-of-the-art metoder på LFW dataset, uppnå 99,77% 1 parvis verifiering noggrannhet och betydligt bättre noggrannhet enligt andra två mer praktiska protokoll. I detta dokument diskuteras också vikten av datastorlek och antalet patchar, vilket visar en tydlig väg till praktiska högpresterande ansiktsigenkänningssystem i verkligheten. | En tvåstegsstrategi föreslås också genom att kombinera djup CNN med djup CNN och djup metrisk inlärning REF. | 16,658,185 | Targeting Ultimate Accuracy: Face Recognition via Deep Embedding | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 4,716 |
Återkommande neurala nätverk (RNNs), såsom långa kortsiktiga minnesnätverk (LSTMs), fungerar som en grundläggande byggsten för många sekvens lärande uppgifter, inklusive maskinöversättning, språkmodellering, och frågesvar. I detta dokument tar vi hänsyn till det specifika problemet med språkmodellering på ordnivå och undersöker strategier för att legalisera och optimera LSTM-baserade modeller. Vi föreslår vikt-släppt LSTM som använder DropConnect på gömda vikter som en form av återkommande legalisering. Vidare introducerar vi NT-ASGD, en variant av den genomsnittliga stokastiska lutningsmetoden, där medelutlösaren bestäms med hjälp av ett icke-monotoniskt tillstånd i stället för att ställas in av användaren. Med hjälp av dessa och andra legaliseringsstrategier, uppnår vi toppmoderna ordnivå perplexiteter på två datauppsättningar: 57,3 på Penn Treebank och 65,8 på WikiText-2. Genom att undersöka effektiviteten av en neural cache i samband med vår föreslagna modell, uppnår vi en ännu lägre state-of-the-art perplexity på 52,8 på Penn Treebank och 52,0 på WikiText-2. | På samma sätt har REF också undersökt effekterna av olika legalisering och optimering på LSTM språkmodeller. | 212,756 | Regularizing and Optimizing LSTM Language Models | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 4,717 |
Vi diskuterar exponentiell asymptotisk egenskap hos lösningen av ett parallellt reparationsbart system med varm standby under allmän orsak misslyckande. Detta system kan beskrivas med en grupp partiella differentialekvationer med integrerad gräns. Först visar vi att den positiva sammandragningen C 0 -semigroup T (t) [Weiwei Hu, Asymptotic stabilitetsanalys av en parallell reparationsbar system med varm standby under gemensam orsak misslyckande, Acta Anal. Funkat. Applicering. 8 (1) (2006) 5-20] som genereras av operatören som motsvarar dessa ekvationer är en kvasikompakt operatör. Sedan med hjälp av [Weiwei Hu, Asymptotic stabilitetsanalys av en parallell reparationsbar system med varm standby under gemensam orsak misslyckande, Acta Anal. Funkat. Applicering. 8 (1) (2006) 5-20] att 0 är ett eigenvärde för operatören med algebraiskt index ett och C 0 -semigrupp T (t) är sammandragning, drar vi slutsatsen att operatörens spektralgräns är noll. Genom att använda ovanstående resultat följer den exponentiella asymptotiska stabiliteten hos systemets tidsberoende lösning lätt. | Shen m.fl. REF utforskade exponentiell asymptotisk egenskap hos ett parallellt reparationsbart system med vanlig orsak misslyckande. | 122,028,746 | Exponential asymptotic property of a parallel repairable system with warm standby under common-cause failure | {'venue': None, 'journal': 'Journal of Mathematical Analysis and Applications', 'mag_field_of_study': ['Mathematics']} | 4,718 |
I komplexa system är det nätverk av interaktioner som vi observerar mellan systemkomponenter aggregatet av de interaktioner som uppstår genom olika mekanismer eller lager. Nya studier visar att förekomsten av flera interaktionsskikt kan ha en dramatisk inverkan i de dynamiska processer som sker på dessa system. Dessa studier antar dock att interaktionerna mellan systemkomponenterna i vart och ett av lagren är kända, medan vi vanligtvis för verkliga system inte har den informationen. Här tar vi upp frågan om att avslöja de olika interaktionsskikten från aggregerade data genom att introducera flerlagers stokastiska blockmodeller (SBM), en generalisering av SBM i ett lager som tar hänsyn till olika mekanismer för lageraggregation. Först hittar vi den kompletta probabilistiska lösningen på problemet med att hitta den optimala flerskikts SBM för ett givet aggregat observerat nätverk. Eftersom denna lösning är beräkningsbar föreslår vi en approximation som gör det möjligt för oss att verifiera att flerlagers SBM är mer förutsägbara av nätverksstrukturen i verkliga komplexa system. Utvecklingen av verktyg för analys av verkliga komplexa nätverk har avsevärt ökat vår förståelse av komplexa system inom så olika områden som molekylär- och cellbiologi [1], neurovetenskap [2], biomedicin [3, 4], ekologi [5, 6], ekonomi [7], och sociologi [8]. En av nätverkets främsta framgångar har varit att reda ut förhållandet mellan den modulära organisationen av interaktioner inom ett komplext system [9], och systemets funktion och temporal utveckling [10-13]. Till följd av detta har en stor mängd forskning ägnats åt att upptäcka den modulära strukturen (eller samhällsstrukturen) av komplexa nätverk, dvs. uppdelningen av nätverkets noder i tätt sammankopplade undergrupper [14]. Stochastic block models (SBM) [15] [16] [17] är en klass av probabilistiska generativa nätverksmodeller som ger en mer allmän beskrivning av (mesoskopiska) gruppstrukturen i verkliga nätverk än modulmodeller. I SBM antas noderna tillhöra grupper och ansluta till varandra med sannolikheter som endast beror på deras gruppmedlemskap. Den enkla matematiska formen av SBM:er har inte bara gjort det möjligt att identifiera allmänna samhällsstrukturer i nätverk [17] [18] [19] [20] [21] [23] [24] [25] [26], utan också att göra nätverksinferens till ett prediktivt verktyg för att upptäcka saknade och falska länkar i empiriska nätverksdata [27], för att förutsäga mänskliga beslut [28, 29] och uppkomsten av konflikter i arbetslag [30], och för att identifiera okända interaktioner mellan läkemedel [31]. Även om dessa tillvägagångssätt har drivit vår förståelse av komplexa nätverksstruktur, en begränsning är att de förlitar sig på antagandet att det finns en enda mekanism som beskriver nätets konnektivitet, även om vi vet att verkliga nätverk ofta är resultatet av processer som sker på olika "lager" (till exempel, sociala nätverk omfattar relationer som uppstår i det bekanta skiktet, och andra som uppstår i det professionella skiktet) [32]. Dessutom blir det allt tydligare att de komplexa nätverkens flerskiktsstruktur kan ha en dramatisk inverkan på de dynamiska processerna * Korresponderande författare: [email protected] † Korresponderande författare: [email protected] som äger rum på dem [33] [34] [35] [36] [37]. Tyvärr saknar vi ofta information om de olika skikten av interaktion och kan bara observera prognoser av dessa flerskiktsinteraktioner i ett aggregerat nätverk där alla länkar är likvärdiga. Här tar vi just upp problemet med att lösa upp den underliggande flerskiktsstrukturen i verkliga nätverk. För att göra det introducerar vi först familjen av flerskikts SBMs som generaliserar enskikts SBMs till situationer där länkar uppstår i olika lager och aggregeras genom olika mekanismer. Även om det har lagts fram förslag om att utvidga begreppet modularitet till flerskiktsnät [38], utgör vårt förslag ett banbrytande försök att utvidga generativa gruppbaserade modeller till flerskiktssystem, och att studera dessa modeller rigoröst med hjälp av verktyg från statistisk fysik. För det andra ger vi den probabilistiskt kompletta lösningen på problemet med att sluta sig till den optimala flerskikts SBM för ett givet aggregatnätverk. Eftersom denna lösning är beräkningsbar föreslår vi en approximation som gör det möjligt för oss att objektivt ta itu med frågan om huruvida ett observerat nätverk sannolikt kommer att vara projektionen av flera lager. Våra resultat tyder på att många verkliga nätverk verkligen är prognoser. | I Ref. REF, författarna definierade en version av flerskikts stokastisk blockmodell och en slutsats förfarande för att bedöma om ett enskiktsnätverk faktiskt erhållits från en aggregering av lager i ett flerskiktsnätverk; de övervägde aggregering av lager med booleska regler. | 15,130,614 | Multilayer stochastic block models reveal the multilayer structure of complex networks | {'venue': 'Phys. Rev. X 6, 011036 (2016)', 'journal': None, 'mag_field_of_study': ['Physics', 'Computer Science']} | 4,719 |
Nätverk för innehållsleverans (CDN) levererar innehåll (t.ex. Webbsidor, videor) till geografiskt distribuerade slutanvändare över Internet. Vissa innehåll drar ibland till sig uppmärksamhet från en stor grupp slutanvändare. Detta leder ofta till flash-publiker som kan orsaka stora problem som avbrott i CDN. Mikroservice arkitektonisk stil syftar till att sönderdela monolitiska system i mindre komponenter som kan användas självständigt, uppgraderas och bortskaffas. Nätverksfunktion Virtualization (NFV) är en framväxande teknik som syftar till att minska kostnaderna och skapa smidighet genom att frikoppla nätverksfunktioner från den underliggande hårdvaran. Detta papper utnyttjar NFV och microservice arkitektoniska stil för att föreslå en arkitektur för on-the-fly CDN-komponent avsättning för att ta itu med frågor som flash crowds. I den föreslagna arkitekturen är CDN-komponenter utformade som uppsättningar av mikrotjänster som interagerar via RETFul Web-tjänster och tillhandahålls som virtuella nätverksfunktioner (VNF), som används och orkestreras i farten. Vi har byggt en prototyp där en CDN surrogatserver, utformad som en uppsättning av mikrotjänster, är utplacerad i farten. Prototypen används på SAVI, en kanadensisk distribuerad testbädd för framtida Internetapplikationer. Prestandan utvärderas också. | Upphovsmän i REF utnyttjar NFV och micro-service arkitektonisk stil för att föreslå en arkitektur för on-the-fly CDN-komponent avsättning för att ta itu med frågor som flash crowds. | 3,951,978 | An NFV and microservice based architecture for on-the-fly component provisioning in content delivery networks | {'venue': '2018 15th IEEE Annual Consumer Communications & Networking Conference (CCNC)', 'journal': '2018 15th IEEE Annual Consumer Communications & Networking Conference (CCNC)', 'mag_field_of_study': ['Computer Science']} | 4,720 |
Diambiguing namngivna enheter i naturligt språk textkartor nämner tvetydiga namn på kanoniska enheter som människor eller platser, registrerade i en kunskapsbas som DBpedia eller YAGO. I detta dokument presenteras en robust metod för kollektiv disambigering, genom att dra nytta av sammanhang från kunskapsbaser och använda en ny form av sammanhållen graf. Det förenar tidigare strategier till en övergripande ram som kombinerar tre åtgärder: sannolikheten för att ett företag ska nämnas i förväg, likheten mellan sammanhangen med ett omnämnande och en kandidatenhet samt samstämmigheten mellan kandidatenheter för alla som nämns tillsammans. Metoden bygger en viktad graf av omnämnanden och kandidatenheter, och beräknar en tät subgraf som approximerar den bästa gemensamma omnämnande-enhet kartläggning. Experiment visar att den nya metoden avsevärt överträffar tidigare metoder när det gäller noggrannhet, med robust beteende över en mängd olika ingångar. | REF ] byggde en viktad graf av omnämnanden och kandidatenheter, och beräknar en tät subgraf som approximerar den bästa gemensamma omnämnande-enhet kartläggning. | 6,216,506 | Robust Disambiguation of Named Entities in Text | {'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,721 |
Abstract-I detta dokument, en FPGA-baserad mobil funktion upptäckt och spårning lösning föreslås för komplexa videobehandlingssystem. Presenterade algoritmer inkluderar funktionsdetektering (hörn) och robust minnesfördelningslösning för att spåra i realtid hörn med hjälp av det förlängda Kalman filtret. Målmiljö för genomförande är en Xilinx Zynq SoC FPGA-baserad. Med hjälp av HW/SW-partitioneringsflexibilitet för Zynq förbättrar ARM:s dubbla kärnprocessorprestanda och hårdvaruacceleratorer som genereras av Xilinx SDSOC- och Vivado HLS-verktyg systemets förmåga att bearbeta video exakt med hög bildhastighet. Flera ursprungliga innovationer gör det möjligt att förbättra bearbetningstiden för hela systemet (detektion och spårning) med 50 %, vilket visas i experimentell validering (spårning av synskadade under deras utomhusnavigering). | Abdelkader m.fl. REF implementerade en inbäddad arkitektur för hörndetekterings- och spårningssystem i videosekvens med hjälp av Zynq-plattformens HW/SW-partitioneringsflexibilitet. | 53,575,159 | Zynq FPGA based and Optimized Design of Points of Interest Detection and Tracking in Moving Images for Mobility System | {'venue': None, 'journal': 'International Journal of Advanced Computer Science and Applications', 'mag_field_of_study': ['Computer Science']} | 4,722 |
Abstract-Under de senaste åren har sociala medier blivit allmänt förekommande och viktiga för sociala nätverk och innehållsdelning. Och ändå är det innehåll som genereras från dessa webbplatser fortfarande i stort sett outnyttjat. I den här artikeln visar vi hur innehåll i sociala medier kan användas för att förutsäga verkliga resultat. I synnerhet använder vi chatten från Twitter.com till prognos box-office intäkter för filmer. Vi visar att en enkel modell byggd utifrån den takt med vilken tweets skapas om vissa ämnen kan överträffa marknadsbaserade prediktorer. Vi visar vidare hur känslor som hämtats från Twitter kan utnyttjas ytterligare för att förbättra de sociala mediernas prognoskraft. | Asur m.fl. REF visade hur Twitter kan användas för att förutsäga verkliga resultat. | 8,674,839 | Predicting the Future with Social Media | {'venue': '2010 IEEE/WIC/ACM International Conference on Web Intelligence and Intelligent Agent Technology', 'journal': '2010 IEEE/WIC/ACM International Conference on Web Intelligence and Intelligent Agent Technology', 'mag_field_of_study': ['Computer Science', 'Physics']} | 4,723 |
Abstract-This paper presenterar först en analys strategi för att uppfylla kraven för en sensor tillämpning genom kompromisser mellan energiförbrukning (livstid) och källa-till-sjunk transportfördröjning under tillförlitlighet begränsar trådlösa sensornätverk. Ett nytt protokoll för datainsamling med namnet Broadcasting Combined with Multi-NACK/ACK (BCMN/A) föreslås baserat på analysstrategin. BCMN/A-protokollet uppnår energi- och fördröjningseffektivitet under datainsamlingsprocessen både i intra-cluster och inter-cluster. I intra-cluster, efter varje omgång av TDMA-samlingen, sänder ett klusterhuvud NACK för att indikera noder som inte skickar data för att förhindra noder som framgångsrikt skickar data från vidaresändning. Energin för datainsamling i intra-cluster bevaras och transportfördröjningen minskas med multi-NACK-mekanismen. Samtidigt i inter-clusters, multi-ACK returneras när en sensor nod skickar någon datapaket. Även om antalet ECK som ska skickas ökar, minskar antalet datapaket som ska återsändas avsevärt så att det därmed minskar nodenergiförbrukningen. BCMN/A-protokollet utvärderas genom teoretisk analys samt omfattande simuleringar och dessa resultat visar att vårt föreslagna protokoll tillsammans optimerar nätverkets livslängd och transportfördröjning under nätverkstillförlitlighetsbegränsning. | BCMN/A (Broadcasting Combined with Multi-NACK/ACK) I REF föreslås en mekanism för att minska energiförbrukningen och förseningarna under sändningsförfarandet. | 17,326,891 | Joint Optimization of Lifetime and Transport Delay under Reliability Constraint Wireless Sensor Networks | {'venue': 'IEEE Transactions on Parallel and Distributed Systems', 'journal': 'IEEE Transactions on Parallel and Distributed Systems', 'mag_field_of_study': ['Computer Science']} | 4,724 |
Abstract-Recently, foveated video kompressionsalgoritmer har föreslagits som, i vissa tillämpningar, levererar högkvalitativ video till reducerade bithastigheter genom att försöka matcha den icke-uniforma provtagningen av den mänskliga näthinnan. Vi beskriver en sådan ram här där foveated video skapas av ett icke-uniform filtreringssystem som ökar komprimerandet av videoströmmen. Vi maximerar en ny foveal visuell kvalitet metrisk, foveal signal-till-brus-förhållandet (FSNR) för att bestämma de bästa komprimerings- och hastighetskontrollparametrarna för en given bithastighet. Speciellt etablerar vi en ny algoritm för optimal hastighetskontroll för att maximera FSNR med hjälp av en Lagrange multiplikatormetod definierad på ett curvilinear koordinatsystem. För optimal hastighetskontroll utvecklar vi också en bitvis (hastighet-förvrängning)/(hastighet-kvantisering) modell. En snabb algoritm för att söka efter en optimal Lagrange multiplikator presenteras därefter. För de nya modellerna visar vi hur den rekonstruerade videokvaliteten påverkas, var FPSNR maximeras och visar kodningsprestandan för H.263,+,++/MPEG-4 videokodning. För H.263/MPEG-videokodning utvecklas en suboptimal hastighetskontrollalgoritm för snabba, högpresterande applikationer. I simuleringarna jämför vi de rekonstruerade bilderna som erhållits med hjälp av optimala hastighetskontrollmetoder för foveated och normal video. Vi visar att foveated videokodning med hjälp av den suboptimala hastighetskontrollalgoritmen ger utmärkt prestanda under 64 kb/s. | Ett av de viktigaste bidrag som ges av en filtreringsbaserad metod finns i REF, där foveation utnyttjas som ett verktyg för att utforska metoder för optimal hastighetskontroll av foveated video. | 15,295,048 | Foveated video compression with optimal rate control | {'venue': 'IEEE transactions on image processing : a publication of the IEEE Signal Processing Society', 'journal': 'IEEE transactions on image processing : a publication of the IEEE Signal Processing Society', 'mag_field_of_study': ['Mathematics', 'Medicine', 'Computer Science']} | 4,725 |
Det finns en enorm marknad för tillämpningsspecifika processorer som används inom inbyggda system. Denna marknad drivs av konsumenternas krav (t.ex. nya produkter, mer funktionalitet och flexibilitet, produktdigitalisering, bättre prestandakostnadsförhållande, portabilitet) och processordesign (dvs. vad vi kan erbjuda). Att vara framgångsrik på denna marknad kräver en kort tid till marknaden, vilket kräver användning av automatiserade konstruktionsverktyg. Dessa verktyg bör inte bara bidra till en snabb generering av en specifik processor, utan också göra det möjligt för konstruktören att snabbt och kvantitativt undersöka en stor uppsättning alternativa lösningar. Därför bör dessa verktyg baseras på en flexibel och programmerbar processormall. I detta dokument föreslår vi användningen av Transport Triggered Architectures (TTA) för en sådan processor mall. TTA kan jämföras med VLIWs; båda kan utnyttja kompileringstiden tillgängliga undervisningsnivå parallellism. TTA är dock programmerade på ett annat sätt. TTAs kombinerar en uppsättning intressanta funktioner; förutom att vara fullt programmerbar, de har gynnsamma skalegenskaper, de enkelt införliva godtycklig funktionalitet, och deras organisation är väl strukturerad, vilket möjliggör enkel och automatisk design. I tidningen förklaras dessa drag. Baserat på denna mall har en uppsättning designverktyg utvecklats; de innehåller en parallelliserande C/C++ kompilator som utnyttjar den tillgängliga processorn och applikationskonvergensen, en processorgenerator, simulatorer, profilerare och ett verktyg för arkitekturprospektering; dessa verktyg är integrerade i ett grafiskt användargränssnitt. I dokumentet beskriver vi inom kort dessa verktyg och visar hur de kan tillämpas på en viss applikation. Detta exempel program tas från bildbehandlingsområdet. Det kommer att visas hur verktygen hjälper till att utforska många lösningar, inklusive de som innehåller tillämpningsspecifika funktioner. | En annan arkitektur som exponerar mer detaljer om datasökvägen för kompilatorn är Transport-Trigged Architecture (TTA) REF. | 14,198,926 | Using Transport Triggered Architectures for Embedded Processor Design | {'venue': 'Integrated Computer-Aided Engineering', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,726 |
: Vårt end-to-end system rekonstruerar bilder och tillsammans står för demosaicking, denoising, deconvolution, och saknas datarekonstruktion. Tack vare separationen av bildmodell och formulering baserad på naturbilder tidigare stödjer vi både konventionella och okonventionella sensorkonstruktioner. Exempel Konventionella rörledningar för att fånga, visa och lagra bilder definieras vanligen som en serie kaskadmoduler, var och en ansvarig för att ta itu med ett visst problem. Även om denna uppdelning-och-konquer tillvägagångssätt ger många fördelar, introducerar det också ett kumulativt fel, eftersom varje steg i rörledningen endast beaktar utgången av föregående steg, inte den ursprungliga sensordata. Vi föreslår en end-to-end-system som är medveten om kameran och bildmodellen, upprätthåller naturlig bild tidigare, samtidigt som gemensamt redovisa för gemensamma bildbehandling steg som demosaicking, denoizing, deconvolution, och så vidare, allt direkt i en given utdata representation (t.ex., YUV, DCT). Vårt system är flexibelt och vi demonstrerar det på vanliga Bayer bilder samt bilder från anpassade sensorer. I samtliga fall uppnår vi stora förbättringar i bildkvalitet och signalrekonstruktion jämfört med den senaste tekniken. Slutligen visar vi att vår strategi är kapabel att mycket effektivt hantera högupplösta bilder, vilket gör även mobila implementationer möjliga. | Heide och Al. REF utvecklade ett ramverk för att utföra gemensamma bildbehandlingssteg i en ISP baserat på den naturliga bilden tidigare. | 405,565 | FlexISP: a flexible camera image processing framework | {'venue': 'TOGS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,727 |
Differentiell integritet har nyligen framträtt som den faktiska standarden för privat data release. Detta gör det möjligt att ge starka teoretiska garantier för integritet och nytta av utgivna data. Även om det är väl underförstått hur man släpper data baserat på räkningar och enkla funktioner enligt denna garanti, återstår det att ge allmänna ändamål tekniker som är användbara för en bredare variation av frågor. I detta dokument fokuserar vi på rumsliga data, dvs. alla flerdimensionella data som kan indexeras av en trädstruktur. Att direkt tillämpa befintliga differentiella integritetsmetoder på denna typ av data genererar helt enkelt buller. Vi föreslår istället klass av "privata rumsliga nedbrytningar": dessa anpassar standard rumsliga indexeringsmetoder såsom quadtrees och kd-trees för att ge en privat beskrivning av datadistributionen. Utrusta sådana strukturer med olika integritet kräver flera steg för att se till att de ger meningsfulla integritetsgarantier. Olika grundläggande steg, som att välja att dela poäng och beskriva fördelningen av poäng inom en region, måste göras privat, och garantierna för de olika byggstenarna måste bestå av en övergripande garanti. Följaktligen exponerar vi designutrymmet för privata rumsliga nedbrytningar, och analyserar några viktiga exempel. Ett viktigt bidrag av vårt arbete är att tillhandahålla nya tekniker för parameterinställning och efterbehandling av utdata för att förbättra riktigheten av frågesvar. Vår experimentella studie visar att det är möjligt att bygga sådana nedbrytningar effektivt, och använda dem för att svara på en mängd olika frågor privat och med hög noggrannhet. | Cormode m.fl. REF anpassade standardiserade rumsliga indexeringsmetoder, som t.ex. quadtree och kd-tree, för att bryta ner datautrymmesdifferential privat. | 5,940,611 | Differentially Private Spatial Decompositions | {'venue': '2012 IEEE 28th International Conference on Data Engineering', 'journal': '2012 IEEE 28th International Conference on Data Engineering', 'mag_field_of_study': ['Computer Science']} | 4,728 |
Abstract-The Internet presenterar en enorm mängd användbar information som vanligtvis formateras för sina användare, vilket gör det svårt att extrahera relevanta data från olika källor. Därför kommer tillgången till robusta, flexibla informationssystem (IE) som omvandlar webbsidorna till programvänliga strukturer som en relationsdatabas att bli en stor nödvändighet. Även om många metoder för datautvinning från webbsidor har utvecklats, har det gjorts begränsade ansträngningar för att jämföra sådana verktyg. Tyvärr kan endast i några få fall de resultat som genereras av olika verktyg jämföras direkt eftersom de angivna extraktionsuppgifterna skiljer sig åt. I detta dokument kartläggs de stora dataextraheringen på webben och jämförs dem i tre dimensioner: uppgiftsdomänen, automationsgraden och de tekniker som används. Kriterierna för den första dimensionen förklarar varför ett IE-system inte hanterar vissa webbplatser med särskilda strukturer. Kriterierna för den andra dimensionen klassificerar IE-system baserade på de tekniker som används. Kriterierna för den tredje dimensionen mäter graden av automatisering för IE-system. Vi anser att dessa kriterier ger kvalitativa åtgärder för att utvärdera olika IE-strategier. | I artikel REF, författare kartlägga de stora data extraktion metoder och analysera relevanta tekniker. | 206,742,377 | A Survey of Web Information Extraction Systems | {'venue': 'IEEE Transactions on Knowledge and Data Engineering', 'journal': 'IEEE Transactions on Knowledge and Data Engineering', 'mag_field_of_study': ['Computer Science']} | 4,729 |
ABSTRACT Trådlösa sensornätverk (WSN) används för närvarande för övervakning och kontroll i smarta nät. För att säkerställa kvaliteten på tjänsternas (QoS) krav för smarta nättillämpningar måste WSN ge specifika tillförlitlighetsgarantier. Kvalitetsuppskattning av realtidslänken (LQE) är avgörande för att förbättra tillförlitligheten hos WSN-protokollen. Många toppmoderna LQE-metoder ger dock numeriska uppskattningar som varken är lämpliga för att beskriva de dynamiska slumpmässiga egenskaperna hos radiolänkar eller för att avgöra om tillförlitligheten uppfyller kraven i standarder för smart nätkommunikation. I detta dokument föreslås en Wavelettneural-network-baserad LQE-algoritm (WNN-LQE) som sluter gapet mellan QoS-kraven för smarta nät och egenskaperna hos radiolänkar genom att uppskatta de sannolikhetsgaranterade gränserna för förhållandet mellan paketmottagning (PRR). I vår algoritm används signal-till-brus-förhållandet (SNR) som länkkvalitetsmått. SNR är ungefär uppdelad i två komponenter: en tidsvarierande ickelinjär del och en icke-stationär slumpmässig del. Varje komponent behandlas separat innan den matas in i WNN-modellen. De sannolikhetsgaranterade gränserna för SNR erhålls från WNN-LQE-algoritmen och omvandlas sedan till uppskattade gränser för PRR via kartfunktionen mellan SNR och PRR. Jämförande experimentella resultat presenteras för att visa giltigheten och effektiviteten hos den föreslagna LQE-algoritmen. INDEX TERMS Smarta nät, trådlösa sensornätverk, servicekvalitet, kvalitetsbedömning av länkar, våget neuralt nätverk, radiolänkens tillförlitlighet. | WNN-LQE använder våget neurala nätverk för att förutsäga SNR och dess varians av nästa gång, och sedan uppskattningar länka kvalitet kvantitativt med hjälp av kartmodellen mellan SNR och PRR konstruerad av Gaussian sannolikhet densitet funktion REF. | 21,501,677 | WNN-LQE: Wavelet-Neural-Network-Based Link Quality Estimation for Smart Grid WSNs | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 4,730 |
Abstract-We studerar ett mobilt trådlöst nätverk där grupper eller kluster av noder är intermittenta via mobila "bärare" (bärarna ger konnektivitet över tid bland olika kluster av noder). Över sådana nätverk (en omedelbar av en fördröjning tolerant nätverk), är det välkänt att traditionella routing algoritmer presterar mycket dåligt. I detta dokument föreslår vi en två-nivå Back-Pressure med Source-Routing algoritm (BP+SR) för sådana nätverk. Den föreslagna BP+SR-algoritmen separerar routing och schemaläggning inom kluster (snabbtidsskala) från den kommunikation som sker mellan kluster (låg tidsskala), utan förlust i nätverksgenomströmning (dvs. BP+SR är genomputoptimal). Ännu viktigare, för en källa och destination nod som ligger i olika kluster, den traditionella back-pressure algoritmen resulterar i stora kölängder vid varje nod längs dess väg. Detta beror på att ködynamiken drivs av den långsammaste tidsskalan (dvs. bärarnoder) längs vägen mellan källan och destinationen, vilket resulterar i mycket stora end-to-end förseningar. Å andra sidan visar vi att två-nivå BP+SR algoritmen upprätthåller stora köer endast vid ett fåtal noder, och därmed resulterar i ordningsmässigt mindre end-to-end förseningar. Vi tillhandahåller analys- och simuleringsresultat för att bekräfta våra påståenden. | Dessutom föreslår REF ett två nivåers back-pressure med källkodsradiealgoritm (BP + SR), som minskar antalet köer som krävs vid varje nod och minskar köernas storlek, vilket minskar fördröjningen endto-end. | 12,555,272 | Back-Pressure Routing for Intermittently Connected Networks | {'venue': '2010 Proceedings IEEE INFOCOM', 'journal': '2010 Proceedings IEEE INFOCOM', 'mag_field_of_study': ['Computer Science']} | 4,731 |
Abstract-I allmänhet måste en mobil robot som arbetar i okända miljöer upprätthålla en karta och bestämma sin egen plats med tanke på kartan. Detta inför betydande begränsningar i beräkning och minne för de flesta autonoma system, särskilt för lätta robotar som humanoider eller flygande fordon. I detta dokument presenterar vi ett nytt tillvägagångssätt för att lära sig en sevärdhetspolicy som gör det möjligt för en robot att kasta landmärken som inte är värdefulla för dess nuvarande navigeringsuppgift. Detta gör det möjligt för roboten att minska beräkningsbördan och utföra sin uppgift mer effektivt genom att bara underhålla viktiga landmärken. Vårt tillvägagångssätt tillämpar ett unscented Kalman filter för att ta itu med den samtidiga lokalisering och kartläggning problem och använder Monte-Carlo förstärkning lärande för att få urvalspolitiken. Baserat på verkliga världen och simuleringsförsök visar vi att de inlärda policyerna möjliggör effektiv robotnavigering och bättre handgjorda strategier. Vi visar vidare att den inlärda politiken inte bara är användbar i ett specifikt scenario utan också kan generaliseras mot miljöer med varierande egenskaper. | Strasdat m.fl. REF använder sig av förstärkt inlärning för att få en policy för urval av landmärken på nätet. | 9,459,977 | Which landmark is useful? Learning selection policies for navigation in unknown environments | {'venue': '2009 IEEE International Conference on Robotics and Automation', 'journal': '2009 IEEE International Conference on Robotics and Automation', 'mag_field_of_study': ['Engineering', 'Computer Science']} | 4,732 |
I detta dokument studeras den ungefärliga och null-kontrollbarheten för impulsstyrda system av värmeekvationer kopplade med ett par (A, B) av konstanta matriser. Vi presenterar ett nödvändigt och tillräckligt villkor för den ungefärliga kontrollbarheten, vilket är exakt Kalmans kontrollbarhetstillstånd (A, B). Vi bevisar att när ett sådant system är ungefär kontrollerbart, kan den ungefärliga kontrollen över ett intervall [0, T ] realiseras genom att lägga till kontroller vid godtyckliga n olika kontrollinstanser 0 < τ 1 < τ 2 < · · · < τ n < T, förutsatt att τ n − τ 1 < d A, där d A min{π/ skaImλ Vi visar också att sådana system i allmänhet inte är okontrollerbara. | I REF studerade författarna systemets kontrollbarhet: | 119,655,621 | Controllability of impulse controlled systems of heat equations coupled by constant matrices | {'venue': None, 'journal': 'Journal of Differential Equations', 'mag_field_of_study': ['Mathematics']} | 4,734 |
Vi introducerar en differentiable, end-to-end traitable ram för att lösa pixel-nivå gruppering problem såsom till exempel segmentering som består av två nya komponenter. Först, vi regress pixlar i en hyper-sfärisk inbäddning utrymme så att pixlar från samma grupp har hög cosinus likhet medan de från olika grupper har likhet under en specificerad marginal. Vi analyserar valet av inbäddning dimension och marginal, relaterar dem till teoretiska resultat om problemet med att fördela punkter enhetligt på sfären. För det andra, för att gruppera fall, använder vi en variant av medelskiftande kluster, implementerad som ett återkommande neuralt nätverk parameteriserat av kärnbandbredd. Denna återkommande gruppering modul är olika, åtnjuter konvergerande dynamik och probabilistisk tolkningsbarhet. Backpropagating gruppviktad förlust genom denna modul gör det möjligt att lära sig att fokusera på att korrigera inbäddning fel som inte kommer att lösas under efterföljande kluster. Vårt ramverk, även om det är begreppsmässigt enkelt och teoretiskt överflödande, är också praktiskt effektivt och beräkningsmässigt effektivt. Vi visar på betydande förbättringar jämfört med den senaste instansen segmentering för objektförslag generering, samt visar fördelarna med gruppering förlust för klassificering uppgifter som gränsdetektering och semantisk segmentering. | REF inbäddar pixlarna och grupperar dem sedan i instanser med en variant av medelskifte som genomförs som ett återkommande neuralt nätverk. | 4,795,845 | Recurrent Pixel Embedding for Instance Grouping | {'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 4,735 |
På senare tid har stora datamängder som lagras på Internet gjort det möjligt att analysera processer, t.ex. storskalig spridning av information, på nya detaljnivåer. I en nyligen genomförd studie konstaterade Liben-Nowell och Kleinberg [(2008) Proc Natl Acad Sci USA 105:4633-4638] att informationsflödet på Internet uppvisar överraskande mönster där ett kedjebrev når sin typiska mottagare genom långa vägar av hundratals mellanhänder. Vi visar att en grundläggande Galton-Watson-epidemimodell kombinerad med urvalsfördelen att observera endast stora diffusioner räcker för att förklara dessa mönster. Således kan urvalsfördomar av vilka data vi observerar radikalt ändra uppskattningen av klassiska diffusionsprocesser. diameter -kedjebokstäver - Galton-Watson process - maximal sannolikhet uppskattning -sociala nätverk A s sociala nätverk data blir allt mer tillgängliga i elektronisk form, forskare håller på att utveckla mer detaljerade och exakta bilder av mönster av sociala interaktioner. Dessa empiriska undersökningar är av största vikt med tanke på de många sätt på vilka sociala nätverk påverkar våra liv (1). Men sådana data kommer med sina egna idiosynkrasier. Framför allt har tidigare de flesta uppgifterna om sociala nätverk erhållits via frågeformulär (2), intervjuer (3), experiment (4) eller observationer direkt gjorda av forskare (5), och därför valde forskaren uppgifterna. På senare tid har tillgången till elektroniska data gjort det vanligare att uppgifterna väljer forskare. Det vill säga, ofta blir stora och intressanta dataset tillgängliga på grund av den elektroniska lagringen av olika former av interaktion som sker via Internet, och dessa blir sedan användbara testbäddar för teorier om sociala nätverk. I detta dokument fokuserar vi på den förklarande kraften hos en inneboende valfördomar som kommer tillsammans med många sådana datauppsättningar. Särskilt undersöker vi en urvalsfördomar som uppstår genom att titta på ovanligt stora fall av diffusionsprocesser-med en särskild tillämpning på Internet kedjebokstäver. Liben-Nowell och Kleinberg gav i en nyligen publicerad artikel (6) en viktig och intressant undersökning av två kedjebrev som hade stor spridning på Internet: en framställning till stöd för offentlig radio och TV som började cirkulera 1995 och en framställning mot det slutliga kriget i Irak som spreds 2002 och 2003. Genom att få många kopior av e-posten och spårningen genom de beställda listorna över namn som lagts till varje petition, Liben-Nowell och Kleinberg kunde rekonstruera stora delar av träden för spridning av dessa kedjebokstäver. Den anmärkningsvärda aspekten av Liben-Nowell och Kleinbergs upptäckter är att dessa träd inte uppvisar de korta avstånden mellan noder som är karakteristiska för många sociala nätverk (7, 8). I stället har dessa träd mycket små bredder (dvs. många noder har en enda avkomma), och mediannoden får bokstaven efter det har varit genom hundratals mellanhänder. För att förstå varför den spridning av kedjebrev som Liben-Nowell och Kleinberg rekonstruerar är förbryllande, låt oss diskutera vad som verkar vara den mest naturliga och enkla modellen för hur en sådan process skulle fungera. Denna modell är den klassiska en av Galton och Watson (9), som utvecklades på 1870-talet för att studera livslängden av familjenamn i ett patrilineal system. Galton och Watson föreslog en förgreningsprocess där varje nod har ett slumpmässigt antal barn, ritade oberoende enligt samma fördelning. Processen kan också fungera som en modell för en epidemi, där antalet barn är antalet andra en given nod infekterar. I denna ansökan är antalet barn till en viss avsändare det antal andra personer som undertecknar framställningen omedelbart nedanför avsändarens underskrift i olika versioner av brevet som förgrenas som olika mottagare undertecknar. Det är välkänt (10) att den nyckelmängd som kännetecknar denna processs asymptotiska egenskaper är det förväntade antalet barn per nod. Om denna kvantitet ligger under enhetströskeln, då kallas processen subkritisk och med sannolikhet kommer den att sluta i utplåning efter ett begränsat antal steg. Om det förväntade antalet barn är mer än ett, då processen kallas superkritisk och kommer att fortsätta för evigt med positiv sannolikhet. (Vi ignorerar det icke-generiska gränsfall där varje nod har exakt ett barn i förväntan.) Mysteriet är att ingen av ordningarna tycks förklara de observerade uppgifterna. De två datauppsättningar som Liben-Nowell och Kleinberg studien har mer än 10 000 noder vardera, medan det är ganska ovanligt att en subkritisk förgreningsprocess med rimliga parametrar har mer än ett dussin noder. Således är det typiska subkritiska trädet en dålig matchning till data på många dimensioner. Å andra sidan, om man försöker att passa data med en superkritisk process, då de träd som uppstår har enorma bredder, gren mycket ofta, och inte har de långa kedjor som observeras i data. Liben-Nowell och Kleinberg utvecklade därför en rikare nätverksbaserad modell för distribution av kedjebrev med två viktiga funktioner: asynkron responstid och gruppsvar. De insikter om deras process som är lika stora som de observerade diffusionerna har de rätta formerna. Vi visar att trots deras överraskande utseende har de observerade träden en global struktur som motsvarar en grundläggande och klassisk process. I synnerhet den enkla Galton-Watson epidemimodellen räcker för att generera träd som når många noder men ändå har långa kedjor som i data. För att visa detta passar vi först in på parametrarna i en Galton-Watson process genom att använda maxlikelihood uppskattning på grundval av ett av de träd som härleds av Liben-Nowell och Kleinberg. Sedan simulerar vi processen och undersöker endast de sällsynta utfall där en kedjebokstäv med dessa parametrar sprider sig lika brett som de som observerades. De flesta insikter är mycket små och har praktiskt taget ingen chans att observeras; vi är intresserade av egenskaperna hos de sällsynta som är tillräckligt stora för att matcha de offentliga radio- och krigsframställningar som beskrivs ovan. Simulerade resultat från denna villkorade fördelning stämmer väl överens med de verkliga observationerna av globala dimensioner som träddjup, bredd och fördelning av barn per nod. Den skenbara hinder diskuteras ovan - att ingen av | I REF föreslås en enkel förgreningsprocess (Galton-Watson-processen) för modellering av kedjebokstäverskaskader. | 2,040,592 | Using selection bias to explain the observed structure of Internet diffusions | {'venue': 'Proceedings of the National Academy of Sciences of the United States of America', 'journal': 'Proceedings of the National Academy of Sciences of the United States of America', 'mag_field_of_study': ['Medicine', 'Computer Science']} | 4,736 |
Abstract-This paper föreslår en full-duplex cooperation device-todevice (D2D) kommunikationssystem, där det använda reläet kan ta emot och överföra signaler samtidigt. Vi antar ett sådant system för att hjälpa till med D2D-överföring. Vi härleder först den villkorliga kumulativa fördelningsfunktionen och sannolikhetstäthetsfunktionen (pdf) för en serie kanalparametrar när störningen till basstationen beaktas och effektstyrning tillämpas vid D2D-sändaren och relänoden. Sedan får vi ett exakt uttryck för avbrottsannolikheten som en integral och som ett slutet uttryck för ett specialfall, som kan användas som en bra approximation till det allmänna fallet när resterande självinterferens är liten. Dessutom undersöker vi också problemet med maktfördelning mellan källan och reläet och formulerar ett suboptimalt fördelningsproblem, som vi visar oss vara kvasikonkav. Vår analys verifieras av Monte Carlo simuleringar, och ett antal viktiga funktioner i full duplex kooperativ D2D kommunikation kan därmed avslöjas. Index Terms-Cooperative device-to-device (D2D) kommunikation, full-duplex system, avbrott prestanda, strömfördelning. Underliggande enhet-till-enhet (D2D) kommunikation samexisterar med traditionell cellulär kommunikation har varit ett frekvent ämne för forskning i både akademi och industri i åratal på grund av dess höga effekteffektivitet, hög spektral effektivitet, och låg överföringsfördröjning [1]- [3]. Samtidigt har samarbetskommunikation också blivit intressant, eftersom den effektivt kan förbättra nätets tillförlitlighet och prestanda [4]. Nyligen har forskare försökt kombinera fördelarna med båda kommunikationssystemen och har föreslagit begreppet samverkande D2D-kommunikation [5]. Men de senaste verken behandlar endast kombinationen av D2D-kommunikation med halv-duplex reläer, som kommer att bryta systemet genomströmning med en bråkdel på grund av användningen av flera ortogonal tid eller frekvenser för en komplett överföring. Å andra sidan är full duplex relä kan övervinna denna brist, men till priset av att producera återstående själv-interferens (SI) [6]. En förenklad D2D-nätmodell föreslås i [7]. Effekterna av kvarvarande SI analyseras och en numerisk optimering av den totala sändningseffekten i denna full-duplex D2D nätverksmodell utförs utan att presentera analytiska resultat i [8]. Kraftfördelningsproblem i D2D-nätverk med full duplex analyseras i [9]. Alla ovannämnda verk har dock inte betraktat samverkan mellan D2D-sändaren och mottagaren, vilket begränsar tillförlitligheten och effektiviteten i D2D-kommunikationen. Ett kooperativ D2D-nätverk med ett halvt duplexrelä analyseras i [10], som uppvisar oönskade prestandaegenskaper. En två-par fall där en sändare i ett par kan hjälpa som en full-duplex relä för det andra paret när tomgång analyseras i [11]. Den modell som beaktas i detta papper är emellertid alltför förenklad och interferensen mellan två par beaktas inte. Den mest relevanta nätverksmodellen relaterad till full-duplex kooperativ D2D kommunikation föreslås och analyseras i [12]. I det dokumentet görs dock ett antal antaganden, t.ex. antar författarna att en relänod kan överföra de separerade signalerna till två destinationer samtidigt genom olika makter utan att beakta ömsesidig inblandning. Dessa antaganden kan under vissa omständigheter betraktas som opraktiska. För att ge en omfattande studie av en full-duplex kooperativ D2D-system, analyserar vi avbrott prestanda av en ny full-duplex kooperativ D2D-kommunikationssystem där ett relä kan hjälpa D2D-paret endast. Vår analys verifieras av Monte Carlo simuleringar. Bidragen från detta dokument kan sammanfattas på följande sätt: 1) Vi föreslår ett full-duplex relä-assisterat D2D-kommunikationssystem, där kraftstyrning och interferens från den cellulära användarutrustningen (CUE) till reläet och D2D-mottagaren beaktas. 2) Vi får ett enda integral uttryck för sannolikheten för end-to-end avbrott i det föreslagna systemet, samt en sluten form approximation till avbrott sannolikheten när rest SI är liten. 3) Vi formulerar en suboptimal kraftfördelningsmetod som är lätt att genomföra på grund av dess kvasi-konkav natur. Resten av detta dokument är organiserat enligt följande. I avsnitt II presenterar vi systemmodellen. Därefter analyserar vi avbrottsprestanda och effektallokeringsproblem i det föreslagna systemet i Avsnitt III och verifierar analysen genom simuleringar i Avsnitt IV. Slutligen avslutas dokumentet i avsnitt V. Modellen för det föreslagna fullständiga kooperativa D2D-systemet ges i bild. 1, där en basstation (BS), en CUE, 1 en D2D-användarutrustning (DUE) sändare, en DUE-mottagare och en fullduplex relä 2 beaktas. De är betecknade som B, C, S, D och R, respektive, och är organiserade i uppsättningen till = {B, C, S, D, R}. Därför är den kanalvinst som betecknas som G ij 1 Detta en-CUE antagande valideras av scenariot där flera CUES tilldelas resursblock i moderna cellulära system, och därför skulle vi bara förvänta oss att få störningar från högst en användare i en cell [13]. 2 Full-duplex reläet kan överföra och ta emot samtidigt, medan andra noder antas vara halv-duplex i detta papper. 3 Ett undantag ges av i = j = R, och G R R används för att beteckna den momentana loop kanal vinst, vilket leder till kvarvarande SI. Tfn 0018-9545 | I REF tillhandahölls en prestandaanalys av FD-reläassisterade D2D-system i ett cellulärt nätverk. | 5,753,652 | Outage Performance Analysis of Full-Duplex Relay-Assisted Device-to-Device Systems in Uplink Cellular Networks | {'venue': 'IEEE Transactions on Vehicular Technology', 'journal': 'IEEE Transactions on Vehicular Technology', 'mag_field_of_study': ['Computer Science']} | 4,737 |
I detta dokument presenteras en enkel algoritm för kontrastförbättring baserad på histogramutjämning (HE). Den föreslagna algoritmen utför en bitvis affin transform av intensitetsnivåerna i en digital bild så att den nya histogrammet funktionen kommer att vara ungefär enhetlig (som med HE), men där spännvidden är lokalt kontrollerad för att undvika brutal bullerförstärkning. Vi kallar denna algoritm Piecewise Affine Equalization (PAE). Flera experiment visar att den nya algoritmen i allmänhet förbättrar HU-resultaten. Den föreslagna algoritmen har implementerats i ANSI C. Källkoden, koddokumentationen och online demo är tillgängliga från webbsidan i denna artikel 1. | Nyligen, en färg och kontrast förbättring metod som kallas bitvis affin equalization (PAE) har rapporterats REF. | 16,894,587 | Color and Contrast Enhancement by Controlled Piecewise Affine Histogram Equalization | {'venue': 'IPOL Journal', 'journal': 'IPOL Journal', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 4,738 |
Abstract-förståelig användarrörlighet är avgörande för simuleringar av mobila enheter i ett trådlöst nätverk, men nuvarande mobilitetsmodeller återspeglar ofta inte verkliga användarrörelser. I det här dokumentet lägger vi grunden till ett sådant arbete genom att undersöka rörlighetsegenskaper i spår av mobila användare. Vi presenterar en metod för att uppskatta den fysiska placeringen av användare från ett stort spår av mobila enheter som associeras med accesspunkter i ett trådlöst nätverk. Med denna metod, vi extraherade spår av alltid-på Wi-Fi-enheter från en 13-månaders spår. Vi upptäckte att hastigheten och paustiden vart och ett följer en log-normal fördelning och att rörelseriktningen noga speglar vägens och gångarnas riktning. Baserat på de extraherade mobilitetsegenskaperna utvecklade vi en rörlighetsmodell med fokus på rörelser i populära regioner. Vår validering visar att syntetiska spår matchar verkliga spår med ett median relativ fel på 17%. | Kim och Al. REF extraherar mobilitetsmodeller från användarspår, med fokus på nodlokalisering och spårspårning: de analyserade egenskaperna är nodhastigheter och paustider som följer en log-normal distribution. | 7,356,506 | Extracting a Mobility Model from Real User Traces | {'venue': 'Proceedings IEEE INFOCOM 2006. 25TH IEEE International Conference on Computer Communications', 'journal': 'Proceedings IEEE INFOCOM 2006. 25TH IEEE International Conference on Computer Communications', 'mag_field_of_study': ['Computer Science']} | 4,739 |
Den rika uppsättningen interaktioner mellan individer i samhället [1] [2] [3] [4] [5] [6] [6] [7] resulterar i komplex samhällsstruktur, fånga högt anslutna kretsar av vänner, familjer eller yrkesgrupper i ett socialt nätverk 3, [7] [8] [9] [10]. Tack vare frekventa förändringar i individers aktivitets- och kommunikationsmönster är det tillhörande sociala nätverket och kommunikationsnätet föremål för ständig utveckling 7, [11] [12] [13] [14] [15] [16]. Vår kunskap om de mekanismer som styr den underliggande samhällsdynamiken är begränsad, men är nödvändig för en djupare förståelse av samhällets utveckling och självoptimering som helhet [17] [18] [19] [20] [21] [22]. Vi har utvecklat en algoritm baserad på clique percolation 23, 24 som gör det möjligt för oss att undersöka tidsberoendet av överlappande samhällen i stor skala, och därmed avslöja grundläggande relationer som kännetecknar samhällsutvecklingen. Vårt fokus ligger på nätverk som fångar upp samarbetet mellan forskare och samtalen mellan mobiltelefonanvändare. Vi finner att stora grupper består längre om de är i stånd att dynamiskt förändra sitt medlemskap, vilket tyder på att en förmåga att ändra gruppens sammansättning resulterar i bättre anpassningsförmåga. Små gruppers beteende visar den motsatta tendensen - villkoret för stabilitet är att deras sammansättning förblir oförändrad. Vi visar också att kunskap om medlemmarnas tidsengagemang i ett visst samhälle kan användas för att uppskatta samhällets livstid. Dessa resultat ger insikt i de grundläggande skillnaderna mellan små gruppers dynamik och stora institutioner. De datamängder vi anser är (1) den månatliga listan över artiklar i Cornell University Library e-print kondenserade materia (cond-mat) arkiv som sträcker sig 142 månader, med över 30 000 författare 25, och (2) rekordet av telefonsamtal mellan kunderna i ett mobiltelefonföretag som sträcker sig 52 veckor (ackumuleras över två veckor långa perioder), och innehåller kommunikationsmönster för över 4 miljoner användare. Båda typerna av samarbetsevenemang (en ny artikel eller ett telefonsamtal) dokumenterar förekomsten av social interaktion mellan de inblandade individerna (nodes), och kan representeras som (tidsberoende) länkar. Extrahering av de föränderliga länkvikterna från de primära uppgifterna beskrivs i kompletterande information. På bild. 1a, b vi visar den lokala strukturen vid en given tidpunkt steg i de två nätverken i närheten av en slumpmässigt vald individ (markerad av en röd ram). De samhällen (sociala grupper som representeras av tätare sammankopplade delar inom ett nätverk av sociala länkar) är färgkodade, så att svarta noder/kanter inte tillhör någon gemenskap, och de som samtidigt tillhör två eller flera samhällen visas i rött. De två nätverken har ganska olika lokal struktur: samverkansnätverket av forskare framträder som en en-stegs projektion av tvåpartsgrafen mellan författare och papper, så den är ganska tät och överlappningen mellan samhällen är mycket betydande. I telefonsamtalsnätet är däremot samhällena mindre sammankopplade och är ofta åtskilda av en eller flera knutpunkter/kanter inom gemenskapen. Medan telefonskivan fångar kommunikationen mellan två personer, tilldelas alla individer som bidrar till ett papper en helt ansluten klick. Som ett resultat av detta domineras telefondata av enskilda länkar, medan samförfattardata har många täta, starkt anslutna stadsdelar. Dessutom, länkarna i telefonnätet motsvarar omedelbar kommunikation händelser, fånga en relation som det händer. Däremot beaktade man uppgifterna från medförfattaren. a, Samförfattarnätverket. Figuren visar den lokala samhällsstrukturen vid en given tidpunkt steg i närheten av en slumpmässigt vald nod. B, Som en men för telefon-samtal nätverket. c, De fyllda svarta symbolerna motsvarar den genomsnittliga storleken på den största undergruppen av medlemmar med samma zip-kod, AEn verkliga ae, i telefonsamtalsgemenskaperna dividerat med samma mängd som finns i slumpmässiga uppsättningar, AEn rand ae, som en funktion av gemenskapens storlek, s. På samma sätt visar de öppna symbolerna den genomsnittliga storleken på den största undergruppen av samhällsmedlemmar med en ålder som faller i ett treårigt tidsfönster, dividerat med samma mängd i slumpmässiga uppsättningar. Felraderna i båda fallen motsvarar AEn real ae/ (AEn rand ae 1 s rand ) och AEn real ae/(AEn rand ae 2 s rand ), där s rand är standardavvikelsen när det gäller slumpmässiga uppsättningar. d, AEn verkliga ae/s som en funktion av s, för både zip-koden (fyllda svarta symboler) och ålder (öppna symboler). e, Möjliga händelser i samhällsutvecklingen. f, Identifiering av evolverande samhällen. Länkarna vid t (blå) och länkarna vid t 1 1 (gul) slås samman till en gemensam graf (grön). Varje CPM gemenskap vid t eller t 1 1 är en del av en CPM gemenskap i den sammanfogade grafen, så dessa kan användas för att matcha de två uppsättningar av samhällen. | Till exempel Palla et al. REF analyserade utvecklingen av samhällen i nätverk för vetenskapligt samarbete och i telefonnät. | 4,420,074 | Quantifying social group evolution | {'venue': 'Nature', 'journal': 'Nature', 'mag_field_of_study': ['Medicine', 'Biology', 'Mathematics', 'Physics']} | 4,740 |
Sammanfattning av denna webbsida: Inomhuspositioneringssystem (IPS) som använder Bluetooth Low Energy (BLE) håller för närvarande på att bli verkliga och tillgängliga, vilket har fått dem att växa i popularitet och användning. Det finns dock fortfarande många utmaningar relaterade till denna teknik, särskilt när det gäller Received Signal Strength Indicator (RSSI) fluktuationer på grund av beteendet hos kanalerna och multipateffekten, som leder till dålig precision. För att mildra dessa effekter föreslår och inför vi i detta dokument ett verkligt inomhuspositioneringssystem baserat på Bluetooth Low Energy, som förbättrar noggrannheten samtidigt som vi minskar strömförbrukningen och kostnaderna. De tre huvudförslagen är: frekvensmångfald, Kalmanfiltrering och en trilaterationsmetod vad vi har betecknat som "viktad trilateration". Analysen av resultaten visar att alla förslag förbättrar precisionen i systemet, som går upp till 1,82 m 90% av tiden för en anordning som rör sig i ett mellanrum och 0,7 m för statiska enheter. Dessutom har vi visat att systemet är skalbart och effektivt i fråga om kostnad och energiförbrukning. Det implementerade tillvägagångssättet gör det möjligt att använda en mycket enkel enhet (som en SensorTag) på objekten för att lokalisera. Systemet möjliggör en mycket låg densitet av ankarpunkter eller referenser och med en precision bättre än befintliga lösningar. | Cantón-Paterna m.fl. REF föreslog och införde ett verkligt IP-system baserat på BLE som förbättrar noggrannheten och samtidigt minskar strömförbrukningen; kanalmångfald dämpade effekten av snabb blekning och effekten av störningar under RSSI-mätningar. | 195,668,098 | A Bluetooth Low Energy Indoor Positioning System with Channel Diversity, Weighted Trilateration and Kalman Filtering | {'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Medicine']} | 4,741 |
Närmaste granne (NN) frågor i bana databaser har fått betydande uppmärksamhet i det förflutna, på grund av deras tillämpningar i spatiotemporal dataanalys. Senare arbete har övervägt det realistiska fallet där banorna är osäkra; men endast enkla osäkerhetsmodeller har föreslagits, som inte tillåter korrekt probabilistisk sökning. I detta dokument fyller vi denna lucka genom att ta itu med probabilistiska närmaste granne frågor i databaser med osäkra banor modellerade av stokastiska processer, särskilt Markov kedjemodellen. Vi studerar tre närmaste granne fråga semantik som tar som ingång ett frågetillstånd eller bana q och ett tidsintervall, och teoretiskt utvärdera deras runtime komplexitet. Dessutom föreslår vi en provtagningsmetod som använder Bayesian inference för att garantera att provade banor överensstämmer med de observationsdata som lagras i databasen. Denna provtagningsmetod kan användas i Monte-Carlo-baserade approximeringslösningar. Vi inkluderar en omfattande experimentell studie för att stödja våra teoretiska resultat. | Nyligen, REF tog itu med problemet med närmaste granne frågor baserat på Markov modellen. | 2,512,032 | Probabilistic Nearest Neighbor Queries on Uncertain Moving Object Trajectories | {'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']} | 4,742 |
Open Microscopy Environment (OME) definierar en datamodell och en programvaruimplementation för att fungera som en informatikram för avbildning i biologiska mikroskopiexperiment, inklusive representation av förvärvsparametrar, annoteringar och resultat bildanalys. OME är utformad för att stödja cellbaserad screening med hög innehåll samt traditionella applikationer för bildanalys. OME Data Model, uttryckt i omfattande Markup Language (XML) och realiseras i en traditionell databas, är både extensible och självdeskription, vilket gör det möjligt att möta framväxande bild-och analysbehov. | Open Microscopy Environment (OME 1 ; REF utformades som ett system för bildlagring, visualisering och analys. | 11,521,116 | The Open Microscopy Environment (OME) Data Model and XML file: open tools for informatics and quantitative analysis in biological imaging | {'venue': 'Genome Biology', 'journal': 'Genome Biology', 'mag_field_of_study': ['Biology', 'Medicine']} | 4,743 |
I många trådlösa Sensor Network (WSN) applikationer, är tillgången till en enkel men ändå korrekt uppskattning av RF-kanalens kvalitet avgörande. Men på grund av mätning buller och blekning effekter, är det vanligtvis uppskattas genom sond eller lärande baserade metoder, vilket resulterar i hög energiförbrukning eller höga omkostnader. Vi föreslår att man använder sig av informations redundans bland indikatorer som tillhandahålls av IEEE 802.15.4-systemet för att förbättra uppskattningen av länkkvaliteten. En Kalman filterbaserad lösning används på grund av dess förmåga att ge en korrekt uppskattning av de omätbara tillstånden i ett dynamiskt system som utsätts för observationsbuller. I detta dokument presenterar vi en empirisk studie som visar att en förbättrad indikator, kallad Effective-SNR, kan produceras genom att kombinera Signal to Buller Ratio (SNR) och Link Quality Indicator (LQI) med minimala extra omkostnader. Uppskattningsnoggrannheten förbättras ytterligare genom användning av Kalman filterteknik. Slutligen visar experimentella resultat att den föreslagna algoritmen kan implementeras på resursbegränsningar som är typiska för WSN. | Genom att kombinera signal-brusförhållande (SNR) och länkkvalitetsindex (LQI) kan en KF-baserad effektiv SNR-prediktion REF göras för att förbättra noggrannheten hos förutsägelsen i kanallänkkapaciteten. | 10,748,178 | Effective-SNR estimation for wireless sensor network using Kalman filter | {'venue': 'Ad Hoc Networks', 'journal': 'Ad Hoc Networks', 'mag_field_of_study': ['Computer Science']} | 4,744 |
Med framväxten av samhällsbaserade tjänster för att besvara frågor (cQA) har frågesökning blivit en integrerad del av informations- och kunskapsinsamlingen. Även om befintlig teknik för informationshämtning (IR) har visat sig vara framgångsrik när det gäller att hämta dokument, är de mindre effektiva när det gäller att hämta frågor på grund av de inneboende egenskaperna hos frågor som har kortare texter. En av de största gemensamma nackdelarna för termen viktning baserad frågehämtning modeller är att de bortser från förhållandet mellan termen par när de beräknar sin vikt. För att ta itu med detta problem föreslår vi en ny term för viktningssystem genom att integrera beroendeförhållandet mellan termerna par. Med tanke på en fråga, vi först konstruera ett beroende diagram och beräkna förhållandet styrka mellan varje term par. Därefter, baserat på beroendeförhållandet poäng, förfinar vi den ursprungliga termen vikter uppskattas av konventionell term viktning metoder. Vi visar att den föreslagna termen viktningssystem kan integreras sömlöst med populära modeller för frågesökning. Omfattande experiment validerar väl vårt föreslagna system och visar att det uppnår lovande resultat jämfört med de senaste metoderna. AVDELNING OCH ABSTRAKT I ETT ANNAT SPRÅK (KINERS) | I referensreferensreferensdokumentet föreslogs en metod för viktning av frågor om CQA. | 16,878,759 | The Use of Dependency Relation Graph to Enhance the Term Weighting in Question Retrieval | {'venue': 'COLING', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,745 |
Bakgrund: Den maximala känsligheten för lokala anpassningar gör Smith-Waterman algoritmen ett populärt val för proteinsekvens databassökning baserat på parvis anpassning. Emellertid, algoritmen är compute-intensiv på grund av en quadratic tid komplexitet. Motsvarande körtider förstärks ytterligare av den snabba tillväxten av sekvensdatabaser. Resultat: Vi presenterar CUDASW++ 3.0, en snabb Smith-Waterman protein databassökning algoritm, som par CPU och GPU SIMD instruktioner och utför samtidiga CPU och GPU beräkningar. För CPU-beräkningen använder denna algoritm SSE-baserade vektorutförandeenheter som acceleratorer. För GPU-beräkningen har vi för första gången undersökt en GPU SIMD-parallalisering, som använder CUDA PTX SIMD-videoinstruktioner för att få mer dataparallalism utöver SIMT-utförandemodellen. Dessutom är sekvens anpassning arbetsbelastningar automatiskt distribueras över processorer och GPU:er baserat på deras respektive beräkningsfunktioner. Utvärdering på Swiss-Prot-databasen visar att CUDASW++ 3.0 får en prestandaförbättring jämfört med CUDASW++ 2.0 upp till 2,9 och 3,2, med en maximal prestanda på 119,0 och 185,6 GCUPS, på en GPU GeForce GTX 680 och en dual-GPU GeForce GTX 690 grafikkort, respektive. Dessutom har vår algoritm visat betydande speedups över andra högpresterande verktyg: SWIPE och BLAST+. Slutsatser: CUDASW++ 3.0 är skrivet på CUDA C++ och PTX monteringsspråk, med inriktning på GPU:er baserade på Kepler arkitektur. Denna algoritm får betydande speedups över sin föregångare: CUDASW++ 2.0, genom att dra nytta av användningen av CPU och GPU SIMD instruktioner samt samtidig körning på CPUs och GPUs. Källkoden och simulerade data finns tillgängliga på http://cudasw.sourceforge.net. | Likaså CUDASW++ 3.0 REF par CPU och GPU SIMD instruktioner och utför samtidiga CPU och GPU beräkningar. | 4,889,656 | CUDASW++ 3.0: accelerating Smith-Waterman protein database search by coupling CPU and GPU SIMD instructions | {'venue': 'BMC Bioinformatics', 'journal': 'BMC Bioinformatics', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 4,746 |
ABSTRACT Eftersom forskning om sjukdomspatologi och cellulär funktion fortsätter att generera stora mängder data om protein-, gen- och småmolekylinteraktioner (PGSM) finns det ett kritiskt behov av att fånga dessa resultat i strukturerade format som möjliggör beräkningsanalys. Även om många ansträngningar har gjorts för att skapa databaser som lagrar denna information i datorläsbar form, kräver dessa källor till stor del en manuell process för att tolka och extrahera interaktionsrelationer från den biologiska forskningslitteraturen. Att effektivt och exakt kunna automatisera extraktionen av interaktioner från ostrukturerad text skulle avsevärt förbättra innehållet i dessa databaser och ge en metod för att hantera den fortsatta tillväxten av ny litteratur som publiceras. Resultat: I den här artikeln beskriver vi ett system för att extrahera PGSM-interaktioner från ostrukturerad text. Genom att använda en lexikal analysator och kontextfri grammatik (CFG) visar vi att effektiva tolkar kan konstrueras för att extrahera dessa relationer från naturligt språk med höga hastigheter av återkallande och precision. Våra resultat visar att denna teknik uppnådde en recall-hastighet på 83,5% och en precisionsgrad på 93,1% för att känna igen PGSM-namn och en recall-frekvens på 63,9% och en precisionsgrad på 70,2% för att extrahera interaktioner mellan dessa enheter. I motsats till andra publicerade tekniker, minskar användningen av en CFG avsevärt komplexiteten i naturligt språk bearbetning genom att fokusera på domän specifik struktur i stället för att analysera semantik av ett visst språk. Dessutom ger vårt tillvägagångssätt en abstraktionsnivå för att lägga till nya regler för utvinning av andra typer av biologiska relationer utöver PGSM-relationer. | REF använde en full parser med en lexisk analysator och en sammanhangsfri grammatik (CFG) för att extrahera protein-protein interaktion från text. | 3,245,543 | Extraction of protein interaction information from unstructured text using a context-free grammar | {'venue': 'Bioinformatics', 'journal': 'Bioinformatics', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 4,747 |
I detta dokument föreslår vi "adversarial autoencoder" (AAE), som är en probabilistisk autoencoder som använder de nyligen föreslagna generativa kontrariska nätverken (GAN) för att utföra variationell inferens genom att matcha den aggregerade bakre delen av den dolda kodvektorn för autoencoder med en godtycklig tidigare distribution. Att matcha den aggregerade bakre delen med den föregående säkerställer att generera från någon del av tidigare utrymme resulterar i meningsfulla prover. Som ett resultat av detta lär sig avkodningen av den kontradiktoriska autoenkodern en djup generativ modell som kartlägger den påtvingade före datadistributionen. Vi visar hur den kontrariska autoenkodern kan användas i tillämpningar som semi-övervakad klassificering, disentangling stil och innehåll av bilder, oövervakad klusterbildning, dimensionalitetsreduktion och datavisualisering. Vi utförde experiment på MNIST, Street View House Numbers och Toronto Face datauppsättningar och visar att kontrariska autoencoders uppnå konkurrenskraftiga resultat i generativ modellering och semi-övervakade klassificering uppgifter. | Adversarial Auto-Encoder (AAE) REF använder den kontrariska träningsmetoden för att matcha fördelningen av den kodade koden med den godtyckliga tidigare fördelningen i det latenta utrymmet. | 5,092,785 | Adversarial Autoencoders | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 4,748 |
I takt med att användningen av bilradar ökar kommer prestandabegränsningar i samband med radar-till-radar-interferens att bli mer betydande. I detta papper använder vi verktyg från stokastisk geometri för att karakterisera statistiken av radarinterferens. Med hjälp av två olika modeller för den rumsliga fördelningen av fordon, nämligen en Poisson-punktprocess och en Bernoulli-lattice-process, beräknar vi för varje enskilt fall interferensstatistiken och får analytiska uttryck för sannolikheten för framgångsrik områdesuppskattning. Detta dokument visar att den geometriska modellens regelbundenhet verkar ha begränsad effekt på interferensstatistiken, och därför är det möjligt att få grepp om snäva gränser för sämsta möjliga resultat. En teknik föreslås för att utforma arbetscykeln för slumpmässig spektrumåtkomst, som optimerar den totala prestandan. Detta analytiska ramverk verifieras med hjälp av Monte Carlo-simuleringar. Det är Melbourne. Han var radionätsplaneringsingenjör för mobil telekomindustri och sedan som IT-program/Engineeringschef för flera projekt som spänner över olika tekniker, inklusive utbyggnad av mobilnät, satellitnät och IKT-system för järnvägar i sju år. Han är för närvarande lektor vid Tekniska Högskolan, RMIT University. Hans nuvarande forskningsintressen inkluderar tillämpning av stokastisk geometri, kognitiv fordonsradar, radarsignalbehandling och flygkommunikationssystem. Han fick Australiens Post Graduate Award, finansierad av den australiska regeringen, från RMIT University. | I REF utvärderas prestandan för fordonsradar i förhållande till förväntat signal-till-brusförhållande, när fordonens placeringar följer en Poisson-punktprocess och en Bernoulli lattice-process. | 6,635,300 | Stochastic Geometry Methods for Modeling Automotive Radar Interference | {'venue': 'IEEE Transactions on Intelligent Transportation Systems', 'journal': 'IEEE Transactions on Intelligent Transportation Systems', 'mag_field_of_study': ['Mathematics', 'Computer Science', 'Engineering']} | 4,749 |
Abstract Point-Of-Interest (POI) rekommendation syftar till att minera en användares besökshistorik och hitta hennes / hans potentiellt föredragna platser. Även om lokalisering rekommendation metoder har studerats och förbättrats genomträngande, utmaningar w.r.t använder olika influenser inklusive temporal aspekt fortfarande olösta. Inspirerad av det faktum att tiden inkluderar många granular slots (t.ex. minut, timme, dag, vecka och så vidare.), definierar vi i detta dokument ett nytt problem för att genomföra rekommendationer genom att utnyttja alla olika tidsfaktorer. Framför allt hävdar vi att de flesta befintliga metoder endast fokuserar på ett begränsat antal tidsrelaterade egenskaper och försummar andra. Dessutom, med tanke på en specifik granularitet (t.ex. Tid på en dag) i rekommendation kan inte alltid gälla för varje användare eller varje datauppsättning. För att ta itu med utmaningarna föreslår vi en probabilistisk generativ modell, uppkallad efter Multi-aspect Tidsrelaterad Influence (MATI) för att främja effektiviteten av lokalisering (POI) rekommendation uppgift. Vi utvecklar också en effektiv optimeringsalgoritm baserad på Förväntning Maximering (EM). Vår MATI-modell upptäcker först en användares temporal multivariata orientering med hjälp av hennes incheckningslogg i Platsbaserade sociala nätverk (LBSN). Den utför sedan rekommendationer med hjälp av tidsmässiga korrelationer mellan användaren och föreslagna platser. Vår metod är tillämplig på olika typer av rekommendationsmodeller och kan fungera effektivt i flera tidsskalaer. Omfattande experimentella resultat på två storskaliga LBSN dataset verifierar effektiviteten av vår metod jämfört med andra konkurrenter. | För temporal påverkan, Hosseini et al. I REF föreslås en probabilistisk generativ modell, kallad Multi-aspect Time-relaterad påverkan (MATI), för att främja effektiviteten i POI-rekommendationen. | 13,749,181 | Leveraging multi-aspect time-related influence in location recommendation | {'venue': 'World Wide Web', 'journal': 'World Wide Web', 'mag_field_of_study': ['Computer Science']} | 4,750 |
En viktig uppgift i en genomisk analys av en mänsklig sjukdom är att begränsa antalet starkt associerade gener när man studerar mottaglighet för sjukdomen. Målet med denna studie var att jämföra beräkningsverktyg med och utan funktionsval för att förutsäga osteoporosresultat hos taiwanesiska kvinnor baserat på genetiska faktorer som enstaka nukleotida polymorfismer (SNPs). För att belysa sambanden mellan osteoporos och SNP i denna population, tre classi katjon algoritmer tillämpades: multilayer feedfore neural network (MFNN), naiva Bayes, och logistisk regression. En omslagsbaserad funktionsvalsmetod användes också för att identifiera en undergrupp av större SNP:er. Experimentella resultat visade att MGNN-modellen med omslagsbaserad metod var den bästa prediktiva modellen för att härleda sjukdomskänsligheten baserat på det komplexa förhållandet mellan osteoporos och SNP hos taiwanesiska kvinnor. Detta tyder på att patienter och läkare kan använda det föreslagna verktyget för att förbättra beslutsfattandet baserat på kliniska faktorer såsom SNP-genotypningsdata. | I REF jämförs de tre klassificeringsalgoritmerna, nämligen multilayer feed-forward neural network (MFFN), Naïve Bayes, och logistisk regression (LR) med och utan omslagsbaserad funktionsvalsmetod baserad på genetiska faktorer för att förutsäga osteoporos hos taiwanesiska kvinnor. | 17,047,797 | Comparison of Classification Algorithms with Wrapper-Based Feature Selection for Predicting Osteoporosis Outcome Based on Genetic Factors in a Taiwanese Women Population | {'venue': 'International Journal of Endocrinology', 'journal': 'International Journal of Endocrinology', 'mag_field_of_study': ['Medicine']} | 4,751 |
Vi presenterar ett nytt förhållningssätt till den estetiska teckningen av oriktade grafer. Metoden har två faser: först bädda in grafen i en mycket hög dimension och sedan projicera den i 2-D-planet med hjälp av huvudkomponentanalys. Löptiden är linjär i grafstorleken, och experiment vi har utfört visar metodens förmåga att rita grafer på 10 5 noder på några sekunder. Den nya metoden verkar ha flera fördelar jämfört med klassiska metoder, inklusive en betydligt bättre körtid, en användbar inneboende förmåga att visa grafen i olika dimensioner, och ett effektivt sätt att interaktivt utforska stora grafer. | Harel och Korens teknik REF bäddar in grafen i ett högdimensionellt utrymme och sedan projicerar ner till 2D. | 122,739,950 | Graph Drawing by High-Dimensional Embedding | {'venue': 'J. Graph Algorithms Appl.', 'journal': 'J. Graph Algorithms Appl.', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 4,752 |
ABSTRACT Attributbaserad kryptering, särskilt för chiffertext-policy attribut-baserad kryptering, kan uppfylla funktionaliteten hos finkornig åtkomstkontroll i molnlagringssystem. Eftersom användarnas attribut kan utfärdas av flera attribut myndigheter, multi-authority chiffertext-policy attribut-baserad kryptering är en framväxande kryptografisk primitiv för att genomdriva attribut-baserad åtkomstkontroll på outsourcade data. De flesta av de befintliga multi-authority attribut-baserade systemen är dock antingen osäkra i attribut-nivå återkallande eller brist på effektivitet i kommunikation overhead och beräkningskostnader. I detta dokument föreslår vi ett attributbaserat system för åtkomstkontroll med tvåfaktorsskydd för molnlagringssystem med flera tillstånd. I vårt föreslagna system kan alla användare återställa utkontrakterade data om och endast om denna användare har tillräckliga attribut hemliga nycklar med avseende på åtkomstpolicy och behörighetsnyckel avseende utkontrakterade data. Dessutom har det föreslagna systemet egenskaper som konstant storlek chiffertext och små beräkningskostnader. Förutom att stödja upphävandet på attributnivå gör vårt föreslagna system det möjligt för dataägare att utföra återkallandet på användarnivå. Säkerhetsanalysen, prestandajämförelser och experimentella resultat visar att vårt föreslagna system inte bara är säkert utan också praktiskt. INDEX TERMS Attributbaserad kryptering, molnlagring med flera tillstånd, tvåfaktorsskydd, upphävande på attributnivå, återkallande på användarnivå. | Löjtnant m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m för m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. I REF föreslogs ett effektivt säkerhetssystem för molnlagringssystem med flera tillstånd baserade på den attributbaserade krypteringen. | 24,578,782 | Two-Factor Data Access Control With Efficient Revocation for Multi-Authority Cloud Storage Systems | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 4,753 |
Adaptiva metoder som Adam och RMSProp används ofta i djupinlärning men är inte välbegripliga. I detta papper söker vi en skarp, ren och exakt karakterisering av deras beteende i icke konvexa inställningar. I detta syfte ger vi först en ny bild av adaptiva metoder som förkonditionerade SGD, där förkonditioneringsgivaren uppskattas på ett online sätt. Genom att studera förkonditionären på egen hand klargör vi dess syfte: den skalar om det stokastiska lutningsbullret till att vara isotropiskt nära stationära punkter, vilket hjälper till att undkomma sadelpunkter. Dessutom visar vi att adaptiva metoder effektivt kan uppskatta ovan nämnda förkonditionerare. Genom att limma ihop dessa två komponenter ger vi det första (som vi vet) andra ordningens konvergensresultat för alla adaptiva metoder. Den viktigaste insikten från vår analys är att, jämfört med SGD, adaptiva metoder fly sadel punkter snabbare, och kan konvergera snabbare överlag till andra ordningen stationära punkter. | Arbetet i REF visar att adaptiv algoritm, såsom Adam och RMSProp, kommer att skala den stokastiska lutning buller att vara isotropa nära stationära punkter, vilket hjälper fly sadeln punkter. | 59,316,425 | Escaping Saddle Points with Adaptive Gradient Methods | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 4,754 |
Det är ABSTRACT. Sannolikheten densitet funktion av en sannolikhetsfördelning är ett grundläggande begrepp i sannolikhetsteori och en viktig ingrediens i olika allmänt använda maskininlärningsmetoder. Men den nödvändiga ramen för att sammanställa probabilistiska funktionella program till densitetsfunktioner har först nyligen utvecklats. I detta arbete presenterar vi en täthetskompilator för ett probabilistiskt språk med fel och både diskreta och kontinuerliga distributioner, och ger ett bevis på dess ljud. Kompilatorn minskar kraftigt domänexperternas utvecklingsarbete, vilket vi visar genom att lösa inferensproblem från olika vetenskapliga tillämpningar, såsom modellering av den globala kolcykeln, med hjälp av en standard Markov-kedja Monte Carlo-ramverk. | REF definierar en denomineringssemantik baserad på densitetsfunktioner för ett begränsat första ordningens språk med kontinuerliga distributioner. | 5,646,609 | Deriving Probability Density Functions from Probabilistic Functional Programs | {'venue': 'Logical Methods in Computer Science, Volume 13, Issue 2 (July 3, 2017) lmcs:3758', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,755 |
Sentimentanalys av online-användargenererat innehåll är viktigt för många sociala medier analytics uppgifter. Forskare har till stor del förlitat sig på analys av textkänslor för att utveckla system för att förutsäga politiska val, mäta ekonomiska indikatorer och så vidare. Nyligen använder sociala medier allt oftare bilder och videor för att uttrycka sina åsikter och dela med sig av sina erfarenheter. Sentimentanalys av sådant storskaligt visuellt innehåll kan hjälpa till att bättre extrahera användarkänslor till händelser eller ämnen, såsom de i bild tweets, så att förutsägelse av känslor från visuellt innehåll kompletterar textkänslor analys. Motiverade av behovet av att utnyttja storskaliga men bullriga träningsdata för att lösa det extremt utmanande problemet med bildkänslor analys, använder vi Convolutional Neural Networks (CNN). Först utformar vi en lämplig CNN-arkitektur för analys av bildkänslor. Vi får en halv miljon träningsprover genom att använda en grundläggande känsloalgoritm för att märka Flickr bilder. För att använda sådana bullriga maskinmärkta data använder vi en progressiv strategi för att finjustera det djupa nätverket. Dessutom förbättrar vi prestandan på Twitter-bilder genom att framkalla domänöverföring med ett litet antal manuellt märkta Twitter-bilder. Vi har genomfört omfattande experiment på manuellt märkta Twitter-bilder. Resultaten visar att det föreslagna CNN kan uppnå bättre prestanda i bildanalys än konkurrerande algoritmer. | I Ref föreslogs en progressiv CNN-arkitektur för att använda Bulliely-märkta data för klassificering av binära känslor. | 14,845,596 | Robust Image Sentiment Analysis Using Progressively Trained and Domain Transferred Deep Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 4,756 |
Summingbird är ett domänspecifikt språk med öppen källkod som implementerats i Scala och utformats för att integrera online och batch MapReduce beräkningar i ett enda ramverk. Summingbird program skrivs med hjälp av dataflöde abstraktioner såsom källor, sänkor, och butiker, och kan köras på olika utförande plattformar: Hadoop för batch bearbetning (via Skalning/Cascading) och Storm för online bearbetning. Olika utförandelägen kräver olika bindningar för dataflödesuttag (t.ex. HDFS-filer eller brevköer för källan) men kräver inga ändringar av programlogiken. Dessutom kan Summingbird arbeta i ett hybridbearbetningsläge som på ett transparent sätt integrerar batch- och onlineresultat för att effektivt generera aktuella aggregeringar över långa tidsperioder. Språket var utformat för att förbättra utvecklarens produktivitet och adressera smärtpunkter i att bygga analyslösningar på Twitter där samma kod ofta måste skrivas två gånger (en gång för batch bearbetning och igen för online-bearbetning) och på obestämd tid upprätthållas parallellt. Vår nyckelinsikt är att vissa algebraiska strukturer utgör den teoretiska grunden för att integrera batch- och onlinebearbetning på ett sömlöst sätt. Detta innebär att Simmingbird inför begränsningar för de typer av aggregeringar som kan utföras, även om vi i praktiken inte har funnit dessa begränsningar vara alltför restriktiva för ett brett spektrum av analysuppgifter på Twitter. | För online och offline integrerad bearbetning, Twitter föreslår också Summingbird REF, ett ramverk som integrerar batch bearbetning och online stream processing. | 10,731,161 | Summingbird: A Framework for Integrating Batch and Online MapReduce Computations | {'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']} | 4,757 |
Syfte - Länkning bibliotek och Wikipedia kan avsevärt förbättra kvaliteten på tjänster som tillhandahålls av dessa två stora silos av kunskap. En sådan koppling skulle berika kvaliteten på Wikipedia-artiklar och samtidigt öka synligheten för bibliotekets resurser. I detta syfte beskriver detta arbete utformning och utveckling av ett programvarusystem för automatisk kartläggning av FAST ämnesrubriker, som används för att indexera biblioteksmaterial, till motsvarande artiklar i Wikipedia. Design / metodologi / approach -Det föreslagna systemet fungerar genom att först upptäcka alla kandidat Wikipedia begrepp (artiklar) som förekommer i titlarna på böcker och annat biblioteksmaterial som är indexerade med en given FAST ämnesrubrik. Detta följs sedan av utbildning och införande av en maskininlärningsalgoritm (ML) utformad för att automatiskt identifiera de begrepp som motsvarar FAST-rubriken. Den ML-algoritm som används är en binär klassificerare som klassificerar kandidatbegreppen i antingen "motsvarande" eller "icke-motsvarande" kategorier. Klassifieraren utbildas för att lära sig egenskaperna hos de kandidater som har störst sannolikhet att tillhöra kategorin "motsvarande" baserat på en uppsättning av fjorton positions-, statistik- och semantiska egenskaper. Vi har utvärderat prestandan hos det utvecklade systemet med hjälp av standardmått för informationshämtning av precision, återkallande och F-poäng på ett dataset som innehåller 200 FAST ämnesrubriker manuellt kartlagda till deras motsvarande Wikipedia artiklar. Utvärderingsresultaten visar att det utvecklade systemet kan uppnå så höga poäng som 0,65 respektive 0,99 i motsvarande respektive icke-motsvarande kategorier. Storleken på den datauppsättning som används för att utvärdera systemets prestanda är ganska liten. Vi anser dock att den utvecklade datauppsättningen är tillräckligt stor för att visa att det föreslagna tillvägagångssättet är genomförbart och skalbart. Praktiska konsekvenser -Den rena storleken på engelska Wikipedia gör den manuella kartläggningen av Wikipedia artiklar för att bibliotek ämnesrubriker en mycket arbetsintensiv och tidskrävande uppgift. Vårt mål är därför att minska kostnaderna för sådan kartläggning och integration. Social Implications -Den föreslagna kartläggningen banar väg för att ansluta bibliotek och Wikipedia som två stora silos av kunskap, och möjliggör dubbelriktad rörelse av användare mellan de två. Originalitet/värde -Såvitt vi vet är det aktuella arbetet det första försöket med automatisk kartläggning av Wikipedia till ett biblioteksstyrt ordförråd. | I en nyare artikel presenterar Joorabchi och Mahdi REF metod- och programvarusystem för automatisk kartläggning av faceted Application of Subject Terminology (FAST) ämnesrubriker, en kontrollerad vokabulär baserad på Library of Congress Subject Rubrikes (LCSH), till deras motsvarande Wikipedia artiklar. | 3,755,124 | Improving the visibility of library resources via mapping library subject headings to Wikipedia articles | {'venue': 'Library Hi Tech', 'journal': 'Library Hi Tech', 'mag_field_of_study': ['Computer Science']} | 4,758 |
Nyligen avslöjades den anmärkningsvärda kapacitetspotentialen hos flera input-system för trådlös kommunikation med flera utflöden (MIMO). Den förväntade enorma kapacitetsökningen av MIMO är dock avsevärt begränsad av co-channel interference (CCI) i realistiska cellulära miljöer. Den avancerade mottagarteknik som föreslås i [9] förbättrar systemets prestanda på bekostnad av den ökade mottagarens komplexitet, och den uppnådda systemkapaciteten är fortfarande betydligt långt ifrån den interferensfria kapacitetens övre gräns, särskilt i miljöer med stark CCI. I detta dokument, basstation kooperativ bearbetning utforskas för att ta itu med problemet co-channel interference reducering i nedlänk multicell multiuser MIMO-nätverk, och visas dramatiskt öka kapaciteten med stark CCI. Både information-teoretiska smutsiga papperskodningsmetod och flera mer praktiska gemensamma överföringssystem studeras, med poolade och praktiska kraftbegränsningar per bas. Utöver den potential för begränsning av den kulturella och kreativa sektorn som finns, behandlas även andra fördelar med kooperativ bearbetning, bland annat energivinst, fördel för kanalkvalitet/konditionering och makrodiversitetsskydd. Potentialen i våra föreslagna gemensamma överföringssystem verifieras med både heuristiska och realistiska cellulära MIMO-inställningar. | I REF studeras flera praktiska gemensamma överföringssystem med per BS effektbegränsningar och fördelarna med cooperation processing i downlink multicell MU-MIMO-nätverk intygas. | 1,890,917 | Cochannel Interference Mitigation and Cooperative Processing in Downlink Multicell Multiuser MIMO Networks | {'venue': None, 'journal': 'EURASIP Journal on Wireless Communications and Networking', 'mag_field_of_study': ['Computer Science']} | 4,759 |
Sammanfattning I denna artikel presenteras en optimal metod för distribuerad kollisionsundvikande bland flera icke-holonomiska robotar i teori och experiment. Icke-holonomisk optimal ömsesidig kollisionsundvikelse (NH-ORCA) bygger på de begrepp som infördes [2], men garanterar ytterligare smidiga och kollisionsfria rörelser under icke-holonomiska begränsningar. Optimala styringångar och begränsningar i hastighetsrymden är formellt härledda för de icke-holonomiska robotarna. De teoretiska resultaten valideras i flera kollisionsförsök med upp till fjorton e-puck-robotar på kollisionskurs. Även i scenarier med mycket trånga situationer, NH-ORCA visade sig vara kollisionsfri för alla tider. | Den senaste tidens framsteg när det gäller distribuerad kollisionsundvikande gav också en optimal metod som garanterar smidiga och kollisionsfria rörelser under icke-holonomiska begränsningar REF. | 17,699,054 | Optimal Reciprocal Collision Avoidance for Multiple Non-Holonomic Robots | {'venue': 'DARS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,760 |
RNA-interferens (RNAi) är en potent och specifi c mekanism för att reglera genuttryck. Att utnyttja RNAi för att tysta gener som är involverade i sjukdom ger löfte om utveckling av en ny klass av terapier. Leverans är nyckeln till att förverkliga potentialen av RNAi, och lipid nanopartiklar (LNP) har visat sig effektiv vid leverans av siRNAs till levern och till tumörer i djur. För att undersöka LNP- formade siRNAs aktivitet och säkerhet hos människa, initierade vi en studie av ALN- VSP, en LNP- formulering av siRNAs som riktar sig mot VEGF och kinesin spindleprotein (KSP), hos patienter med cancer. Här visar vi upptäckt av läkemedel i tumörbiopsier, siRNA-medierad mRNA-klyvning i levern, farmakodynamik som tyder på nedreglering av mål och antitumöraktivitet, inklusive fullständig regression av levermetastaser i endometriecancer. Dessutom visar vi att intravenös administrering av ALN-VSP varannan vecka var säker och väl tolererad. Dessa data ger bevis för RNAi-behandling hos människa och utgör grunden för vidare utveckling av cancer. Analyserna i denna rapport visar säkerhet, farmakokinetik, RNAi verkningsmekanism och klinisk aktivitet med en ny first-in-class LNP-formulerad RNAi-behandling hos patienter med cancer. Förmågan att utnyttja RNAi för att underlätta specifi c multitargeting, samt öka antalet drogbara mål, har viktiga konsekvenser för framtida läkemedelsutveckling inom onkologi. Cancerdiskov; 3.4; 406-17. | Vid RNA-interferensterapi och läkemedelsutveckling har en första-i-human studie genomförts på cancerpatienter som administrerades med lipidnanopartiklar (LNP) formulerade siRNA med inriktning mot VEGF och KSP REF. | 6,122,037 | First-in-Humans Trial of an RNA Interference Therapeutic Targeting VEGF and KSP in Cancer Patients with Liver Involvement | {'venue': 'Cancer discovery', 'journal': 'Cancer discovery', 'mag_field_of_study': ['Medicine', 'Biology']} | 4,761 |
I detta papper undersöker vi tekniker som möjliggör on-line uppdateringar till kolumnar databaser, vilket lämnar intakt deras höga lässkyddande prestanda. I stället för att hålla differentialstrukturer organiserade av tabellens nyckelvärden, är kärnförslaget i detta dokument att detta bättre kan göras genom att hålla reda på den tuple positionen av ändringarna. Detta minimerar inte bara den beräkningsmässiga overheaden av sammanslagning i skillnader i skrivskyddade frågor, men detta gör differentialstrukturen omedveten om värdet av ordertangenterna, vilket gör det möjligt att undvika disk I/O för att hämta ordertangenterna i lässkyddade frågor som annars inte behöver dem - en avgörande fördel för en kolumn-butik. Vi beskriver en ny datastruktur för att upprätthålla sådana positionsuppdateringar, som kallas Positional Delta Tree (PDT), och beskriver detaljerade algoritmer för sammanslagning av PDT/kolumn, uppdatering av PDT och för användning av PDT i transaktionshantering. I experiment med en kolumnar DBMS utför vi mikrobenchmarks på PDTs, och visar i en TPC-H arbetsbörda att PDTs tillåter snabba on-line uppdateringar, men avsevärt minska deras prestanda påverkan på läsbara frågor jämfört med klassiska värdebaserade differentialmetoder. Kategorier och ämnesdeskriptorer H.2.8 [Database Management]: Databastillämpningar Algoritmer, Experimentation, Performance Database systems som använder kolumnarlagring (DSM [8]) har nyligen återställt kommersiella och forskningsmässiga momentum [22, 3, 21], särskilt för prestandaintensiva läs mest tillämpningsområden som datalagring, eftersom de kan avsevärt minska kostnaden för disk I/O med avseende på radvis disklagring (NSM). Moderna kolumnar data lagringssystem dessutom använder tekniker som comPrmission att göra digitala eller hårda kopior av hela eller en del av detta arbete för personligt eller klassrum användning beviljas utan avgift, förutsatt att kopior inte görs eller distribueras för vinst eller kommersiella fördelar och att kopior bär detta meddelande och den fullständiga hänvisning på första sidan. För att kopiera på annat sätt, för att återpublicera, för att posta på servrar eller för att omfördela till listor, krävs tidigare specifik behörighet och/eller avgift. SIGMOD'10, 6-11 juni 2010, Indianapolis, Indiana, USA. Upphovsrätt 2010 ACM 978-1-4503-0032-2/10/06...$10.00. Tryck, datakluster och replikering som gör dem verkligen läsvänliga och skriv-ovänliga. I detta dokument tar vi upp frågan hur sådana system fortfarande effektivt kan tillhandahålla uppdateringsfunktionalitet. Analytisk frågebörda inspekterar stora mängder tuples, men vanligtvis bara en liten delmängd av kolumnerna; därför kolumnar lagring undviker dataåtkomst (I/O, CPU-cache missar) för oanvända kolumner. Tre tekniker läggs ofta till för att ytterligare öka prestandan: För det första lagrar kolumnsystem ofta data i en viss ordning (eller klusterbildning), för att ytterligare minska kostnaderna för dataåtkomst när intervallpredikat används. För det andra, genom att använda flera kopior av sådana tabeller i olika order, mängden predikat i en frågebörda som kan dra nytta av denna ökning. Datakomprimering, slutligen, minskar kostnaden för dataåtkomst som behövs för att svara på en fråga, eftersom data blir mindre, och mer data passar i buffertpoolen när komprimeras, minska sidan miss förhållandet. Utmaningen inför uppdateringar i analytiska kolumn butiker är att en I/O per kolumn (replica) behövs, därav en enradig uppdatering som kan hanteras i en rad-lager med en enda disk I/O kommer att leda till många disk I/Os i en kolumn butik. Dessa I/O-skivor är utspridda (slumpmässiga) I/O-skivor, även om databasanvändarna bara gör infogar, på grund av den beställda eller klustrade bordslagringen. Slutligen gör komprimering uppdateringarna mer dyra och komplexa eftersom data måste dekomprimeras, uppdateras och återkomprimeras innan de skrivs tillbaka till disken. Extra komplikationer uppstår om uppdaterade data inte längre passar sin ursprungliga plats. Differentiella uppdateringar. Vissa analytiska kolumnar databassystem, såsom C-Store [22], hanterar uppdateringar genom att dela sin arkitektur i en "read-store" som hanterar huvuddelen av alla data och en "write-store" som hanterar uppdateringar som har gjorts nyligen. Följaktligen får alla frågor tillgång till både bastabellinformation från läs-lager, samt alla motsvarande skillnader från skriv-lager och slå samman dessa on-the-fly. Dessutom, för att hålla skrivaffären liten (den bor typiskt i RAM), förändringar i den regelbundet förökas i läse-butiken [22]. Ämnet för detta dokument är vad datastrukturer och algoritmer bör användas för att genomföra skriva-lager av en kolumn-orienterad databassystem som syftar till att stödja generiska uppdatering arbetsbelastningar (insert, tar bort, ändringar; batch eller trickle). Det naturliga "värdebaserade" sättet att implementera skrivaren är att hålla reda på vilka tuples som raderats, infogats eller modifierats i en RAM-baserad datastruktur som organiserar dessa objekt i sorteringsnyckeln (SK) ordning på den underliggande läs-lager tabellen och innehåller dessa nycklar; till exempel i ett RAM-vänligt B-träd [6]. En sådan data stru-543 | Författarna till REF använder också en särskild differentialbuffert för att förbättra uppdateringsprestandan i en kolumnbutik. | 1,467,593 | Positional update handling in column stores | {'venue': 'SIGMOD Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,762 |
Detta dokument visar användningen av radiala basnätverk (RBF), cellulära neurala nätverk (CNN) och genetisk algoritm (GA) för automatisk klassificering av växtblad. Ett genetiskt neuronal system häri försökte lösa några av de inneboende utmaningar som nuvarande programvara som används för växtblad klassificering. Bildsegmenteringsmodulen i detta arbete var genetiskt optimerad för att få framträdande egenskaper i de bilder av växtblad som användes i detta arbete. Kombinationen av GA-baserad CNN och RBF i detta arbete visade sig vara effektivare än de befintliga system som använder konventionella kantoperatörer som Canny, LoG, Prewitt och Sobel. Resultaten häri visade att GA-baserad CNN kantdetektor överträffar andra kantdetektorer när det gäller hastighet och klassificeringsnoggrannhet. | Oluleye m.fl. Ref kombinerade en GA-baserad CNN-kantdetektor och ett RBF-inlärningssystem för automatisk klassificering av växtblad. | 117,814,991 | A Neuronal Classification System for Plant Leaves Using Genetic Image Segmentation | {'venue': 'British Journal of Mathematics & Computer Science', 'journal': 'British Journal of Mathematics & Computer Science', 'mag_field_of_study': ['Mathematics']} | 4,763 |
Abstract-Det växande intresset för sakernas Internet (IoT) har resulterat i ett antal omfattande distributioner av IoT-undernätverk, där flera heterogena trådlösa kommunikationslösningar samexisterar: från flera åtkomsttekniker som cellulära, WiFi, ZigBee och Bluetooth, till multi-hop ad-hoc och MANET routing protokoll, de alla måste vara effektivt integrerade för att skapa en sömlös kommunikationsplattform. Att hantera dessa öppna, geografiskt spridda och heterogena nätverksinfrastrukturer, särskilt i dynamiska miljöer, är en viktig teknisk utmaning. För att dra full nytta av de många möjligheter de ger, tekniker för att samtidigt tillhandahålla de olika klasserna av IoT-trafik över en gemensam uppsättning av sensorer och nätverksresurser måste utformas. I detta dokument kommer vi att utforma en programvarudefinierad strategi för IoT-miljön för att dynamiskt uppnå differentierade kvalitetsnivåer till olika IoT-uppgifter i mycket heterogena trådlösa nätverksscenarier. För detta utökar vi Multinetwork INformation Architecture (MINA), en reflekterande (självobservation och anpassning via en förkroppsligad Observ-Analyze-Adapt loop) middleware med en skiktad IoT SDN controller. Den utvecklade IoT SDN controller ursprungligen i) innehåller och stöder kommandon för att differentiera flöde schemaläggning över aktivitetsnivå, multi-hop, och heterogen ad-hoc banor och ii) utnyttjar Network Calculus och Genetic Algorithms för att optimera användningen av för närvarande tillgängliga IoT-nätverk möjligheter. Vi har tillämpat den utökade MINA SDN-prototypen i det utmanande IoT-scenariot för storskalig integration av elfordon, elladdningsplatser, smarta nätinfrastrukturer och ett stort antal pilotanvändare, vilket är inriktat på Artemis Internet of Energy och Arrowhead-projekt. Preliminära simuleringsresultat indikerar att vårt tillvägagångssätt och det utvidgade MINA-systemet kan stödja ett effektivt utnyttjande av IoT:s multinätverkskapacitet. | Z-J Qin m.fl. REF utformar en programvarudefinierad metod för sakernas Internet (IOT), som syftar till att tillhandahålla olika uppgiftsnivåer i heterogena miljöer för olika uppgifter för IOT. | 3,330,146 | A Software Defined Networking architecture for the Internet-of-Things | {'venue': '2014 IEEE Network Operations and Management Symposium (NOMS)', 'journal': '2014 IEEE Network Operations and Management Symposium (NOMS)', 'mag_field_of_study': ['Computer Science']} | 4,764 |
Vektor-rymd ord representationer har varit mycket framgångsrik under de senaste åren på att förbättra prestanda för en mängd olika NLP uppgifter. Men, gemensamt för de flesta befintliga verk, ord betraktas som oberoende enheter utan något uttryckligt samband mellan morfologiskt relaterade ord som modelleras. Som ett resultat är sällsynta och komplexa ord ofta dåligt uppskattade, och alla okända ord representeras på ett ganska grovt sätt med bara en eller några vektorer. Detta dokument tar upp denna brist genom att föreslå en ny modell som kan skapa representationer för morfologiskt komplexa ord från deras morfem. Vi kombinerar rekursiva neurala nätverk (RNNs), där varje morpheme är en grundläggande enhet, med neurala språkmodeller (NLMs) att överväga kontextuell information i lärande morfologiskt medvetna ord representationer. Våra lärda modeller överträffar befintliga ordrepresentationer med god marginal på ordliknande uppgifter i många datauppsättningar, bland annat en ny datauppsättning som vi introducerar med fokus på sällsynta ord för att komplettera befintliga ord på ett intressant sätt. | REF skapade en hierarkisk språkmodell som använder RNN för att kombinera morphemes av ett ord för att få en ordrepresentation. | 14,276,764 | Better Word Representations with Recursive Neural Networks for Morphology | {'venue': 'CoNLL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,765 |
ABSTRACT Tillsammans med den snabba utvecklingen av kraven på mobila videotjänster medför den dramatiska ökningen av videoströmningstrafiken en tung börda för mobilnäten. Mobile edge computing (MEC) har blivit ett lovande paradigm för att förbättra mobilnäten genom att tillhandahålla molntjänster inom radioaccessnätet (RAN). Med förmågan av innehåll caching och sammanhangsmedvetenhet, MEC skulle kunna ge låg-latens och adaptiv-bitrate video streaming för att förbättra tjänsten ger förmåga av RAN. I detta dokument föreslår vi en MEC förbättrad adaptiv bitrate (ABR) video leveranssystem, som kombinerar innehåll caching och ABR streaming teknik tillsammans. MEC-servern fungerar som en styrkomponent för att genomföra videocachestrategin och justera den överförda bitrateversionen av videor flexibelt. Ett Stackelberg spel är formulerat för att hantera de lagringsresurser som tas upp av varje basstation. Den gemensamma fördelningen av cache- och radioresurser (JCRA) hanteras i ett matchande problem. Vi föreslår JCRA-algoritmen för att lösa matchningsproblemet för att göra samarbetet mellan cache- och radioresurser. Simuleringsresultat visar att det föreslagna systemet skulle kunna förbättra både förhållandet cache hit och systemet genomströmning över andra system. INDEX TERMS MEC, innehåll caching, adaptiv bitrate streaming, Stackelberg spel, matchande teori. | Referensreferensreferensen föreslog en MEC-förstärkt adaptiv bitrate (ABR) video leveranssystem som kombinerar innehåll caching och ABR streaming-teknik. | 35,032,208 | Mobile Edge Computing Enhanced Adaptive Bitrate Video Delivery With Joint Cache and Radio Resource Allocation | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 4,766 |
Abstract-En ny metod för att känna igen iris i det mänskliga ögat presenteras. Noll-crossings av wavelet transform på olika upplösningsnivåer beräknas över koncentriska cirklar på iris, och de resulterande endimensionella (1-D) signaler jämförs med modellfunktioner med hjälp av olika olikhet funktioner. | Boles och Boashsh REF föreslog ett tillvägagångssätt baserat på nollkorsningar av den endimensionella (1-D) vågbrytaren transformerar på olika upplösningsnivåer. | 17,847,612 | A Human Identification Technique Using Images of the Iris and Wavelet Transform | {'venue': 'IEEE Transactions on Signal Processing', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 4,767 |
ABSTRACT Den omfattande användningen av mobila intelligenta enheter, såsom smarta telefoner och surfplattor, skapar nya möjligheter och utmaningar för beräkning av avlastning. Avlastning av uppgifter är en viktig fråga i ett system som består av flera typer av enheter, såsom mobila intelligenta enheter, lokala kantvärdar och en fjärrmolnserver. I detta dokument studerar vi avlastningen av flera ansökningar, var och en bestående av flera beroende uppgifter, i ett sådant system. För att utvärdera den totala kostnaden i avlastningsprocessen införs ett nytt mått för att ta hänsyn till olika enheters egenskaper. Fjärrservern och lokala värdar är mer oroade över deras processorer användning, medan mobila enheter ägna mer uppmärksamhet åt sin energi. Därför använder denna metriska relativa energiförbrukning för att beteckna kostnaden för mobila enheter, och utvärderar kostnaden för fjärrservern och lokala värdar av processorn cykel antal uppgift utförande. Vi formulerar problemet med avlastning för att minimera systemkostnaden för alla ansökningar inom varje ansökans fullbordade tidsfrist. Eftersom detta problem är NP-hård, den heuristiska algoritmen föreslås att avlasta dessa beroende uppgifter. Till en början ordnar vår algoritm alla uppgifter från olika applikationer i en prioriterad kö med tanke på både genomförda tidsgränser och krav på uppgiftsberoende. Sedan, baserat på den prioriterade kön, tilldelas alla uppgifter initialt enheter för att skydda mobila enheter med låg energi och göra dem överleva i uppdragsprocessen så länge som möjligt. Slutligen, för att få ett bättre schema som realiserar lägre systemkostnad, baserat på den relativa återstående energi mobila enheter, vi omfördelar uppgifter från högkostnadsenheter till lågkostnadsenheter för att minimera systemkostnaden. Simuleringsresultat visar att vår föreslagna algoritm ökar den lyckade sannolikheten för hela applikationer och minskar systemets kostnadseffektivitet under tids- och energibegränsningar. INDEX TERMS Avlastning, beroende uppgifter, mobil, kostnad. | Dessutom undersöks kostnaden baserad på relativ energiförbrukning under avlastningsprocessen REF. | 201,811,695 | Cost-Efficient Dependent Task Offloading for Multiusers | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 4,768 |
a) Blomman bilden är 3820 × 3820 bild (14,5 miljoner pixlar) och innehåller 3,7 miljoner icke-vita pixlar. Koordinaterna för dessa pixlar visas som färger i (b). Vi lagrar bilden i en hash tabell under en 0.99 belastningsfaktor: hash tabellen innehåller bara 3,73 miljoner poster. Dessa används som nycklar för hashing. c) Tabellen som erhålls med en typisk randomiserande hashfunktion: Nycklarna sprids slumpmässigt och all samstämmighet går förlorad. (d) Vår rumsligt sammanhängande hashtabell, byggd parallellt på GPU. Bordet är byggt i 15 ms på en GeForce GTX 480, och bilden rekonstrueras från haschet i 3,5 ms. De synliga strukturerna beror på bevarad samstämmighet. Detta översätts till snabbare åtkomst som granntrådar utföra liknande operationer och komma åt närliggande minne. (e) Grannstangenterna hålls samman under undersökningen, vilket förbättrar sammanhållningen i minnesåtkomsten till granntrådar. Nya rumsliga hashsystem har miljontals nycklar i parallella, kompakta glesa rumsliga data i små hashtabeller samtidigt som det fortfarande möjliggör snabb åtkomst från GPU. Tyvärr, tillgängliga system lider av två nackdelar: Flera körningar av byggprocessen krävs ofta innan framgång, och den slumpmässiga karaktären av hash funktioner minskar åtkomstprestanda. Vi inför ett nytt parallellt hashsystem som når hög belastningsfaktor med mycket låg felfrekvens. Dessutom har vårt system den unika fördelen att utnyttja samstämmighet i data och åtkomstmönster för snabbare prestanda. Jämfört med befintliga metoder, uppvisar den mycket större lokalitet av minnesåtkomst och konsekvent utförande vägar inom grupper av trådar. Detta är särskilt väl lämpat för datorgrafikapplikationer, där rumslig sammanhållning är vanligt förekommande. I brist på samstämmighet vårt system fungerar på samma sätt som tidigare metoder, men lider inte av byggfel. Vår plan är baserad på Robin Hood-systemet modifierat för att snabbt avbryta frågor om nycklar som inte finns i tabellen, och för att bevara samstämmigheten. Vi demonstrerar vårt system på en mängd olika dataset. Vi analyserar konstruktion och åtkomst prestanda, samt cache och trådar beteende. | García m.fl. REF förbättrar datakonsistensen och konstruktionshastigheten för rumslig hashning genom att använda sammanhängande hashfunktioner och parallellkonstruktion på en GPU. | 714,267 | Coherent parallel hashing | {'venue': "SA '11", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,769 |
En bra testsvit är en som upptäcker riktiga fel. Eftersom uppsättningen fel i ett program vanligtvis är ovetande, är denna definition inte användbar för utövare som skapar testsviter, inte heller för forskare som skapar och utvärderar verktyg som genererar testsviter. I stället för verkliga fel, testa forskning använder ofta mutanter, som är konstgjorda fel - var och en en en enkel syntaktisk variation - som systematiskt sås genom hela programmet under test. Mutation analys är tilltalande eftersom ett stort antal mutanter kan genereras automatiskt och användas för att kompensera för låga mängder eller avsaknad av kända verkliga fel. Tyvärr finns det få experimentella bevis för att stödja användningen av mutanter som ersättning för verkliga fel. I detta dokument undersöks om mutanter verkligen är en giltig ersättning för verkliga fel, dvs. om en testsvits förmåga att upptäcka mutanter är korrelerad med dess förmåga att upptäcka verkliga fel som utvecklarna har åtgärdat. Till skillnad från tidigare studier tar dessa undersökningar också uttryckligen hänsyn till de sammanflätande effekterna av kodtäckning på detektionshastigheten hos mutanter. Våra experiment använde 357 verkliga fel i 5 open-source applikationer som omfattar totalt 321000 rader kod. Dessutom använde våra experiment både utvecklar-skrivna och automatiskt genererade testsviter. Resultaten visar en statistiskt signifikant korrelation mellan mutationsdetektering och verklig feldetektering, oberoende av kodtäckning. Resultaten ger också konkreta förslag på hur man kan förbättra mutationsanalys och avslöja vissa inneboende begränsningar. | Bara ett par stycken. REF korrelerad mutationsdetektering och verklig feldetektering med hjälp av automatiskt och manuellt genererade testsviter. | 10,967,695 | Are mutants a valid substitute for real faults in software testing? | {'venue': 'FSE 2014', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,770 |
Multivariat tidsserieprognoser är ett viktigt maskininlärningsproblem inom många områden, inklusive förutsägelser om solenergiproduktion, elförbrukning och trafikstockningssituation. Temporal data uppstår i dessa realworld applikationer ofta innebär en blandning av långsiktiga och kortsiktiga mönster, för vilka traditionella metoder som Autoregressiva modeller och Gaussian Process kan misslyckas. I detta dokument föreslog vi en ny ram för djupt lärande, nämligen nätverket för långsiktiga och kortsiktiga tidsserier (LSTNet), för att ta itu med denna öppna utmaning. LSTNet använder Convolution Neural Network (CNN) för att extrahera kortsiktiga lokala beroendemönster bland variabler, och Recurrent Neural Network (RNN) för att upptäcka långsiktiga mönster och trender. I vår utvärdering av verkliga data med komplexa blandningar av repetitiva mönster, LSTNet uppnått betydande prestandaförbättringar jämfört med flera state-of-the-art baslinjemetoder. Datauppsättningen och experimentkoden laddas upp till Github. | En annan multivariat tidsserie modellering ram föreslås av Lai et al. REF, nämligen LSTNet, som kombinerar CNN och RNN för att extrahera hierarkiska kortsiktiga och långsiktiga tidsberoenden från tidsserierna. | 4,922,476 | Modeling Long- and Short-Term Temporal Patterns with Deep Neural Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 4,771 |
Språkmodell (LM) förutbildning har resulterat i imponerande prestanda och urval effektivitet på en mängd olika språkförståelse uppgifter. Det är dock fortfarande oklart hur man bäst kan använda förtränade LMs för generering uppgifter såsom abstrakt sammanfattning, särskilt för att öka proveffektivitet. I dessa sekvens-till-sekvens inställningar, tidigare arbete har experimenterat med att ladda förtränade vikter i kodare och / eller dekoder nätverk, men använt icke-förtränade kodare-avkodare uppmärksamhet vikter. Vi använder istället ett pre-utbildad dekoder-endast nätverk, där samma Transformer LM både kodar källan och genererar sammanfattningen. Detta säkerställer att alla parametrar i nätverket, inklusive de som styr uppmärksamheten över källstater, har förskolats före finjusteringssteget. Experiment på datauppsättningen CNN/Daily Mail visar att vår förtränade Transformer LM avsevärt förbättrar över förtränade Transformer encoder-dekodernätverk i begränsade datainställningar. Till exempel uppnår den 13,1 ROUGE-2 med endast 1% av träningsdata (3000 exempel), medan förtränade enkoder-dekoder modeller poäng 2,3 ROUGE-2. | För att lösa problemet att encoder-dekoder uppmärksamheten inte är förträngd, REF förträngde en enda transformator språkmodell som kodar källan och genererar målet. | 162,169,061 | Sample Efficient Text Summarization Using a Single Pre-Trained Transformer | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 4,772 |
Säkerhetsproblem är avgörande i ett antal tillämpningar för maskininlärning, särskilt i scenarier som handlar om mänsklig aktivitet snarare än naturfenomen (t.ex. informationsrankning, skräppostdetektering, malware upptäckt, etc.). Det kan förväntas i sådana fall att inlärningsalgoritmer kommer att behöva hantera manipulerade data som syftar till att hindra beslutsfattandet. Även om vissa tidigare arbete tog itu med hanteringen av skadliga data i samband med övervakad lärande, mycket lite är känt om beteendet hos anomali detektionsmetoder i sådana scenarier. I detta bidrag, 1 vi analysera prestandan av en viss metod -online centroid anomali detektion - i närvaro av motstående buller. Vår analys behandlar följande säkerhetsrelaterade frågor: formalisering av inlärnings- och attackprocesser, härledning av en optimal attack, analys av dess effektivitet och begränsningar. Vi härleder gränser på effektiviteten av en förgiftning attack mot centroid anomali under olika förhållanden: avgränsade och obundna procent av trafiken, och avgränsade falska positiva hastighet. Våra gränser visar att även om en förgiftningsattack effektivt kan iscensättas i det oöverskådliga fallet, kan det göras godtyckligt svårt (en strikt övre gräns för angriparens vinst) om yttre begränsningar används på rätt sätt. Vår experimentella utvärdering av verkliga HTTP och utnyttja spår bekräftar att våra teoretiska gränser och praktiska skyddsmekanismer är snäva. | Teoretisk online centroid anomali detektion analys har diskuterats i REF. | 74,481 | Security Analysis of Online Centroid Anomaly Detection | {'venue': None, 'journal': 'arXiv: Machine Learning', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 4,773 |
Informationen om den genetiska grunden för mänskliga sjukdomar ligger i hjärtat av precisionsmedicin och läkemedelsupptäckt. Men för att förverkliga sin fulla potential att stödja dessa mål, flera problem, såsom fragmentering, heterogenitet, tillgänglighet och olika konceptualisering av data måste övervinnas. För att ge samhället en resurs fri från dessa hinder har vi utvecklat DisGeNET (http://www.disgenet.org), en av de största tillgängliga samlingarna av gener och varianter som är involverade i sjukdomar hos människor. DisGeNET integrerar data från expertcurerade arkiv, GWAS-kataloger, djurmodeller och den vetenskapliga litteraturen. DisGeNET-data är homogent kommenterade med kontrollerade ordförråd och samhällsdrivna ontologier. Dessutom ges flera ursprungliga mätvärden för att underlätta prioriteringen av genotyp-fenotyp förhållanden. Informationen är tillgänglig via ett webbgränssnitt, en Cytoscape App, en RDF SPARQL-slutpunkt, skript på flera programmeringsspråk och ett R-paket. DisGeNET är en mångsidig plattform som kan användas för olika forskningsändamål, bland annat för att undersöka den molekylära grunden för specifika mänskliga sjukdomar och deras komorbiditeter, analys av sjukdomsgeners egenskaper, generering av hypoteser om läkemedelsterapeutisk verkan och läkemedelsbiverkningar, validering av beräkningsförutsedda sjukdomsgener och utvärdering av metoder för textminering. | Slutligen gör det möjligt att utforska den genetiska grunden för sjukdomskomorbiditeter genom analys av gensjukdomar associationsdata från DisGeNET REF, eller från gensjukdomar associationsdata som tillhandahålls av användaren. | 6,765,130 | DisGeNET: a comprehensive platform integrating information on human disease-associated genes and variants | {'venue': 'Nucleic Acids Research', 'journal': 'Nucleic Acids Research', 'mag_field_of_study': ['Medicine', 'Biology', 'Computer Science']} | 4,774 |
Trådlösa sensornätverk (WSN) används för att observera verkliga fenomen. Det är viktigt att sensornoder (SN) måste synkroniseras till en gemensam tid för att exakt kartlägga de data som samlas in av SNs. Klocka synkronisering är mycket utmanande i WSNs eftersom sensornätverken är resursbegränsade nätverk. Det är viktigt att klocksynkronisering protokoll utformade för WSNs måste vara låg vikt dvs.. SN:er måste synkroniseras med färre synkroniseringsmeddelanden. I detta papper, föreslår vi ett klocksynkronisering protokoll för WSNs där först av alla kluster huvuden (CHs) synkroniseras med handfatet och sedan kluster noder (CNs) synkroniseras med sina respektive CHs. CNs synkroniseras med hjälp av tidssynkroniseringsnod (TSN) som väljs av respektive CHs. Simuleringsresultat visar att det föreslagna protokollet kräver betydligt färre synkroniseringsmeddelanden jämfört med protokollet för referenssynkronisering (RBS) och metoden för minsta variansen opartisk uppskattning (MUVE). Clock skew korrigeringsmekanism tillämpas i föreslagna protokoll garanterar långsiktig stabilitet och därmed minskar re-synkroniseringsfrekvensen och därmed bevara mer energi. | Upphovsmän till REF föreslog ett synkroniseringsprotokoll där klusterhuvuden synkroniseras med diskbänken parvis och klusternoderna därefter synkroniseras med sina respektive klusterhuvuden per sändning. | 60,697,295 | Adaptive Time Synchronization for Homogeneous WSNs | {'venue': None, 'journal': 'International Journal of Engineering Business Management', 'mag_field_of_study': ['Computer Science']} | 4,775 |
De senaste modellerna för gemensamt erkännande och relationsutdragning bygger i hög grad på externa verktyg för bearbetning av naturligt språk (NLP) såsom POS (del av tal) taggers och beroendetolkar. Därför är prestandan hos sådana gemensamma modeller beroende av kvaliteten på de funktioner som erhålls från dessa NLP-verktyg. Dessa egenskaper är dock inte alltid korrekta för olika språk och sammanhang. I detta dokument föreslår vi en gemensam neural modell som utför enhetsigenkänning och relation extraktion samtidigt, utan behov av några manuellt extraherade funktioner eller användning av något externt verktyg. Specifikt modellerar vi enhetsigenkänningsuppgiften med hjälp av ett CRF-skikt (Conditional Random Fields) och relationsextraheringsuppgiften som ett multi-head urvalsproblem (dvs. potentiellt identifiera flera relationer för varje enhet). Vi presenterar en omfattande experimentell installation, för att visa effektiviteten av vår metod med hjälp av datauppsättningar från olika sammanhang (dvs. nyheter, biomedicinska, fastigheter) och språk (dvs. engelska, holländska). Vår modell överträffar de tidigare neurala modeller som använder automatiskt extraherade funktioner, medan den utför inom en rimlig marginal av funktionsbaserade neurala modeller, eller till och med slår dem. | Bekoulis m.fl. (2017) REF föreslår en gemensam neural modell som utför enhetsigenkänning och relationsextraktion samtidigt, utan behov av manuellt extraherade funktioner eller användning av något externt verktyg. | 5,112,317 | Joint entity recognition and relation extraction as a multi-head selection problem | {'venue': 'Expert Systems with Applications, Volume 114, 30 December 2018, Pages 34-45, ISSN 0957-4174', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,776 |
Abstract-Software är vanligtvis komplext och alltid ogripbart. I praktiken är utvecklings- och underhållsprocesser tidsödande aktiviteter främst på grund av att programvara är svårhanterlig. Grafisk visualisering av programvara har potential att resultera i en bättre och snabbare förståelse av dess design och funktionalitet, vilket sparar tid och ger värdefull information för att förbättra dess kvalitet. Visualisera programvara är dock inte en lätt uppgift på grund av den enorma mängden information som ingår i programvaran. Dessutom ökar informationsinnehållet betydligt när tidsdimensionen för att visualisera utvecklingen av programvaran beaktas. Människans uppfattning om information och kognitiva faktorer måste därför beaktas för att förbättra visualiseringens begriplighet. I detta dokument undersöker visualiseringstekniker, både 2D- och 3D-baserade, som representerar de statiska aspekterna av programvaran och dess utveckling. Vi kategoriserar dessa tekniker efter de frågor de fokuserar på, för att hjälpa till att jämföra dem och identifiera de mest relevanta teknikerna och verktygen för ett givet problem. | Detta beslut träder i kraft dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. publicerade en undersökning med en översikt över visualisering av de statiska aspekterna av programvara, inklusive visualisering tekniker för mjukvarusystemutveckling REF. | 5,358,365 | Visualization of the Static Aspects of Software: A Survey | {'venue': 'IEEE Transactions on Visualization and Computer Graphics', 'journal': 'IEEE Transactions on Visualization and Computer Graphics', 'mag_field_of_study': ['Medicine', 'Computer Science']} | 4,777 |
Abstract I århundraden har musik delats och kommits ihåg av två traditioner: aural överföring och i form av skriftliga dokument som normalt kallas musikaliska poäng. Många av dessa skaror finns i form av opublicerade manuskript, och därför riskerar de att gå förlorade genom tidens normala härjningar. För att bevara musiken krävs någon form av typsättning eller helst ett datorsystem som automatiskt kan avkoda de symboliska bilderna och skapa nya poäng. Program liknande optiska karaktärsigenkänningssystem som kallas optiska musikigenkänningssystem (OMR) har varit under intensiv utveckling i många år. Resultaten hittills är dock långt ifrån idealiska. Var och en av de föreslagna metoderna betonar olika egenskaper och gör det därför svårt att effektivt utvärdera dess konkurrensfördelar. Denna artikel ger en översikt över litteraturen om automatisk analys av bilder av tryckta och handskrivna musikresultat. För självförsörjning och för läsarens skull föregår en introduktion till OMR-behandlingssystem litteraturöversikten. Följande studie | Optiska musikigenkänningssystem (OMR) består av tre huvudsteg, nämligen bildförbehandling, symboligenkänning och musikalisk rekonstruktion REF. | 12,964,479 | Optical music recognition: state-of-the-art and open issues | {'venue': 'International Journal of Multimedia Information Retrieval', 'journal': 'International Journal of Multimedia Information Retrieval', 'mag_field_of_study': ['Computer Science']} | 4,778 |
Det finns två stora typer av osäkerhet man kan modellera. Aleatorisk osäkerhet fångar buller som ingår i observationerna. Å andra sidan förklarar den epistemiska osäkerheten osäkerheten i modellens osäkerhet som kan förklaras bort med tillräckligt med data. Traditionellt har det varit svårt att modellera epistemisk osäkerhet i datorseendet, men med nya Bayesianska djupinlärningsverktyg är detta nu möjligt. Vi studerar fördelarna med att modellera epistemisk vs. aleatorisk osäkerhet i Bayesian djupt lärande modeller för vision uppgifter. För detta presenterar vi en Bayesiansk ram för djupt lärande som kombinerar input-beroende aleatorisk osäkerhet tillsammans med epistemisk osäkerhet. Vi studerar modeller inom ramen med per-pixel semantiska segmentering och djup regressionsuppgifter. Dessutom leder vår explicita osäkerhetsformulering till nya förlustfunktioner för dessa uppgifter, som kan tolkas som inlärd dämpning. Detta gör förlusten mer robust mot bullriga data, vilket också ger nya state-of-the-art resultat på segmentering och djup regression riktmärken. | Betydelsen av modellosäkerhet betonas också i arbetet inom Ref. | 71,134 | What Uncertainties Do We Need in Bayesian Deep Learning for Computer Vision? | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 4,779 |
Spridningen av nätverksdata inom olika tillämpningsområden har väckt oro för den personliga integriteten för de berörda personerna. Nya studier visar att helt enkelt ta bort identiteterna på noderna innan publiceringen av grafen / sociala nätverksdata inte garanterar integritet. Strukturen på själva grafen, och i dess grundläggande form graden av noderna, kan vara att avslöja identiteter individer. För att ta itu med detta problem studerar vi ett specifikt grafanonymiseringsproblem. Vi kallar en graf k-grad anonym om för varje nod v, det finns minst k −1 andra noder i grafen med samma grad som v. Denna definition av anonymitet förhindrar åter-identifiering av individer av motståndare med en förkunskaper om graden av vissa noder. Vi definierar formellt graf-anonymisering problem som, med tanke på en graf G, ber om k-grad anonym graf som härrör från G med det minsta antalet graf-modifiering operationer. Vi utformar enkla och effektiva algoritmer för att lösa detta problem. Våra algoritmer är baserade på principer relaterade till möjligheten att realisera examenssekvenser. Vi tillämpar våra metoder på ett stort spektrum av syntetiska och verkliga dataset och visar deras effektivitet och praktiska nytta. | Av särskild betydelse var arbetet av Liu och Terzi REF som syftade till att göra grafer k-grad anonyma, så att en motståndare som hade kunskap om graden av en mål nod skulle hitta minst k noder i den frigjorda grafen dela denna grad. | 207,167,634 | Towards identity anonymization on graphs | {'venue': 'SIGMOD Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,780 |
Abstract-Mobile edge computing är en ny teknik för att erbjuda resursintensiva men fördröjda applikationer från utkanten av mobila nätverk, där en stor utmaning är att fördela begränsade kantresurser till konkurrerande krav. Även om tidigare arbeten ofta innebär ett förenklat antagande om att resurser som tilldelas olika användare inte är skarbara, finns detta antagande inte för lagringsresurser, där användare som är intresserade av tjänster (t.ex. dataanalys) baserat på samma uppsättning data/kod kan dela lagringsresurser. Under tiden, servar varje användare begäran också förbrukar icke-sharable resurser (t.ex., CPU cykler, bandbredd). Vi studerar optimal tillhandahållande av kanttjänster med icke-triviala krav på både sharable (lagring) och icke-sharable (kommunikation, beräkning) resurser via gemensam tjänst placering och begäran schemaläggning. I det homogena fallet visar vi att medan problemet är polynom-tid solvable utan lagring begränsningar, är det NP-hård även om varje kant moln har obegränsad kommunikation eller beräkningsresurser. Vi visar vidare att hårdheten orsakas av tjänsteplacering subproblem, medan begäran schemaläggning subproblem är polynom-tid solvable via maximalflöde algoritmer. I det allmänna fallet är båda delproblemen NP-hårda. Vi utvecklar en konstant-faktor approximationsalgoritm för homogena fall och effektiv heuristik för det allmänna fallet. Våra spårdrivna simuleringar visar att de föreslagna algoritmerna, särskilt approximationsalgoritmen, kan uppnå nästan optimala prestanda, vilket motsvarar 2-3 gånger fler förfrågningar än en baslinjelösning som optimerar placering av tjänster och begär schemaläggning separat. | Han och Al. REF mildrar det långvariga antagandet att lagringsresurserna inte kan delas och studerar den optimala fördelningen av både delade och icke-delade resurser i en datormiljö med mobila kanter. | 44,091,731 | It's Hard to Share: Joint Service Placement and Request Scheduling in Edge Clouds with Sharable and Non-Sharable Resources | {'venue': '2018 IEEE 38th International Conference on Distributed Computing Systems (ICDCS)', 'journal': '2018 IEEE 38th International Conference on Distributed Computing Systems (ICDCS)', 'mag_field_of_study': ['Computer Science']} | 4,781 |
Abstrakt. Det finns ett växande intresse för kvantitativa teorier om informationsflödet i en mängd olika sammanhang, såsom säkert informationsflöde, anonymitetsprotokoll och sidokanalsanalys. Sådana teorier erbjuder ett attraktivt sätt att slappna av standard icke-interferens egenskaper, låta oss tolerera "små" läckor som är nödvändiga i praktiken. Det framväxande samförståndet är att det kvantitativa informationsflödet bör bygga på begreppen Shannon entropi och ömsesidig information. Men en användbar teori om kvantitativt informationsflöde måste ge lämpliga säkerhetsgarantier: om teorin säger att en attack läcker x bitar av hemlig information, då x bör vara användbar för att beräkna gränser på det resulterande hotet. I detta dokument fokuserar vi på hotet att en attack kommer att göra det möjligt att gissa hemligheten korrekt i ett försök. När det gäller denna hotmodell hävdar vi att samförståndsdefinitionerna faktiskt inte ger goda säkerhetsgarantier – problemet är att en slumpmässig variabel kan ha godtyckligt stor Shannonentropi även om den är mycket sårbar för gissningar. Vi undersöker sedan en alternativ grund baserad på ett begrepp om sårbarhet (nära relaterade till Bayes risk) och som mäter osäkerhet med Rényis min-entropi, snarare än Shannon entropy. | Kvantitativa teorier om informationsflödessäkerhet gör det möjligt att begränsa hur mycket information som faktiskt läcker ut REF. | 6,680,444 | On the Foundations of Quantitative Information Flow | {'venue': 'FoSSaCS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 4,782 |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.